KR102339662B1 - Image photographing apparatus and control methods thereof - Google Patents
Image photographing apparatus and control methods thereof Download PDFInfo
- Publication number
- KR102339662B1 KR102339662B1 KR1020150052446A KR20150052446A KR102339662B1 KR 102339662 B1 KR102339662 B1 KR 102339662B1 KR 1020150052446 A KR1020150052446 A KR 1020150052446A KR 20150052446 A KR20150052446 A KR 20150052446A KR 102339662 B1 KR102339662 B1 KR 102339662B1
- Authority
- KR
- South Korea
- Prior art keywords
- sub
- region
- lens
- pair
- interest
- Prior art date
Links
Images
Classifications
-
- H04N5/23212—
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/28—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for polarising
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/50—Optics for phase object visualisation
- G02B27/52—Phase contrast optics
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03B—APPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
- G03B3/00—Focusing arrangements of general interest for cameras, projectors or printers
- G03B3/10—Power-operated focusing
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
촬영 장치가 개시된다. 본 촬영 장치는, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서 및 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서를 포함한다. 그에 따라, 사용자의 편의성이 증대된다.A photographing apparatus is disclosed. The photographing apparatus includes an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens and a plurality of phase sensing pixels for detecting a phase, and a region of interest among the image sensors Divide into a plurality of sub-ROIs, calculate disparity information on a subject corresponding to each of the plurality of sub-ROIs by using a phase detection pixel included in each of the plurality of sub-ROIs, and and a processor for determining a focal region within the region of interest based on parity information. Accordingly, the user's convenience is increased.
Description
본 발명은 촬영 장치 및 그 제어 방법에 대한 것으로, 더욱 상세하게는 초점 영역을 자동으로 결정하여 피사체를 촬영하기 위한 촬영 장치 및 그 제어 방법에 대한 것이다.The present invention relates to a photographing apparatus and a method for controlling the same, and more particularly, to a photographing apparatus for photographing a subject by automatically determining a focus area and a method for controlling the same.
일반적으로, 초점을 맞추는 방식에는 콘트라스트 검출 방식(Contrast Auto Focus)과 위상차 검출 방식(Phase Auto Focus)이 있다.In general, focusing methods include a contrast detection method and a phase difference detection method (Phase Auto Focus).
도 1a는 콘트라스트 검출 방식을 설명하기 위한 도면이다. 콘트라스트 검출 방식은 초점이 정확한 사진은 윤곽이 뚜렷하여 콘트라스트가 올라가고, 반대로 초점이 맞지 않은 사진은 윤곽이 흐려져서 콘트라스트가 내려가는데, 이 특성을 이용하여 콘트라스트가 가장 높은 위치까지 렌즈 위치를 조정하는 것이다. 즉, 렌즈의 위치를 변경하면서 각 위치에 대한 콘트라스트를 측정하고 콘트라스트가 가장 높은 렌즈의 위치로 렌즈를 조정하여 초점을 맞추게 된다.1A is a diagram for explaining a contrast detection method. The contrast detection method is to adjust the lens position up to the position with the highest contrast by using this characteristic, in which the contour of an accurate-focused picture is clear and the contrast rises. That is, while changing the position of the lens, the contrast for each position is measured, and the lens is adjusted to the position of the lens having the highest contrast to achieve focus.
도 1b는 위상차 검출 방식을 설명하기 위한 도면이다. 위상차 검출 방식은 한 이미지 내에서 위상 감지 픽셀 간의 위상차를 이용하여 초점이 어느 정도 맞았는지를 판단한 후, 실제 포커스 위치를 검출해내는 방식이다.1B is a diagram for explaining a phase difference detection method. The phase difference detection method is a method of detecting the actual focus position after determining to what extent the focus is achieved by using the phase difference between the phase detection pixels in one image.
소형 카메라는 콘트라스트 검출 방식을 이용하였으나, 속도가 느리다는 단점이 있었고, DSLR(Digital Single-Lens Reflex)은 위상차 검출 방식을 이용하였으나, 콘트라스트 검출 방식에 비해 부정확하다는 단점이 있었다. 그에 따라, 최근에는 두 가지 방식을 혼합하여 초점을 구하는 방식이 개발되었다.Although the small camera used the contrast detection method, it had the disadvantage of being slow, and the DSLR (Digital Single-Lens Reflex) used the phase difference detection method, but had the disadvantage of being inaccurate compared to the contrast detection method. Accordingly, recently, a method for obtaining a focus by mixing the two methods has been developed.
다만, 두 가지 방식을 혼합하여 초점을 구하는 방식을 이용하더라도, DSLR은 도 2a와 같이 복수의 초점 영역을 제공하기 때문에 사용자가 복수의 초점 영역 중 어느 하나를 설정하지 않으면 원하는 피사체에 대한 초점을 맞출 수 없다는 문제가 있다. 즉, 초점을 맞추는 방식과 무관하게 초점 영역을 결정해야 하는 문제가 있다.However, even if the method of obtaining focus by mixing the two methods is used, since the DSLR provides a plurality of focus areas as shown in FIG. There is a problem that it cannot. That is, there is a problem in that a focus area must be determined regardless of a focusing method.
그리고, 소형 카메라에서는 도 2b와 같이 사람의 얼굴을 인식하여 초점 영역을 결정하는 기능이 제공될 수 있으나, 사람의 얼굴이 아니면 이러한 기능을 이용하는데 제약이 있다는 단점이 있다.In addition, a function of determining a focus area by recognizing a person's face may be provided in the small camera as shown in FIG. 2B, but there is a disadvantage in that there is a limitation in using such a function if it is not a human face.
또한, 소형 카메라의 경우 초점을 맞추기 위해 콘트라스트 검출 방식을 이용하면 도 1a와 같은 콘트라스트 값이 나올 수 있다. 이 경우 소형 카메라는 우측의 가장 높은 콘트라스트 값에 대응되는 렌즈 위치를 결정하게 된다. 다만, 이 경우에 사용자는 좌측의 두 번째로 높은 콘트라스트 값에 대응되는 렌즈 위치를 설정하고자 할 수도 있다. 이러한 문제점은 위상차 검출 방식을 추가적으로 이용한다고 해결할 수 있는 것은 아니며, 사용자가 원하는 피사체를 촬영할 수 없다는 문제가 있다.Also, in the case of a small camera, if a contrast detection method is used to focus, a contrast value as shown in FIG. 1A may be obtained. In this case, the small camera determines the lens position corresponding to the highest contrast value on the right. However, in this case, the user may want to set the lens position corresponding to the second highest contrast value from the left. This problem cannot be solved by additionally using the phase difference detection method, and there is a problem in that the subject cannot be photographed by the user.
본 발명은 상술한 문제점을 해결하기 위한 것으로, 본 발명의 목적은 복수의 피사체가 있는 경우에도 복수의 피사체에 대한 정보를 신속하게 분석하고 어느 하나의 피사체에 대한 초점 영역을 자동으로 결정하여 촬영을 수행하는 촬영 장치 및 그 제어 방법을 제공함에 있다.The present invention is to solve the above-described problems, and an object of the present invention is to quickly analyze information on a plurality of subjects even when there are a plurality of subjects and automatically determine a focus area for any one subject to perform shooting. An object of the present invention is to provide a photographing apparatus and a method for controlling the same.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 촬영 장치는, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서 및 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서를 포함한다.A photographing apparatus according to an embodiment of the present invention for achieving the above object includes a plurality of image pixels for detecting an image by collecting light input through a lens and a plurality of phase detection pixels for detecting a phase An image sensor and a region of interest among the image sensors are divided into a plurality of sub-regions of interest, and a phase detection pixel included in each of the plurality of sub-regions of interest is used to detect the plurality of sub-regions of interest. and a processor that calculates disparity information on the subject and determines a focus area within the ROI based on the disparity information.
또한, 상기 프로세서는, 상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 상기 관심 영역 내의 초점 영역을 결정할 수 있다.Also, the processor may calculate a movement distance and reliability information of the lens corresponding to the position of the lens based on the disparity information to determine a focus area within the ROI.
그리고, 상기 프로세서는, 상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할할 수 있다.In addition, the processor is configured to: a first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest; a second pair consisting of a left sub region of interest and a right sub region of interest of the region of interest; and an upper sub region of the region of interest. The ROI may be divided into a third pair including a region of interest and a lower sub region of interest.
또한, 상기 프로세서는, 상기 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하고, 상기 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the processor calculates a movement distance of the lens for focusing on the sub-ROIs included in the first pair to the third pair, and calculates a movement distance of the lens among the first pair to the third pair. By determining the pair having the largest difference, one sub-ROI among the pair having the largest difference in the movement distance of the lens may be determined as the focus region.
그리고, 디스플레이 및 사용자 입력을 수신하는 사용자 인터페이스부를 더 포함하고, 상기 프로세서는, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 상기 서브 관심 영역을 초점 영역으로 결정할 수 있다.And, further comprising a display and a user interface for receiving a user input, wherein the processor controls the display to display a UI indicating a pair having the largest difference in the movement distance of the lens, and the difference in the movement distance of the lens When a user input for selecting one of the largest pairs is received, the selected sub-ROI may be determined as a focus region.
또한, 상기 프로세서는, 상기 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 상기 인접한 서브 관심 영역을 그룹화하여, 상기 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the processor divides the ROI into M rows and N columns of the same size, and groups the adjacent sub ROIs when a difference in movement distance of the lens with respect to the adjacent sub ROIs is less than or equal to a preset size. , a focal region within the ROI may be determined.
그리고, 상기 프로세서는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In addition, the processor may determine, as the focus area, one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs.
또한, 상기 프로세서는, 상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.Also, the processor may group only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
그리고, 상기 렌즈의 이동 거리는, 상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the moving distance of the lens may be information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
또한, 상기 프로세서는, 상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the processor is configured to detect an image using two phase sensing pixels corresponding to each of the plurality of sub-ROIs, and cross-correlate the two images to calculate disparity information. can
한편, 본 발명의 일 실시 예에 따르면, 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함하는 이미지 센서를 구비한 촬영 장치의 제어 방법에 있어서, 상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하는 단계, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하는 단계 및 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계를 포함한다.Meanwhile, according to an embodiment of the present invention, the control of a photographing apparatus having an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens and a plurality of phase sensing pixels for detecting a phase In the method, dividing a region of interest in the image sensor into a plurality of sub-regions of interest; and calculating disparity information on a corresponding subject, and determining a focus area within the ROI based on the disparity information.
또한, 상기 초점 영역을 결정하는 단계는, 상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계 및 상기 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 상기 관심 영역 내의 초점 영역을 결정하는 단계를 포함할 수 있다.In addition, the determining of the focus area includes calculating a movement distance and reliability information of the lens corresponding to the position of the lens based on the disparity information, and using the movement distance and reliability information of the lens. determining a focal region within the region of interest.
그리고, 상기 복수의 서브 관심 영역으로 분할하는 단계는, 상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할할 수 있다.And, the dividing into the plurality of sub-ROIs may include a first pair of a central sub-ROI and a peripheral sub-ROI of the ROI, and a second pair of the left sub-ROI and the right sub-ROI of the ROI. The ROI may be divided into a third pair including a pair and an upper sub ROI and a lower sub ROI of the ROI.
또한, 상기 초점 영역을 결정하는 단계는, 상기 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하는 단계, 상기 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계 및 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계를 포함할 수 있다.In addition, the determining of the focus area includes calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair to the third pair, and the first pair to the third pair The method may include determining a pair having the largest difference in the movement distances of the lenses, and determining a sub-ROI of one of the pairs having the largest difference in the movement distances of the lenses as the focus area.
그리고, 상기 초점 영역을 결정하는 단계는, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계 및 선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 단계를 더 포함할 수 있다.In addition, the determining of the focus area includes displaying a UI indicating a pair having the largest difference in the movement distance of the lenses and receiving a user input for selecting one of the pair having the largest difference in the movement distance of the lenses The method may further include the step of: and determining the selected sub-ROI as a focus area.
또한, 상기 복수의 서브 관심 영역으로 분할하는 단계는, 상기 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 상기 초점 영역을 결정하는 단계는, 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 상기 인접한 서브 관심 영역을 그룹화하여, 상기 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the dividing the ROI into the plurality of sub ROIs includes dividing the ROI into M rows and N columns of the same size, and the determining of the focus region includes movement of the lens with respect to the adjacent sub ROIs. When the distance difference is equal to or less than a preset size, the adjacent sub-ROIs may be grouped to determine a focus area within the ROI.
그리고, 상기 초점 영역을 결정하는 단계는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In the determining of the focus area, one group among a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs grouped may be determined as the focus area.
또한, 상기 초점 영역을 결정하는 단계는, 상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.In addition, the determining of the focal region may include grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
그리고, 상기 렌즈의 이동 거리는, 상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the moving distance of the lens may be information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
또한, 상기 디스패리티 정보를 산출하는 단계는, 상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the calculating of the disparity information may include detecting an image using two phase sensing pixels corresponding to each of the plurality of sub-ROIs, and cross-correlating the two images to Disparity information may be calculated.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 촬영 장치는 좀더 신속하게 피사체에 대한 정보를 산출하고, 그에 따라 초점 영역을 자동으로 결정하여 사용자 만족도를 향상시킬 수 있다.According to various embodiments of the present disclosure as described above, the photographing apparatus may more rapidly calculate information about a subject, and automatically determine a focus area accordingly, thereby improving user satisfaction.
도 1은 콘트라스트 검출 방식 및 위상차 검출 방식을 설명하기 위한 도면이다.
도 2는 종래 초점 영역을 설정하는 방법의 문제점을 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 촬영 장치의 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시 예에 따른 이미지 센서를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시 예에 따른 관심 영역을 분할하여 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시 예에 따른 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법을 설명하기 위한 도면이다.
도 7 및 도 8은 본 발명의 일 실시 예에 따른 초점을 맞추기 위한 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시 예에 따른 관심 영역을 지정하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시 예에 따른 관심 영역이 이미지 센서 전체인 경우 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.
도 11은 본 발명의 일 실시 예에 따른 촬영 장치의 회로 구성을 도시한 블럭도이다.
도 12는 본 발명의 일 실시 예에 따른 렌즈의 이동 거리에 대한 정보를 보정하는 방법을 설명하기 위한 도면이다.
도 13은 본 발명의 일 실시 예에 따른 촬영 장치의 제어 방법을 설명하기 위한 순서도이다.1 is a diagram for explaining a contrast detection method and a phase difference detection method.
2 is a view for explaining a problem of a method of setting a focus area according to the related art.
3 is a block diagram illustrating a configuration of a photographing apparatus according to an embodiment of the present invention.
4 is a view for explaining an image sensor according to an embodiment of the present invention.
5 is a diagram for explaining a method of determining a focus area by dividing an ROI according to an embodiment of the present invention.
6 is a diagram for explaining a method of calculating a movement distance of a lens from disparity information according to an embodiment of the present invention.
7 and 8 are diagrams for explaining a method of calculating a moving distance and reliability information of a lens for focusing according to an embodiment of the present invention.
9 is a diagram for explaining a method of designating a region of interest according to an embodiment of the present invention.
10 is a diagram for explaining a method of determining a focus area when an ROI is the entire image sensor according to an embodiment of the present invention.
11 is a block diagram illustrating a circuit configuration of a photographing apparatus according to an embodiment of the present invention.
12 is a view for explaining a method of correcting information on a movement distance of a lens according to an embodiment of the present invention.
13 is a flowchart illustrating a method of controlling a photographing apparatus according to an embodiment of the present invention.
이하에서는 도면을 참조하여 본 발명에 대해 상세히 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
도 3은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 구성을 나타내는 블럭도이다.3 is a block diagram illustrating the configuration of a photographing
도 3a에 따르면, 촬영 장치(100)는 이미지 센서(110) 및 프로세서(120)를 포함한다. 도 3a에서는 본 발명의 다양한 실시 예에 따른 동작에 관여하는 구성요소들에 대해서만 도시하였으며, 나머지 세부 구성요소들에 대한 도시는 생략하였다.Referring to FIG. 3A , the photographing
이미지 센서(110)는 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지하는 복수의 이미지 픽셀 및 위상을 감지하는 복수의 위상 감지 픽셀을 포함할 수 있다. 이미지 센서(110)는 대부분의 영역이 이미지 픽셀로 구성되어 있어 이미지를 감지하는 역할을 한다. 그리고, 콘트라스트 검출 방식과 위상차 검출 방식에 기초하여 초점을 맞추기 위해, 이미지 센서(110)는 이미지 픽셀 사이에 일정 간격으로 위상 감지 픽셀을 포함할 수 있다. 이미지 센서(110)에 대한 구체적인 내용은 후술한다.The
프로세서(120)는 촬영 장치(100)의 전반적인 동작을 제어한다.The
프로세서(120)는 일반적으로 장치의 제어를 담당하는 구성으로, 중앙처리장치, 마이크로 프로세서, 제어부 등과 혼용될 수 있으며, 장치의 전반적인 동작을 제어할 수 있도록 하는 것으로 통신부 등 다른 기능부와 함께 단일칩 시스템 (System-on-a-chip 또는 System on chip, SOC, SoC)으로 구현될 수 있다.The
프로세서(120)는 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정할 수 있다.The
또한, 프로세서(120)는 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the
그리고, 프로세서(120)는 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 관심 영역을 분할할 수 있다.In addition, the
또한, 프로세서(120)는 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하고, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the
그리고, 촬영 장치(100)는 디스플레이 및 사용자 입력을 수신하는 사용자 인터페이스부를 더 포함하고, 프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 디스플레이를 제어하고, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 서브 관심 영역을 초점 영역으로 결정할 수 있다.In addition, the photographing
또한, 프로세서(120)는 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, the
그리고, 프로세서(120)는 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In addition, the
또한, 프로세서(120)는 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.Also, the
여기서, 렌즈의 이동 거리는, 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.Here, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method for focusing.
그리고, 프로세서(120)는 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.In addition, the
이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.Hereinafter, a basic configuration and various embodiments will be described to help the understanding of the present invention.
도 3b는 본 발명의 다른 실시 예에 따른 촬영 장치(100')의 세부 구성을 나타내는 블럭도이다. 도 3b에 따르면, 촬영 장치(100')는 이미지 센서(110), 프로세서(120), 디스플레이(130), 사용자 인터페이스부(140), 통신부(150), 저장부(155), 오디오 처리부(160), 이미지 처리부(170), 스피커(180), 버튼(181), 마이크(182)를 포함한다. 도 3b에 도시된 구성요소들 중 도 3a에 도시된 구성요소와 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.3B is a block diagram illustrating a detailed configuration of a photographing apparatus 100' according to another embodiment of the present invention. Referring to FIG. 3B , the photographing
프로세서(120)는 저장부(155)에 저장된 각종 프로그램을 이용하여 촬영 장치(100)의 동작을 전반적으로 제어한다. The
구체적으로, 프로세서(120)는 RAM(121), ROM(122), 메인 CPU(123), 그래픽 처리부(124), 제1 내지 n 인터페이스(125-1 ~ 125-n), 버스(126)를 포함한다.Specifically, the
RAM(121), ROM(122), 메인 CPU(123), 그래픽 처리부(124), 제1 내지 n 인터페이스(125-1 ~ 125-n) 등은 버스(126)를 통해 서로 연결될 수 있다. The
제1 내지 n 인터페이스(125-1 내지 125-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 125-1 to 125-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.
메인 CPU(123)는 저장부(155)에 액세스하여, 저장부(155)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 저장부(155)에 저장된 각종 프로그램 등을 이용하여 다양한 동작을 수행한다.The
ROM(122)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(123)는 ROM(122)에 저장된 명령어에 따라 저장부(155)에 저장된 O/S를 RAM(121)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(123)는 저장부(155)에 저장된 각종 어플리케이션 프로그램을 RAM(121)에 복사하고, RAM(121)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The
그래픽 처리부(124)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(130)의 디스플레이 영역 내에 표시된다.The
한편, 상술한 프로세서(120)의 동작은 저장부(155)에 저장된 프로그램에 의해 이루어질 수 있다.Meanwhile, the above-described operation of the
저장부(155)는 촬영 장치(100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스패리티 정보에 대응되는 렌즈의 이동거리 정보 및 신뢰도 정보, 관심 영역의 분할 방법에 대한 정보 및 사용자에게 제공될 UI 정보 등과 같이 다양한 데이터를 저장한다.The
이 경우 프로세서(120)는 저장부(155)에 저장된 정보에 기초하여 초점 영역의 설정, 초점을 맞추기 위한 렌즈 위치의 조정 및 다양한 UI를 디스플레이할 수 있다.In this case, the
사용자 인터페이스부(140)는 다양한 사용자 인터렉션(interaction)을 수신한다. 여기서, 사용자 인터페이스부(140)는 촬영 장치(100)의 구현 예에 따라 다양한 형태로 구현 가능하다. 촬영 장치(100)가 고가의 촬영 장치(100)인 경우 사용자 인터페이스부(140)는 원격 제어 장치로부터 리모콘 신호를 수신하는 리모콘 수신부, 사용자 음성을 수신하는 마이크 등으로 구현 가능하다. 또한, 촬영 장치(100)가 터치 기반의 휴대 단말로 구현되는 경우 사용자 인터페이스부(140)는 터치패드와 상호 레이어 구조를 이루는 터치 스크린 형태로 구현될 수도 있다. 이 경우, 사용자 인터페이스부(140)는 상술한 디스플레이(130)로 사용될 수 있게 된다.The
오디오 처리부(160)는 오디오 데이터에 대한 처리를 수행하는 구성요소이다. 오디오 처리부(160)에서는 오디오 데이터에 대한 디코딩이나 증폭, 노이즈 필터링 등과 같은 다양한 처리가 수행될 수 있다.The
비디오 처리부(170)는 비디오 데이터에 대한 처리를 수행하는 구성요소이다. 비디오 처리부(170)에서는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다. The
스피커(180)는 오디오 처리부(160)에서 처리된 각종 오디오 데이터 뿐만 아니라 각종 알림 음이나 음성 메시지 등을 출력하는 구성요소이다.The
버튼(181)은 촬영 장치(100)의 본체 외관의 전면부나 측면부, 배면부 등의 임의의 영역에 형성된 기계적 버튼, 터치 패드(210), 휠 등과 같은 다양한 유형의 버튼이 될 수 있다.The
마이크(182)는 사용자 음성이나 기타 소리를 입력받아 오디오 데이터로 변환하기 위한 구성이다. 마이크(182)는 사용자 음성으로부터 제어 신호를 생성할 수도 있다.The
이하에서는 본 발명의 이해를 돕기 위한 기본 구성과 다양한 실시 예에 대하여 설명한다.Hereinafter, a basic configuration and various embodiments will be described to help the understanding of the present invention.
도 4는 본 발명의 일 실시 예에 따른 이미지 센서(110)를 설명하기 위한 도면이다.4 is a diagram for explaining the
도 4에 따르면, 이미지 센서(110)는 복수의 이미지 픽셀 및 복수의 위상 감지 픽셀(410, 420)을 포함할 수 있다. 이미지 센서(110)는 대부분의 영역이 이미지 픽셀로 구성되어 있으며, 이미지 픽셀은 렌즈를 통하여 입력되는 광을 수집하여 이미지를 감지할 수 있다. 도 4에서는 위상차 픽셀이 일정 간격으로 거리를 두어 배치된 것으로 표현되었으나, 설명의 편의를 위한 것이며, 이미지 센서(110)에서 위상 감지 픽셀을 제외한 모든 영역에 이미지 픽셀이 배치될 수 있다.Referring to FIG. 4 , the
복수의 위상 감지 픽셀(410, 420)은 이미지 픽셀 사이에 일정 간격으로 배치되어 있으며, 피사체의 위상을 감지할 수 있다. 도 4는 이미지 센서(110)의 우측 상방에 위치한 복수의 픽셀 영역을 확대하여 나타내고 있으며, 복수의 픽셀 영역 중 복수의 위상 감지 픽셀(410, 420)을 제외한 나머지는 이미지 픽셀일 수 있다.The plurality of phase detection pixels 410 and 420 are disposed at regular intervals between image pixels, and may detect a phase of a subject. 4 shows an enlarged view of a plurality of pixel areas located on the upper right side of the
도 4와 같이 일정 간격으로 복수의 위상 감지 픽셀이 배치되어 사용자가 이미지 센서(110)의 어느 부분을 초점 영역으로 결정하더라도 초점 영역에 대응되는 복수의 위상 감지 픽셀을 이용하여 위상차 검출 방식을 이용한 초점을 설정할 수 있게 된다. 도 4에서 도시된 위상 감지 픽셀의 간격은 일 실시 예에 불과하며, 더 좁은 간격 또는 더 넓은 간격으로 위상 감지 픽셀이 배치될 수도 있다.As shown in FIG. 4 , since a plurality of phase detection pixels are arranged at regular intervals, even if a user determines which part of the
한편, 위상 감지 픽셀을 이용하여 초점을 설정하는 방법에 대하여는 후술한다.Meanwhile, a method of setting a focus using a phase sensing pixel will be described later.
도 5는 본 발명의 일 실시 예에 따른 관심 영역을 분할하여 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of determining a focus area by dividing an ROI according to an embodiment of the present invention.
도 5에 따르면, 프로세서(120)는 이미지 센서(110) 중 관심 영역(10)을 복수의 서브 관심 영역으로 분할할 수 있다. 여기서, 관심 영역(10)은 이미지 센서(110)의 전체일 수도 있고, 이미지 센서(110)의 일부일 수도 있다. 도 5에서는 관심 영역(10)이 이미지 센서(110)의 일부인 것으로 설명한다. 관심 영역(10)이 이미지 센서(110)의 전체인 경우는 후술한다.Referring to FIG. 5 , the
프로세서(120)는 관심 영역(10)의 중심 서브 관심 영역(11)과 주변 서브 관심 영역(12)으로 구성된 제1 쌍, 관심 영역(10)의 좌측 서브 관심 영역(13)과 우측 서브 관심 영역(14)으로 구성된 제2 쌍 및 관심 영역(10)의 상측 서브 관심 영역(15)과 하측 서브 관심 영역(16)으로 구성된 제3 쌍으로 관심 영역(10)을 분할할 수 있다. 다만, 이는 일 실시 예에 불과하고, 프로세서(120)는 각각의 서브 관심 영역이 중복되지 않도록 분할할 수도 있다.The
프로세서(120)는 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출할 수 있다. 디스패리티 정보는 복수의 위상 감지 픽셀에 의해 측정된 피사체 간의 위상차를 나타낸다. 예를 들어, 프로세서(120)는 중심 서브 관심 영역(11)에 대응되는 위상 감지 픽셀을 이용하여 디스패리티 정보를 산출할 수 있다. 이때, 중심 서브 관심 영역(11)에 대응되는 위상 감지 픽셀은 적어도 2 이상이다. 중심 서브 관심 영역(11)에 대응되는 제1 위상 감지 픽셀들에 의해 생성된 이미지와 제2 위상 감지 픽셀들에 의해 생성된 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다.The
프로세서(120)는 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정할 수 있다. 예를 들어, 프로세서(120)는 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들(11~16)에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하고, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정할 수 있다. 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법은 도 6에서 설명한다.The
프로세서(120)는 제1 쌍 내지 제3 쌍 중 어느 한 쌍의 렌즈의 이동 거리의 차이가 가장 크다고 판단할 수 있다. 예를 들어, 좌측 서브 관심 영역(13)의 이동 거리는 현재 렌즈의 위치로부터 -100 code이고, 우측 서브 관심 영역(14)의 이동 거리는 현재 렌즈의 위치로부터 100 code일 수 있고, 이 경우 제2 쌍의 렌즈의 이동 거리의 차이는 200 code일 수 있다. 이때, code는 렌즈의 위치를 나타내는 단위이다. 제1 쌍의 렌즈의 이동 거리의 차이가 100 code이고, 제3 쌍의 렌즈의 이동 거리의 차이가 134 code인 경우, 프로세서(120)는 제2 쌍의 렌즈의 이동 거리의 차이가 가장 크다고 판단할 수 있고, 좌측 서브 관심 영역(13) 또는 우측 서브 관심 영역(14) 중 어느 하나를 초점 영역으로 결정할 수 있다.The
이때, 렌즈의 이동 거리의 차이가 크다는 것은 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역에 위치한 피사체는 가까이에 있고, 다른 하나의 서브 관심 영역에 위치한 피사체는 멀리 있다는 것을 의미하며, 이를 원근경합이라고 한다. 프로세서(120)는 원근경합이 있는 어느 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역을 선택할 수 있으나, 이는 일 실시 예에 불과하고, 렌즈의 이동 거리의 차이가 가장 작은 한 쌍의 서브 관심 영역 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 구성도 가능하다.In this case, the large difference in the movement distance of the lenses means that the subject located in one sub-ROI of the pair of sub-ROIs is near and the subject located in the other sub-ROI is far away, and this results in perspective contention. It is said The
프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 피사체가 가까이에 위치한 서브 관심 영역을 초점 영역으로 결정할 수 있다. 렌즈의 위치는 약 0 ~ 500 code에 위치할 수 있고, 0 code에 가까울수록 먼 곳에 있는 피사체에 초점이 맞추어지고, 500 code에 가까울수록 가까운 곳에 있는 피사체에 초점이 맞게 된다. 이러한 특성을 이용하여, 프로세서(120)는 피사체가 가까이에 위치한 서브 관심 영역을 결정할 수 있게 된다. 다만, 이는 일 실시 예에 불과하고, 프로세서(120)는 피사체가 멀리 위치한 서브 관심 영역을 결정할 수도 있다.The
도 6은 본 발명의 일 실시 예에 따른 디스패리티 정보로부터 렌즈의 이동 거리를 산출하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of calculating a movement distance of a lens from disparity information according to an embodiment of the present invention.
도 6a에 따르면, 복수의 위상 감지 픽셀을 이용하여 픽셀의 분포를 판단할 수 있다. 예를 들어, 제1 위상 감지 픽셀에 의한 픽셀의 분포는 좌측 그래프(610)일 수 있고, 제2 위상 감지 픽셀에 의한 픽셀의 분포는 우측 그래프(620)와 같을 수 있다.Referring to FIG. 6A , a distribution of pixels may be determined using a plurality of phase sensing pixels. For example, the distribution of pixels by the first phase sensing pixels may be the
프로세서(120)는 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출할 수 있다. 두 개의 이미지에 대한 크로스-코릴레이션 결과는 도 6a의 두 번째 도면이며, 아래쪽으로 볼록한 포물선의 형태일 수 있다.The
프로세서(120)는 크로스-코릴레이션 결과를 분석하고, y 값이 최저가 되는 x 값을 디스패리티 정보로 결정할 수 있다. 즉, 프로세서(120)는 두 이미지의 위상차를 디스패리티 정보로 결정할 수 있다.The
도 6b에 따르면, 프로세서(120)는 특정 피사체에 대한 디스패리티 정보를 저장부(155)에 저장하고 있을 수 있다. 디스패리티 값이 0인 지점(640)은 두 개의 위상 감지 픽셀을 이용하여 감지된 이미지의 위상차가 0인 지점이고, 렌즈를 이동할 필요가 없다. 디스패리티 값이 1인 지점(650)은 이미지의 위상차가 1인 지점이며, 이때 렌즈의 위치는 400 code이다. 디스패리티 값이 -1인 지점(660)은 이미지의 위상차가 -1인 지점이며, 이때 렌즈의 위치는 50 code이다. Referring to FIG. 6B , the
저장부(155)는 디스패리티 정보에 기초하여 피사체에 대응되는 렌즈의 이동 거리 정보를 저장하고 있을 수 있다. 이러한 정보는 렌즈의 위치, 색 온도 및 조리개 값에 따라 영향을 받게 되며, 이러한 외부 요소를 반영한 렌즈의 이동 거리 정보를 산출하는 방법에 대하여는 후술한다.The
도 7 및 도 8은 본 발명의 일 실시 예에 따른 초점을 맞추기 위한 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 방법을 설명하기 위한 도면이다.7 and 8 are diagrams for explaining a method of calculating a moving distance and reliability information of a lens for focusing according to an embodiment of the present invention.
프로세서(120)는 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 관심 영역(10) 내의 초점 영역을 결정할 수 있다. 렌즈의 이동 거리를 이용하여 관심 영역(10) 내의 초점 영역을 결정하는 방법은 상술하였고, 신뢰도 정보를 산출하여 관심 영역(10) 내의 초점 영역을 결정하는 방법에 대하여는 후술한다.The
도 7에 따르면, 렌즈의 위치에 대응되는 렌즈의 이동 거리를 알 수 있다. 이러한 정보는 저장부(155)에 저장되어 있을 수 있으며, 프로세서(120)는 저장부(155)에 저장된 정보에 기초하여 렌즈의 위치를 이동시켜 초점을 맞출 수 있다. 도 7에서 현재 렌즈의 위치가 350 code인 경우 렌즈의 이동 거리는 그래프의 y 값(710)일 수 있다.Referring to FIG. 7 , it is possible to know the movement distance of the lens corresponding to the position of the lens. Such information may be stored in the
렌즈의 이동 거리는 디스패리티 정보에 대응될 수 있다. 예를 들어, 렌즈의 이동 거리는 디스패리티 정보에 정비례할 수 있다. 다만, 이는 일 실시 예에 불과하고, 렌즈의 이동 거리는 디스패리티 정보에 기초하여 산출될 수 있으나 정비례하지 않을 수 있다.The moving distance of the lens may correspond to disparity information. For example, the moving distance of the lens may be directly proportional to the disparity information. However, this is only an exemplary embodiment, and the movement distance of the lens may be calculated based on disparity information, but may not be directly proportional to the disparity information.
도 8에 따르면, 프로세서(120)는 크로스-코릴레이션 결과를 이용하여 신뢰도 정보를 산출할 수 있다. 프로세서(120)는 크로스-코릴레이션 커브의 최하 지점의 값을 노이즈로, 최하 지점과 인접한 특정 지점을 시그널로 간주하여 S/N(Signal to Noise) 비를 신뢰도로 산출할 수 있다.Referring to FIG. 8 , the
예를 들어, 프로세서(120)는 도 8의 좌측 도면에서 제1 크로스-코릴레이션 커브(810)의 최하 지점의 값인 100을 노이즈로, 최하 지점과 인접한 특정 지점의 값인 200을 시그널로 간주할 수 있다. 제1 크로스-코릴레이션 커브(810)의 S/N 비는 (200-100)/100 = 1 로 계산될 수 있다.For example, in the left diagram of FIG. 8 , the
동일하게, 프로세서(120)는 도 8의 우측 도면에서 제2 크로스-코릴레이션 커브(820)의 최하 지점의 값인 100을 노이즈로, 최하 지점과 인접한 특정 지점의 값인 400을 시그널로 간주할 수 있다. 제2 크로스-코릴레이션 커브(820)의 S/N 비는 (400-100)/100 = 3 으로 계산될 수 있다.Similarly, in the right diagram of FIG. 8 , the
프로세서(120)는 S/N 비가 3으로 나온 제2 크로스-코릴레이션 커브(820)에 대하여 신뢰도가 높다고 판단할 수 있다. 이때, 최하 지점과 인접한 특정 지점은 최하 지점의 x축 값으로부터 동일한 거리 만큼 떨어진 지점으로 설정될 수 있다. 신뢰도 정보로부터 관심 영역(10) 내의 초점 영역을 설정하는 방법은 후술한다.The
도 9는 본 발명의 일 실시 예에 따른 관심 영역(10)을 지정하는 방법을 설명하기 위한 도면이다.9 is a diagram for explaining a method of designating a region of
도 9에 따르면, 촬영 장치는 디스플레이(130)를 더 포함할 수 있다. 디스플레이(130)에는 관심 영역(10) 및 렌즈를 통하여 입력되는 광에 따른 이미지가 디스플레이될 수 있다.According to FIG. 9 , the photographing apparatus may further include a
관심 영역(10)은 사용자에 의해 지정될 수도 있고, 이전에 설정된 관심 영역(10)이 이후에 이용될 때 동일하게 적용될 수도 있다. 다만, 이에 한정되는 것은 아니고, 최초 사용 시에 설정된 관심 영역(10)이 계속하여 이용되거나, 사람의 얼굴을 인식한 후 인식된 얼굴 주위로 관심 영역(10)이 자동으로 설정될 수도 있다.The region of
관심 영역(10)이 사용자에 의해 지정되는 경우, 사용자는 터치 스크린을 터치하여 특정 영역을 설정할 수 있다. 이 경우, 디스플레이(130)는 터치 스크린일 수 있다. 터치 스크린을 이용하여 관심 영역(10)을 설정하는 경우, 사용자는 사각형의 궤적을 터치 스크린 상에 그릴 수도 있으나, 특정한 두 지점을 터치하여 관심 영역(10)을 설정할 수도 있다. 또한, 사용자가 터치하는 시간에 따라 특정 형태의 관심 영역(10)의 크기가 변경되는 구성도 가능하며, 그 밖의 다양한 방법으로 관심 영역(10)을 설정할 수 있다.When the region of
또한, 사용자는 버튼(910)을 이용하여 관심 영역(10)을 지정할 수도 있다. 사용자는 버튼(910)을 이용하여 기설정된 크기의 관심 영역(10)을 이동시킬 수 있다. 관심 영역(10)의 크기는 버튼(910) 중 하나를 두 번 연속으로 누르는 동작을 통해 변경할 수도 있다. 예를 들어, 오른쪽 버튼을 두 번 연속으로 누르는 경우 관심 영역(10)의 오른쪽 변이 이동되어 관심 영역(10)의 크기가 변경될 수 있다. 도 9에는 버튼(910)이 4 방향 버튼인 것으로 도시되었으나, 이에 한정되는 것은 아니고, 조이스틱 형태의 버튼이 장치되어 있을 수도 있다. 또한, 관심 영역(10)은 사각형으로 표시되어 있으나, 이에 한정되는 것은 아니며, 원형 또는 삼각형일 수도 있다.Also, the user may designate the region of
사용자는 관심 영역(10)의 지정 뿐만 아니라 초점 영역을 설정할 수 있다. 예를 들어, 프로세서(120)는 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 디스플레이(130)를 제어할 수 있다. 도 9에 따르면, 프로세서(120)는 좌측 서브 관심 영역(13)과 우측 서브 관심 영역(14)을 디스플레이할 수 있다. 그리고, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 프로세서(120)는 선택된 서브 관심 영역을 초점 영역으로 결정할 수 있다. 초점 영역의 선택 또한 상술한 바와 같이 사용자의 터치 또는 버튼 입력으로 가능하다.The user can designate the region of
도 10은 본 발명의 일 실시 예에 따른 관심 영역(10)이 이미지 센서(110) 전체인 경우 초점 영역을 결정하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of determining a focus area when the area of
도 10a에 따르면, 프로세서(120)는, 관심 영역(10)을 동일한 크기의 M개의 행과 N개의 열로 분할할 수 있다. 다만, 이에 한정되는 것은 아니며, 동일한 크기가 아닐 수도 있다. 또한, 사각형이 아닌 다양한 형태로 분할하는 구성도 가능하다. 그리고, 도 10a에는 각각의 분할된 영역이 겹쳐지지 않는 것으로 도시되어 있으나, 이에 한정되는 것은 아니며, 도 5에서와 같이 겹쳐지는 쌍이 존재하는 방식으로 분할될 수도 있다.Referring to FIG. 10A , the
도 10b에 따르면, 프로세서(120)는 각각의 서브 관심 영역에 대한 렌즈의 이동 거리를 산출할 수 있다. 각각의 영역에 대한 렌즈의 이동 거리를 산출하는 방법은 상술하였으므로 생략한다.Referring to FIG. 10B , the
그리고, 프로세서(120)는 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다. 예를 들어, 제1 그룹 영역(1010) 및 제2 그룹 영역(1020)은 이동 거리의 차이가 2 이하인 경우에 그룹화된 영역을 나타낸다. 도 10b에서는 그룹화를 설명하기 위해 렌즈의 이동 거리를 대략적으로 나타내었으며, 얼마든지 다른 값을 가질 수 있다. 또한, 이동 거리의 차이가 2 이하인 경우로 가정하였으나, 이 역시 다른 값을 가질 수 있고, 사용자에 의해 설정될 수도 있다.In addition, when a difference in a movement distance of a lens with respect to an adjacent sub-ROI is less than or equal to a preset size, the
또한, 프로세서(120)는 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수도 있다.Also, the
프로세서(120)는 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.The
피사체와의 거리가 가장 가까운 그룹이 기준인 경우, 프로세서(120)는 그룹화된 서브 관심 영역의 렌즈 이동 거리를 평균 내어 초점 영역을 결정할 수 있다. 피사체와의 거리에 대하여는 상술하였으므로 생략한다. 다만, 이에 한정되는 것은 아니며, 피사체와의 거리가 가장 먼 그룹이 선택될 수도 있다. 또한, 그룹에 한정되지 않고, 그룹화되지 않은 서브 관심 영역 중 하나가 선택될 수도 있다.When the group closest to the subject is the reference, the
신뢰도가 가장 높은 그룹이 기준이 경우도 유사하다. 신뢰도의 산출 방법은 상술하였고, 특정 그룹의 신뢰도 역시 상술한 바와 같이 평균값을 이용할 수 있다. 또한, 그룹에 한정되지 않고, 그룹화되지 않은 서브 관심 영역 중 하나가 선택될 수도 있다.The same is the case with the group with the highest reliability. The method of calculating the reliability has been described above, and the average value of the reliability of a specific group may also be used as described above. Also, it is not limited to a group, and one of the sub-ROIs that are not grouped may be selected.
서브 관심 영역이 가장 많이 그룹화된 그룹이 기준인 경우, 프로세서(120)는 각 그룹의 서브 관심 영역의 개수를 파악하여 초점 영역을 결정할 수 있다. 다만, 이에 한정되는 것은 아니며, 특정 개수인 그룹이 선택되는 구성도 가능하다. 또한, 동일한 개수의 그룹이 여러 그룹인 경우, 프로세서(120)는 여러 그룹 중에서 피사체와의 거리가 가장 가까운 그룹 및 신뢰도가 가장 높은 그룹 중 하나를 이용하여 초점 영역을 결정할 수도 있다.When the group in which the most sub-ROIs are grouped is a reference, the
도 11은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 회로 구성을 도시한 블럭도이다.11 is a block diagram illustrating a circuit configuration of the photographing
도 11을 참조하면, 촬영 장치(100)는 렌즈(111), 이미지 센서(110), TG(Timing Generator)(114), AFE(Analog Front End)(113), 모터 드라이버(115), 결합부(119), 입력부(190), 이미지 처리부(170), 통신부(150), 프로세서(120), 디스플레이부(130), SDRAM 모듈(117), 메모리 카드(118), USB 모듈(116)을 포함한다.Referring to FIG. 11 , the photographing
렌즈(111)는, 피사체에 반사된 광이 입사하는 구성으로, 단 초점 렌즈를 포함하며, 도면에 도시되지는 않았으나, 촬영 장치(100)는 조리개(미도시)를 더 구비할 수 있다.The
조리개는 렌즈(111)를 통과하여 이미지 센서로 입사되는 광의 양을 조절하는 구성이다. 조리개는 입사되는 광량을 조정할 수 있도록 개구부의 크기를 점진적으로 증가 또는 감소시킬 수 있는 기계적인 구조를 갖는다. 이러한 조리개는 F 수치로 불리는 조리개 수치로 개방 정도를 표시하며, 조리개 값이 작을수록 개방 크기가 넓어지므로, 입사광의 양이 많아져 밝은 이미지를 생성할 수 있다.The diaphragm is a configuration that adjusts the amount of light incident to the image sensor through the
이미지 센서(110)는 렌즈(111)를 통과한 피사체의 상이 결상되는 구성이다. 이미지 센서(110)는 매트릭스 형태로 배치된 복수의 픽셀을 포함한다. 복수의 픽셀 각각은 입사광에 따른 광전하를 축적하고, 광전하에 의한 상을 전기 신호로 출력한다. 이미지 센서(110)는 상보성 금속 산화물 반도체(Complementary Metal Oxide Semiconductor: CMOS) 또는 전하 결합 소자(Charge Coupled Device: CCD)로 구성될 수 있다.The
또한, 이미지 센서(110)는 포토 다이오드(PD). 전송 트랜지스터(TX), 리셋 트렌지스터(RX), 플로우팅 확산 노드(FD)를 포함할 수 있다. 포토 다이오드(PD)는 피사체의 광학상에 대응하는 광전하를 생성하여 축적한다. 전송 트랜지스터(TX)는 전송 신호에 응답하여 포토 다이오드(PD)에 생성된 광전하를 플로우팅 확산 노드(FD)로 전송한다. 리셋 트랜지스터는 리셋 신호에 응답하여 플로우팅 확산 노드(FD)에 저장된 전하를 배출한다. 리셋 신호가 인가되기 전에 플로우팅 확산 노드(FD)에 저장된 전하가 출력되는데, CDS 이미지 센서의 경우 CDS(Correlated Double Sampling) 처리를 수행한다. 그리고, ADC가 CDS 처리가 수행된 아날로그 신호를 디지털 신호로 변환한다.In addition, the
TG(Timing Generator 114)는, 이미지 센서(110)의 픽셀 데이터를 리드아웃(readout)하기 위한 타이밍 신호를 출력한다. TG(114)는 프로세서(120)에 의해 제어된다. The TG (Timing Generator 114 ) outputs a timing signal for reading out pixel data of the
AFE(Analog Front End, 113)는, 이미지 센서(110)로부터 출력된 피사체 상의 전기 신호를 샘플링하여 디지털화한다. AFE(Analog Front End, 113)는, 프로세서(120)에 의해 제어된다.An analog front end (AFE) 113 samples and digitizes an electrical signal on a subject output from the
다만, 상기와 같이 AFE(113)와 TG(114)를 대체할 수 있는 다른 구성으로 설계될 수도 있다. 특히, 이미지 센서(110)가 CMOS 형으로 구현되는 경우, 이러한 구성을 불필요할 수 있다. However, as described above, the
모터 드라이버(115)는, 위상차 픽셀을 리드아웃하여 계산된 정보에 기초하여 포커싱 렌즈를 구동하여 포커스를 맞춘다. 다만, 촬영 장치(100)가 스마트폰이나 셀룰러폰으로 구현되는 경우 포커싱을 위한 렌즈를 구동하지 않고 소프트웨어적으로 처리하고, 모터 드라이버(115)가 구비되지 않을 수 있다. The
이미지 처리부(170)는, 프로세서(120)의 제어에 의해 로우 이미지 데이터(RAW IMAGE DATA)를 이미지 처리하고, SDRAM(117)에 기록한다. 그리고, SDRAM(117)의 영상 처리된 데이터를 디스플레이(130)에 전달한다. The
위상차를 이용한 오토 포커싱을 하는 경우, 이미지 처리부(170)는 이미지 센서(110)에서 출력되어 AFE(113)에 의해 샘플링된 신호 중에서 이미지를 생성하기 위한 신호(일반 픽셀로부터 리드아웃된 신호)와 위상차를 계산하기 위한 신호(위상차 픽셀로부터 리드아웃된 신호)를 분리한다.In the case of auto-focusing using a phase difference, the
이미지 처리부(170)는, 로우 이미지 데이터를 처리하며, YCbCr 데이터로 만든다. 로우 이미지 데이터는 우선, 보정회로(미도시)에 의해 픽셀 결함이 보정된다. 보정회로는 보정 테이블을 참조하여, 픽셀 결함을 보정하는데, 보정테이블은 결함이 있는 픽셀의 어드레스가 등록되어 있다. 이 어드레스와 일치하는 픽셀에 대해서 주위의 픽셀로부터 보정을 수행한다.The
이미지 처리부(170)는 이미지의 블랙 레벨을 결정하는 OB 클램프 회로(미도시)를 포함한다. 이미지 센서(110)는 OB(Optical Black) 영역이 있으며, OB영역의 신호 평균값을 검출하여 각 픽셀값의 차이를 통해 블랙 레벨을 결정한다.The
또한, 이미지 처리부(170)는 감도비 조정 회로(미도시)를 이용하여 색상별로 상이한 감도비 조정을 수행한다. 감도비 조정 회로는 표준 광원 하에서 R,G,B색의 감도를 조정한다. 통상적으로 G의 게인값을 1로 고정하고 R, B의 감도를 이에 맞춘다. Also, the
정지 이미지를 출력하는 경우 감도비 조정 후에 이미지 데이터를 출력버퍼를 통해 출력한다. 이 경우 인터레시스(interlace)방식으로 이미지를 생성하므로, 곧바로 후처리를 할 수 없는 반면, 라이브 뷰 이미지를 출력하는 경우에는 프로그래시브(progressive)방식으로 이미지를 생성하기 때문에 바로 후처리가 가능하다. When outputting a still image, after adjusting the sensitivity ratio, the image data is output through the output buffer. In this case, since the image is generated in an interlace method, post-processing cannot be performed immediately. On the other hand, in the case of outputting a live view image, post-processing is possible immediately because the image is generated in a progressive method. do.
또한, 이미지 처리부(170)는 수평 스킵 리드아웃 회로(미도시)를 이용하여 일부 픽셀 라인은 리드아웃하고 나머지 픽셀 라인은 스킵하는 스킵 리드아웃을 수행하므로, 로우 이미지의 픽셀 수가 감소된다.Also, since the
이미지 처리부(170)는 WB조정회로(미도시)를 이용하여 이미지 데이터에 대한 화이트 밸런스(WB : White Balance)를 조정한다. 촬영 환경에 따라 조명광의 분광 분포가 다르므로 흰 피사체를 촬영해도 희게 표시되지 않을 수 있다. R,G,B 픽셀마다 상이한 게인값을 주어 신호 레벨을 맞춘다.The
또한, 이미지 처리부(170)는 이미지 데이터에 대한 감마 보정을 수행한다. 감마 보정을 통해 디스플레이(130)의 출력에 맞는 계조 변환이 이루어진다. Also, the
또한, 이미지 처리부(170)는 색보간 회로(미도시)를 이용하여 1픽셀당 1색의 베이어 신호에서 1픽셀당 3색으로 이루어진 통상의 컬러 이미지 신호를 생성한다. Also, the
또한, 색변환/색보정 회로(미도시)를 이용하여 출력에 맞는 색공간 변환을 하고, 색보정을 한다. 필요에 따라 LUT(Look Up Table)을 이용할 수 있다. 색변환/색보정 후에 이미지 데이터는 YCbCr 데이터가 된다. In addition, a color space conversion suitable for the output is performed using a color conversion/color correction circuit (not shown), and color correction is performed. A look-up table (LUT) can be used as needed. After color conversion/color correction, the image data becomes YCbCr data.
이미지 처리부(170)는 해상도 변환 회로(미도시)를 이용하여 해상도를 변환하여 사이즈를 맞춘다.The
이미지 처리부(170)는 공간 필터 회로(미도시)를 이용하여 이미지 데이터에 대한 공간 필터를 처리한다. Y신호의 엣지 강조가 이루어지고, Cb/CR 신호의 LPF(Low Pass Filter)처리를 수행한다. The
또한, 이미지 처리부(170)는 CbCr스킵 리드아웃 회로(미도시)를 이용하여 Cb/Cr신호에 대해 스킵 리드아웃을 수행하여 YCbCr4:2:2의 이미지 데이터로 변환한다. 이미지 데이터는 출력버퍼를 통해 출력되고, 버스를 통해 SDRAM(117)에 기록된다. Also, the
정지 이미지의 경우, 인터레이스 방식으로 리드아웃이 수행될 수 있는데, 이 경우, 인접하는 픽셀 라인이 존재하지 않으므로 직접 색 보간을 처리할 수 없다. 따라서, 전처리가 끝난 후, 일단 출력버퍼를 통해 SDRAM(117)에 픽셀 라인 순서를 조정하여 프로그래시브 형태로 저장한다.In the case of a still image, readout may be performed in an interlaced manner. In this case, since adjacent pixel lines do not exist, direct color interpolation cannot be processed. Accordingly, after the pre-processing is completed, the pixel line order is adjusted in the
다만, 본 발명의 실시 예가 정지 이미지의 경우 인터레이스 방식에 한정하는 것은 아니며, 프로그래시브 방식으로 리드아웃하도록 구현될 수도 있다. However, the embodiment of the present invention is not limited to the interlace method in the case of a still image, and may be implemented to be read out in a progressive method.
한편, 정지 이미지의 경우, 촬영 후에 조그맣게 보여주는 프리뷰 이미지나, 썸네일 이미지를 생성할 필요가 있다. 이는 스킵 리드아웃처럼 일부 픽셀의 데이터를 생략하여 작성한다.On the other hand, in the case of a still image, it is necessary to generate a preview image or a thumbnail image that is displayed small after shooting. It is written by omitting data of some pixels like skip readout.
이미지 처리부(170)는 AF신호 보간 회로(미도시)를 이용하여 위상차 픽셀 부분을 일반 픽셀값으로 보간한다. 위상차 픽셀이 일반 픽셀 사이에 위치하므로, 해상도 열화가 발생할 수 있어 주변의 일반 픽셀을 이용하여 보간을 수행한다.The
상술한 이미지 처리부(170)의 처리 과정에 기초하여, 이미지 처리부(170)는 프로세서(120)의 제어 하에 촬영 장치(100)를 통해 획득되는 복수의 이미지 중 하나의 이미지의 속성에 기초하여 나머지 이미지의 속성을 동일하게 조정할 수 있다.Based on the above-described processing process of the
한편, 분리 회로(미도시)에서 분리된 위상차 픽셀의 신호는 일단 제1버스를 통해 SDRAM(117)에 기록된다. 복수의 픽셀 전부에 대해 리드아웃이 이루어지고, 분리가 이루어지므로, 짧은 기간 동안 각 위상차 픽셀 신호는 SDRAM(117)에 축적된다. Meanwhile, the signal of the phase difference pixel separated by the separation circuit (not shown) is once written to the
저장된 위상차 픽셀 신호는 제1버스를 통해 위상차 연산회로(미도시)로 입력된다. 위상차 연산 회로는, 위상차 픽셀 간의 위상차를 연산하고, 포커스 렌즈의 이동 방향과 이동량을 계산한다. 계산된 이동량은 위상차 연산회로 내의 레지스터에 일시적으로 기록되며, 프로세서(120 즉, CPU)가 독출한다.The stored phase difference pixel signal is input to a phase difference calculation circuit (not shown) through the first bus. The phase difference calculation circuit calculates the phase difference between phase difference pixels, and calculates the movement direction and movement amount of the focus lens. The calculated movement amount is temporarily written to a register in the phase difference calculation circuit, and is read by the
프로세서(120)는, 포커스 렌즈의 계산된 이동량을 읽어와서, 제어 명령을 생성한다. 생성된 제어 명령을 모터 드라이버(115)에 전달하여 포커스 렌즈를 구동한다.The
JPEG 코덱은, YCbCr 데이터를 압축한다. 그리고, 압축된 이미지 데이터는 SDRAM(117)에 기록된다. 프로세서(120)가 SDRAM(117)에 기록된 압축 이미지 데이터를 읽어와 메모리 카드(118)에 기록함으로써, 이미지 생성 절차가 종료된다. The JPEG codec compresses YCbCr data. Then, the compressed image data is recorded in the
통신부(150)는 다른 장치와 통신을 수행하기 위한 구성이다. 통신부(150)는 다양한 무선 통신 기술로 구현될 수 있다. 주로 통신부(150)는 디바이스간 중계 장치 없이 직접 통신을 수행하는 근거리 통신 모듈을 포함할 수 있다.The
결합부(119)는 다른 장치와 결합하여 고정되기 위하여 사용될 수 있으며, 결합부(119)를 통해 유선 통신을 수행할 수도 있게 된다. 다른 장치와 결합하여 사용되는 경우에 대해서는 후술하기로 한다.The
통신부(150)는 와이파이 다이렉트(WIFI DIRECT) 통신 모듈, 블루투스(bluetooth)모듈, 적외선 통신(IrDA, infrared data association)모듈, NFC(Near Field Communication)모듈, 지그비(Zigbee) 모듈 중 적어도 하나를 포함할 수 있다.The
다른 통신 기술 수단의 적용을 배제하는 것은 아니다. 예를 들어, 셀룰러 통신모듈, 3G(3세대) 이동통신 모듈, 4G(4세대) 이동통신 모듈, 4세대 LTE(Long Term Evolution) 통신 모듈 중 어느 하나를 포함할 수 있다.The application of other means of communication technology is not excluded. For example, it may include any one of a cellular communication module, a 3G (3rd generation) mobile communication module, a 4G (4th generation) mobile communication module, and a 4th generation Long Term Evolution (LTE) communication module.
USB 모듈(116)은 외부 장치와의 인터페이스를 제공한다. USB모듈(116)은 USB케이블을 통해 PC나 기타 외부 장치와 연결된 경우, 이미지 데이터의 송수신을 처리한다. 또한, 펌웨어 업그레이드를 수행하기 위한 펌웨어 송수신을 처리한다. The
입력부(190)는 사용자 입력을 수신하기 위한 구성이다. 입력부(190)는 적어도 하나의 버튼을 포함할 수 있다. 또한, 입력부(190)는 디스플레이(130)에 위치하는 터치 스크린을 포함할 수 있다.The
촬영 명령 또는 영상 캡쳐 명령뿐만 아니라, 입력부(190)는 촬영 영상의 배율을 조정하기 위한 사용자 명령을 입력받을 수 있다. In addition to the shooting command or the image capturing command, the
촬영 배율 조정 명령은 촬영 장치(100)에 포함된 버튼을 누르는 사용자 명령일 수 있다. 예를 들면, 입력부(190)가 상 버튼 및 하 버튼을 포함하는 경우, 라이브뷰가 디스플레이되는 동안, 상 버튼을 누르는 사용자 명령이 입력되면, 라이브 뷰 영상이 확대될 수 있다.The photographing magnification adjustment command may be a user command for pressing a button included in the photographing
또한, 입력부(190)는 터치 스크린으로 구현되어, 디스플레이(130)를 통해, 촬영 영상의 배율을 조정하는 사용자 명령을 입력받을 수도 있다.Also, the
SDRAM(Synchronous Dynamic RAM 117) 은, 이미지를 저장하거나 CPU에 의한 이미지 작업에 이용된다. 본 발명의 일 실시 예에서, 시스템 클록의 상승단과 하강단 모두에서 출력이 나오도록 하여 상승단에서만 출력이 나오는 것에 비해 출력을 2배 향상시킬 수 있는 DDR SDRAM이 사용될 수 있다.SDRAM (Synchronous Dynamic RAM 117) is used to store images or image operations by the CPU. In an embodiment of the present invention, a DDR SDRAM capable of increasing the output by two times compared to outputting only from the rising end by allowing the output to come out from both the rising end and the falling end of the system clock may be used.
메모리 카드(118)는 플래시 메모리를 포함하여 구성될 수 있으며, 촬영 장치(100)에 착탈이 가능한 카드 형태로 구현될 수 있다. 그리고, 메모리 카드(118)는 촬영된 이미지 파일을 저장할 수 있다.The
도 12는 본 발명의 일 실시 예에 따른 렌즈의 이동 거리에 대한 정보를 보정하는 방법을 설명하기 위한 도면이다.12 is a view for explaining a method of correcting information on a movement distance of a lens according to an embodiment of the present invention.
도 12에 대해 설명하기에 앞서 촬영 장치(100)는 초점을 맞추기 위해 콘트라스트 검출 방식 및 위상차 검출 방식을 모두 이용하는 장치인 것으로 가정한다.12 , it is assumed that the photographing
그리고, 렌즈의 이동 거리는 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method to focus.
상술하였듯이, 콘트라스트 검출 방식을 이용하는 경우 속도가 느리다는 단점이 있고, 위상차 검출 방식을 이용하는 경우 콘트라스트 검출 방식에 비해 상대적으로 부정확할 수 있다. 또한, 디스패리티 정보에 기초하여 피사체에 대응되는 렌즈의 이동 거리 정보는 렌즈의 위치, 색 온도 및 조리개 값에 따라 오차가 발생할 수 있다.As described above, when the contrast detection method is used, the speed is slow, and when the phase difference detection method is used, it may be relatively inaccurate compared to the contrast detection method. Also, based on the disparity information, the movement distance information of the lens corresponding to the subject may have an error depending on the position of the lens, the color temperature, and the aperture value.
프로세서(120)가 초점 영역을 결정하기 위해 위상 검출 방식을 이용하고, 그 결과인 디스패리티 정보로부터 피사체에 대응되는 렌즈의 이동 거리 정보는 선형적이지 않기 때문에 보정이 필요하며, 이러한 보정은 콘트라스트 검출 방식을 이용할 수 있다. 구체적으로, 콘트라스트 검출 방식을 이용하여 이미지 센서(110)의 특정 영역에 대하여 특정 피사체에 대한 정확한 초점 정보를 구하고, 렌즈의 위치에 따른 렌즈의 이동 거리를 계산해둘 수 있다. 그리고, 계산된 렌즈의 이동 거리에 기초하여 위상 검출 방식에 따른 디스패리티 정보를 대응되도록 보정할 수 있다.The
도 12a는 이미지 센서(110)의 특정 영역을 나타낸 도면으로, 특히 가운데 영역 및 4개의 구석 영역을 나타내었다. 보정은 각각의 영역에 대하여 이루어져야 하며, 도 12a에 도시된 바와 같이 5개의 영역에 한정되는 것은 아니다. 또한, 각각의 영역에서 피사체의 위치에 따라서도 보정이 필요하다. 즉, 보정된 렌즈의 이동 거리 정보는 초점 영역 및 피사체의 위치에 따라 보정된 정보일 수 있다.12A is a view illustrating a specific region of the
도 12b는 도 12a의 좌측 상방 구석(1210)에 대한 렌즈의 이동 거리 정보에 대한 일 예이다. 콘트라스트 검출 방식을 이용하여 보정하기 전, 위상차 검출 방식에 의한 렌즈의 이동 거리에 대한 제1 그래프(1220)는 선형적이지 않다. 이는, 렌즈의 위치, 색 온도 및 조리개 값 등에 따라 오차가 발생하였기 때문이다. 이러한 오차 요인은 각각 영향을 미칠 수도 있고, 복합적으로 영향을 미칠 수도 있다. 또한, 상술한 오차 요인 외에도 다양한 오차 요인이 있을 수 있다.12B is an example of movement distance information of a lens with respect to the upper
제2 그래프(1230)는 제1 그래프(1220)를 콘트라스트 검출 방식을 이용하여 보정한 그래프이다. 제2 그래프(1230)는 렌즈의 위치에 대하여 거의 선형적인 결과를 보여주고 있다. 이러한 정보는 저장부(155)에 저장되어 있을 수 있다.The
즉, 촬영 장치(100)는 제조과정에서 이러한 정보가 저장되어 있을 수 있도록 제조된다. 프로세서(120)는 초점 영역을 결정하기 위하여 위상 검출 방식을 이용하는 경우, 저장된 정보에 기초하여 디스패리티 정보에 대응되는 렌즈의 이동 거리를 산출하게 된다.That is, the photographing
도 13은 본 발명의 일 실시 예에 따른 촬영 장치(100)의 제어 방법을 설명하기 위한 순서도이다.13 is a flowchart illustrating a control method of the photographing
도 13에 따르면, 먼저, 이미지 센서 중 관심 영역을 복수의 서브 관심 영역으로 분할한다(S1310). 관심 영역은 이미지 센서의 전체 영역 또는 일부 영역일 수 있고, 사용자에 의해 설정될 수 있다.Referring to FIG. 13 , first, a region of interest among the image sensors is divided into a plurality of sub regions of interest ( S1310 ). The region of interest may be an entire region or a partial region of the image sensor, and may be set by a user.
그리고, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출한다(S1320).Then, disparity information on a subject corresponding to each of the plurality of sub-ROIs is calculated using the phase sensing pixels included in each of the plurality of sub-ROIs ( S1320 ).
그리고, 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정한다(S1330).Then, a focus area within the ROI is determined based on the disparity information (S1330).
또한, 초점 영역을 결정하는 단계(S1330)는, 디스패리티 정보에 기초하여 렌즈의 위치에 대응되는 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계 및 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 관심 영역 내의 초점 영역을 결정하는 단계를 포함할 수 있다.In addition, the step of determining the focus area ( S1330 ) includes calculating the moving distance and reliability information of the lens corresponding to the position of the lens based on the disparity information, and using the moving distance and reliability information of the lens within the ROI. Determining an area of focus may be included.
그리고, 복수의 서브 관심 영역으로 분할하는 단계(S1310)는, 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 관심 영역을 분할할 수 있다.In addition, the step of dividing into a plurality of sub-ROIs ( S1310 ) may include a first pair of a central sub-ROI and a peripheral sub-ROI of the ROI, and a second pair of the left sub-ROI and right sub-ROI of the ROI. The ROI may be divided into a third pair including a pair and an upper sub-ROI and a lower sub-ROI of the ROI.
또한, 초점 영역을 결정하는 단계(S1330)는, 제1 쌍 내지 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 렌즈의 이동 거리를 산출하는 단계, 제1 쌍 내지 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계 및 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계를 포함할 수 있다.In addition, the step of determining the focus area ( S1330 ) includes calculating a movement distance of a lens for focusing on sub-ROIs included in the first pair to the third pair, among the first pair to the third pair. The method may include determining a pair having the largest difference in the movement distances of the lenses, and determining a sub-ROI of one of the pairs having the largest difference in the movement distances of the lenses as the focus area.
그리고, 초점 영역을 결정하는 단계(S1330)는, 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계, 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계 및 선택된 서브 관심 영역을 초점 영역으로 결정하는 단계를 더 포함할 수 있다.In the step of determining the focus area ( S1330 ), displaying a UI indicating the pair having the largest difference in the movement distance of the lenses, and receiving a user input for selecting one of the pair having the largest difference in the movement distance of the lenses The method may further include the step of: and determining the selected sub-ROI as a focus area.
또한, 복수의 서브 관심 영역으로 분할하는 단계(S1310)는, 관심 영역을 동일한 크기의 M개의 행과 N개의 열로 분할하고, 초점 영역을 결정하는 단계(S1330)는, 인접한 서브 관심 영역에 대한 렌즈의 이동 거리의 차이가 기설정된 크기 이하인 경우 인접한 서브 관심 영역을 그룹화하여, 관심 영역 내의 초점 영역을 결정할 수 있다.In addition, in the step of dividing the ROI into a plurality of sub-regions ( S1310 ), the ROI is divided into M rows and N columns of the same size, and the step of determining the focal region ( S1330 ) includes lenses for adjacent sub-regions of interest. When the difference in the movement distance of ' is equal to or less than a preset size, a focal region within the ROI may be determined by grouping adjacent sub-ROIs.
그리고, 초점 영역을 결정하는 단계(S1330)는, 피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정할 수 있다.In the determining of the focus area ( S1330 ), one group among a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs grouped may be determined as the focus area.
또한, 초점 영역을 결정하는 단계(S1330)는, 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화할 수 있다.In addition, in the step of determining the focal region ( S1330 ), only sub-ROIs for which the reliability of the sub-ROI is greater than a preset reliability may be grouped.
그리고, 렌즈의 이동 거리는, 초점을 맞추기 위해 콘트라스트 검출 방식으로 측정된 렌즈의 이동 거리에 기초하여, 렌즈의 위치에 대해 위상차 검출 방식으로 산출되는 디스패리티 정보로부터 결정된 정보일 수 있다.In addition, the movement distance of the lens may be information determined from disparity information calculated by the phase difference detection method with respect to the position of the lens based on the movement distance of the lens measured by the contrast detection method for focusing.
또한, 디스패리티 정보를 산출하는 단계(S1320)는, 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 두 개의 이미지를 크로스-코릴레이션하여 디스패리티 정보를 산출할 수 있다.Also, in the step of calculating the disparity information ( S1320 ), an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and the disparity information is calculated by cross-correlating the two images. can do.
이상과 같은 본 발명의 다양한 실시 예에 따르면, 촬영 장치는 좀더 신속하게 피사체에 대한 정보를 산출하고, 그에 따라 초점 영역을 자동으로 결정하여 사용자 만족도를 향상시킬 수 있다.According to various embodiments of the present disclosure as described above, the photographing apparatus may more rapidly calculate information about a subject, and automatically determine a focus area accordingly, thereby improving user satisfaction.
한편, 이러한 다양한 실시 예에 따른 방법들은 프로그래밍되어 각종 저장 매체에 저장될 수 있다. 이에 따라, 저장 매체를 실행하는 다양한 유형의 전자 장치에서 상술한 다양한 실시 예에 따른 방법들이 구현될 수 있다.Meanwhile, the methods according to various embodiments may be programmed and stored in various storage media. Accordingly, the methods according to the above-described various embodiments may be implemented in various types of electronic devices executing a storage medium.
구체적으로는, 본 발명의 일 실시 예에 따르면, 이미지 센서 중 관심 영역을 복수의 서브 관심 영역으로 분할하는 단계, 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티 정보를 산출하는 단계 및 디스패리티 정보에 기초하여 관심 영역 내의 초점 영역을 결정하는 단계를 순차적으로 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다. Specifically, according to an embodiment of the present invention, dividing the region of interest in the image sensor into a plurality of sub regions of interest, each of the plurality of sub regions of interest using phase sensing pixels included in each of the plurality of sub regions of interest A non-transitory computer readable medium storing a program for sequentially calculating disparity information on a subject corresponding to , and determining a focus area in a region of interest based on the disparity information may be provided.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
100 : 촬영 장치 110 : 이미지 센서
120 : 프로세서 130 : 디스플레이
140 : 사용자 인터페이스부 150 : 통신부
155 : 저장부 160 : 오디오 처리부
170 : 이미지 처리부 180 : 스피커
181 : 버튼 182 : 마이크100: photographing device 110: image sensor
120: processor 130: display
140: user interface unit 150: communication unit
155: storage unit 160: audio processing unit
170: image processing unit 180: speaker
181: button 182: microphone
Claims (20)
상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하고, 상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하며, 상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 프로세서;를 포함하고,
상기 프로세서는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리를 산출하고,
상기 복수의 서브 관심 영역 중 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기 설정된 크기 이하인 서브 관심 영역들을 그룹화하는 것이 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 촬영 장치.an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens, and a plurality of phase sensing pixels for detecting a phase; and
A region of interest among the image sensor is divided into a plurality of sub-regions, and a phase detection pixel included in each of the plurality of sub-regions of interest is used to detect a subject corresponding to each of the plurality of sub-regions of interest. a processor that calculates disparity information and determines a focus area within the ROI based on the disparity information;
The processor is
calculating a movement distance of the lens corresponding to the position of the lens based on the disparity information;
and determining a focus area within the ROI based on grouping sub-ROIs in which a difference in movement distance of the lens with respect to an adjacent sub-ROI among the plurality of sub-ROIs is less than or equal to a preset size.
상기 프로세서는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하여 상기 관심 영역 내의 초점 영역을 결정하는 것을 특징으로 하는 촬영 장치.According to claim 1,
The processor is
and determining a focus area within the ROI by calculating movement distance and reliability information of the lens based on the disparity information.
상기 프로세서는,
상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할하는 것을 특징으로 하는 촬영 장치.According to claim 1,
The processor is
A first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest, a second pair consisting of a left sub-region and a right sub-region of the region of interest, and an upper sub-region of interest and a lower sub-region of the region of interest and dividing the region of interest into a third pair of regions.
상기 프로세서는,
상기 제1 쌍, 제2 쌍 및 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하고, 상기 제1 쌍, 제2 쌍 및 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하여, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.4. The method of claim 3,
The processor is
calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair, the second pair, and the third pair, and moving the lens among the first pair, the second pair, and the third pair A photographing apparatus, characterized in that by determining a pair having the largest distance difference, and determining a sub-ROI of one of the pairs having the largest lens movement distance difference as a focus area.
디스플레이; 및
사용자 입력을 수신하는 사용자 인터페이스부;를 더 포함하고,
상기 프로세서는,
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하도록 상기 디스플레이를 제어하고, 상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력이 수신되면, 선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.5. The method of claim 4,
display; and
It further includes; a user interface unit for receiving a user input;
The processor is
The display is controlled to display a UI indicating the pair having the largest difference in the movement distance of the lenses, and when a user input for selecting one of the pair having the largest difference in the movement distance of the lenses is received, the selected sub-ROI A photographing apparatus, characterized in that it is determined as a focus area.
상기 프로세서는,
피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정하는 것을 특징으로 하는 촬영 장치.3. The method of claim 2,
The processor is
The photographing apparatus of claim 1, wherein one of the group having the closest distance to the subject, the group having the highest reliability, and the group having the most sub-ROIs is determined as the focus area.
상기 프로세서는,
상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화하는 것을 특징으로 하는 촬영 장치.3. The method of claim 2,
The processor is
and grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
상기 렌즈의 이동 거리는,
상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보인 것을 특징으로 하는 촬영 장치.According to claim 1,
The moving distance of the lens,
The photographing apparatus, characterized in that the information is determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
상기 프로세서는,
상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출하는 것을 특징으로 하는 촬영 장치.According to claim 1,
The processor is
An image pickup apparatus characterized in that an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and disparity information is calculated by cross-correlating the two images. .
상기 이미지 센서 중 관심 영역(Region of Interest)을 복수의 서브 관심 영역으로 분할하는 단계;
상기 복수의 서브 관심 영역 각각에 포함된 위상 감지 픽셀을 이용하여 상기 복수의 서브 관심 영역 각각에 대응되는 피사체에 대한 디스패리티(disparity) 정보를 산출하는 단계; 및
상기 디스패리티 정보에 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계;를 포함하고,
상기 초점 영역을 결정하는 단계는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 위치에 대응되는 상기 렌즈의 이동 거리를 산출하는 단계; 및
상기 복수의 서브 관심 영역 중 인접한 서브 관심 영역에 대한 상기 렌즈의 이동 거리의 차이가 기 설정된 크기 이하인 서브 관심 영역들을 그룹화하는 것이 기초하여 상기 관심 영역 내의 초점 영역을 결정하는 단계; 를 포함하는 제어 방법.A method of controlling a photographing apparatus having an image sensor including a plurality of image pixels for sensing an image by collecting light input through a lens, and a plurality of phase sensing pixels for detecting a phase,
dividing a region of interest in the image sensor into a plurality of sub regions of interest;
calculating disparity information on a subject corresponding to each of the plurality of sub-ROIs by using the phase sensing pixels included in each of the plurality of sub-ROIs; and
Determining a focal region within the ROI based on the disparity information;
Determining the focus area comprises:
calculating a movement distance of the lens corresponding to the position of the lens based on the disparity information; and
determining a focal region within the ROI based on grouping of sub-ROIs in which a difference in movement distance of the lens with respect to an adjacent sub-ROI among the plurality of sub-ROIs is less than or equal to a preset size; A control method comprising a.
상기 초점 영역을 결정하는 단계는,
상기 디스패리티 정보에 기초하여 상기 렌즈의 이동 거리 및 신뢰도 정보를 산출하는 단계; 및
상기 렌즈의 이동 거리 및 신뢰도 정보를 이용하여 상기 관심 영역 내의 초점 영역을 결정하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.12. The method of claim 11,
Determining the focus area comprises:
calculating the moving distance and reliability information of the lens based on the disparity information; and
and determining a focus area within the ROI by using the moving distance and reliability information of the lens.
상기 복수의 서브 관심 영역으로 분할하는 단계는,
상기 관심 영역의 중심 서브 관심 영역과 주변 서브 관심 영역으로 구성된 제1 쌍, 상기 관심 영역의 좌측 서브 관심 영역과 우측 서브 관심 영역으로 구성된 제2 쌍 및 상기 관심 영역의 상측 서브 관심 영역과 하측 서브 관심 영역으로 구성된 제3 쌍으로 상기 관심 영역을 분할하는 것을 특징으로 하는 제어 방법.12. The method of claim 11,
The dividing into the plurality of sub-regions of interest comprises:
A first pair consisting of a central sub-region of interest and a peripheral sub-region of the region of interest, a second pair consisting of a left sub-region and a right sub-region of the region of interest, and an upper sub-region of interest and a lower sub-region of the region of interest and dividing the region of interest into a third pair of regions.
상기 초점 영역을 결정하는 단계는,
상기 제1 쌍, 제2 쌍 및 제3 쌍에 포함된 서브 관심 영역들에 대해 초점을 맞추기 위한 상기 렌즈의 이동 거리를 산출하는 단계;
상기 제1 쌍, 제2 쌍 및 제3 쌍 중 렌즈의 이동 거리의 차이가 가장 큰 쌍을 판단하는 단계; 및
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나의 서브 관심 영역을 초점 영역으로 결정하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.14. The method of claim 13,
Determining the focus area comprises:
calculating a movement distance of the lens for focusing on sub-ROIs included in the first pair, the second pair, and the third pair;
determining a pair having the largest difference in lens movement distance among the first pair, the second pair, and the third pair; and
and determining, as a focus region, one sub-ROI of a pair having the largest difference in movement distance of the lenses.
상기 초점 영역을 결정하는 단계는,
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍을 나타내는 UI를 디스플레이하는 단계;
상기 렌즈의 이동 거리의 차이가 가장 큰 쌍 중 하나를 선택하는 사용자 입력을 수신하는 단계; 및
선택된 상기 서브 관심 영역을 초점 영역으로 결정하는 단계;를 더 포함하는 것을 특징으로 하는 제어 방법.15. The method of claim 14,
Determining the focus area comprises:
displaying a UI indicating a pair having the largest difference in moving distances of the lenses;
receiving a user input for selecting one of the pairs having the largest difference in the moving distances of the lenses; and
and determining the selected sub-region of interest as a focus region.
상기 초점 영역을 결정하는 단계는,
피사체와의 거리가 가장 가까운 그룹, 신뢰도가 가장 높은 그룹 및 상기 서브 관심 영역이 가장 많이 그룹화된 그룹 중 하나의 그룹을 초점 영역으로 결정하는 것을 특징으로 하는 제어 방법.13. The method of claim 12,
Determining the focus area comprises:
A control method, characterized in that one of a group having the closest distance to the subject, a group having the highest reliability, and a group having the most sub-ROIs is determined as a focus area.
상기 초점 영역을 결정하는 단계는,
상기 서브 관심 영역의 신뢰도가 기설정된 신뢰도보다 큰 서브 관심 영역만을 그룹화하는 것을 특징으로 하는 제어 방법.13. The method of claim 12,
Determining the focus area comprises:
A control method, characterized in that grouping only the sub-ROIs in which the reliability of the sub-ROI is greater than a preset reliability.
상기 렌즈의 이동 거리는,
상기 렌즈의 위치에 대해 위상차 검출 방식(Phase Auto Focus)으로 산출되는 상기 디스패리티 정보로부터 결정된 정보인 것을 특징으로 하는 제어 방법.12. The method of claim 11,
The moving distance of the lens,
The control method, characterized in that the information determined from the disparity information calculated by a phase difference detection method (Phase Auto Focus) with respect to the position of the lens.
상기 디스패리티 정보를 산출하는 단계는,
상기 복수의 서브 관심 영역 각각에 대응되는 두 개의 위상 감지 픽셀을 이용하여 이미지를 감지하고, 상기 두 개의 이미지를 크로스-코릴레이션(cross-correlation)하여 디스패리티 정보를 산출하는 것을 특징으로 하는 제어 방법.12. The method of claim 11,
Calculating the disparity information comprises:
A control method, characterized in that an image is sensed using two phase detection pixels corresponding to each of the plurality of sub-ROIs, and disparity information is calculated by cross-correlating the two images. .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/822,418 US10078198B2 (en) | 2014-08-08 | 2015-08-10 | Photographing apparatus for automatically determining a focus area and a control method thereof |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462034894P | 2014-08-08 | 2014-08-08 | |
US201462034914P | 2014-08-08 | 2014-08-08 | |
US62/034,894 | 2014-08-08 | ||
US62/034,914 | 2014-08-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160018331A KR20160018331A (en) | 2016-02-17 |
KR102339662B1 true KR102339662B1 (en) | 2021-12-16 |
Family
ID=55457582
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150052446A KR102339662B1 (en) | 2014-08-08 | 2015-04-14 | Image photographing apparatus and control methods thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102339662B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012234152A (en) * | 2011-04-19 | 2012-11-29 | Canon Inc | Imaging apparatus and control method thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5898501B2 (en) * | 2012-01-13 | 2016-04-06 | キヤノン株式会社 | Image processing apparatus, imaging apparatus, control method, program, and recording medium |
-
2015
- 2015-04-14 KR KR1020150052446A patent/KR102339662B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012234152A (en) * | 2011-04-19 | 2012-11-29 | Canon Inc | Imaging apparatus and control method thereof |
Also Published As
Publication number | Publication date |
---|---|
KR20160018331A (en) | 2016-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106576143B (en) | Image capturing apparatus and image capturing method | |
US10078198B2 (en) | Photographing apparatus for automatically determining a focus area and a control method thereof | |
US9392160B2 (en) | Circuit and method providing wide dynamic-range operation of auto-focus(AF) focus state sensor elements, digital imaging device, and computer system including same | |
KR102121531B1 (en) | Apparatus and Method for Controlling a Focus Detectable Image Sensor | |
JP5642433B2 (en) | Imaging apparatus and image processing method | |
US10095941B2 (en) | Vision recognition apparatus and method | |
KR101889932B1 (en) | Apparatus and Method for photographing image | |
US20170132790A1 (en) | Image photographing apparatus and method for controlling the same | |
KR20170060498A (en) | Image photographing apparatus and method of controlling thereof | |
US20090322897A1 (en) | Digital image processing apparatus having self-navigator function, and operation method of the digital image processing apparatus | |
KR20160032587A (en) | Image photographing apparatus and photographing method thereof | |
US10438372B2 (en) | Arithmetic method, imaging apparatus, and storage medium | |
US11140331B2 (en) | Image capturing apparatus, control method for image capturing apparatus, and control program for image capturing apparatus | |
KR20150096224A (en) | Solid image sensor, digital camera and method for preforming autofocus | |
KR101822462B1 (en) | Method for providing user interface and image photographing apparatus thereof | |
US8681235B2 (en) | Apparatus for processing digital image signal that obtains still image at desired point in time and method of controlling the apparatus | |
JP2024083407A (en) | Video creation method | |
KR102368625B1 (en) | Digital photographing apparatus and the method for the same | |
KR20130015422A (en) | Method for providing reference image and image photographing device thereof | |
US20160212315A1 (en) | Image capturing apparatus and control method thereof, and storage medium | |
KR102339662B1 (en) | Image photographing apparatus and control methods thereof | |
KR20150146355A (en) | transparent display apparatus, group play system using transparent display apparatus and performance methods thereof | |
US10939058B2 (en) | Image processing apparatus, image processing method, and program | |
US10785411B2 (en) | Image processing apparatus, image processing method, and storage medium | |
JP6577820B2 (en) | Imaging apparatus, control method therefor, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |