KR20100067711A - Auto-focusing method - Google Patents

Auto-focusing method Download PDF

Info

Publication number
KR20100067711A
KR20100067711A KR1020080126222A KR20080126222A KR20100067711A KR 20100067711 A KR20100067711 A KR 20100067711A KR 1020080126222 A KR1020080126222 A KR 1020080126222A KR 20080126222 A KR20080126222 A KR 20080126222A KR 20100067711 A KR20100067711 A KR 20100067711A
Authority
KR
South Korea
Prior art keywords
auto focusing
auto
tracking
area
image
Prior art date
Application number
KR1020080126222A
Other languages
Korean (ko)
Other versions
KR100975929B1 (en
Inventor
보그다노프
변오성
신창목
Original Assignee
삼성전기주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전기주식회사 filed Critical 삼성전기주식회사
Priority to KR1020080126222A priority Critical patent/KR100975929B1/en
Publication of KR20100067711A publication Critical patent/KR20100067711A/en
Application granted granted Critical
Publication of KR100975929B1 publication Critical patent/KR100975929B1/en

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • G03B15/16Special procedures for taking photographs; Apparatus therefor for photographing the track of moving objects

Abstract

PURPOSE: An automatic focusing method for embodying sequence of shots about each automatic focus domain as the focusing optimization is provided to implement best successive focusing by following plural tracking areas. CONSTITUTION: An auto-tracking function is activated is determined(S10). If the auto tracking function is activated, a plurality of auto focusing areas of the next frame is tracked(S20). The information is updated about each auto focusing area(S40). If the input of user is not detected(S50), the auto focusing area information is transmitted to a lens activation controller(S60).

Description

오토 포커싱 방법{AUTO-FOCUSING METHOD}Auto Focusing Method {AUTO-FOCUSING METHOD}

본 발명은 카메라 디바이스에 있어서의 복수의 대상 또는 관심 영역에 대한 오토 포커싱 방법에 관한 것으로서, 이러한 각각의 오토 포커스 영역에 대한 포커싱 최적화로 각각의 오토 포커스 영역에 대한 연속적인 샷(sequence of shots)을 가능하게 하는 오토 포커스 방법에 관한 것이다. The present invention relates to an auto focusing method for a plurality of objects or regions of interest in a camera device, wherein the focusing optimization for each of the auto focus regions is used to generate a sequence of shots for each auto focus region. It is related with the autofocus method which makes it possible.

일반적으로, 카메라 모듈(CCM:Compact Camera Module)은 소형으로써 카메라폰이나 PDA, 스마트폰을 비롯한 휴대용 이동통신 기기와 토이 카메라(toy camera) 등의 다양한 IT 기기에 적용되고 있는 바, 최근에 이르러서는 소비자의 다양한 취향에 맞추어 소형의 카메라 모듈이 장착된 기기의 출시가 점차 늘어나고 있는 실정이다.In general, the compact camera module (CCM) is a compact and is applied to various IT devices such as a camera camera, a portable mobile communication device such as a PDA, a smart phone, and a toy camera. Increasingly, devices equipped with small camera modules are gradually being released to meet various consumer tastes.

이와 같은 카메라 모듈은, CCD나 CMOS 등의 이미지센서를 주요 부품으로 하여 제작되고 있으며 상기 이미지센서를 통하여 사물의 이미지를 집광시켜 기기내의 메모리상에 데이터로 저장되고, 저장된 데이터는 기기내의 LCD 또는 PC 모니터 등의 디스플레이 매체를 통해 영상으로 디스플레이된다.Such a camera module is manufactured using an image sensor such as a CCD or a CMOS as a main component, and collects an image of an object through the image sensor and stores it as data in a memory in the device, and the stored data is stored in the LCD or PC in the device. The image is displayed through a display medium such as a monitor.

또한, 최근에는 카메라 렌즈로 포착되는 피사체의 휘도신호를 이용해서 피사 체를 검출하고 이 검출된 피사체에 맞추어 광학계를 구동시켜 그 촛점을 자동적으로 맞춰주는 오토 포커싱 기술이 널리 사용되고 있다. In recent years, auto focusing technology has been widely used to detect a subject using a luminance signal of a subject captured by a camera lens and to automatically focus the optical system according to the detected subject.

이와 같은, 콘트라스트 방식에 의한 오토 포커싱에서는 카메라의 촬영 범위 내에 있는 피사체의 전체를 오토 포커싱의 대상으로 하는 것이 아니라, 촬영 범위 중의 일부의 관심 범위에 있는 피사체만을 대상으로 하는 것이 많다. 콘트라스트 방식의 오토 포커싱에서는 이미지센서의 촬상 영역 전체에 의하여 받아 들여진 화상 신호 가운데 오토 포커싱의 대상으로 하는 범위의 화상 신호를 추출하고, 그 추출한 범위의 화상 신호의 콘트라스트가 가장 높아지도록 포커스를 제어하는 것에 의해 오토 포커스의 대상을 일부의 범위의 피사체로 한정하고 있다. In this type of auto focusing, the entire subject within the photographing range of the camera is not targeted for auto focusing, but only the subject in the range of interest of a part of the photographing range. In contrast-based auto focusing, an image signal of a range targeted for auto focusing is extracted from an image signal received by the entire imaging area of the image sensor, and the focus is controlled so that the contrast of the extracted image signal is the highest. As a result, the subject of autofocus is limited to a subject in a partial range.

그러나, 현재 사용되고 있는 DSC 카메라는 단지 "하나"의 트랙킹 영역으로 피사체의 이동을 추종하는 기능만을 제공하고 있을 뿐이다. However, currently used DSC cameras only provide the function of following the movement of the subject to a "one" tracking area.

아울러, 현재에 사용되고 있는 기술에 의한 오토 포커싱의 경우에는 피사체가 소정의 이미지 내에서 이동하여 상기 이미지 영역을 이탈하는 경우 (가령, 피사체가 이미지 밖으로 이동하여 사라질 경우) 기존의 추종되던 피사체에 대한 정보가 손실되어 피사체를 더 이상 추종할 수 없게 되는 문제점이 발생된다. In addition, in the case of auto focusing according to a technology currently used, when a subject moves within a predetermined image and leaves the image area (for example, when the subject moves out of the image and disappears), information about an existing following subject A problem arises in that a loss cannot be made so that the subject can no longer be followed.

뿐만 아니라, 종래의 콘트라스트 방식에 의한 오토 포커싱 방법은, 가령 촛점화된 이미지 생성을 위한 최적의 렌즈 위치를 찾기 위하여 렌즈 위치가 변화되는 동안 이미지가 언포커싱될 수 있으며, 이 경우 관심 범위에 있는 이동체의 추종에 실패할 가능성이 매우 높다. In addition, the conventional contrast auto-focusing method may unfocus an image while the lens position is changed, for example, to find an optimal lens position for generating a focused image, in which case the moving object is in a range of interest. Is very likely to fail to follow.

한편, 실제의 촬영에서는, 하나의 피사체만을 항상 오토 포커싱의 대상으로 하는 것이 아니라 사용자의 판단에 의하여 순간적으로 다른 피사체로 오토 포커싱의 대상을 바꾸어야 할 경우가 있는데, 이러한 경우에는 트랙 볼 등에 의한 사용자 입력에 의한 관심 범위의 설정에 있어서 이동체의 신속한 추종 응답 측면에서 문제점을 내포하고 있다. On the other hand, in actual shooting, not only one subject is always the target of auto focusing, but it is sometimes necessary to change the auto focusing target to another subject at the discretion of the user. There is a problem in terms of the rapid following response of the moving object in the setting of the range of interest.

또한, 현재 사용되고 있는 DSC 카메라의 경우에 있어서는 이동체의 추종 능력을 제공하고 있지만, 모바일 폰과 같은 소형의 디바이스의 경우 메모리 등과 같은 하드웨어적인 제약으로 인하여 모바일 폰 적용을 위한 별도의 알고리즘이 요구되고 있는 실정이다. In addition, in the case of the currently used DSC camera, it provides the tracking capability of the moving object, but in the case of a small device such as a mobile phone, due to hardware constraints such as memory, a separate algorithm for mobile phone application is required. to be.

본 발명에 의한 오토 포커싱 알고리즘은 이상과 같은 종래 기술에서의 오토 포커싱 방법과 관련된 문제점을 해결하기 위하여 창안된 것으로서, "복수"의 트랙킹 영역으로 피사체의 이동을 추종하여 각각에 대한 최적의 포커싱으로 연속적인 샷이 가능하도록 하는 복수의 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다. The auto focusing algorithm according to the present invention was devised to solve the problems related to the auto focusing method in the related art as described above. It is an object of the present invention to provide a plurality of auto focusing methods for enabling an arbitrary shot.

그리고, 본 발명에 의한 오토 포커싱 알고리즘은, 피사체가 소정의 이미지 내에서 이동하여 상기 이미지 영역을 이탈하는 경우에도 기존의 추종되던 피사체에 대한 정보가 손실됨이 없도록 하여 피사체를 계속 안정되게 추종할 수 있도록 하는 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다. In addition, the auto focusing algorithm according to the present invention can stably follow a subject without losing information on an existing subject even when the subject moves within a predetermined image and leaves the image area. It is an object of the present invention to provide an auto focusing method.

또한, 본 발명에 의한 오토 포커싱 알고리즘은, 촛점화된 이미지 생성을 위한 렌즈 위치의 변화시 뿐만 아니라 줌 인, 줌 아웃 등과 같은 줌 팩터(zooming factor) 및 카메라 뷰(view) 위치의 변화시, 그리고 라이팅 조건의 변화에 따른 이미지 콘트라스트의 변화시에도 견실하게 이동체를 추종할 수 있는 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다. In addition, the auto focusing algorithm according to the present invention is not only at the time of changing the lens position for generating the focused image, but also at the change of the zoom factor and the camera view position such as zoom in, zoom out, and the like. It is an object of the present invention to provide an auto focusing method capable of steadily following a moving object even when the image contrast changes due to a change in lighting conditions.

아울러, 본 발명에 의한 오토 포커싱 알고리즘은 이동체의 대상 변경을 신속하게 처리할 수 있으며, 모바일 폰과 같은 소형의 디바이스에도 하드웨어적으로도 최적으로 적용 가능한 오토 포커싱 방법을 제공하는 것을 그 목적으로 한다. In addition, an object of the present invention is to provide an auto focusing method capable of quickly processing a target change of a moving object and optimally applicable to a small device such as a mobile phone in hardware.

한편, 본 발명에 의한 오토 포커싱 알고리즘은 이상과 같은 주요 목적을 염 두에 두고 창안된 것이지만 반드시 이에 한정되는 것은 아니며, 이러한 구체적인 목적에 대한 기재가 후술하는 본 발명의 구성으로부터 창출되거나 예측 가능한 새로운 목적 및 효과를 배제하는 것은 아님에 주의하여야 한다.On the other hand, the auto focusing algorithm according to the present invention was created with the above main objectives in mind, but is not necessarily limited thereto, and a new object that can be created or predicted from the configuration of the present invention described below will be described. It is to be noted that and effects are not excluded.

이러한 해결 과제를 달성하기 위하여, 복수의 선택된 영역에 대한 오토 포커싱 방법에 있어서, 소정의 이미지 내에서의 이동체(moving object)에 대한 오토 트랙킹(auto tracking)을 위하여 터치 패드를 통한 사용자의 입력에 의하여 선택되는 복수의 중심 포인트; 상기 복수의 중심 포인트 각각을 감싸도록 설정된 복수의 오토 포커싱 영역; 및 상기 복수의 오토 포커싱 영역 각각을 감싸도록 주위에 설정된 복수의 트랙킹 서브 영역을 포함하고, 상기 복수의 중심 포인트, 복수의 오토 포커싱 영역 및 복수의 트랙킹 서브 영역이 함께 상기 이동체를 추종하고, 상기 이동체의 이동에 따라서 상기 오토 포커싱 영역 각각의 위치를 변화시키고 상기 트랙킹 서브 영역 각각의 위치를 업데이트되어, 복수의 트랙킹 영역으로 피사체의 이동을 추종하여 각각에 대한 최적의 포커싱으로 연속적인 샷이 가능하도록 구성되는 것을 특징으로 한다. In order to achieve this problem, in the auto focusing method for a plurality of selected areas, by an input of a user through a touch pad for auto tracking for a moving object in a predetermined image. A plurality of center points selected; A plurality of auto focusing regions configured to surround each of the plurality of center points; And a plurality of tracking sub-areas set around each of the plurality of auto-focusing regions, wherein the plurality of center points, the plurality of auto-focusing regions, and the plurality of tracking sub-regions follow the movable body and the movable body The position of each of the auto focusing regions is changed and the positions of each of the tracking sub-regions are updated according to the movement of, so that the shots can follow the movement of the subject to a plurality of tracking regions to enable continuous shots with optimal focusing for each. It is characterized by.

여기서, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 벗어나고 있는 경우, 상기 트랙킹 서브 영역의 에지부는 상기 이미지의 에지부와 일치된 상태로 유지됨과 동시에 상기 트랙킹 서브 영역 내부의 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서 상기 이동체를 추종하도록 상기 이미지의 에지부를 향하 여 이동하며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 완전히 벗어나 상기 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서의 이동에 의하여 상기 이미지의 에지부에 도달한 경우에도, 상기 오토 포커싱 영역과 트랙킹 서브 영역은 모두 상기 이미지의 에지부에서 유지되도록 구성되는 것을 특징으로 한다. Here, when the moving object for auto tracking is deviated from the edge portion of the image, the edge portion of the tracking sub-region remains in agreement with the edge portion of the image and at the same time only the auto focusing region inside the tracking sub-region Move toward the edge of the image to follow the moving object within a tracking sub-area, and the moving object for auto-tracking is completely out of the edge of the image, so that only the auto focusing area is moved by the movement in the tracking sub-area. Even when the edge portion of the image is reached, the auto focusing region and the tracking sub region are both configured to be maintained at the edge portion of the image.

바람직하게는, 상기 이동체를 추종하는 단계는, a) 상기 트랙킹 서브 영역 주위로 서브 이미지를 커팅하는 단계; b) 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)함에 의하여 전 후 프레임에서의 서브 이미지들을 스무딩(smoothing)하는 단계; c) 상기 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하는 단계; 및 d) 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계를 포함한다. Advantageously, following the moving body comprises: a) cutting a sub image around the tracking sub-region; b) smoothing the sub-images in the before and after frames by convolving with a Gaussian function; c) calculating the gradient of the front and back sub-images by convolving with a Gaussian derivative; And d) iterating to find the location of the new center point.

여기서, 상기 이동체의 추종은, 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는 상기 중심 포인트가 경계 외부에 위치되는 경우에 그 추종 프로세스를 정지하는 것을 특징으로 한다. Here, the following of the moving object stops the following process when the center point moves only by one pixel, or when the repetition step exceeds a preset limit, or when the center point is located outside the boundary. Characterized in that.

한편, 본 발명에 의한 또 다른 복수의 선택된 영역에 대한 오토 포커싱 방법은, a) 디폴트 오토 포커싱 영역 설정치가 오토 포커싱 영역 콘트롤러로 입력되고 오토 트랙킹 기능이 활성화되었는지 여부를 판단하는 단계; b) 오토 트랙킹 기능이 활성화된 경우, 다음 프레임에서의 복수의 오토 포커싱 영역들 각각을 트랙킹한 다음, 각각의 영역에 대하여 정보를 업데이트하는 단계; c) 상기 업데이트된 복수의 오토 포커싱 영역들에 관한 정보를 렌즈 활성화 콘트롤러로 전송하는 단계; d) 연 속적인 샷(sequence shot) 기능이 활성화되었는지 여부를 판단하는 단계; 및 e) 연속적인 샷 기능이 활성화된 경우, 샷 시퀀스(shot sequence) 내의 각각의 다음 샷(next shot)을 위하여 다음 오토 포커싱 영역(next AF area)을 렌즈 콘트롤러로 전송하는 단계를 포함한다. Meanwhile, an auto focusing method for a plurality of selected areas according to the present invention includes: a) determining whether a default auto focusing area setting value is input to an auto focusing area controller and an auto tracking function is activated; b) when the auto tracking function is activated, tracking each of the plurality of auto focusing regions in the next frame and then updating information for each region; c) transmitting information regarding the updated plurality of auto focusing regions to a lens activation controller; d) determining whether a sequence shot function is activated; And e) when the continuous shot function is activated, transmitting a next auto focusing area (next AF area) to the lens controller for each next shot in the shot sequence.

여기서, 추종 영역에 대한 판단에 의하여 만약 추종할 영역이 없을 경우에는 사용자로 하여금 오토 포커싱 영역을 선택하도록 한 후 사용자에 의하여 선택된 영역은 다시 오토 포커싱 영역 콘트롤러로 입력되고, 상기 a) 단계 내지 e) 단계를 반복적으로 수행하는 것을 특징으로 한다. In this case, if there is no area to be followed according to the determination of the following area, the user selects the auto focusing area, and then the area selected by the user is inputted to the auto focusing area controller again. It is characterized by performing the step repeatedly.

이하, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention.

복수의 선택된 영역에 대한 오토 포커싱 시스템Auto focusing system for multiple selected areas

본 발명에 의한 복수의 선택된 영역에 대한 오토 포커싱 시스템은, 도 1에 도시된 바와 같이, 크게 렌즈 유닛(100), 트랙킹 유닛(200), 오토 포커싱 영역 선택 유닛(300) 및 오토 포커싱 콘트롤러(400)으로 구성된다. As shown in FIG. 1, an auto focusing system for a plurality of selected areas according to the present invention includes a lens unit 100, a tracking unit 200, an auto focusing area selection unit 300, and an auto focusing controller 400. It is composed of

먼저, 오토 포커싱 영역 선택 유닛(300)은 사용자로부터 관심 영역에 대한 입력을 받는 수단이다. 본 발명은 기존과는 달리 "복수"의 관심 영역을 선택하고 그 각각에 대한 포커싱을 수행하여 연속적인 샷이 가능하도록 구성되므로, "터치 패드 방식"에 의하여 사용자가 관심 영역을 입력하도록 구성된다. First, the auto focusing area selection unit 300 is a means for receiving an input for a region of interest from a user. The present invention is configured to allow continuous shots by selecting a plurality of regions of interest and focusing on each of them, so that the user inputs the regions of interest by a "touch pad method".

이러한 오토 포커싱 영역 선택 유닛(300)으로부터 입력된 복수의 관심 영역은 오토 포커싱 콘트롤러(400)로 입력된다. 오토 포커싱 콘트롤러(400)는 후술하는 도 3에 도시된 바와 같이 소정의 이미지(10) 내에서의 이동체(moving object; 20)에 대한 오토 트랙킹(auto tracking)을 위하여 사용자의 입력에 의하여 선택되는 복수의 중심 포인트(area of interest central point; 11)와, 상기 중심 포인트(11) 각각을 감싸도록 설정된 복수의 오토 포커싱 영역(auto fucusing area; 13), 및 상기 오토 포커싱 영역(13) 각각을 감싸도록 주위에 설정된 복수의 트랙킹 서브 영역(tracking sub-window; 12)을 설정하게 된다. The plurality of ROIs input from the auto focusing area selection unit 300 are input to the auto focusing controller 400. The auto focusing controller 400 may be selected by a user input for auto tracking of a moving object 20 in a predetermined image 10 as shown in FIG. 3. Surround a center of interest 11, a plurality of auto focusing areas 13 set to surround each of the center points 11, and each of the auto focusing areas 13. A plurality of tracking sub-windows 12 are set around.

트랙킹 유닛(200)은 사용자가 지정한 복수의 관심 영역에서의 피사체의 이동을 화면상으로 각각 추종하면서 그 피사체를 트랙킹하고 복수의 오토 포커싱 영역의 위치를 자동으로 이동시키기 위한 장치에 해당한다. 이러한 트랙킹 유닛(200)은 이미지 입력부(201)로부터 입력받은 이미지를 이미지 프로세싱부(202)에서 오토 포커싱 영역을 설정 및 업데이트한다. 이러한 오토 트랙킹 기능은 트랙킹 활성화 수단(203)에 의하여 작동 여부가 결정된다. The tracking unit 200 corresponds to an apparatus for tracking a subject and automatically shifting positions of the plurality of auto focusing regions while following a movement of a subject in a plurality of regions of interest designated by a user on the screen. The tracking unit 200 sets and updates the auto focusing area in the image processing unit 202 with the image received from the image input unit 201. This auto tracking function is determined by the tracking activation means 203.

렌즈 유닛(100)은 트랙킹 유닛(200)에 의하여 추종된 복수의 관심 영역 각각에 대하여 포커싱된 이미지로 연속적인 촬영을 가능하게 한다. 연속적인 샷 활성화 수단(101)은 이러한 연속적인 촬영의 작동 여부를 결정한다. 연속적인 샷 활성화 수단(101)에 의하여 연속적인 촬영이 활성화될 경우, 각각의 트랙킹된 오토 포커싱 영역이 순차적으로 오토 포커싱 입력부(103)로 입력되고(102 참조) 오토 포커싱 프로세싱부(104)에서 오토 포커싱에 대한 데이터가 계산된다. 이를 기초로 하여 렌즈 활성화 콘트롤러(105)에 의하여 각각의 포커싱을 위한 렌즈부(미도시)의 위치를 설정 및 제어하게 된다. The lens unit 100 enables continuous shooting with an image focused on each of the plurality of ROIs followed by the tracking unit 200. The continuous shot activating means 101 determines whether such continuous shooting is operated. When continuous shooting is activated by the continuous shot activating means 101, each tracked auto focusing area is sequentially input to the auto focusing input unit 103 (see 102), and the auto focusing processing unit 104 performs auto Data for focusing is calculated. Based on this, the lens activation controller 105 sets and controls the position of the lens unit (not shown) for each focusing.

도 2는 앞서 설명한 복수의 관심 영역에 대한 오토 포커싱 시스템에서 수행하는 작동을 나타내는 순서도이다. 2 is a flowchart illustrating an operation performed by the auto focusing system for the plurality of ROIs described above.

도 2에 도시된 바와 같이, 먼저 디폴트 오토 포커싱 영역 설정치가 오토 포커싱 영역 콘트롤러(400)로 입력되고 오토 트랙킹 기능이 활성화되었는지 여부를 판단한다(s10). As shown in FIG. 2, first, a default auto focusing area setting value is input to the auto focusing area controller 400 and it is determined whether the auto tracking function is activated (S10).

오토 트랙킹이 활성화된 경우, 다음 프레임에서의 복수의 오토 포커싱 영역들을 트랙킹한 다음(s20) 각각의 영역에 대하여 정보를 업데이트한다(s40). If auto tracking is activated, the plurality of auto focusing areas are tracked in the next frame (s20), and information is updated for each area (s40).

그 후, 사용자의 입력이 검출되지 않을 경우(s50), 렌즈 활성화 콘트롤러(105)로 복수의 오토 포커싱 영역들 정보를 전송한다(s60). Thereafter, when the user's input is not detected (s50), the plurality of pieces of autofocusing regions are transmitted to the lens activation controller 105 (s60).

그 다음, 연속적인 샷(sequence shot) 기능이 활성화되었는지 여부를 판단한 후(s70), 샷 시퀀스(shot sequence) 내의 각각의 다음 샷을 위하여 다음 오토 포커싱 영역을 렌즈 콘트롤러로 전송하게 된다(s80). Next, after determining whether the continuous shot function is activated (S70), the next auto focusing area is transmitted to the lens controller for each next shot in the shot sequence (S80).

한편, 추종 영역에 대한 판단(s30)에 의하여 만약 추종할 영역이 없을 경우에는 사용자로 하여금 오토 포커싱 영역을 선택하도록 한 후 사용자에 의하여 선택된 영역은 다시 오토 포커싱 영역 콘트롤러(400)로 입력되고, 앞서 설명한 s10 내지 s80 단계가 반복적으로 수행된다. On the other hand, if there is no area to be followed according to the determination of the following area (s30), the user selects the auto focusing area and then the area selected by the user is input to the auto focusing area controller 400 again. The described steps s10 to s80 are repeatedly performed.

복수의 포커싱 영역 각각에 대한 알고리즘Algorithm for each of the plurality of focusing regions

도 3에 도시된 바와 같이, 본 발명에 의한 오토 포커싱은, 크게 3개의 영역에 의하여 수행된다. As shown in Fig. 3, auto focusing according to the present invention is largely performed by three areas.

이들 3개의 영역은, 소정의 이미지(10) 내에서의 이동체(moving object; 20)에 대한 오토 트랙킹(auto tracking)을 위하여 사용자의 입력에 의하여 선택되는 하나의 중심 포인트(area of interest central point; 11)와, 상기 중심 포인트(11)를 감싸도록 설정된 오토 포커싱 영역(auto fucusing area; 13), 및 상기 오토 포커싱 영역(13)을 감싸도록 주위에 설정된 트랙킹 서브 영역(tracking sub-window; 12)로 구성된다. These three regions may include one area of interest central point selected by a user input for auto tracking of a moving object 20 within a given image 10; 11), an auto fucusing area 13 set to surround the center point 11, and a tracking sub-window 12 set around the auto focusing area 13. It consists of.

하나의 중심 포인트(11)는 이동체(20)의 트랙킹을 위하여 사용자에 의하여 선택되는 영역이다. One center point 11 is an area selected by the user for tracking the moving object 20.

이러한 하나의 중심 포인트(11)는 앞서 설명한 바와 같이 종래기술에서와는 달리 터치 패드 방식으로 사용자에 의하여 입력되는 것이 바람직한데, 터치 패드 방식에 의하여 이동체의 대상 선택 및 변경에 신속하게 대처할 수 있으며, 모바일 디바이스와 같은 소형의 디바이스에 보다 적합한 대상체 선택 수단이 된다. As described above, the one center point 11 is preferably input by the user by a touch pad method, unlike in the related art, and can quickly cope with object selection and change of a moving object by the touch pad method. It becomes a more suitable object selection means for a small device such as.

오토 포커싱 영역(13)은 선택된 중심 포인트를 기준으로 포커싱 프로세스를 수행하는 영역에 해당한다. The auto focusing area 13 corresponds to an area for performing a focusing process based on the selected center point.

한편, 본 발명에 있어서는 오토 포커싱 영역(13) 이외에 이를 둘러싸는 영역인 트랙킹 서브 영역(12)을 더 포함하는 것을 그 기술적 특징 중 하나로 하고 있 다. 이러한 트랙킹 서브 영역(12) 내에서만 이미지 프로세싱을 수행하므로 메모리 사용과 계산량을 감소 효과가 발생하며, 특히 모바일 폰과 같은 소형 디바이스에 더욱 적합하게 사용되기 위하여 채택된 구성일 뿐만 아니라, 후술하는 데이터 유지 측면에서 필수적인 구성이라 할 것이다. 통상적으로 초당 30 프레임을 프로세싱하기 때문에 관심 영역은 프레임들 사이에서 큰 거리로 시프트되지 않으며, 만약 두 프레임 사이의 최대 시프트가 이미지의 20%일 경우 최대 20배만큼 계산량을 감소시킬 수 있고 이에 소요되는 메모리는 5배만큼 감소시킬 수 있다. In the present invention, one of the technical features of the present invention further includes a tracking sub-region 12 which is an area surrounding the auto-focusing region 13. Since image processing is performed only within this tracking sub-area 12, the effect of reducing memory usage and calculation amount is generated, and it is not only a configuration adopted to be more suitably used for a small device such as a mobile phone, but also retains the data described below. In terms of configuration is essential. Because it typically processes 30 frames per second, the region of interest is not shifted by a large distance between the frames, and if the maximum shift between the two frames is 20% of the image, then the amount of computation can be reduced by up to 20 times. Memory can be reduced by five times.

도 4a에서 확인되는 바와 같이, 앞서 설명한 중심 포인트(11), 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)이 함께 소정의 전체 이미지(10) 내에서 이동체(20)를 트랙킹하고, 이동체(20)의 이동에 따라서 상기 오토 포커싱 영역(13)의 위치를 변화시키고 상기 트랙킹 서브 영역(12)의 위치를 업데이트한다. As can be seen in FIG. 4A, the center point 11, the auto focusing region 13 and the tracking sub-region 12 described above together track the movable body 20 within a predetermined overall image 10, and the movable body ( According to the movement of 20, the position of the auto focusing region 13 is changed and the position of the tracking sub-region 12 is updated.

이동체(20)의 이동에 있어서, 도 4b에서와 같이 오토 트랙킹을 위한 이동체(20)가 소정의 전체 이미지(10)의 우측 에지부로부터 벗어나고 있는 경우, 트랙킹 서브 영역(12)의 에지부는 이미지(10)의 에지부와 일치된 상태로 유지되는 반면 트랙킹 서브 영역(12) 내부의 오토 포커싱 영역(13)만이 상기 트랙킹 서브 영역(12) 내에서 이동체(20)를 계속 추종하도록 이미지(10)의 에지부를 향하여 우측으로 이동하게 된다. In the movement of the movable body 20, when the movable body 20 for auto tracking is deviated from the right edge portion of the predetermined whole image 10 as shown in FIG. 4B, the edge portion of the tracking sub-region 12 is an image ( The auto focusing region 13 inside the tracking sub-region 12 is kept in alignment with the edge of 10, so that the moving object 20 continues to follow in the tracking sub-region 12. It is moved to the right toward the edge portion.

도 4c에서와 같이, 만약 오토 트랙킹을 위한 이동체(20)가 이미지(10)의 에지부로부터 우측으로 완전히 벗어나 (가령, 화면에서 이동체가 사라질 경우) 오토 포커싱 영역(13)만이 트랙킹 서브 영역(12) 내에서의 이동에 의하여 전체 이미 지(10)의 에지부에 도달한 경우에도, 오토 포커싱 영역(13)과 트랙킹 서브 영역(12)은 모두 이미지(10)의 에지부에서 계속 유지되도록 구성된다. As shown in FIG. 4C, if the moving object 20 for auto tracking is completely deviated to the right from the edge of the image 10 (eg, when the moving object disappears from the screen), only the auto focusing area 13 is the tracking sub area 12. Even when the edge of the entire image 10 is reached by the movement within), both the auto focusing region 13 and the tracking sub-region 12 are configured to remain at the edge portion of the image 10. .

즉, 통상적으로 종래 기술에 있어서는 피사체가 소정의 이미지 내에서 이동하여 소정의 이미지 영역을 이탈하는 경우 (가령, 피사체가 이미지 밖으로 이동하여 사라질 경우) 기존의 추종되던 피사체에 대한 정보가 손실되는데 비하여, 본 발명에서는 이러한 경우에 있어서도 오토 포커싱 영역(13)과 트랙킹 서브 영역(12) 모두가 해당 이미지의 에지부에서 계속 유지되도록 구성됨에 의하여 이동체에 대한 트랙킹 데이터가 계속 유지되어 피사체를 안정되게 추종할 수 있도록 한다. That is, in the conventional art, when a subject moves within a predetermined image and leaves a predetermined image area (for example, when the subject moves out of the image and disappears), information on an existing following subject is lost, In the present invention, even in this case, both the auto focusing area 13 and the tracking sub area 12 are configured to be maintained at the edge of the image, so that the tracking data for the moving object can be continuously maintained to stably follow the subject. Make sure

이하, 임의의 환경에서도 이동체를 견실하게 추종하는 본 발명에 의한 이동체의 추종에 대한 프로세싱 단계를 설명하도록 한다. The following describes a processing step for following a moving object according to the present invention which reliably follows the moving object in any environment.

먼저, 트랙킹 서브 영역(12) 주위로 서브 이미지를 커팅한다. First, a sub image is cut around the tracking sub area 12.

다음, 커팅된 시간상 전후(n, n+1)의 프레임에서의 서브 이미지들을 아래 수식 1인 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)에 의하여 스무딩(smoothing)하게 된다. Next, the sub-images in the frames before and after the cut time (n, n + 1) are smoothed by convolving with a Gaussian function represented by Equation 1 below.

Figure 112008085506938-PAT00001
Figure 112008085506938-PAT00001

초기 영상의 스무딩을 위해, σ=0.1을 사용한다. 그리고 서브 이미지 다운 스케일(downscale)을 위해, σ=0.9를 사용한다.For smoothing the initial image, σ = 0.1 is used. And for sub-image downscale, σ = 0.9.

예로 σ=0.8에 대한 샘플 가우시안 매트릭스(Matrix)는 아래와 같다.For example, a sample Gaussian matrix for σ = 0.8 is shown below.

Figure 112008085506938-PAT00002
Figure 112008085506938-PAT00002

그 다음, 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하게 된다. The gradient of the front and back sub-images is then calculated by convolving with a Gaussian derivative.

여기서, 가우시안의 도함수는 실제 적용된 값의 함수들(real valued functions)이다.Here, Gaussian derivatives are real valued functions.

그리고 1차원에서, 아래 수식 2와 같이, 가우시안의 도함수는 다항식(polynomial)과 가우시안의 결과와 같은 특징을 가진다.In one dimension, as in Equation 2 below, the derivative of Gaussian has the same characteristics as the result of polynomial and Gaussian.

Figure 112008085506938-PAT00003
Figure 112008085506938-PAT00003

도 8은 x축의 가우시안 함수와 y축의 가우시안 함수의 두 개 도함수를 구성 하는 가우시안의 도함수를 나타내는 도면이다.8 is a diagram illustrating a Gaussian derivative constituting two derivatives, a Gaussian function on the x-axis and a Gaussian function on the y-axis.

도 8과 같이 각각의 영역에서, 이 함수들은 경향이 있는 특정 부분에서 증가(흰색)와 감소(검은색)로 일부가 아주 작게 변한다.In each area, as shown in Figure 8, these functions change very small in part with increasing (white) and decreasing (black) in certain parts of the trend.

마지막으로, 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계를 거치게 된다. Finally, iteration takes place to find the location of the new center point.

반복의 순서는 아래와 같은 특징을 가지고 있다.The sequence of iterations has the following characteristics:

1. 평균적으로 5회 반복으로 충분하며 추천할 만 하다.1. On average, 5 repetitions are sufficient and recommended.

2. 첫번째 반복(k=1)에서, 초기 추정(Guess)은 앞 프레임들(frames)의 추적을 기반으로 움직임을 예측함에 의해 설정된다.2. At the first iteration (k = 1), the initial estimate is set by predicting the motion based on tracking the preceding frames.

3. 가우시안 함수와 가우시안 도함수 필터들에 의해 회전, 잡음, 줌 요소 그리고 디포커싱(defocusing)에 대해 변하지 않는 영상 디스플레이(displacement) 계산 방법을 얻기 위해 영상 구조를 얻는다.3. The image structure is obtained to obtain an image display calculation method that does not change for rotation, noise, zoom factor, and defocusing by Gaussian function and Gaussian derivative filters.

4. 각각의 반복은 각각의 레벨(level)(다운스케일 4개 요소를 가진 2 레벨을 사용한다)을 위해 디스플레이 영상을 최소화한다. 큰(big) 영상 시프트(shift) 검출을 위해 레벨을 다운스케일하고 정확한 시프트 검출을 위해 초기 크기를 다운스케일 한다. 4. Each iteration minimizes the display picture for each level (use 2 levels with 4 elements of downscale). Downscale the level for big image shift detection and downscale the initial size for accurate shift detection.

한편, 상기 이동체의 추종에 관한 계산은, 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는 상기 중심 포인트가 경계 외부에 위치되는 경우에 정지하는 것이 바람직하다. On the other hand, the calculation regarding the following of the moving object stops when the center point moves only by one pixel, or when the repetition step exceeds a preset limit, or when the center point is located outside the boundary. It is preferable.

이상과 같은 트랙킹 서브 영역의 설정 및 이동체 트랙킹 프로세싱에 의하여 본 발명은 다음과 같은 효과를 창출하게 되며 이를 관련 도면인 도 5 내지 도 7를 참조하여 설명하도록 한다(비록 도 5 내지 7에서는 하나의 포커싱 선택 영역에 대하여 예시적으로 나타내었으나, 연속적인 샷에 의하여 동일한 효과를 기대할 수 있다). By the above-described setting of the tracking sub-region and the moving object tracking processing, the present invention creates the following effects, which will be described with reference to FIGS. 5 to 7 (although in FIGS. 5 to 7 one focusing). Although shown as an example for the selection area, the same effect can be expected by the continuous shot).

먼저, 도 5는 이미지 포커싱이 지속적으로 변화될 경우의 본 발명에 의한 트랙킹 성능을 나타낸다. First, FIG. 5 shows the tracking performance according to the present invention when the image focusing is continuously changed.

즉, 촛점화된 이미지 생성을 위하여 렌즈의 위치가 변화하여 도 5b 내지 도 5d에서와 같이 이미지가 디포커싱되고 있는 경우에도, 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 안정되게 추종하고 있음을 알 수 있다. That is, even when the position of the lens is changed to generate a focused image and the image is defocused as shown in FIGS. 5B to 5D, one center point 11 selected by the user with respect to the moving object 20 is selected. The auto focusing region 13 and the tracking sub-region 12 can stably follow the moving object of interest.

또한, 도 6은 줌 팩터(zooming factor) 및 카메라 뷰(view) 위치의 변화시 본 발명에 의한 트랙킹 성능을 나타낸다. 6 also shows the tracking performance according to the present invention upon change in zoom factor and camera view position.

즉, 촬영을 준비하고 있는 동안, 사용자는 줌 인 또는 줌 아웃과 같은 이미지 줌 팩터를 변화시킬 수 있고 또한 카메라의 뷰 위치를 변경할 수도 있다. 본 발명에 의할 경우, 이러한 상황에서도 도 6a 내지 도 6c에서와 같이 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 잘 추종하고 있음을 알 수 있다. That is, while preparing to shoot, the user can change the image zoom factor such as zoom in or zoom out and also change the view position of the camera. According to the present invention, even in this situation, as shown in FIGS. 6A to 6C, one center point 11 and the auto focusing region 13 and the tracking sub-region 12 selected by the user with respect to the movable body 20 are provided. It can be seen that follows well the moving object of interest.

아울러, 도 7은 라이팅(lighting) 조건의 변화에 따른 이미지 콘트라스 트(image contrast)의 변화시 본 발명에 의한 트랙킹 성능을 또한 나타낸다. In addition, Figure 7 also shows the tracking performance according to the present invention when the image contrast (image contrast) changes with the change in the lighting (lighting) conditions.

즉, 현재의 라이팅 조건에 적합하도록 카메라를 조정하는 동안에 이미지 콘트라스트가 변화할 수 있다. 본 발명에 의할 경우, 이러한 상황에서도 도 7a 및 도 7b에서와 같이 이동체(20)에 대하여 사용자에 의하여 입력 선택된 하나의 중심 포인트(11)와 오토 포커싱 영역(13) 및 트랙킹 서브 영역(12)은 관심 대상인 이동체를 견실하게 추종하고 있음을 알 수 있다. In other words, image contrast may change while adjusting the camera to suit the current lighting conditions. According to the present invention, even in such a situation, as shown in FIGS. 7A and 7B, one center point 11 and the auto focusing region 13 and the tracking sub-region 12 selected by the user with respect to the movable body 20 are provided. It can be seen that steadily follows the moving object of interest.

이상에서 설명된 내용은 본 발명의 바람직한 실시예의 형태로 제공되었으므로, 당해 기술 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해하여야 할 것이다. 따라서, 본 발명의 권리 범위는 개시된 실시예에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Since the contents described above are provided in the form of preferred embodiments of the present invention, those skilled in the art should understand that various modifications and equivalent other embodiments are possible therefrom. Accordingly, the scope of the present invention is not limited to the disclosed embodiments, but various modifications and improvements of those skilled in the art using the basic concept of the present invention as defined in the following claims also belong to the scope of the present invention.

도 1은 본 발명에 의한 복수의 선택된 영역에 대한 오토 포커싱 시스템의 블록도.1 is a block diagram of an auto focusing system for a plurality of selected regions in accordance with the present invention;

도 2는 도 1에 의한 시스템의 작동 순서도.2 is an operational flow diagram of the system according to FIG.

도 3은 본 발명에 의한 오토 포커싱 방법에 사용되는 하나의 중심 포인트와 오토 포커싱 영역 및 트랙킹 서브 영역을 나타내는 도면. 3 is a diagram illustrating one center point, an auto focusing area, and a tracking sub area used in an auto focusing method according to the present invention;

도 4는 본 발명에 의한 오토 포커싱 방법에 사용되는 하나의 중심 포인트와 오토 포커싱 영역 및 트랙킹 서브 영역의 작동을 예시적으로 나타내는 도면. 4 is a diagram illustrating an operation of one center point and an auto focusing region and a tracking sub-region used in the auto focusing method according to the present invention.

도 5는 이미지 포커싱이 지속적으로 변화될 경우의 본 발명에 의한 트랙킹 성능을 나타내는 도면. 5 is a diagram showing tracking performance according to the present invention when image focusing is continuously changed.

도 6은 줌 팩터 및 카메라 뷰 위치의 변화시 본 발명에 의한 트랙킹 성능을 나타내는 도면. 6 shows tracking performance in accordance with the present invention upon change in zoom factor and camera view position.

도 7은 라이팅 조건의 변화에 따른 이미지 콘트라스트의 변화시 본 발명에 의한 트랙킹 성능을 나타내는 도면. 7 is a diagram showing tracking performance according to the present invention when a change in image contrast according to a change in lighting conditions.

도 8은 x축의 가우시안 함수와 y축의 가우시안 함수의 두 개 도함수를 구성하는 가우시안의 도함수를 나타내는 도면.8 is a diagram illustrating a Gaussian derivative constituting two derivatives, a Gaussian function on the x-axis and a Gaussian function on the y-axis.

* 도면의 주요 부호에 대한 설명** Description of the main symbols in the drawings *

10: 이미지 11: 중심 포인트10: image 11: center point

12: 트랙킹 서브 영역 13: 오토 포커스 영역12: Tracking sub area 13: Auto focus area

20: 이동체20: moving object

100: 렌즈 유닛 200: 트랙킹 유닛100: lens unit 200: tracking unit

300: 오토 포커싱 영역 선택 유닛 400: 오토 포커싱 콘트롤러300: auto focusing area selection unit 400: auto focusing controller

Claims (6)

복수의 선택된 영역에 대한 오토 포커싱 방법에 있어서,In the auto focusing method for a plurality of selected areas, 소정의 이미지 내에서의 이동체(moving object)에 대한 오토 트랙킹(auto tracking)을 위하여 터치 패드를 통한 사용자의 입력에 의하여 선택되는 복수의 중심 포인트;A plurality of center points selected by a user's input through a touch pad for auto tracking of moving objects in a given image; 상기 복수의 중심 포인트 각각을 감싸도록 설정된 복수의 오토 포커싱 영역; 및A plurality of auto focusing regions configured to surround each of the plurality of center points; And 상기 복수의 오토 포커싱 영역 각각을 감싸도록 주위에 설정된 복수의 트랙킹 서브 영역A plurality of tracking sub-areas set around each of the plurality of auto focusing regions 을 포함하고,Including, 상기 복수의 중심 포인트, 복수의 오토 포커싱 영역 및 복수의 트랙킹 서브 영역이 함께 상기 이동체를 추종하고, 상기 이동체의 이동에 따라서 상기 오토 포커싱 영역 각각의 위치를 변화시키고 상기 트랙킹 서브 영역 각각의 위치를 업데이트되어, 복수의 트랙킹 영역으로 피사체의 이동을 추종하여 각각에 대한 최적의 포커싱으로 연속적인 샷이 가능하도록 구성되는 것을 특징으로 하는 복수의 선택된 영역에 대한 오토 포커싱 방법,The plurality of center points, the plurality of auto focusing regions and the plurality of tracking sub-regions together follow the movable body, change positions of each of the auto focusing regions and update positions of each of the tracking sub-regions in accordance with the movement of the movable body. And follow the movement of the subject in the plurality of tracking areas to enable continuous shots with optimal focusing for each of the plurality of selected areas. 제1항에 있어서,The method of claim 1, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 벗어나고 있는 경우, 상기 트랙킹 서브 영역의 에지부는 상기 이미지의 에지부와 일치된 상태로 유지됨과 동시에 상기 트랙킹 서브 영역 내부의 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서 상기 이동체를 추종하도록 상기 이미지의 에지부를 향하여 이동하며, 상기 오토 트랙킹을 위한 이동체가 이미지의 에지부로부터 완전히 벗어나 상기 오토 포커싱 영역만이 상기 트랙킹 서브 영역 내에서의 이동에 의하여 상기 이미지의 에지부에 도달한 경우에도, 상기 오토 포커싱 영역과 트랙킹 서브 영역은 모두 상기 이미지의 에지부에서 유지되도록 구성되는 것을 특징으로 하는 복수의 선택된 영역에 대한 오토 포커싱 방법.When the moving object for the auto tracking is out of the edge portion of the image, the edge portion of the tracking sub-region remains in agreement with the edge portion of the image and at the same time, only the auto focusing region inside the tracking sub-region is in the tracking sub-region. Move toward the edge of the image to follow the moving object within an area, wherein the moving object for auto tracking is completely out of the edge of the image and only the auto focusing area is moved by the movement within the tracking sub-area. Even when the edge portion is reached, both the auto focusing region and the tracking sub region are configured to be held at the edge portion of the image. 제2항에 있어서,The method of claim 2, 상기 이동체를 추종하는 단계는,Following the moving body, a) 상기 트랙킹 서브 영역 주위로 서브 이미지를 커팅하는 단계;a) cutting a sub image around the tracking sub-region; b) 다음 수식에 의한 가우시안 함수(Gaussian Function)로 컨볼빙(convolving)함에 의하여 전 후 프레임에서의 서브 이미지들을 스무딩(smoothing)하는 단계b) smoothing the sub-images in the before and after frames by convolving into a Gaussian function according to the following equation:
Figure 112008085506938-PAT00004
;
Figure 112008085506938-PAT00004
;
c) 상기 가우시안의 도함수(derivative)로 컨볼빙함에 의하여 상기 전후 서브 이미지들의 기울기(gradient)를 계산하는 단계; 및c) calculating the gradient of the front and back sub-images by convolving with a Gaussian derivative; And d) 새로운 중심 포인트의 위치를 발견하도록 반복(iteration)하는 단계;d) iterating to find the location of the new center point; 를 포함하는 것을 특징으로 하는 복수의 선택된 영역에 대한 오토 포커싱 방법. Auto focusing method for a plurality of selected areas comprising a.
제3항에 있어서,The method of claim 3, 상기 이동체의 추종에 대한 계산은,The calculation for the following of the mobile body, - 단지 하나의 픽셀만큼만 상기 중심 포인트가 이동할 경우, 또는The center point moves by only one pixel, or - 상기 반복 단계가 미리 설정된 한계치를 초과할 경우, 또는The repeating step exceeds a preset threshold, or - 상기 중심 포인트가 경계 외부에 위치되는 경우The center point is located outside the boundary. 에 정지하는 것을 특징으로 하는 복수의 선택된 영역에 대한 오토 포커스 방법.An autofocus method for a plurality of selected areas, characterized by stopping at. 복수의 선택된 영역에 대한 오토 포커싱 방법에 있어서, In the auto focusing method for a plurality of selected areas, a) 디폴트 오토 포커싱 영역 설정치가 오토 포커싱 영역 콘트롤러로 입력되고 오토 트랙킹 기능이 활성화되었는지 여부를 판단하는 단계; a) determining whether a default auto focusing area setting value is input to an auto focusing area controller and the auto tracking function is activated; b) 오토 트랙킹 기능이 활성화된 경우, 다음 프레임에서의 복수의 오토 포커 싱 영역들 각각을 트랙킹한 다음, 각각의 영역에 대하여 정보를 업데이트하는 단계;b) if the auto tracking function is activated, tracking each of the plurality of auto focusing regions in the next frame and then updating information for each region; c) 상기 업데이트된 복수의 오토 포커싱 영역들에 관한 정보를 렌즈 활성화 콘트롤러로 전송하는 단계; c) transmitting information regarding the updated plurality of auto focusing regions to a lens activation controller; d) 연속적인 샷(sequence shot) 기능이 활성화되었는지 여부를 판단하는 단계; 및d) determining whether a sequence shot function is activated; And e) 연속적인 샷 기능이 활성화된 경우, 샷 시퀀스(shot sequence) 내의 각각의 다음 샷(next shot)을 위하여 다음 오토 포커싱 영역(next AF area)을 렌즈 콘트롤러로 전송하는 단계e) if a subsequent shot function is activated, transferring the next autofocus area to the lens controller for each next shot in the shot sequence; 를 포함하는 복수의 선택된 영역에 대한 오토 포커싱 방법.Auto focusing method for a plurality of selected areas comprising a. 제5항에 있어서,The method of claim 5, 추종 영역에 대한 판단에 의하여 만약 추종할 영역이 없을 경우에는 사용자로 하여금 오토 포커싱 영역을 선택하도록 한 후 사용자에 의하여 선택된 영역은 다시 오토 포커싱 영역 콘트롤러로 입력되고, 상기 a) 단계 내지 e) 단계를 반복적으로 수행하는 것을 특징으로 하는 복수의 선택된 영역에 대한 오토 포커싱 방법. If there is no area to be followed according to the determination of the following area, the user selects the auto focusing area, and then the area selected by the user is inputted to the auto focusing area controller again. Auto focusing for a plurality of selected areas, characterized in that it is performed repeatedly.
KR1020080126222A 2008-12-12 2008-12-12 Auto-focusing method KR100975929B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080126222A KR100975929B1 (en) 2008-12-12 2008-12-12 Auto-focusing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080126222A KR100975929B1 (en) 2008-12-12 2008-12-12 Auto-focusing method

Publications (2)

Publication Number Publication Date
KR20100067711A true KR20100067711A (en) 2010-06-22
KR100975929B1 KR100975929B1 (en) 2010-08-13

Family

ID=42366267

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080126222A KR100975929B1 (en) 2008-12-12 2008-12-12 Auto-focusing method

Country Status (1)

Country Link
KR (1) KR100975929B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05145822A (en) * 1991-03-26 1993-06-11 Olympus Optical Co Ltd Moving body tracking device
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera
JP4761146B2 (en) * 2006-06-30 2011-08-31 カシオ計算機株式会社 Imaging apparatus and program thereof

Also Published As

Publication number Publication date
KR100975929B1 (en) 2010-08-13

Similar Documents

Publication Publication Date Title
US7995909B2 (en) Auto-focusing method
EP2357788B1 (en) Autofocus with confidence measure
EP2615484B1 (en) Automatic focusing apparatus and method with calibration and slope correction
KR100890949B1 (en) Electronic device and method in an electronic device for processing image data
US8848094B2 (en) Optimal blur matching selection for depth estimation
WO2015049917A1 (en) Focal point detection device and focal point detection method
TWI515470B (en) Auto-focus system for multiple lens and method thereof
CN104038691A (en) Auto Focus method and auto focus apparatus
JP2019082646A (en) Lens control device and imaging device including the same, and lens control method
JP2016142925A (en) Imaging apparatus, method of controlling the same, program, and storage medium
JP4944393B2 (en) Imaging device
EP2007135A2 (en) Imaging apparatus
JP2006091915A (en) Imaging apparatus
TW201541143A (en) Auto-focus system for multiple lens and method thereof
JP2019117395A (en) Imaging device
JP2016057463A (en) Focus adjustment device and control method of the same
KR100975928B1 (en) Auto-focusing method
KR100975929B1 (en) Auto-focusing method
JP2013042375A (en) Image pickup device and distance information acquisition method
KR101053266B1 (en) Auto focusing method
US10051173B2 (en) Image pick-up apparatus and progressive auto-focus method thereof
JP6231768B2 (en) Imaging apparatus and control method thereof
CN113873160B (en) Image processing method, device, electronic equipment and computer storage medium
JP2010014884A (en) Camera
JP2017216599A (en) Imaging apparatus and control method therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150707

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160701

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee