KR101271101B1 - Method for controlling auto-focusing - Google Patents

Method for controlling auto-focusing Download PDF

Info

Publication number
KR101271101B1
KR101271101B1 KR1020110133993A KR20110133993A KR101271101B1 KR 101271101 B1 KR101271101 B1 KR 101271101B1 KR 1020110133993 A KR1020110133993 A KR 1020110133993A KR 20110133993 A KR20110133993 A KR 20110133993A KR 101271101 B1 KR101271101 B1 KR 101271101B1
Authority
KR
South Korea
Prior art keywords
focus data
data
image frame
representative
ratio
Prior art date
Application number
KR1020110133993A
Other languages
Korean (ko)
Inventor
김성은
Original Assignee
삼성테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성테크윈 주식회사 filed Critical 삼성테크윈 주식회사
Priority to KR1020110133993A priority Critical patent/KR101271101B1/en
Application granted granted Critical
Publication of KR101271101B1 publication Critical patent/KR101271101B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An automatic focusing control method is provided to determine whether automatic focusing or not by using ratios of representative focus data of setting sections of an image frame, thereby preventing unnecessary automatic focusing of a photographing device in a video photographing mode. CONSTITUTION: A control unit obtains representative focus data for each setting section of an image frame by using focus data(S33). The control unit obtains ratios of each representative focus data of the remaining sections for a reference setting section(S34). The control unit determines whether automatic focusing or not corresponding to a difference between a ratio of each representative focus data of the remaining sections of a previous image frame and a ratio of each representative focus data of the remaining sections of a current image frame(S35). [Reference numerals] (AA) Start; (BB,DD) No; (CC,EE) Yes; (FF) End; (S31) Receive image frame data?; (S32) Obtain focus data from the image frame data; (S33) Obtain representative focus data for each setting section of an image frame using the focus data; (S34) Obtain ratios of each representative focus data of remaining sections for a setting reference section among the setting sections; (S35) Determine whether automatic focusing or not corresponding to a difference between a ratio of each representative focus data of the remaining sections of a previous image frame and a ratio of each representative focus data of the remaining sections of a current image frame; (S36) Termination signal?

Description

자동 포커싱 제어 방법{Method for controlling auto-focusing} Method for controlling auto-focusing

본 발명은, 자동 포커싱 제어 방법에 관한 것으로서, 보다 상세하게는, 촬영 장치 내의 제어부가, 주기적으로 입력되는 영상 프레임 데이터로부터 포커스 데이터를 구하고, 구해진 포커스 데이터를 사용하여 자동 포커싱 여부를 판단하는 자동 포커싱 제어 방법에 관한 것이다.The present invention relates to an automatic focusing control method and, more particularly, to an automatic focusing control method in which a control unit in an image pickup apparatus obtains focus data from image frame data periodically input and determines whether automatic focusing is performed using the obtained focus data And a control method.

촬영 장치 예를 들어, 폰-카메라 내의 카메라 모듈은 동영상 촬영 기능을 가진다. 이와 같은 촬영 장치는 동영상 촬영 모드에서 자동 포커싱을 수행한다.For example, the camera module in the phone-camera has a movie shooting function. Such a photographing apparatus performs auto focusing in a moving image photographing mode.

따라서, 피사체 거리를 직접 측정할 수 없는 촬영 장치에서 자동 포커싱을 수행하려면, 포커스 데이터를 사용하여 자동 포커싱 여부를 판단하는 자동 포커싱 제어 알고리즘이 필요하다. 여기에서, 포커스 데이터는 잘 알려져 있는 바와 같이 다양하다. 가장 대표적인 포커스 데이터로서 선명도(sharpness) 데이터가 이에 해당된다. 하지만, 적색(R)-녹색(G)-청색(B) 형식의 데이터 중에서의 녹색(G) 데이터가 포커스 데이터로서 사용될 수 있다. 또한, 휘도(Y)-색도(Cb,Cr) 형식의 데이터 중에서 휘도(Y) 데이터가 포커스 데이터로서 사용될 수 있다.Therefore, in order to perform the automatic focusing in a photographing apparatus which can not directly measure the subject distance, an automatic focusing control algorithm for determining whether the focusing is performed using focus data is required. Here, the focus data varies as is well known. This is the sharpness data as the most representative focus data. However, green (G) data in the data of the red (R) -green (G) -black (B) format can be used as the focus data. Also, among data of the luminance (Y) -chromism (Cb, Cr) format, luminance (Y) data can be used as focus data.

자동 포커싱 제어 알고리즘과 관련된 선행 기술로는, 대한민국 특허출원 공개 제2006-0007792호(발명의 명칭 : 오토 포커스 제어 기능을 구비한 촬상 장치 및 그 제어 방법, 출원인 : 삼성전자 주식회사)를 들 수 있다.Prior art related to the automatic focusing control algorithm is Korean Patent Application Publication No. 2006-0007792 (titled invention: an image pickup apparatus having an autofocus control function and a control method thereof, applicant: Samsung Electronics Co., Ltd.).

상기와 같은 선행 기술에 의하면, 포커스 데이터 자체를 사용하여 자동 포커싱 여부를 판단한다. 이에 따른 문제점을 설명하면 다음과 같다.According to the prior art described above, the focus data itself is used to determine whether or not automatic focusing is performed. The problems caused by this are described as follows.

도 1은 통상적인 촬영 장치에서 불필요한 자동 포커싱이 수행됨을 설명하기 위한 도면이다. 1 is a view for explaining that unnecessary auto focusing is performed in a conventional photographing apparatus.

도 1을 참조하면, 촬영 장치(11)는, 제1 피사체(121)에 대하여 포커싱이 완료된 상태에서 동영상 촬영을 수행한 후, 제2 피사체(121)에 대하여 동영상 촬영을 시작한다.Referring to FIG. 1, the photographing apparatus 11 starts capturing a moving image with respect to a second subject 121 after focusing on the first subject 121.

여기에서, 촬영 장치(11)와 제1 피사체(121) 사이의 거리(d1)는 촬영 장치(11)와 제2 피사체(121) 사이의 거리(d1)와 같다. 그럼에도 불구하고, 배경 변화로 인하여 포커스 데이터 자체의 변화가 클 경우, 촬영 장치(11)는 불필요한 자동 포커싱을 수행한다. 예를 들어, 제1 피사체(121)의 주위 조도가 어둡고 제2 피사체(121)의 주위 조도가 밝은 경우, 촬영 장치(11)는 불필요한 자동 포커싱을 수행한다. The distance d1 between the photographing apparatus 11 and the first object 121 is equal to the distance d1 between the photographing apparatus 11 and the second object 121. [ Nevertheless, when the focus data itself changes significantly due to the background change, the photographing apparatus 11 performs unnecessary auto focusing. For example, when the ambient illuminance of the first object 121 is dark and the ambient illuminance of the second object 121 is bright, the photographing apparatus 11 performs unnecessary auto focusing.

이에 따라 동영상의 울렁거림 현상이 발생하는 문제점이 있다.As a result, there is a problem that the video is screamed.

더 나아가, 제1 피사체(121)와 제2 피사체(121)의 배경 또는 주위 조도의 차이가 없음에도 불구하고, 촬영 장치(11)는 불필요한 자동 포커싱을 수행할 수도 있다. 예를 들어, 제1 피사체(121)에 대하여 동영상 촬영을 수행한 후에 제2 피사체(121)에 대하여 동영상 촬영을 시작하는 시간에서, 제2 피사체(121) 앞으로 어떤 물체가 빠르게 지나가는 경우, 이 물체의 영향으로 인하여 촬영 장치(11)는 불필요한 자동 포커싱을 수행할 수도 있다.Furthermore, the photographing apparatus 11 may perform unnecessary auto focusing even though there is no difference in background or ambient illuminance between the first object 121 and the second object 121. [ For example, when an object passes quickly in front of the second object 121 at the time of starting moving picture shooting with respect to the second object 121 after moving picture capturing is performed with respect to the first object 121, The photographing apparatus 11 may perform unnecessary auto focusing.

대한민국 특허출원 공개 제2006-0007792호Korean Patent Application Publication No. 2006-0007792 발명의 명칭 : 오토 포커스 제어 기능을 구비한 촬상 장치 및 그 제어 방법Title of the invention: Image pickup device with autofocus control function and control method thereof 출원인 : 삼성전자 주식회사Applicant: Samsung Electronics Co., Ltd.

본 발명의 실시예는, 동영상 촬영 모드에서 촬영 장치가 불필요한 자동 포커싱을 수행하지 않게 함에 따라, 동영상의 울렁거림 현상을 방지할 수 있는 자동 포커싱 제어 방법을 제공하고자 한다.An embodiment of the present invention is to provide an automatic focusing control method capable of preventing a motion of a moving image from occurring due to the fact that the photographing apparatus does not perform unnecessary auto focusing in the moving image photographing mode.

본 발명의 일 측면에 따르면, 촬영 장치 내의 제어부가, 주기적으로 입력되는 영상 프레임 데이터로부터 포커스 데이터를 구하고, 구해진 포커스 데이터를 사용하여 자동 포커싱 여부를 판단하는 자동 포커싱 제어 방법에 있어서, 단계들 (a) 내지 (c)를 포함할 수 있다.According to an aspect of the present invention, there is provided an automatic focusing control method for a portable terminal, the method including: obtaining a focus data from image frame data periodically input by a control unit in the photographing apparatus and determining whether the focus data is automatically focused using the obtained focus data, ) To (c).

상기 단계 (a)에서는, 상기 포커스 데이터가 사용되어, 영상 프레임의 설정 구역들 각각에 대한 대표 포커스 데이터가 구해진다.In the step (a), the focus data is used to obtain representative focus data for each of the set regions of the image frame.

상기 단계 (b)에서는, 상기 설정 구역들 중에서 설정 기준 구역에 대한 나머지 구역들 각각의 대표 포커스 데이터의 비율이 구해진다.In the step (b), the ratio of the representative focus data of each of the remaining zones to the setting reference zone among the setting zones is obtained.

상기 단계 (c)에서는, 이전 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이에 따라, 자동 포커싱 여부가 판단된다.In the step (c), it is determined whether or not automatic focusing is performed according to the difference in the ratio of the representative focus data of each of the remaining zones of the current image frame to the ratio of the representative focus data of each of the remaining zones of the previous image frame .

한편, 상기 단계 (c)는 단계들 (c1) 내지 (c3)을 포함할 수 있다.Meanwhile, the step (c) may include the steps (c1) to (c3).

상기 단계 (c1)에서는, 이전 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이 값이 구해진다.In the step (c1), the difference value of the ratio of the representative focus data of each of the remaining zones of the current image frame to the ratio of the representative focus data of each of the remaining zones of the previous image frame is obtained.

상기 단계 (c2)에서는, 상기 대표 포커스 데이터의 비율의 차이 값이 설정 차이 값 이상인 경우에 해당되는 구역들의 개수가 계수된다.In the step (c2), the number of zones corresponding to the case where the difference value of the ratio of the representative focus data is equal to or larger than the set difference value is counted.

상기 단계 (c3)에서는, 상기 계수에 의한 구역들의 개수가 기준 개수 이상이면 자동 포커싱이 수행되도록 제어된다.In the step (c3), if the number of zones by the coefficient is greater than or equal to the reference number, automatic focusing is controlled to be performed.

또한, 상기 단계들 (a) 내지 (c)에서, 상기 대표 포커스 데이터가 상기 포커스 데이터의 평균 값, 중앙 값, 및 최빈값 중에서 어느 하나일 수 있다.In addition, in the steps (a) to (c), the representative focus data may be any one of an average value, a center value, and a mode value of the focus data.

또한, 상기 포커스 데이터가 선명도 데이터일 수 있다.In addition, the focus data may be sharpness data.

또한, 상기 포커스 데이터가 적색(R)-녹색(G)-청색(B) 형식의 데이터 중에서 녹색(G) 데이터일 수도 있다.Also, the focus data may be green (G) data among data of a red (R) -green (G) -black (B) format.

또한, 상기 포커스 데이터가 휘도(Y)-색도(Cb,Cr) 형식의 데이터 중에서 휘도(Y) 데이터일 수도 있다.Also, the focus data may be luminance (Y) data among data of the luminance (Y) -chromaticity (Cb, Cr) format.

또한, 상기 단계 (b)에서, 상기 설정 구역들 중에서 가장 중앙에 위치한 설정 구역이 상기 설정 기준 구역일 수 있다.In addition, in the step (b), the setting zone located at the most central position among the setting zones may be the setting reference zone.

본 발명의 실시예에 의하면, 종래의 기술처럼 단순히 포커스 데이터 자체가 사용되지 않고, 영상 프레임의 상기 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들이 사용되어, 자동 포커싱 여부가 판단된다.According to the embodiment of the present invention, the focus data itself is not used as in the prior art, and the ratios of the representative focus data between the set zones of the image frame are used to determine whether or not auto focusing is performed.

이에 따라, 동영상 촬영 모드에서 상기 촬영 장치가 불필요한 자동 포커싱을 수행하지 않음에 따라, 동영상의 울렁거림 현상이 방지될 수 있다.Accordingly, since the photographing apparatus does not perform unnecessary auto-focusing in the moving image photographing mode, the photographing apparatus can be prevented from languishing.

예를 들어, 상기 촬영 장치가, 제1 피사체에 대하여 포커싱이 완료된 상태에서 동영상 촬영을 수행한 후, 제2 피사체에 대하여 동영상 촬영을 시작하는 경우를 살펴보면 다음과 같다. 여기에서, 상기 촬영 장치와 제1 피사체 사이의 거리가 상기 촬영 장치와 제2 피사체 사이의 거리와 같다고 간주한다.For example, a case where the photographing apparatus starts capturing a moving image in a state in which focusing is completed with respect to a first subject, and then starts capturing a moving image with respect to a second subject will be described. Here, it is assumed that the distance between the photographing apparatus and the first object is equal to the distance between the photographing apparatus and the second object.

이 경우, 배경 변화로 인하여 포커스 데이터 자체의 변화가 크더라도, 상기 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.In this case, even if the change in the focus data itself is large due to the background change, the change in the ratios of the representative focus data between the setting areas is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

예를 들어, 제1 피사체의 주위 조도가 어둡고 제2 피사체의 주위 조도가 밝은 경우, 상기 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 상기 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.For example, when the ambient illuminance of the first object is dark and the ambient illuminance of the second object is bright, the change in the ratios of the representative focus data between the setting areas is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

더 나아가, 제1 피사체에 대하여 동영상 촬영을 수행한 후에 제2 피사체에 대하여 동영상 촬영을 시작하는 시간에서, 제2 피사체 앞으로 어떤 물체가 빠르게 지나가는 경우, 포커스 데이터 자체의 변화가 크더라도, 상기 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 상기 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.Furthermore, when an object passes quickly in front of the second subject at the time of starting the moving picture photographing with respect to the second subject after performing the moving picture photographing for the first object, even if the change of the focus data itself is large, The change of the ratios of the representative focus data between them is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

물론, 상기 촬영 장치와 제1 피사체 사이의 거리가 상기 촬영 장치와 제2 피사체 사이의 거리와 다를 경우, 포커스 데이터 자체의 변화가 클 뿐만 아니라, 상기 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들의 변화도 클 수 있다. 따라서, 상기 촬영 장치는 필요한 자동 포커싱을 수행할 수 있다.Of course, when the distance between the photographing apparatus and the first object is different from the distance between the photographing apparatus and the second object, not only the change in the focus data itself is large, but also the ratio of the representative focus data The change can also be large. Therefore, the photographing apparatus can perform necessary auto focusing.

도 1은 통상적인 촬영 장치에서 불필요한 자동 포커싱이 수행됨을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 의한 자동 포커싱 제어 방법이 적용된 촬영 장치를 보여주는 블록도이다.
도 3은 본 발명의 일 실시예에 의한 자동 포커싱 제어 방법을 도 2의 촬영 장치의 제어부가 수행하는 과정을 보여주는 흐름도이다.
도 4는, 도 3의 자동 포커싱 제어 방법의 수행을 위하여, 영상 프레임이 설정 구역들로 미리 구분되어 있음을 보여주는 도면이다.
도 5는 도 3의 단계 S33 및 단계 S34를 예를 들어 설명하기 위한 도면이다.
도 6은 도 3의 단계 S35의 상세 알고리즘을 보여주는 흐름도이다.
도 7은, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 동일한 피사체에 대하여 밝기 차이가 커지더라도 자동 포커싱이 수행되지 않음을 보여주는 도면이다.
도 8은, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 동일한 피사체에서 빠른 물체가 통과되더라도 자동 포커싱이 수행되지 않음을 보여주는 도면이다.
도 9는, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 피사체의 거리가 변하면 자동 포커싱이 수행됨을 보여주는 도면이다.
1 is a view for explaining that unnecessary auto focusing is performed in a conventional photographing apparatus.
2 is a block diagram illustrating a photographing apparatus to which an automatic focusing control method according to an embodiment of the present invention is applied.
FIG. 3 is a flowchart illustrating a process performed by the controller of the photographing apparatus of FIG. 2, according to an embodiment of the present invention.
FIG. 4 is a diagram illustrating that image frames are pre-classified into preset zones for performing the automatic focusing control method of FIG.
5 is a diagram for explaining steps S33 and S34 of FIG. 3 as an example.
6 is a flow chart showing the detailed algorithm of step S35 of FIG.
FIG. 7 is a view showing that, when the automatic focusing control method of FIG. 3 is performed, automatic focusing is not performed even if the brightness difference is large for the same subject.
FIG. 8 is a view showing that, when the automatic focusing control method of FIG. 3 is performed, automatic focusing is not performed even if a fast object passes through the same object.
FIG. 9 is a diagram illustrating that automatic focusing is performed when a distance of a subject is changed when the automatic focusing control method of FIG. 3 is performed.

하기의 설명 및 첨부된 도면은 본 발명에 따른 동작을 이해하기 위한 것이며, 본 기술 분야의 통상의 기술자가 용이하게 구현할 수 있는 부분은 생략될 수 있다. The following description and accompanying drawings are for understanding the operation according to the present invention, and parts that can be easily implemented by those skilled in the art can be omitted.

또한 본 명세서 및 도면은 본 발명을 제한하기 위한 목적으로 제공된 것은 아니고, 본 발명의 범위는 청구의 범위에 의하여 정해져야 한다. 본 명세서에서 사용된 용어들은 본 발명을 가장 적절하게 표현할 수 있도록 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.Furthermore, the specification and drawings are not intended to limit the present invention, and the scope of the present invention should be determined by the claims. The terms used in the present specification should be construed to mean the meanings and concepts consistent with the technical idea of the present invention in order to best express the present invention.

이하, 첨부된 도면들과 함께 본 발명에 따른 바람직한 실시예가 상세히 설명된다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시예에 의한 자동 포커싱 제어 방법이 적용된 촬영 장치를 보여준다.FIG. 2 shows a photographing apparatus to which an automatic focusing control method according to an embodiment of the present invention is applied.

도 2를 참조하면, 본 발명의 일 실시예에 의한 자동 포커싱 제어 방법이 적용된 촬영 장치는 광학계(OPS), 광전 변환부(OEC), CDS-ADC(Correlation Double Sampler and Analog-to-Digital Converter, 101), 타이밍 회로(102), 다이나믹 램(DRAM : Dynamic Random Access Memory, 104), EEPROM(Electrically Erasable and Programmable Read Only Memory, 105), 플래시 메모리(Flash Memory, 106), 제어부로서의 디지털 신호 처리기(DSP, Digital Signal Processor, 107), 영상-신호 출력부(108), 줌 모터(Mz), 포커스 모터(Mf), 조리개 모터(Ma), 구동부(110), 사용자 입력부(111) 및 마이크로-제어기(112)를 포함한다.2, the photographing apparatus to which the automatic focusing control method according to an embodiment of the present invention is applied includes an optical system (OPS), a photoelectric conversion unit (OEC), a Correlation Double Sampler and Analog-to-Digital Converter (CDS- 101, a timing circuit 102, a dynamic random access memory (DRAM) 104, an electrically erasable programmable read only memory (EEPROM) 105, a flash memory 106, a digital signal processor A digital signal processor 107, an image-signal output unit 108, a zoom motor Mz, a focus motor Mf, a diaphragm motor Ma, a driving unit 110, a user input unit 111, (112).

렌즈부와 필터부를 포함한 광학계(OPS)는 피사체로부터의 빛을 광학적으로 처리한다. An optical system (OPS) including a lens unit and a filter unit optically processes light from a subject.

광학계(OPS)의 렌즈부는 줌 렌즈, 포커스 렌즈, 및 보상 렌즈를 포함한다. 광학계(OPS)의 렌즈부의 보상 렌즈는 전체적인 굴절율을 보상하는 역할을 하므로 별도로 구동되지 않는다. The lens portion of the optical system OPS includes a zoom lens, a focus lens, and a compensation lens. The compensation lens of the lens unit of the optical system OPS is not separately driven because it serves to compensate the overall refractive index.

광학계(OPS)의 필터부에 있어서, 광학적 저역통과필터(OLPF, Optical Low Pass Filter)는 고주파 함량의 광학적 노이즈를 제거한다. 적외선 차단 필터(IRF, Infra-Red cut Filter)는 입사되는 빛의 적외선 성분을 차단한다.In the filter section of the optical system (OPS), an optical low pass filter (OLPF) removes high frequency content of optical noise. Infra-red cut filter (IRF) blocks incoming infrared light.

CCD(Charge Coupled Device) 또는 CMOS (Complementary Metal-Oxide- Semiconductor)의 광전 변환부(OEC)는 광학계(OPS)로부터의 빛을 전기적 아날로그 신호로 변환시킨다. 여기에서, 제어부로서의 디지털 신호 처리기(107)는 타이밍 회로(102)를 제어하여 광전 변환부(OEC)와 아날로그-디지털 변환부(101)의 동작을 제어한다. A photoelectric conversion unit OEC of a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor) converts light from the optical system OPS into an electrical analog signal. Here, the digital signal processor 107 as a control section controls the timing circuit 102 to control the operations of the photoelectric conversion section OEC and the analog-digital conversion section 101.

아날로그-디지털 변환부로서의 CDS-ADC(Correlation Double Sampler and Analog-to-Digital Converter, 101)는, 광전 변환부(OEC)로부터의 아날로그 영상 신호를 처리하여, 그 고주파 노이즈를 제거하고 진폭을 조정한 후, 디지털 영상 데이터로 변환시킨다. 이 디지털 영상 데이터는 제어부로서의 디지털 신호 처리기(107)에 입력된다. A CDS-ADC (Correlation Double Sampler and Analog-to-Digital Converter) 101 as an analog-to-digital conversion section processes an analog video signal from a photoelectric conversion section OEC, removes high frequency noise, And then converts it into digital image data. The digital image data is input to a digital signal processor 107 as a control unit.

전체적 제어를 수행하는 디지털 신호 처리기(107)는 CDS-ADC 소자(101)로부터의 디지털 신호를 처리하여 휘도 및 색도 신호로 분류된 디지털 영상 데이터를 발생시킨다. A digital signal processor 107, which performs overall control, processes digital signals from the CDS-ADC device 101 to generate digital image data classified into luminance and chrominance signals.

다이나믹 램(DRAM : Dynamic Random Access Memory, 104)에는 디지털 신호 처리기(107)로부터의 디지털 영상 데이터가 일시적으로 저장된다. EEPROM(Electrically Erasable and Programmable Read Only Memory, 105)에는 디지털 신호 처리기(107)의 동작에 필요한 알고리즘이 저장된다. 플래시 메모리(FM, 106)에는 디지털 신호 처리기(107)의 동작에 필요한 설정 데이터가 저장된다. In a dynamic random access memory (DRAM) 104, digital image data from the digital signal processor 107 is temporarily stored. An algorithm necessary for the operation of the digital signal processor 107 is stored in an EEPROM (Electrically Erasable and Programmable Read Only Memory) 105. In the flash memory (FM) 106, setting data necessary for the operation of the digital signal processor 107 is stored.

제어부로서의 디지털 신호 처리기(107)는, 통신 신호들(Dcom)을 통하여 관련 장치와 통신한다.The digital signal processor 107 as the control unit communicates with the related apparatus via the communication signals Dcom.

영상-신호 출력부(108)는 디지털 신호 처리기(107)로부터의 디지털 영상 데이터를 인터페이싱하여 출력 영상 신호(Sim)를 발생시킨다.The video-signal output unit 108 interfaces the digital video data from the digital signal processor 107 to generate an output video signal Sim.

마이크로-제어기(112)는, 사용자 입력부(111)로부터의 사용자 신호들을 디지털 신호 처리기(107)에 전달하고, 디지털 신호 처리기(107)로부터의 신호에 따라 구동부(110)를 제어하여 줌 모터(MZ), 포커스 모터(MF) 및 조리개 모터(MA)를 구동한다.The micro-controller 112 transmits user signals from the user input unit 111 to the digital signal processor 107 and controls the driving unit 110 in accordance with a signal from the digital signal processor 107 to control the zoom motor M Z), and it drives the focus motor (M F) and the diaphragm motor (M a).

상기와 같이 피사체 거리를 직접 측정할 수 없는 촬영 장치에서 자동 포커싱을 수행하려면, 포커스 데이터를 사용하여 자동 포커싱 여부를 판단하는 자동 포커싱 제어 알고리즘이 필요하다. 여기에서, 포커스 데이터는 잘 알려져 있는 바와 같이 다양하다. 가장 대표적인 포커스 데이터로서 선명도(sharpness) 데이터가 이에 해당된다. 하지만, 적색(R)-녹색(G)-청색(B) 형식의 데이터 중에서의 녹색(G) 데이터가 포커스 데이터로서 사용될 수 있다. 또한, 휘도(Y)-색도(Cb,Cr) 형식의 데이터 중에서 휘도(Y) 데이터가 포커스 데이터로서 사용될 수 있다.In order to perform the automatic focusing in the photographing apparatus in which the subject distance can not be directly measured as described above, an automatic focusing control algorithm for determining whether the focusing is performed using the focus data is needed. Here, the focus data varies as is well known. This is the sharpness data as the most representative focus data. However, green (G) data in the data of the red (R) -green (G) -black (B) format can be used as the focus data. Also, among data of the luminance (Y) -chromism (Cb, Cr) format, luminance (Y) data can be used as focus data.

이하, 제어부로서의 디지털 신호 처리기(107)의 자동 포커싱 제어 방법이 상세히 설명된다.Hereinafter, a method of controlling automatic focusing of the digital signal processor 107 as a control unit will be described in detail.

도 3은 본 발명의 일 실시예에 의한 자동 포커싱 제어 방법을 도 2의 촬영 장치의 제어부로서의 디지털 신호 처리기(107)가 수행하는 과정을 보여준다. 도 4는, 도 3의 자동 포커싱 제어 방법의 수행을 위하여, 영상 프레임이 설정 구역들(A11 내지 Amn)로 미리 구분되어 있음을 보여준다. 도 5는 도 3의 단계 S33 및 단계 S34를 예를 들어 설명하기 위한 도면이다.FIG. 3 shows a process of a digital signal processor 107 as a control unit of the photographing apparatus of FIG. 2 for performing an automatic focusing control method according to an embodiment of the present invention. FIG. 4 shows that, for the performance of the automatic focusing control method of FIG. 3, the image frames are pre-classified into the setting areas A 11 to Amn. 5 is a diagram for explaining steps S33 and S34 of FIG. 3 as an example.

도 2 내지 5를 참조하여 도 3의 자동 포커싱 제어 방법을 설명하면 다음과 같다.The automatic focusing control method of FIG. 3 will be described with reference to FIGS. 2 to 5. FIG.

도 4 및 5에 도시된 바와 같이 설정 구역들(A11 내지 Amn)이 미리 구분되어 있는 상태에서, 아날로그-디지털 변환부(101)로부터 제어부로서의 디지털 신호 처리기(107)에 영상 프레임 데이터가 입력되면(단계 S31), 디지털 신호 처리기(107)는 영상 프레임 데이터로부터 포커스 데이터를 구한다(단계 S32).When image frame data is inputted from the analog-digital conversion section 101 to the digital signal processor 107 as a control section in a state where the setting sections A 11 to Amn are preliminarily classified as shown in FIGS. 4 and 5 (Step S31), the digital signal processor 107 obtains focus data from the image frame data (step S32).

여기에서, 포커스 데이터는 잘 알려져 있는 바와 같이 다양하다. 가장 대표적인 포커스 데이터로서 선명도(sharpness) 데이터가 이에 해당된다. 하지만, 적색(R)-녹색(G)-청색(B) 형식의 데이터 중에서의 녹색(G) 데이터가 포커스 데이터로서 사용될 수 있다. 또한, 휘도(Y)-색도(Cb,Cr) 형식의 데이터 중에서 휘도(Y) 데이터가 포커스 데이터로서 사용될 수 있다. 즉, 촬영 장치의 구성, 성능 및 사용 환경 등에 따라 이들 중에서 어느 하나가 선택될 수 있다.Here, the focus data varies as is well known. This is the sharpness data as the most representative focus data. However, green (G) data in the data of the red (R) -green (G) -black (B) format can be used as the focus data. Also, among data of the luminance (Y) -chromism (Cb, Cr) format, luminance (Y) data can be used as focus data. That is, any one of them may be selected depending on the configuration, performance, use environment, and the like of the photographing apparatus.

다음에, 디지털 신호 처리기(107)는 포커스 데이터를 사용하여, 영상 프레임의 설정 구역들(A11 내지 A33) 각각에 대한 대표 포커스 데이터(R1 내지 R9)를 구한다(단계 S33).Next, a digital signal processor 107 by using the focus data is obtained representing the focus data (R1 to R9) for setting areas of image frames (A 11 to A 33), respectively (step S33).

여기에서, 대표 포커스 데이터(R1 내지 R9)는 포커스 데이터의 평균 값, 중앙 값, 및 최빈값 중에서 어느 하나일 수 있다. 즉, 촬영 장치의 구성, 성능 및 사용 환경 등에 따라 이들 중에서 어느 하나가 선택될 수 있다.Here, the representative focus data (R1 to R9) may be any of an average value, a center value, and a mode value of focus data. That is, any one of them may be selected depending on the configuration, performance, use environment, and the like of the photographing apparatus.

다음에, 디지털 신호 처리기(107)는 설정 구역들(A11 내지 A33) 중에서 설정 기준 구역(A22)에 대한 나머지 구역들 각각의 대표 포커스 데이터의 비율을 구한다(단계 S34). 본 실시예의 경우, 설정 구역들(A11 내지 A33) 중에서 가장 중앙에 위치한 설정 구역(A22)이 설정 기준 구역이 된다.Next, a digital signal processor 107 is set zones (11 A to 33 A) is obtained from the ratio of the remaining areas of each of the representative focus data for the set reference area (22 A) (step S34). In the case of this embodiment, the setting zone A 22 , which is the most central among the setting zones A 11 to A 33 , becomes the setting reference zone.

따라서, 도 5의 경우, A11 구역의 대표 포커스 데이터의 비율은 R1/R5, A12 구역의 대표 포커스 데이터의 비율은 R2/R5, A13 구역의 대표 포커스 데이터의 비율은 R3/R5, A21구역의 대표 포커스 데이터의 비율은 R4/R5, A23 구역의 대표 포커스 데이터의 비율은 R6/R5, A31 구역의 대표 포커스 데이터의 비율은 R7/R5, A32 구역의 대표 포커스 데이터의 비율은 R8/R5, 그리고 A33 구역의 대표 포커스 데이터의 비율은 R9/R5이다.5, the ratio of the representative focus data in the area A 11 is R1 / R5, the ratio of the representative focus data in the area A 12 is R2 / R5, the ratio of the representative focus data in the area A 13 is R3 / represents the ratio of the focus data in the 21 areas is the ratio of R4 / R5, a 23 represents a ratio of the focus data in the zone is R6 / R5, a 31 zones representing the focus ratio of the data is R7 / R5, a 32 zones representing the focus data in the R8 / R5, and the ratio of the representative focus data in the A33 area is R9 / R5.

다음에, 디지털 신호 처리기(107)는 이전 영상 프레임의 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이에 따라, 자동 포커싱 여부를 판단한다(단계 S35).Next, the digital signal processor 107 determines whether or not automatic focusing is performed according to the difference of the ratio of the representative focus data of each of the remaining zones of the current image frame to the ratio of the representative focus data of each of the remaining zones of the previous image frame (Step S35).

상기 모든 단계들은 자동 포커싱 제어의 종료 신호가 발생될 때까지 반복적으로 수행된다(단계 S36).All the above steps are repeatedly performed until an end signal of the automatic focusing control is generated (step S36).

도 6은 도 3의 단계 S35의 상세 알고리즘을 보여준다. 도 2, 5 및 6을 참조하여, 도 6의 상세 알고리즘을 설명하면 다음과 같다.FIG. 6 shows the detailed algorithm of step S35 of FIG. Referring to Figs. 2, 5 and 6, the detailed algorithm of Fig. 6 will be described as follows.

먼저, 제어부로서의 디지털 신호 처리기(107)는, 이전 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이 값을 구한다(단계 S61).First, the digital signal processor 107 as the control section obtains the difference value of the ratio of the representative focus data of each of the remaining zones of the current image frame to the ratio of the representative focus data of each of the remaining zones of the previous image frame ( Step S61).

도 5의 경우, 이전 프레임의 대표 포커스 데이터를 R1p 내지 R9p라 하면, A11 구역의 대표 포커스 데이터의 비율은 R1p/R5p, A12 구역의 대표 포커스 데이터의 비율은 R2p/R5p, A13 구역의 대표 포커스 데이터의 비율은 R3p/R5p, A21구역의 대표 포커스 데이터의 비율은 R4p/R5p, A23 구역의 대표 포커스 데이터의 비율은 R6p/R5p, A31 구역의 대표 포커스 데이터의 비율은 R7p/R5p, A32 구역의 대표 포커스 데이터의 비율은 R8p/R5p, 그리고 A33 구역의 대표 포커스 데이터의 비율은 R9p/R5p이다.In the case of Figure 5, when the representative focus data of a previous frame la R1p to R9p, representing the ratio of the focus data in the A 11 zones representing the ratio of the focus data of R1p / R5p, A 12 zones of R2p / R5p, A 13 section ratio R3p / R5p, representing the ratio of the focus data in the a 21 zones R4p / R5p, representing the ratio of the focus data in the a 23 zones R6p / R5p, representing the ratio of the focus data in the a 31 section of the representative focus data is R7p / R5p, a representative proportion of the focus data in the a zone 32 R8p / R5p, and the ratio of a 33 representative of the focus data zone R9p / R5p.

이와 마찬가지로, 현재 프레임의 대표 포커스 데이터를 R1c 내지 R9c라 하면, A11 구역의 대표 포커스 데이터의 비율은 R1c/R5c, A12 구역의 대표 포커스 데이터의 비율은 R2c/R5c, A13 구역의 대표 포커스 데이터의 비율은 R3c/R5c, A21구역의 대표 포커스 데이터의 비율은 R4c/R5c, A23 구역의 대표 포커스 데이터의 비율은 R6c/R5c, A31 구역의 대표 포커스 데이터의 비율은 R7c/R5c, A32 구역의 대표 포커스 데이터의 비율은 R8c/R5c, 그리고 A33 구역의 대표 포커스 데이터의 비율은 R9c/R5c이다.Likewise, when referred to the representative focus data R1c to R9c of the current frame, representing the ratio of the focus data in the A 11 area ratio of the representative focus data of R1c / R5c, A 12 zones R2c / R5c, A 13 represents the focus of the zone ratio R3c / R5c, represents the ratio of the focus data in the a 21 zones R4c / R5c, represents the ratio of the focus data in the a 23 zones R6c / R5c, represents the ratio of the focus data in the a 31 section of the data is R7c / R5c, represents the ratio of the focus data in the a zone 32 R8c / R5c, and represents the ratio of the focus data in the area a 33 is R9c / R5c.

따라서, A11 구역의 대표 포커스 데이터의 비율의 차이값 DA11은 아래의 수학식 1에 의하여 계산된다.Therefore, the difference value DA 11 of the ratio of the representative focus data of the area A 11 is calculated by the following equation (1).

Figure 112011099100959-pat00001
Figure 112011099100959-pat00001

또한, A12 구역의 대표 포커스 데이터의 비율의 차이값 DA12는 아래의 수학식 2에 의하여 계산된다.Further, the difference value DA 12 of the ratio of the representative focus data in the area A 12 is calculated by the following equation (2).

Figure 112011099100959-pat00002
Figure 112011099100959-pat00002

또한, A13 구역의 대표 포커스 데이터의 비율의 차이값 DA13은 아래의 수학식 3에 의하여 계산된다.The difference value DA 13 of the ratio of the representative focus data of the area A 13 is calculated by the following equation (3).

Figure 112011099100959-pat00003
Figure 112011099100959-pat00003

또한, A21 구역의 대표 포커스 데이터의 비율의 차이값 DA21은 아래의 수학식 4에 의하여 계산된다.Further, the ratio of A 21 represents focus data of the difference DA zone 21 is calculated by Equation (4) below.

Figure 112011099100959-pat00004
Figure 112011099100959-pat00004

또한, A23 구역의 대표 포커스 데이터의 비율의 차이값 DA23은 아래의 수학식 5에 의하여 계산된다.The difference value DA 23 of the ratio of the representative focus data of the A 23 zone is calculated by the following equation (5).

Figure 112011099100959-pat00005
Figure 112011099100959-pat00005

또한, A31 구역의 대표 포커스 데이터의 비율의 차이값 DA31은 아래의 수학식 6에 의하여 계산된다.The difference value DA 31 of the ratio of the representative focus data of the area A 31 is calculated by the following equation (6).

Figure 112011099100959-pat00006
Figure 112011099100959-pat00006

또한, A32 구역의 대표 포커스 데이터의 비율의 차이값 DA32는 아래의 수학식 7에 의하여 계산된다.Further, the difference value DA 32 of the ratio of the representative focus data of the area A 32 is calculated by the following equation (7).

Figure 112011099100959-pat00007
Figure 112011099100959-pat00007

그리고, A33 구역의 대표 포커스 데이터의 비율의 차이값 DA33은 아래의 수학식 8에 의하여 계산된다.The difference DA 33 of the ratio of the representative focus data of the area A 33 is calculated by the following equation (8).

Figure 112011099100959-pat00008
Figure 112011099100959-pat00008

다음에, 제어부로서의 디지털 신호 처리기(107)는, 대표 포커스 데이터의 비율의 차이 값(DA11 내지 DA33)이 설정 차이 값 예를 들어, 0.3 이상인 경우에 해당되는 구역들의 개수를 계수한다(단계 S62).Then, the digital signal processor 107 as a control unit, the difference between the ratio of the representative focus value data (DA 11 To DA 33 ) is equal to or greater than 0.3 (step S62).

다음에, 디지털 신호 처리기(107)는, 상기 계수에 의한 구역들의 개수(Nap)가 기준 개수(Nref) 예를 들어, 3 개 이상이면(단계 S63), 자동 포커싱이 수행되도록 제어한다(단계 S64).Next, the digital signal processor 107 controls the automatic focusing to be performed when the number of zones Nap by the coefficient is equal to or more than the reference number Nref (step S63) (step S64 ).

도 7은, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 동일한 피사체에 대하여 밝기 차이가 커지더라도 자동 포커싱이 수행되지 않음을 보여준다.FIG. 7 shows that, when the automatic focusing control method of FIG. 3 is performed, automatic focusing is not performed even if the brightness difference is large for the same object.

도 7에서, 참조 부호 711은 이전 영상 프레임을, 712는 이전 영상 프레임에서의 대표 포커스 데이터의 비율들을, 721은 현재 영상 프레임을, 그리고 722는 현재 영상 프레임에서의 대표 포커스 데이터의 비율들을 각각 가리킨다.7, reference numeral 711 denotes a previous image frame, 712 denotes a ratio of representative focus data in a previous image frame, 721 denotes a current image frame, and 722 denotes a ratio of representative focus data in the current image frame, respectively .

도 5 내지 7을 참조하면, 이전 영상 프레임(711)과 현재 영상 프레임(721)은 동일한 피사체에 대하여 큰 밝기 차이를 가진다. 하지만, 대표 포커스 데이터의 비율들(712, 722)의 차이는 최대 0.2 이하이다. 5 to 7, the previous image frame 711 and the current image frame 721 have a large brightness difference for the same subject. However, the difference between the ratios 712 and 722 of the representative focus data is at most 0.2 or less.

따라서, 설정 차이 값이 0.3이면, 대표 포커스 데이터의 비율의 차이 값(DA11 내지 DA33)이 설정 차이 값 0.3 이상인 경우에 해당되는 구역들의 개수(Nap)가 영(0)이다. 따라서, 기준 개수(Nref)가 3으로 설정된 경우, 상기 계수에 의한 구역들의 개수(Nap)가 기준 개수(Nref) 3 미만이므로(도 6의 단계 S62 참조), 자동 포커싱이 수행되지 않는다.Therefore, if the setting difference value is 0.3, the difference value (DA 11 (DA 33 ) is equal to or greater than the set difference value 0.3, the number Nap of the corresponding zones is zero. Therefore, when the reference number Nref is set to 3, since the number of zones Nap by the coefficient is less than the reference number Nref 3 (see step S62 in FIG. 6), automatic focusing is not performed.

즉, 본 실시예의 자동 포커싱 제어 방법이 수행되는 경우, 동영상 촬영 모드에서 촬영 장치가 불필요한 자동 포커싱을 수행하지 않음에 따라, 동영상의 울렁거림 현상이 방지될 수 있다. 하지만, 종래 기술처럼 포커스 데이터 자체를 사용하는 경우, 자동 포커싱을 수행할 확률이 매우 높다.That is, when the automatic focusing control method of the present embodiment is performed, the photographing apparatus does not perform unnecessary auto focusing in the moving image photographing mode, so that the photographing of the moving image can be prevented. However, when the focus data itself is used as in the prior art, the probability of performing auto focusing is very high.

도 8은, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 동일한 피사체에서 빠른 물체가 통과되더라도 자동 포커싱이 수행되지 않음을 보여준다.FIG. 8 shows that, when the automatic focusing control method of FIG. 3 is performed, auto focusing is not performed even if a fast object passes through the same subject.

도 8에서, 참조 부호 811은 이전 영상 프레임을, 812는 이전 영상 프레임에서의 대표 포커스 데이터의 비율들을, 821은 현재 영상 프레임을, 그리고 822는 현재 영상 프레임에서의 대표 포커스 데이터의 비율들을 각각 가리킨다.8, reference numeral 811 denotes a previous image frame, 812 denotes a ratio of representative focus data in the previous image frame, 821 denotes a current image frame, and 822 denotes ratios of representative focus data in the current image frame .

도 5, 6 및 8을 참조하면, 이전 영상 프레임(811)과 현재 영상 프레임(821)의 비교 결과에 있어서, 동일한 피사체에서 빠른 물체가 통과됨을 알 수 있다. 하지만, 본 실시예의 제어 방법에 의하면, 대표 포커스 데이터의 비율들(812, 822)의 차이가 설정 차이 값 0.3 이상인 경우에 해당되는 구역들의 개수(Nap)가 1이다. 따라서, 기준 개수(Nref)가 3으로 설정된 경우, 상기 계수에 의한 구역들의 개수(Nap)가 기준 개수(Nref) 3 미만이므로(도 6의 단계 S62 참조), 자동 포커싱이 수행되지 않는다.Referring to FIGS. 5, 6 and 8, it can be seen that fast objects pass through the same subject in the comparison result between the previous image frame 811 and the current image frame 821. However, according to the control method of the present embodiment, the number of zones Nap corresponding to the case where the difference between the ratios 812 and 822 of the representative focus data is equal to or greater than the setting difference value 0.3 is 1. Therefore, when the reference number Nref is set to 3, since the number of zones Nap by the coefficient is less than the reference number Nref 3 (see step S62 in FIG. 6), automatic focusing is not performed.

즉, 본 실시예의 자동 포커싱 제어 방법이 수행되는 경우, 동영상 촬영 모드에서 촬영 장치가 불필요한 자동 포커싱을 수행하지 않음에 따라, 동영상의 울렁거림 현상이 방지될 수 있다. 하지만, 종래 기술처럼 포커스 데이터 자체를 사용하는 경우, 자동 포커싱을 수행할 확률이 매우 높다.That is, when the automatic focusing control method of the present embodiment is performed, the photographing apparatus does not perform unnecessary auto focusing in the moving image photographing mode, so that the photographing of the moving image can be prevented. However, when the focus data itself is used as in the prior art, the probability of performing auto focusing is very high.

도 9는, 도 3의 자동 포커싱 제어 방법이 수행되는 경우, 피사체의 거리가 변하면 자동 포커싱이 수행됨을 보여준다. FIG. 9 shows that, when the automatic focusing control method of FIG. 3 is performed, automatic focusing is performed when the distance of the subject changes.

도 9에서, 참조 부호 911은 이전 영상 프레임을, 912는 이전 영상 프레임에서의 대표 포커스 데이터의 비율들을, 921은 현재 영상 프레임을, 그리고 922는 현재 영상 프레임에서의 대표 포커스 데이터의 비율들을 각각 가리킨다.9, reference numeral 911 denotes a previous image frame, 912 denotes a ratio of representative focus data in a previous image frame, 921 denotes a current image frame, and 922 denotes a ratio of representative focus data in the current image frame, respectively .

도 5, 6 및 9를 참조하면, 이전 영상 프레임(911)과 현재 영상 프레임(921)의 비교 결과에 있어서, 피사체의 거리가 보다 길어짐을 알 수 있다. 따라서, 본 실시예의 제어 방법에 의하면, 대표 포커스 데이터의 비율들(912, 922)의 차이가 설정 차이 값 0.3 이상인 경우에 해당되는 구역들(A23 ,A31,A32)의 개수(Nap)가 3이다. 따라서, 기준 개수(Nref)가 3으로 설정된 경우, 상기 계수에 의한 구역들의 개수(Nap)가 기준 개수(Nref) 3 이상이므로(도 6의 단계 S62 참조), 자동 포커싱이 수행된다. Referring to FIGS. 5, 6 and 9, it can be seen that the distance of the subject is longer in the comparison result between the previous image frame 911 and the current image frame 921. Therefore, according to the control method of the present embodiment, the number Nap of the zones A 23 , A 31 , A 32 corresponding to the case where the difference of the representative focus data ratios 912, 922 is equal to or greater than the setting difference value 0.3, Is 3. Therefore, when the reference number Nref is set to 3, the number of zones Nap by the coefficient is equal to or greater than the reference number Nref 3 (see step S62 in FIG. 6), so that automatic focusing is performed.

즉, 필요한 자동 포커싱이 빠짐없이 수행될 수 있다.That is, the necessary automatic focusing can be performed without fail.

이상 설명된 바와 같이, 본 발명의 실시예에 의하면, 종래의 기술처럼 단순히 포커스 데이터 자체가 사용되지 않고, 영상 프레임의 설정 구역들 사이의 대표 포커스 데이터의 비율들이 사용되어, 자동 포커싱 여부가 판단된다.As described above, according to the embodiment of the present invention, the focus data itself is not simply used as in the conventional technique, but the proportions of representative focus data between the set zones of the image frame are used to determine whether or not auto focusing .

이에 따라, 동영상 촬영 모드에서 촬영 장치가 불필요한 자동 포커싱을 수행하지 않음에 따라, 동영상의 울렁거림 현상이 방지될 수 있다.Accordingly, since the photographing apparatus does not perform unnecessary auto focusing in the moving image photographing mode, the photographing of the moving image can be prevented.

예를 들어, 촬영 장치가, 제1 피사체에 대하여 포커싱이 완료된 상태에서 동영상 촬영을 수행한 후, 제2 피사체에 대하여 동영상 촬영을 시작하는 경우를 살펴보면 다음과 같다. 여기에서, 촬영 장치와 제1 피사체 사이의 거리가 촬영 장치와 제2 피사체 사이의 거리와 같다고 간주한다.For example, a case in which the photographing apparatus starts moving picture photographing with respect to the first subject after performing focusing with respect to the first subject, will be described. Here, it is assumed that the distance between the photographing apparatus and the first object is equal to the distance between the photographing apparatus and the second object.

이 경우, 배경 변화로 인하여 포커스 데이터 자체의 변화가 크더라도, 설정 구역들 사이의 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.In this case, although the change in the focus data itself is large due to the background change, the change in the ratio of the representative focus data between the set areas is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

예를 들어, 제1 피사체의 주위 조도가 어둡고 제2 피사체의 주위 조도가 밝은 경우, 설정 구역들 사이의 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.For example, when the ambient illuminance of the first object is dark and the ambient illuminance of the second object is bright, the change in the ratios of the representative focus data between the set zones is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

더 나아가, 제1 피사체에 대하여 동영상 촬영을 수행한 후에 제2 피사체에 대하여 동영상 촬영을 시작하는 시간에서, 제2 피사체 앞으로 어떤 물체가 빠르게 지나가는 경우, 포커스 데이터 자체의 변화가 크더라도, 설정 구역들 사이의 대표 포커스 데이터의 비율들의 변화는 크지 않다. 따라서, 촬영 장치는 불필요한 자동 포커싱을 수행하지 않는다.Furthermore, when an object passes quickly in front of the second subject at the time of starting the moving picture shooting with respect to the second object after performing the moving picture shooting for the first object, even if the change of the focus data itself is large, The change in the ratios of the representative focus data between them is not large. Therefore, the photographing apparatus does not perform unnecessary auto focusing.

물론, 촬영 장치와 제1 피사체 사이의 거리가 촬영 장치와 제2 피사체 사이의 거리와 다를 경우, 포커스 데이터 자체의 변화가 클 뿐만 아니라, 설정 구역들 사이의 상기 대표 포커스 데이터의 비율들의 변화도 클 수 있다. 따라서, 촬영 장치는 필요한 자동 포커싱을 수행할 수 있다.Of course, when the distance between the photographing apparatus and the first object is different from the distance between the photographing apparatus and the second object, not only the change in the focus data itself is great, but also the change in the ratios of the representative focus data . Therefore, the photographing apparatus can perform necessary auto focusing.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. The present invention has been described above with reference to preferred embodiments. It will be understood by those skilled in the art that the present invention may be embodied in various other forms without departing from the spirit or essential characteristics thereof.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the above-described embodiments should be considered in a descriptive sense rather than a restrictive sense. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and the inventions claimed by the claims and the inventions equivalent to the claimed invention are to be construed as being included in the present invention.

자동 포커싱과 관련된 모든 장치에 이용될 수 있다.It can be used for all devices related to auto focusing.

11 : 촬영 장치, 121 : 제1 피사체,
122 : 제2 피사체, OPS : 광학계,
OEC : 광전 변환부, 101 : 아날로그-디지털 변환부,
102 : 타이밍 회로, 104 : 다이나믹 램,
105 : EEPROM, 106 : 플래시 메모리,
107 : 디지털 신호 처리기, 108 : 영상-신호 출력부,
110 : 구동부, 111 : 사용자 입력부,
112 : 마이크로-제어기, A11 내지 Amn : 설정 구역들,
A11 내지 A33 : 설정 구역들, R1 내지 R9 : 대표 포커스 데이터,
711,811,911 : 이전 영상 프레임,
712,812,912 : 이전 영상 프레임에서의 대표 포커스 데이터의 비율들,
721,821,921 : 현재 영상 프레임,
722,822,922 : 현재 영상 프레임에서의 대표 포커스 데이터의 비율들.
11: photographing apparatus, 121: first subject,
122: second subject, OPS: optical system,
OEC: photoelectric conversion unit, 101: analog-digital conversion unit,
102: timing circuit, 104: dynamic RAM,
105: EEPROM, 106: flash memory,
107: digital signal processor, 108: video-signal output unit,
110: driving unit, 111: user input unit,
112: micro-controller, A 11 to Amn: set zones,
A 11 to A 33 : Setting areas, R1 to R9: Representative focus data,
711, 811, 911: previous image frame,
712, 812, 912: ratios of representative focus data in the previous image frame,
721,821,921: current image frame,
722,822,922: Ratios of representative focus data in the current video frame.

Claims (7)

촬영 장치 내의 제어부가, 주기적으로 입력되는 영상 프레임 데이터로부터 포커스 데이터를 구하고, 구해진 포커스 데이터를 사용하여 자동 포커싱 여부를 판단하는 자동 포커싱 제어 방법에 있어서,
(a) 상기 포커스 데이터를 사용하여, 영상 프레임의 설정 구역들 각각에 대한 대표 포커스 데이터를 구하는 단계;
(b) 상기 설정 구역들 중에서 설정 기준 구역에 대한 나머지 구역들 각각의 대표 포커스 데이터의 비율을 구하는 단계; 및
(c) 이전 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이에 따라, 자동 포커싱 여부를 판단하는 단계를 포함한 자동 포커싱 제어 방법.
An automatic focusing control method of a control unit in a photographing apparatus for obtaining focus data from image frame data input periodically and determining whether or not to use auto focusing based on the obtained focus data,
(a) obtaining representative focus data for each of the set zones of an image frame using the focus data;
(b) obtaining a ratio of representative focus data of each of the remaining zones to the setting reference zone among the setting zones; And
(c) determining whether or not automatic focusing is performed in accordance with a difference in ratio of representative focus data of each of the remaining zones of the current image frame to a ratio of representative focus data of each of the remaining zones of the previous image frame Focusing control method.
제1항에 있어서, 상기 단계 (c)가,
(c1) 이전 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율에 대한 현재 영상 프레임의 상기 나머지 구역들 각각의 대표 포커스 데이터의 비율의 차이 값을 구하는 단계;
(c2) 상기 대표 포커스 데이터의 비율의 차이 값이 설정 차이 값 이상인 경우에 해당되는 구역들의 개수를 계수하는 단계; 및
(c3) 상기 계수에 의한 구역들의 개수가 기준 개수 이상이면 자동 포커싱이 수행되도록 제어하는 단계를 포함한 자동 포커싱 제어 방법.
The method of claim 1, wherein step (c)
(c1) obtaining a difference value of a ratio of representative focus data of each of the remaining zones of the current image frame to a ratio of representative focus data of each of the remaining zones of the previous image frame;
(c2) counting the number of zones corresponding to the case where the difference value of the ratio of the representative focus data is equal to or larger than the set difference value; And
(c3) controlling the automatic focusing to be performed when the number of zones by the coefficient is equal to or greater than a reference number.
제1항에 있어서, 상기 단계들 (a) 내지 (c)에서,
상기 대표 포커스 데이터가 상기 각각의 설정 구역 내의 포커스 데이터의 평균 값, 중앙 값, 및 최빈값 중에서 어느 하나인 자동 포커싱 제어 방법.
2. The method according to claim 1, wherein in the steps (a) to (c)
Wherein the representative focus data is any one of an average value, a center value, and a mode value of focus data in each of the setting areas.
제3항에 있어서,
상기 포커스 데이터가 선명도 데이터인 자동 포커싱 제어 방법.
The method of claim 3,
Wherein the focus data is sharpness data.
제3항에 있어서,
상기 포커스 데이터가 적색(R)-녹색(G)-청색(B) 형식의 데이터 중에서 녹색(G) 데이터인 자동 포커싱 제어 방법.
The method of claim 3,
Wherein the focus data is green (G) data among red (R) -green (G) -black (B) format data.
제3항에 있어서,
상기 포커스 데이터가 휘도(Y)-색도(Cb,Cr) 형식의 데이터 중에서 휘도(Y) 데이터인 자동 포커싱 제어 방법.
The method of claim 3,
Wherein the focus data is luminance (Y) data among data of a luminance (Y) -chromism (Cb, Cr) format.
제1항에 있어서, 상기 단계 (b)에서,
상기 설정 구역들 중에서 가장 중앙에 위치한 설정 구역이 상기 설정 기준 구역인 자동 포커싱 제어 방법.
2. The method of claim 1, wherein in step (b)
Wherein the setting zone located at the center of the setting zones is the setting reference zone.
KR1020110133993A 2011-12-13 2011-12-13 Method for controlling auto-focusing KR101271101B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110133993A KR101271101B1 (en) 2011-12-13 2011-12-13 Method for controlling auto-focusing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110133993A KR101271101B1 (en) 2011-12-13 2011-12-13 Method for controlling auto-focusing

Publications (1)

Publication Number Publication Date
KR101271101B1 true KR101271101B1 (en) 2013-06-04

Family

ID=48866183

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110133993A KR101271101B1 (en) 2011-12-13 2011-12-13 Method for controlling auto-focusing

Country Status (1)

Country Link
KR (1) KR101271101B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079634A (en) * 2008-01-18 2009-07-22 삼성디지털이미징 주식회사 Apparatus for processing digital image and method for controlling thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090079634A (en) * 2008-01-18 2009-07-22 삼성디지털이미징 주식회사 Apparatus for processing digital image and method for controlling thereof

Similar Documents

Publication Publication Date Title
US7596308B2 (en) Lens position adjusting apparatus, lens position adjusting method and computer-readable medium
JP4588583B2 (en) Imaging apparatus and focus control method
US9818202B2 (en) Object tracking based on distance prediction
KR100900485B1 (en) Improved image sensing means for digital camera and digital camera adopting the same
US8228419B2 (en) Method of controlling digital photographing apparatus for out-focusing operation and digital photographing apparatus adopting the method
US20140168463A1 (en) Image-processing device and imaging apparatus
CN100541311C (en) The digital photographing apparatus of automatic focusing method and the automatic focusing method of use
US7639302B2 (en) Auto-focusing method using variable noise level and digital image processing apparatus using the same
US20060028574A1 (en) Automatic focusing method and digital photographing apparatus using the same
US8860876B2 (en) Image display using flash reach information
KR100562404B1 (en) Method of automatic focusing for camera wherein additional scanning is performed
KR100468871B1 (en) Method for automatic focusing within camera wherein second-order function is utilized
US20090027514A1 (en) Image pickup apparatus and method
KR20150124830A (en) Improved Zoom-tracking method used in an imaging apparatus
KR20070069653A (en) Apparatus and method for controlling auto exposure of digital camera
KR20100092217A (en) Apparatus for processing digital image and method for controlling thereof
KR101271101B1 (en) Method for controlling auto-focusing
KR101185871B1 (en) Digital image processing device and diplay method of the device
KR101167243B1 (en) Method of controlling digital image processing apparatus to effectively display histogram, and digital image processing apparatus using the method
KR100515964B1 (en) Method for controlling portable digital apparatus wherein folder icons are adaptively displayed
KR100702950B1 (en) Method for controlling photographing apparatus, and photographing apparatus using the method
JP2012227744A (en) Imaging apparatus
JP2012109956A (en) Imaging apparatus
KR101323731B1 (en) Method for display exposure area
KR101109593B1 (en) Auto focusing method of digital image processing device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180425

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190425

Year of fee payment: 7