WO2012063994A1 - 트레이닝 기반의 자동 초점 장치 및 방법 - Google Patents

트레이닝 기반의 자동 초점 장치 및 방법 Download PDF

Info

Publication number
WO2012063994A1
WO2012063994A1 PCT/KR2010/009367 KR2010009367W WO2012063994A1 WO 2012063994 A1 WO2012063994 A1 WO 2012063994A1 KR 2010009367 W KR2010009367 W KR 2010009367W WO 2012063994 A1 WO2012063994 A1 WO 2012063994A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
feature vector
sample
image
value
Prior art date
Application number
PCT/KR2010/009367
Other languages
English (en)
French (fr)
Inventor
고성제
한종우
이승용
이효태
Original Assignee
고려대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단 filed Critical 고려대학교 산학협력단
Publication of WO2012063994A1 publication Critical patent/WO2012063994A1/ko

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems

Definitions

  • the present invention relates to an apparatus and method for training based autofocus, and more particularly, to an apparatus and method for determining an optimal focal length by referring to previously stored data based on feature vectors extracted from an image.
  • Auto-Focus technology is used to obtain clear images from cameras and digital cameras in mobile devices, and is divided into active and passive methods.
  • Active autofocus uses additional sensors to measure the distance between the lens and the object, increasing manufacturing costs and increasing the size of the camera. Therefore, most cameras for mobile devices use a manual autofocus technique based on the information of the image itself.
  • the focus value (FV) is used as an important clue to the search for the optimal focus lens position because the focused image contains more high frequency components than the non-focused image. to be.
  • the focus value is calculated by various methods such as tenengrad, Sq—Grad (squared—gradient), and SML (Sum-Modi f ied-La lacian) ⁇
  • HCS HiU-Climbing Searching
  • the rule-based technique (hereinafter referred to as 'prior art 1') adjusts the number of lens positions for calculating the focus value according to the increase rate of the focus value in order to increase the search speed of the optimal focus lens position.
  • the number of lens positions is enjoyed in the region where the optimal focus lens position is not determined, and in the opposite case, the number of lens positions is increased.
  • the focus value modeling-based technique calculates the focus value at several lens positions, and then uses the DDEPK Discrete Differential Equation Prediction Model (hereinafter referred to as 'prior art 2') or a second order polynomial model (hereinafter referred to as 'prior art 2') ⁇ 'advanced technology 3' Estimate the optimal focus lens position.
  • the proposed training-based autofocus technique in order to further increase the search speed, calculates the focus value only in the set two or three lens positions, thus showing a very improved search speed.
  • the accuracy of the results is determined by the selection of the feature vector.
  • the training-based autofocus technique (hereinafter referred to as 'prior art 4') using the focus value as the feature vector is affected by the imaging environment such as the detail and illuminance of the object, and especially when the object includes a flat area or It is also possible to incorrectly estimate the optimal focus lens position when shooting images in low light conditions.
  • the present invention has been made in an effort to provide a fast training-based autofocusing device and method that accurately searches for an optimal focusing lens position.
  • Another object of the present invention is to provide a computer-readable recording medium recording a program for executing a fast training-based autofocus method on a computer while accurately searching for an optimal focus lens position. .
  • the training-based autofocusing apparatus comprises input adjacent to each other among a plurality of input images obtained by sequentially photographing a target area at a plurality of focus positions spaced at predetermined intervals.
  • a feature vector calculator for calculating a feature vector for the target region based on a rate of change of a focus value calculated from an image;
  • a reference focal position stored against a reference feature vector having a minimum difference from the feature vector for the target area in a database in which a plurality of reference feature vectors and reference focal positions corresponding to each reference feature vector are stored.
  • a focus position determiner for determining an optimal focus position for capturing an image area.
  • the training-based autofocus method (a) from among a plurality of input images obtained by sequentially photographing the target area at a plurality of focus positions spaced at a predetermined interval Based on the rate of change of the focus value calculated from the adjacent input images, a feature vector for the target area is calculated. Shipping step; And (b) storing the reference focal positions stored in relation to a reference feature vector having a minimum difference from the feature vector corresponding to the target area in a database in which a plurality of reference feature vectors and reference focal positions corresponding to each reference feature vector are stored. And determining an optimal focus position for capturing the target area.
  • the training-based auto focus apparatus and method in determining an optimal focus position for capturing a target area, it is based on a rate of change of focus values between adjacent images, not based on a focus value.
  • the focus position stored in the database can be searched, and the speed is significantly improved compared to the existing auto focus technique, and the accuracy is reliable.
  • FIG. 1 is a block diagram showing the configuration of a preferred embodiment of a training-based autofocusing apparatus according to the present invention
  • FIG. 2 is a view showing an example of a general focus value curve according to a change in a focus position, that is, a lens position;
  • FIG. 3 is a graph illustrating a change in focus value according to a lens position obtained by photographing two objects respectively positioned at different distances from a camera;
  • FIG. 4 illustrates a plurality of image sets obtained for various object objects and various distances from a camera to each object object.
  • FIG. 5 is a diagram illustrating a shape of a focus window set on an image
  • FIG. 6 is a diagram showing an example of weighting factors set for each lower window
  • FIG. 7 is a flowchart illustrating a preferred embodiment of a method for building a database among training-based autofocus methods according to the present invention
  • FIG. 8 is a flowchart illustrating a process of performing a preferred embodiment of a method for determining an optimal focus position using a database among training based autofocus methods according to the present invention
  • FIG. 9 is a diagram illustrating an experimental environment using camera models of a mobile device
  • FIG. 10 is a graph illustrating a feature vector obtained by photographing an object at different distances from a camera.
  • 11 is a view showing a focus value change obtained by using a focus window used previously and a lower window proposed in the present invention
  • 12 is a diagram illustrating an image captured by a conventional auto focus technique and an auto focus technique according to the present invention.
  • FIG. 1 is a block diagram illustrating a configuration of a preferred embodiment of a training-based autofocusing apparatus according to the present invention.
  • the training-based autofocus device includes an image acquisition unit 110, a sample feature vector calculator 120, a reference focus position determiner 130, and a data storage 140. ), A database 150, a feature vector calculator 160, and a focus position determiner 170.
  • the image acquisition unit 110, the sample feature vector calculator 120, the reference focal position determiner 130, and the data storage unit 140 are used to construct the database 150, and the feature vector calculator 160 is implemented.
  • the focus position determiner 170 are used to automatically determine the focus position when actually photographing the target area.
  • FIG. 2 is a diagram illustrating an example of a general focus value curve according to a change in a focus position, that is, a lens position.
  • the focus value is rapidly increased in section A, and the rate of increase of the focus value gradually decreases in section B to reach the maximum value, and then the focus value decreases in section C and decreases rapidly in section D.
  • the rate of increase of the focus value becomes 0 at the boundary point between the section B and the section C, and the lens position at this time corresponds to the optimal .focus lens position.
  • the focus value can be usefully used to determine the optimal focus lens position.
  • the focus value is inappropriate as a feature vector in the training-based autofocus technique.
  • the focus value is sensitive to the texture and the shooting environment of the object to be photographed. For example, even if the object is located at the same distance from the camera, the focus value when shooting an object with a complex texture may appear higher than the focus value when shooting an object having a simple pattern. Can be.
  • different focus values may be obtained depending on the illumination conditions even for the same object placed at the same position.
  • the training-based autofocusing apparatus is different from the prior art 4, which is a training-based autofocusing technique.
  • the feature vector is determined and used from the Focus Value Increment Ratio (FVIR). Therefore, the optimal focus position for capturing the target region is determined by searching the database 150 for the feature vector obtained by calculating the FVIR value of the image photographed at the selected focus position.
  • FVIR Focus Value Increment Ratio
  • the FVIR value is more suitable than the focus value for determining the optimal focus position.
  • FIG. 3 is a graph illustrating a change in focus value according to a lens position obtained by photographing two objects respectively positioned at different distances from a camera.
  • FIG. 3 (a) shows an image of object 1 having a simple pattern far from the camera
  • FIG. 3 (b) shows an image of object 2 of a complex texture located close to the camera.
  • the optimal focus lens positions for photographing the object 1 and the object 2 are completely different, but the focus value in the section indicated by A is similar. Therefore, in this case, the focus value is not suitable for determining the optimal focus position, but the shape of the focus value graph for the object 1 and the focus value graph for the object 2 appears very different.
  • the graph can be distinguished by the FVIR value.
  • the image acquiring unit (no) is a plurality of sample images obtained by photographing a target object at a plurality of focal positions spaced at predetermined intervals to construct the database 150 with the feature vector generated from the FVIR values.
  • a plurality of image sets are generated corresponding to the identification information of each of the plurality of target objects and the distance from the camera to the target object.
  • the image set S (l, m) represents a set of sample images obtained by photographing the target object 1 located at a distance of m from the camera at all possible lens positions.
  • I (l, m, n) represents a sample image photographed at the nth lens position among sample images included in the image set SU, m).
  • the lens position that is, the focus position, for capturing each sample image depends on the design of the camera itself.
  • the number of sample images constituting each image set may be 20.
  • each image set SU, m) includes N sample images photographed at N focal positions, respectively, and the image captured at the optimal focal position p corresponds to a sample image in focus.
  • the sample feature vector calculating unit 120 is based on the rate of change of the focus value calculated from adjacent sample images among a plurality of sample images included in the image set for each of the plurality of image sets obtained by the image obtaining unit 110. Calculate the sample feature vector as.
  • the sample feature vector calculator 120 calculates two FVIR values for each image set, and calculates a sample feature vector composed of two FVIR values as shown in Equation 1 below. '
  • V (l, m) is a sample feature vector calculated corresponding to the image set S (l, m)
  • Va ⁇ a + p and v «+ are the FVIR values calculated between adjacent sample images, respectively, and the FVIR values are calculated by Equation 2 below.
  • v u is the FVIR value between the image captured at focus position i and the image captured at focus position j
  • FVi is the focus value of the image captured at focus position i
  • 1 ⁇ is the image captured at focus position j Is the focus value.
  • the sample feature vector calculator 120 calculates sample images taken at the focal positions ⁇ , ⁇ + ⁇ , and ⁇ + 2 ⁇ from among a plurality of sample images included in the image set. use.
  • a is the initial focus position for estimating the optimal focus position
  • is the interval between each focus position. Therefore, the sample images used to calculate the sample feature vector correspond to three sample images taken continuously from the initial focus position. However, this is only an example, and the number and interval of sample images for calculating the sample feature vector may vary depending on the setting.
  • the reference focus position determiner 130 determines a focus position at which a sample image having the maximum focus value is photographed among the plurality of sample images included in the image set for each of the plurality of image sets, and determines the focus position as the reference focus position. Save it.
  • the most focused sample image of the plurality of sample images that is, the sample image having the maximum focus value is captured at ⁇ which is the most suitable focus position among the plurality of focus positions.
  • the reference focus position determiner 130 searches for a focus position at which a sample image having a maximum focus value is recorded for each image set, and searches for a focus position of each image set. Decide on the reference focal position relative to the facet. That is, the determination of the reference focus position is performed by the HCS, which is an existing optimal focus positioning algorithm.
  • the sample feature vector V (l, m ) and the reference focal position are applied to each image set S (l, m) by the sample feature vector calculator 120 and the reference focal position determiner 130. p is obtained.
  • the data storage unit 140 classifies the plurality of image sets into a preset number of groups based on the value of the reference focal position, and uses the average of the sample feature vectors calculated for the image sets belonging to each group as the reference feature vectors. It is determined and stored in the database 150.
  • the database 150 stores the reference focal position P obtained corresponding to each image set. However, since the same reference focus position may be determined in correspondence with the image set in which different sample feature vectors are calculated, the reference feature vectors stored in the database 150 corresponding to each reference focus position have the same reference focus position. Needs to include all of the sample feature vectors computed for the plurality of imagesets. .
  • the reference focal positions respectively included in the plurality of image sets are determined as one of 1 to N values. Accordingly, the data storage unit 140 classifies the plurality of image sets into N groups based on the values of the reference focal positions. In addition, the reference feature vector for each group is calculated by the following equation (3).
  • Equation 3 Where is the reference feature vector calculated for the nth group,! ⁇ Is the number of sample feature vectors contained in the nth group, and ⁇ n is the nth group, i.
  • the first group is an image set.
  • the training-based autofocus device stores the reference stored in the database 150.
  • the optimal focus position for capturing the target area is determined based on the feature vector and the reference focus position thereof.
  • the feature vector calculator 160 may calculate a focus value calculated from adjacent input images among a plurality of input images obtained by sequentially photographing a target area at a plurality of focus positions. Based on the rate of change of, a feature vector for the target area is calculated.
  • the feature vector calculator 160 captures a target area at the same focal position where the sample image used by the sample feature vector calculator 120 to calculate sample feature vectors for each image set is captured. Based on the generated plurality of input images, a feature vector for a target region is calculated.
  • the feature vector calculating unit 160 performs the focal positions ⁇ and ⁇ + ⁇ . And a feature vector for the target region using three input images obtained by photographing the target region at ⁇ + 2 ⁇ , respectively. Therefore, the feature vector of the target area is composed of two FVIR values calculated based on the focus values of three input images.
  • the focus position determiner 170 determines the stored reference focus position as the optimum focus position for capturing the target area in the database 150 corresponding to the reference feature vector having the smallest difference from the feature vector on the target area. .
  • an optimal focus position is determined by using values stored in the database 150, and thus the focus position determiner 170 corresponds to a feature corresponding to the target area calculated by the feature vector calculator 160.
  • the reference feature vector closest to the vector is retrieved from database 150.
  • the focal position determiner 170 calculates a cost between the plurality of reference feature vectors stored in the database 150 and the feature vectors for the target area by the following equation (4).
  • 11 '112 represents the L2 norm '
  • the focus position determiner 170 selects a reference focus position that minimizes the cost of Equation 4 among the reference focus positions stored in the database 150 corresponding to each reference feature vector, as shown in Equation 5 below. Determine the optimal focus position for shooting the target area. [Equation 5]
  • is the optimal focus position and ⁇ is the number of reference feature vectors and reference focus positions stored in the database 150.
  • the training-based autofocusing apparatus constructs a database 150 based on the rate of increase of the focus value as a feature vector, and is based on a feature vector based on an input image photographed at a predetermined number of focal positions. It is possible to improve the speed and accuracy of the focus positioning by calculating the focus position by calculating.
  • the training-based autofocus device in order to improve the accuracy of the training-based autofocus device according to the present invention, it is possible to change the shape of the focusing window (focusing window) that is set in the image to calculate the focus value.
  • FIG. 5 is a view showing the shape of the focus window is set in the image
  • Figure 5 (a) shows a conventional focus window
  • (b) is used by the training-based auto focus device according to the present invention It represents a new form of focal mundow.
  • a focus window set on each of the plurality of input images for calculating a focus value is divided into a plurality of lower windows, and the feature vector calculating unit 160 includes each lower window.
  • Each lower feature vector is calculated based on the FVIR of the lower window located at the same point in a plurality of adjacent input images.
  • the focus position determiner 170 determines an optimal focus position for each lower window on the basis of the values stored in the database 150, and the final optimum for capturing the target area by Equation 6 below. Determine the focus position.
  • ⁇ * is the optimal focal position determined from the kth lower window among ⁇ lower windows
  • ° is the replication operator, given by Equation 7 below.
  • the weighting factor W k is a value set for each lower window. It may be set differently according to the position of the lower window in the body focus window.
  • FIG. 6 is a diagram showing an example of a weighting factor set for each lower window, in which a focus window is divided into 16 lower windows, and a weighting factor having a larger value in the lower circle located at the center; You can see that is set. This is because the object to be photographed is generally located at the center of the target area.
  • the focus window set in the input image is divided into a plurality of lower windows to determine an optimal focus position for each lower window, and a weighting factor is assigned to each optimal focus position to determine the final optimal focus position.
  • a weighting factor is assigned to each optimal focus position to determine the final optimal focus position.
  • FIG. 7 is a flowchart illustrating a preferred embodiment of a method for constructing a database 150 among training based autofocus methods according to the present invention.
  • the image acquisition unit 110 may include an image set consisting of sample images obtained by photographing a target object at a reference number of focus positions, from identification information of each of the plurality of target objects and from the camera to the target object.
  • a plurality of dogs are generated by the distance (S710).
  • the sample feature vector calculator 120 calculates a sample feature vector for each image set based on a rate of change of a focus value calculated from adjacent sample images among sample images (S720).
  • the reference focus position determiner 130 determines the focus position at which the sample image having the maximum focus value is photographed among the sample images included in each image set as the reference focus position (S730).
  • the data storage unit 140 classifies the plurality of image sets into groups of reference numbers based on the value of the reference focus position (S740), and averages the sample feature vectors calculated for the image sets belonging to each group. It is determined as a reference feature vector corresponding to (S750). Finally, the data storage unit 140 stores the reference feature vector and the reference focus position for each group in the database 150 (S760).
  • FIG. 8 is a flowchart illustrating a preferred embodiment of a method for determining an optimal focus position using a database 150 among training-based autofocus methods according to the present invention.
  • the vector calculator 160 calculates a feature vector corresponding to a target area based on a rate of change of a focus value calculated from adjacent input images. (S820).
  • the focus position determiner 170 selects a reference feature vector having a minimum difference from the feature vector among the reference feature vectors stored in the database 150 (S830), and targets the stored reference focus position in correspondence with the selected reference feature vector.
  • the optimal focal position for capturing the area is determined (S840).
  • FIG. 9 is a diagram illustrating an experimental environment using camera models of a mobile device.
  • the camera models may photograph an object at 100 lens positions, that is, a focus position.
  • the control program of the present invention is installed in a computer having a quad core CPU of 2.66 GHz and 2 GB of RAM.
  • the values of ⁇ and ⁇ in Equation 1 for calculating the sample feature vector from the sample image and the feature vector from the input image were set to 1 and 2, respectively.
  • Object located at a distance of less than 10cm from the time of the experiment performed camera are not be considered because there are 20 the focus point is used in i the best focal position.
  • the feature vector is applied to an object placed at a specific distance from the camera.
  • the six coordinates shown in the graphs of FIGS. 10A to 10C show feature vectors obtained by photographing objects located at 10, 14, 20, 40, 60, and 120 cm from the camera, respectively.
  • This feature vector is also obtained from the average of the feature vectors obtained for the plurality of imagesets, such as the reference feature vector stored in the database 150.
  • (A) of FIG. 10 is a graph obtained by using Tenengrad in the conventional focus value calculation method to calculate the focus value of an image
  • (b) is Sq_Gr ad (squared—gradation)
  • (c) is SML ( Sum—Modified ⁇ Lap lad an).
  • the standard deviations of the feature vectors o FV , the minimum Euclidean distance E between the feature vectors, and the difference ⁇ of the F Fs and E for the plurality of feature vectors obtained according to the distance from the camera are shown in Table 1 below. Table 1
  • the value of the difference ⁇ appears to be generally close to or greater than zero, regardless of the focus value calculation technique. Therefore, it can be confirmed that the output vector with the technique proposed by the present invention shows excellent performance for most focus value calculation techniques. Especially when the focus value is calculated by SML, the feature vector obtained is o FV and
  • Equation 8 a Modified Standard Deviation (MSD) expressed by Equation 8 below was used.
  • Table 2 below shows the values of MSDs calculated by Equation 8 for the prior arts 1 to 4 and the present invention, and the number of steps required to determine the optimal focus position by performing each method.
  • the present invention has significantly improved speed compared to the prior art because three steps are performed on average to determine the optimal focus position, and the value of MSD is prior art 1 and prior art 3 Although larger than these prior arts show a significantly slower performance compared to the present invention, the present invention exhibits both reliable performance in terms of speed and accuracy.
  • FIG. 11 is a diagram illustrating a focus value change obtained by using a focus window used in the past and a lower window proposed in the present invention.
  • FIG. 11A is a conventional focus window displayed on an image
  • FIG. 11B is a graph showing a focus value calculated from the focus window according to a lens position, that is, a focus position.
  • the object to be photographed is located close to the camera, but only about half of the object is located in the focus window.
  • the focus value graph obtained in this case shows a maximum value at points corresponding to the object and the background part, respectively, as shown in FIG. 11B, which are two optimal focus positions corresponding to the object and the background, respectively.
  • the existing auto focus technique using only one focus window does not accurately determine an optimal focus position for capturing an object.
  • Figure 11 (c) is a diagram showing a case where the focus window is divided into a plurality of lower windows in accordance with the method proposed in the present invention.
  • (D) of FIG. 11 is a focus value graph obtained from the lower window displayed in dark gray among the 16 lower windows
  • (e) is a focus value graph obtained from the lower window displayed in light gray.
  • the optimal focus position is 7 in the graph shown in FIG. 11 (d), while the optimal focus position is 1 in the graph shown in (e). According to the present invention, if a higher weight is given to a centered lower window, an optimal focus position for photographing an object can be accurately determined.
  • FIG. 12 is a diagram illustrating an image captured by a conventional auto focus technique and an auto focus technique according to the present invention.
  • FIG. 12A illustrates an image obtained by determining an optimal focus position by calculating a focus value from an existing focus window, and focuses on a background part, not an object located near the camera. However, in FIG. 12 (b) photographed according to the present invention, it can be seen that the object is accurately focused. All.
  • the invention can also be embodied as computer readable code on a computer readable recording medium.
  • Computer-readable recording media include all types of recording devices that store data that can be read by a computer system. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, which are also implemented in the form of carrier waves (for example, transmission over the Internet). It also includes.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Abstract

트레이닝 기반의 자동 초점 장치 및 방법이 개시된다. 특징 벡터 산출부는 사전에 설정된 간격으로 이격된 복수의 초점 위치에서 순차적으로 대상영역을 촬영하여 얻 어진 복수의 입력영상 중에서 서로 인접한 입력영상으로부터 산출된 초점값의 변화 율을 기초로 대상영역에 대응하는 특징 벡터를 산출한다. 초점 위치 결정부는 복수 의 기준 특징 벡터 및 각각의 기준 특징 벡터에 대응하는 기준 초점 위치가 저장된 데이터베이스에서 대상영역에 대응하는 특징 벡터와의 차가 최소인 기준 특징 벡터 에 대응하여 저장된 기준 초점 위치를 대상영역을 촬영하기 위한 최적 초점 위치로 결정한다. 본 발명에 따르면, 대상영역의 촬영을 위한 최적 초점 위치를 결정하는 데 있어서, 초점값을 기준으로 하는 것이 아닌 인접한 영상 사이에서의 초점값 변 화율을 기초로 산출된 특징 벡터를 사용하여 데이터베이스에 저장된 초점 위치를 검색함으로써, 기존의 자동 초점 기법에 비해 크게 향상된 속도를 가지며, 신뢰할 수 있는 정확도를 보인다.

Description

【명세서】
【발명의 명칭】
트레이닝 기반의 자동 초점 장치 및 방법
【기술분야】
본 발명은 트레이닝 기반의 자동 초점 장치 및 방법에 관한 것으로, 보다 상 세하게는, 영상으로부터 추출된 특징 백터를 기초로 사전에 저장된 데이터를 참고 하여 최적 초점 거리를 결정하는 장치 및 방법에 관한 것이다.
【배경기술】
자동 초점 (Auto-Focus) 기술은 모바일 기기에 구비된 카메라 및 디지털 카메 라 등에서 선명한 영상을 얻기 위해 사용되며, 능동 (active) 방식과 수동 (passive) 방식으로 나누어진다. 능동 방식의 자동 초점에서는 렌즈와 물체 사이의 거리를 측 정하기 위해 부가적인 센서를 사용하기 때문에 제작 단가가 상승하며, 카메라의 크 기가 커지게 된다는 문제가 있다. 따라서 대부분의 모바일 기기용 카메라에는 영상 자체의 정보를 기반으로 하는 수동 방식의 자동 초점 기술이 사용된다.
영상으로부터 얻어지는 정보들 중에서 초점값 (Focus Value : FV)은 최적 초 점 렌즈 위치를 탐색하기 위한 중요한 단서로 사용된다ᅳ 초점이 맞추어진 영상은 그렇지 않은 영상에 비해 고주파 성분을 더 많이 포함하고 있기 때문이다. 초점값 은 tenengrad, Sq—Grad(squared— gradient ) 및 SML( Sum-Modi f ied-La lacian)^|- 같은 다양한 방법에 의해 산출되며, 자동 초점 기술은 초점값이 최대인 지점을 최적 초 점 렌즈 위치로 결정한다.
자동 초점 기술에서 최적 초점 렌즈 위치를 탐색하기 위한 가장 간단한 기법 은 모든 렌즈 위치에서 초점값을 계산하는 HCS(HiU -Climbing Searching)로, HCS는 매우 정확하지만 속도가 느리므로 실제 제품에 적용하기 어려우며, 계산량이 많다 는 단점이 있다. 따라서 속도 향상을 위해 규칙 기반 기법 및 초점값 모델링 기반 기법이 제안되었다.
규칙 기반 기법 (이하, '선행기술 1'이라 한다)은 최적 초점 렌즈 위치의 탐색 속도를 높이기 위해 초점값의 증가율에 따라 초점값 산출을 위한 렌즈 위치의 개수 를 조절한다. 즉, 최적 초점 렌즈 위치가 결정되지 않을 것으로 판단되는 지역에서 는 렌즈 위치의 수를 즐이고, 반대의 경우에는 렌즈 위치의 수를 늘리는 방법이다. 또한 초점값 모델링 기반 기법은 몇몇 렌즈 위치에서의 초점값을 산출한 후, DDEPKDiscrete Differential Equation Prediction Model) (이하, '선행기술 2'라 한 다) 또는 2차 다항식 모델 (second order polynomial model) (이하ᅳ '선행기술 3'이라 한다)을 사용하여 최적 초점 렌즈 위치를 추측한다.
한편, 탐색 속도를 더욱 높이기 위하여 제안된 트레이닝 기반 자동 초점 기 술은 설정된 2~3개의 렌즈 위치에서만 초점값을 계산하므로 매우 향상된 탐색 속도 를 보인다. 이러한 트레이닝 기반 자동 초점에서는 특징 백터 (feature vector)의 선택에 따라 결과의 정확도가 결정된다. 그런데 초점값을 특징 백터로 사용한 트레 이닝 기반 자동 초점 기법 (이하, '선행기술 4'라 한다)은 물체의 세부형태 및 조도 와 같은 영상 촬영 환경에 영향을 받으며, 특히 물체에 평평한 영역이 포함되거나 낮은 조도의 환경에서 영상을 촬영할 때 최적 초점 렌즈 위치를 잘못 추정하기도 한다.
【발명의 상세한 설명】
【기술적 과제】
본 발명이 이루고자 하는 기술적 과제는, 최적 초점 렌즈 위치를 정확하게 탐색하면서도 속도가 빠른 트레이닝 기반의 자동 초점 장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 다른 기술적 과제는, 최적 초점 렌즈 위치를 정확 하게 탐색하면서도 속도가 빠른 트레이닝 기반의 자동 초점 방법을 컴퓨터에서 실 행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는 데 있다.
【기술적 해결방법】
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 트레이닝 기반의 자동 초점 장치는, 사전에 설정된 간격으로 이격된 복수의 초점 위치에서 순차적으로 대 상영역을 촬영하여 얻어진 복수의 입력영상 중에서 서로 인접한 입력영상으로부터 산출된 초점값의 변화율을 기초로 상기 대상영역에 대웅하는 특징 백터를 산출하는 특징 백터 산출부; 및 복수의 기준 특징 백터 및 각각의 기준 특징 백터에 대응하 는 기준 초점 위치가 저장된 데이터베이스에서 상기 대상영역에 대웅하는 특징 백 터와의 차가 최소인 기준 특징 백터에 대웅하여 저장된 기준 초점 위치를 상기 대 상영역을 촬영하기 위한 최적 초점 위치로 결정하는 초점 위치 결정부;를 구비한 다.
상기의 기술적 과제를 달성하기 위한, 본 발명에 따른 트레이닝 기반의 자동 초점 방법은, (a) 사전에 설정된 간격으로 이격된 복수의 초점 위치에서 순차적으 로 대상영역을 촬영하여 얻어진 복수의 입력영상 중에서 서로 인접한 입력영상으로 부터 산출된 초점값의 변화율을 기초로 상기 대상영역에 대웅하는 특징 백터를 산 출하는 단계; 및 (b) 복수의 기준 특징 백터 및 각각의 기준 특징 백터에 대응하는 기준 초점 위치가 저장된 데이터베이스에서 상기 대상영역에 대응하는 특징 백터와 의 차가 최소인 기준 특징 백터에 대웅하여 저장된 기준 초점 위치를 상기 대상영 역을 촬영하기 위한 최적 초점 위치로 결정하는 단계;를 갖는다.
【유리한 효과】
본 발명에 따른 트레이닝 기반의 자동 초점 장치 및 방법에 의하면, 대상영 역의 촬영을 위한 최적 초점 위치를 결정하는 데 있어서, 초점값을 기준으로 하는 것아 아닌 인접한 영상 사이에서의 초점값 변화율을 기초로 산출된 특징 백터를 사 용하여 데이터베이스에 저장된 초점 위치를 검색함으로써, 기존의 자동 초점 기법 에 비해 크게 향상된 속도를 가지며, 신뢰할 수 있는 정확도를 보인다.
【도면의 간단한 설명】
도 1은 본 발명에 따른 트레이닝 기반의 자동 초점 장치에 대한 바람직한 실 시예의 구성을 도시한 블록도,
도 2는 초점 위치, 즉 렌즈 위치의 변화에 따른 일반적인 초점값 곡선의 예 를 도시한 도면,
도 3은 카메라로부터 다른 거리에 각각 위치하는 두 가지 객체를 촬영하여 얻어진 렌즈 위치에 따른 초점값의 변화를 도시한 그래프,
도 4는 다양한 대상객체 및 카메라로부터 각각의 대상객체까지의 다양한 거 리에 대해 얻어진 복수의 이미지셋을 나타낸 도면,
도 5는 영상에 설정되는 초점 원도우의 형태를 나타낸 도면,
도 6은 각각의 하위 원도우에 대해 설정되는 가중 인자의 일 예를 도시한 도 면,
도 7은 본 발명에 따른 트레이닝 기반의 자동 초점 방법 중에서 데이터베이 스를 구축하는 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도,
도 8은 본 발명에 따른 트레이닝 기반의 자동 초점 방법 중에서 데이터베이 스를 이용하여 최적 초점 위치를 결정하는 방법에 대한 바람직한 실시예의 수행과 정을 도시한 흐름도,
도 9는 모바일 기기의 카메라 모들을 사용하는 실험 환경을 나타낸 도면, 도 10은 카메라로부터 서로 다른 거리에 놓인 객체를 촬영하여 얻어진 특징 백터를 나타낸 그래프,
도 11은 기존에 사용된 초점 원도우와 본 발명에서 제안된 하위 원도우를 사 용하여 얻어진 초점값 변화를 각각 나타낸 도면, 그리고, 도 12는 기존의 자동 초점 기법과 본 발명에 따른 자동 초점 기법에 의해 촬 영된 영상을 나타낸 도면이다.
【발명의 실시를 위한 형태】
이하에서 첨부된 도면들을 참조하여 본 발명에 따른 트레이닝 기반의 자동 초점 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명에 따른 트레이닝 기반의 자동 초점 장치에 대한 바람직한 실 시예의 구성을 도시한 블톡도이다.
도 1을 참조하면, 본 발명에 따른 트레이닝 기반의 자동 초점 장치는, 이미 지 획득부 (110), 견본 특징 백터 산출부 (120), 기준 초점 위치 결정부 (130), 데이 터 저장부 (140), 데이터베이스 (150), 특징 백터 산출부 (160) 및 초점 위치 결정부 (170)를 구비한다. 이들 중에서 이미지 획득부 (110), 견본 특징 백터 산출부 (120), 기준 초점 위치 결정부 (130) 및 데이터 저장부 (140)는 데이터베이스 (150)의 구축에 사용되며, 특징 백터 산출부 (160) 및 초점 위치 결정부 (170)는 실제로 대상영역을 촬영할 때 초점 위치를 자동으로 결정하기 위해 사용된다.
이하에서는 먼저 트레이닝 기반의 자동 초점 위치 결정을 위한 데이터베이스 (150) 구축 방법에 대하여 설명한 후, 구축된 데이터베이스 (150)를 기반으로 한 초 점 위치 결정 방법에 대하여 설명한다.
도 2는 초점 위치, 즉 렌즈 위치의 변화에 따른 일반적인 초점값 곡선의 예 를 도시한 도면이다. 도 2를 참조하면, A구간에서 초점값은 급격하게 증가하며, B 구간에서는 초점값의 증가율이 점차 감소하여 최고치에 도달한 후 C 구간에서는 초 점값이 감소하기 시작하여 D 구간에서는 급격하게 감소하는 형태를 보인다. 즉, B 구간과 C 구간의 경계 지점에서 초점값의 증가율은 0이 되며, 이때의 렌즈 위치가 최적 .초점 렌즈 위치에 해당한다.
이와 같이 초점값은 최적 초점 렌즈 위치를 결정하기 위해 유용하게 사용될 수 있으나, 앞에서도 설명한 바와 같이 트레이닝 기반의 자동 초점 기법에서는 특 징 백터로서 부적절하다. 초점값은 촬영 대상인 객체의 질감 및 촬영 환경에 민감 하여, 예를 들면, 카메라로부터 동일한 거리에 위치하더라도 복잡한 질감의 객체를 촬영할 때의 초점값이 단순한 패턴의 객체를 촬영할 때의 초점값보다 높게 나타날 수 있다. 또한 동일한 위치에 놓인 동일한 객체라도 조도 조건에 따라 다른 초점값 이 얻어질 수 있다.
본 발명에 따른 트레이닝 기반의 자동 초점 장치는 이러한 문제를 해결하기 위해 기존의 트레이닝 기반의 자동 초점 기법인 선행기술 4와는 달리 초점값이 아닌 초점값의 증가율 (Focus Value Increment Ratio : FVIR)로부터 특징 백터를 결정하 여 사용한다. 따라서 대상영역의 촬영을 위한 최적 초점 위치는 선택된 초점 위치 에서 촬영된 영상의 FVIR 값을 산출하여 얻어진 특징 백터를 데이터베이스 (150)에 서 검색함으로써 결정된다.
도 2에 도시된 것과 같은 초점값 곡선의 형태는 객체의 질감 및 촬영 환경에 무관하게 거의 일정하기 때문에, 최적 초점 위치 결정에는 초점값보다 FVIR 값이 더 적합하다.
도 3은 카메라로부터 다른 거리에 각각 위치하는 두 가지 객체를 촬영하여 얻어진 렌즈 위치에 따른 초점값의 변화를 도시한 그래프이다. 도 3의 (a)는 카메 라로부터 멀리 떨어진 단순한 패턴의 객체 1을 촬영한 영상이고, 도 3의 (b)는 카메 라로부터 가깝게 위치한 복잡한 질감의 객체 2를 촬영한 영상이다. 도 3의 (c)에 도 시된 그래프를 참조하면, 객체 1과 객체 2를 촬영하기 위한 최적 초점 렌즈 위치는 전혀 상이하지만, A로 표시된 구간에서의 초점값은 유사하게 나타난다. 따라서 이 러한 경우에 초점값은 최적 초점 위치를 결정하기에 적합하지 않으나, 객체 1에 대 웅하는 초점값 그래프와 객체 2에 대웅하는 초점값 그래프의 형태는 매우 상이하게 나타나므로, 구간 A에서 두 그래프는 FVIR 값에 의해 구별이 가능하다.
이미지 획득부 (no)는 이와 같이 FVIR 값으로부터 생성되는 특징 백터로 데 이터베이스 (150)를 구축하기 위해 사전에 설정된 간격으로 이격된 복수의 초점 위 치에서 대상객체를 촬영하여 얻어지는 복수의 견본영상으로 이루어진 이미지셋을 복수의 대상객체 각각의 식별정보 및 카메라로부터 대상객체까지의 거리에 대응하 여 복수 개 생성한다.
이하에서 이미지셋 S(l,m)은 카메라로부터 m의 거리에 위치하는 대상객체 1 을 가능한 모든 렌즈 위치에서 촬영한 견본영상의 집합을 나타낸다. 또한 I(l,m,n) 은 이미지셋 SU,m)에 포함된 견본영상들 중에서 n번째 렌즈 위치에서 촬영된 견본 영상을 나타낸다. 이때 각각의 견본영상을 촬영하기 위한 렌즈 위치, 즉 초점 위치 는 카메라 자체의 설계에 따르며, 일 예로서 각각의 초점 위치는 일정한 간격으로
20개가 설정될 수 있다. 따라서 각각의 이미지셋을 구성하는 견본영상의 개수는 20 개가 될 수 있다.
도 4는 다양한 대상객체 및 카메라로부터 각각의 대상객체까지의 다양한 거 리에 대해 얻어진 복수의 이미지셋을 나타낸 도면이다. 도 4에서 각각의 이미지셋 SU,m)은 N개의 초점 위치에서 각각 촬영된 N개의 견본영상을 포함하며, 이 중에서 최적 초점 위치 p에서 촬영된 영상이 초점이 맞추어진 견본영상에 해당한다. 견본 특징 백터 산출부 (120)는 이미지 획득부 (110)에 의해 얻어진 복수의 이 미지셋 각각에 대하여 이미지셋에 포함된 복수의 견본영상 중에서 서로 인접한 견 본영상으로부터 산출된 초점값의 변화율을 기초로 견본 특징 백터를 산출한다. 일 실시예로서, 견본 특징 벡터 산출부 (120)는 각각의 이미지셋마다 두 개씩 의 FVIR 값을 산출하며, 다음의 수학식 1과 같이 두 개의 FVIR 값으로 이루어진 견 본 특징 백터를 산출한다. '
【수학식 1】
Figure imgf000008_0001
여기서, V(l,m)은 이미지셋 S(l,m)에 대응하여 산출된 견본 특징 백터이고,
Va-a+pv«+뜨 는 각각 인접한 견본영상 사이에서 산출된 FVIR 값으로, FVIR 값은 다음의 수학식 2에 의해 산출된다.
【수학식 2】
Figure imgf000008_0002
여기서, vu는 초점 위치 i에서 촬영된 영상과 초점 위치 j에서 촬영된 영상 사이의 FVIR 값이고, FVi는 초점 위치 i에서 촬영된 영상의 초점값, 그리고 1^는 초점 위치 j에서 촬영된 영상의 초점값이다.
다시 수학식 1을 참조하면, 견본 특징 백터 산출부 (120)는 이미지셋에 포함 된 복수의 견본영상 중에서 초점 위치 α, α + β 및 α+2β에서 촬영된 견본영상을 견본 특징 백터의 산출에 사용한다. 여기서 a는 최적 초점 위치를 추정하기 위한 초기 초점 위치이며, β는 각각의 초점 위치 사이의 간격이다. 따라서 견본 특징 백터의 산출에 사용되는 견본영상은 초기 초점 위치로부터 연속하여 촬영된 세 개 의 견본영상에 해당한다. 그러나 이는 일 실시예일 뿐이며, 견본 특징 백터의 산출 을 위한 견본영상의 개수 및 간격은 설정에 따라 달라질 수 있다.
기준 초점 위치 결정부 (130)는 복수의 이미지셋 각각에 대하여 이미지셋에 포함된 복수의 견본영상 중에서 초점값이 최대인 견본영상이 촬영된 초점 위치를 기준 초점 위치로 결정하여 데이터베이스 (150)에 저장한다.
도 4에 나타난 바와 같이 복수의 견본영상 중에서 가장 초점이 잘 맞추어진 견본영상, 즉 초점값이 최대인 견본영상은 복수의 초점 위치 중에서 가장 적합한 초점 위치인 ρ에서 촬영된 것이다. 기준 초점 위치 결정부 (130)는 각각의 이미지셋 마다 초점값이 최대인 견본영상이 촬영된 초점 위치를 탐색하여 이를 각각의 이미 지셋에 대웅하는 기준 초점 위치로 결정한다. 즉, 기준 초점 위치의 결정은 기존의 최적 초점 위치 결정 알고리즘인 HCS에 의해 수행된다.
이상에서 설명한 바와 같이 견본 특징 백터 산출부 (120) 및 기준 초점 위치 결정부 (130)에 의해 각각의 이미지셋 S(l,m)에 대웅하는 견본 특징 백터 V(l,m) 및 기준 초점 위치 p가 얻어진다. 데이터 저장부 (140)는 기준 초점 위치의 값을 기준 으로 복수의 이미지셋올 사전에 설정된 개수의 그룹으로 분류하고, 각각의 그룹에 속하는 이미지셋에 대하여 산출된 견본 특징 백터들의 평균을 기준 특징 백터로 결 정하여 데이터베이스 (150)에 저장한다.
데이터베이스 (150)에는 각각의 이미지셋에 대응하여 얻어진 기준 초점 위치 P가 저장되어 있다. 그런데 서로 다른 견본 특징 백터가 산출된 이미지셋에 대응하 여 동일한 기준 초점 위치가 결정될 수 있으므로, 각각의 기준 초점 위치에 대응하 여 데이터베이스 (150)에 저장되는 기준 특징 백터는 동일한 기준 초점 위치를 가지 는 복수의 이미지셋에 대하여 산출된 견본 특징 백터들을 모두 포함할 필요성이 있 다. .
구체적으로, 도 4에 도시된 바와 같이 하나의 이미지셋에 N개의 견본영상이 포함되어 있을 때, 복수의 이미지셋에 각각 대웅하는 기준 초점 위치는 1 내지 N 중에서 하나의 값으로 결정된다. 따라서 데이터 저장부 (140)는 기준 초점 위치의 값을 기준으로 복수의 이미지셋을 N개의 그룹으로 분류한다. 또한 각각의 그룹에 대웅하는 기준 특징 백터는 다음의 수학식 3에 의해 산출된다.
【수학식 3】
Figure imgf000009_0001
여기서, "은 n번째 그룹에 대웅하여 산출된 기준 특징 백터, !^은 n번째 그룹에 포함된 견본 특징 백터의 개수, 그리고 Ωn은 n번째 그룹, 즉 기준 초점 위 치가 N개의 초점 위치 중에서 n번째인 이미지셋들로 이루어진 그룹이다.
결과적으로, 데이터베이스 (150)에는 n번째 .그룹에 대웅하여 산출된 기준 특 징 백터 및 기준 초점 위치가 매핑되어 저장되고, 이후 본 발명에 따른 트레이닝 기반의 자동 초점 장치는 데이터베이스 (150)에 저장된 기준 특징 백터 및 그에 대 웅하는 기준 초점 위치를 기초로 대상영역의 촬영을 위한 최적 초점 위치를 결정한 다.
특징 백터 산출부 (160)는 복수의 초점 위치에서 순차적으로 대상영역을 촬영 하여 얻어진 복수의 입력영상 중에서 서로 인접한 입력영상으로부터 산출된 초점값 의 변화율을 기초로 대상영역에 대웅하는 특징 백터를 산출한다.
' 특징 백터 산출부 (160)는 견본 특징 백터 산출부 (120)가 각각의 이미지셋에 대웅하는 견본 특징 백터를 산출하기 위해 사용한 견본영상이 촬영된 초점 위치와 동일한 초점 위치에서 대상영역을 촬영하여 생성된 복수의 입력영상을 기초로 대상 영역에 대웅하는 특징 백터를 산출한다.
즉, 수학식 1에서 초점 위치 α α+ 및 α+2 에서 촬영된 견본영상을 이 미지셋의 견본 특징 백터를 산출하기 위해 사용하였으므로, 특징 백터 산출부 (160) 는 초점 위치 α , α+β 및 α+2β에서 대상영역을 각각 촬영하여 얻어진 세 개의 입력영상을 사용하여 대상영역에 대웅하는 특징 백터를 산출한다. 따라서 대상영역 에 대웅하는 특징 백터는 세 개의 입력영상의 초점값을 기초로 산출된 두 개의 FVIR 값으로 이루어진다.
다음으로 초점 위치 결정부 (170)는 데이터베이스 (150)에서 대상영역에 대웅 하는 특징 백터와의 차가 최소인 기준 특징 백터에 대응하여 저장된 기준 초점 위 치를 대상영역을 촬영하기 위한 최적 초점 위치로 결정한다.
트레이닝 기반의 자동 초점 기법에서는 데이터베이스 (150)에 저장된 값을 사 용하여 최적 초점 위치를 결정하며, 따라서 초점 위치 결정부 (170)는 특징 백터 산 출부 (160)에 의해 산출된 대상영역에 대응하는 특징 백터와 가장 근접한 기준 특징 백터를 데이터베이스 (150)로부터 검색한다.
먼저 초점 위치 결정부 (170)는 다음의 수학식 4에 의해 데이터베이스 (150)에 저장된 복수의 기준 특징 백터와 대상영역에 대웅하는 특징 백터 사이의 비용을 산 출한다ᅳ
【수학식 4】
C„-\\V„-vint\\2 '
여기서, ( 은 데이터베이스 (150)에 저장된 기준 특징 백터들 중에서 n번째 기준 특징 백터와 대상영역에 대응하는 특징 백터 사이의 비용, "은 η번째 기준 특징 백터, ^는 대상영역에 대웅하는 특징 백터이고, 11 ' 112는 L2 놈 (norm)을 나타 낸다ᅳ '
다음으로 초점 위치 결정부 (170)는 각각의 기준 특징 백터에 대응하여 데이 터베이스 (150)에 저장된 기준 초점 위치들 중에서 수학식 4의 비용을 최소화하는 기준 초점 위치를 다음의 수학식 5와 같이 대상영역을 촬영하기 위한 최적 초점 위 치로 결정한다. 【수학식 5】
- min ^ , ^
p = arg C„, η = \,2,·-,Ν
η 여기서ᅳ 는 최적 초점 위치이고, Ν은 데이터베이스 (150)에 저장된 기준 특징 백터 및 기준 초점 위치의 개수이다.
이상에서 설명한 바와 같이 본 발명에 따른 트레이닝 기반의 자동 초점 장치 는 초점값 증가율을 특징 백터로 하여 데이터베이스 (150)를 구축하고, 사전에 설정 된 소수의 초점 위치에서 촬영된 입력영상을 기초로 특징 백터를 산출하여 초점 위 치를 결정함으로써 초점 위치 결정의 속도 및 정확도를 향상시킬 수 있다.
한편, 본 발명에 따른 트레이닝 기반의 자동 초점 장치의 정확성을 향상시키 기 위해 초점값 산출을 위해 영상에 설정되는 초점 원도우 (focusing window)의 형 태를 변화시키는 것이 가능하다.
도 5는 영상에 설정되는 초점 뷘도우의 형태를 나타낸 도면으로, 도 5의 (a) 는 기존의 초점 윈도우를 나타낸 것이고, (b)는 본 발명에 따른 트레이닝 기반의 자동 초점 장치에 의해 사용되는 새로운 형태의 초점 뮌도우를 나타낸 것이다.
즉, 도 5의 (b)에 도시된 바와 같이 초점값 산출을 위해 복수의 입력영상에 각각 설정된 초점 뷘도우는 복수의 하위 원도우로 분할되며, 특징 백터 산출부 (160)는 각각의 하위 휜도우에 대웅하는 특징 백터인 하위 특징 백터를 산출한다. 이때 각각의 하위 특징 백터는 인접한 복수의 입력영상에서 동일한 지점에 위치하 는 하위 윈도우의 FVIR을 기초로 산출된다.
다음으로 초점 위치 결정부 (170)는 데이터베이스 (150)에 저장된 값들을 기초 로 각각의 하위 원도우에 대웅하는 최적 초점 위치를 결정하고, 다음의 수학식 6에 의해 대상영역의 촬영을 위한 최종적인 최적 초점 위치를 결정한다.
【수학식 6】
여기서 , ^*는 Κ개의 하위 원도우 중에서 k번째 하위 휜도우에 대웅하여 결 정된 최적 초점 위치이며, ° 는 복제 연산자 (replication operator)로서 다음의 수 학식 7과 같이 주어진다.
【수학식 7】 여기서, 가중 인자 Wk는 각각의 하위 원도우에 대하여 설정되는 값으로, 전 체 초점 원도우 내에서 하위 원도우의 위치에 따라 다르게 설정될 수 있다.
도 6은 각각의 하위 원도우에 대해 설정되는 가중 인자의 일 예를 도시한 도 면으로, 초점 뷘도우가 16개의 하위 뷘도우로 분할되고, 중심에 위치하는 하위 원 도우에 더 큰 값의 가중 인자가 설정되는 것을 확인할 수 있다. 이는 촬영의 대상 이 되는 객체가 대상영역의 중심에 위치하는 것이 일반적이기 때문이다.
이와 같이 입력영상에 설정되는 초점 원도우를 복수의 하위 원도우로 분할하 여 각각의 하위 원도우에 대웅하는 최적 초점 위치를 결정하고, 각각의 최적 초점 위치에 가중 인자를 부여하여 최종적인 최적 초점 위치를 결정함으로써 초점 위치 결정의 정확도를 향상시킬 수 있다.
도 7은 본 발명에 따른 트레이닝 기반의 자동 초점 방법 중에서 데이터베이 스 (150)를 구축하는 방법에 대한 바람직한 실시예의 수행과정을 도시한 흐름도이 다.
도 7을 참조하면 이미지 획득부 (110)는 기준 개수의 초점 위치에서 대상객 체를 촬영하여 각각 얻어진 견본영상들로 이루어진 이미지셋을 복수의 대상객체 각 각의 식별정보 및 카메라로부터 대상객체까지의 거리에 대웅하여 복수 개 생성한다 (S710). 다음으로 견본 특징 백터 산출부 (120)는 각각의 이미지셋에 대하여 견본영 상들 중에서 서로 인접한 견본영상으로부터 산출된 초점값의 변화율을 기초로 견본 특징 백터를 산출한다 (S720).
기준 초점 위치 결정부 (130)는 각각의 이미지셋에 포함된 견본영상들 중에서 초점값이 최대인 견본영상이 촬영된 초점 위치를 기준 초점 위치로 결정한다 (S730). 데이터 저장부 (140)는 기준 초점 위치의 값을 기준으로 복수의 이미지셋을 기준 개수의 그룹으로 분류하고 (S740), 각각의 그룹에 속하는 이미지셋에 대하여 산출된 견본 특징 백터들의 평균을 각 그룹에 대응하는 기준 특징 백터로 결정한다 (S750) . 마지막으로 데이터 저장부 (140)는 각각의 그룹에 대웅하는 기준 특징 백터 및 기준 초점 위치를 데이터베이스 (150)에 저장한다 (S760).
도 8은 본 발명에 따른 트레이닝 기반의 자동 초점 방법 중에서 데이터베이 스 (150)를 이용하여 최적 초점 위치를 결정하는 방법에 대한 바람직한 실시예의 수 행과정을 도시한 흐름도이다.
도 8을 참조하면, 복수의 초점 위치, 바람직하게는 견본 특징 백터의 산출을 위해 사용된 견본영상들이 촬영된 초점 위치에서 대상영역을 촬영하여 얻어진 복수 의 입력영상을 기초로 하여 (S810), 특징 백터 산출부 (160)는 서로 인접한 입력영상 으로부터 산출된 초점값의 변화율을 기초로 대상영역에 대응하는 특징 백터를 산출 한다 (S820).
초점 위치 결정부 (170)는 데이터베이스 (150)에 저장된 기준 특징 백터들 중 에서 특징 백터와의 차가 최소인 기준 특징 백터를 선택하고 (S830), 선택된 기준 특징 백터에 대응하여 저장된 기준 초점 위치를 대상영역을 촬영하기 위한 최적 초 점 위치로 결정한다 (S840).
본 발명의 성능을 평가하기 위한 실험을 수행하였다. 도 9는 모바일 기기의 카메라 모들을 사용하는 실험 환경을 나타낸 도면으로, 카메라 모들은 100개의 렌 즈 위치, 즉 초점 위치에서 객체를 촬영할 수 있다. 본 발명이 구현된 제어 프로그 램은 2.66GHz의 쿼드코어 CPU와 2GB의 램 (廳)을 구비한 컴퓨터에 설치되었다. 견 본영상으로부터 견본 특징 백터를 산출하고 입력영상으로부터 특징 백터를 산출하 기 위한 수학식 1의 α 및 β의 값은 각각 1 및 2로 설정되었다. 실험 수행시 카메 라로부터 10cm 미만의 거리에 위치한 객체들은 고려 대상에서 제외되므로 20개의 초점 위치가최적 초점 위치 결정에 사용된다.
데이터베이스 (150)를 구축하기 위해서는 카메라로부터의 20개의 다른 거리 (10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34, 36, 38, 40, 60, 80, 100 및 120cm)에 놓여져 촬영된 41개의 대상객체에 각각 대웅하는 820개의'이미지셋을 사용하였다.
먼저 견본 특징 백터 산출부 (120)에 의해 산출되는 견본 특징 백터 및 특징 백터 산출부 (160)에 의해 산출되는 특징 백터의 신뢰성을 검증하기 위해 카메라로 부터의 특정 거리에 놓인 객체에 대웅하여 특징 백터를 산출하였다. 도 10은 카메 라로부터 서로 다른 거리에 놓인 객체를 촬영하여 얻어진 특징 백터를 나타낸 그래 프이다. 도 10의 (a) 내지 (c)의 그래프에 표시된 6개의 좌표는 각각 카메라로부터 10, 14, 20, 40, 60 및 120cm에 위치한 객체를 촬영하여 얻어진 특징 백터를 나타 낸 것이다. 또한 이러한 특징 백터는 데이터베이스 (150)에 저장되는 기준 특징 백 터와 같이 복수의 이미지셋에 대하여 얻어진 특징 백터들의 평균에 의해 얻어진 것 이다.
도 10의 (a)는 영상의 초점값을 산출하기 위해 기존의 초점값 산출 기법 증 에서 Tenengrad를 사용하여 얻어진 그래프이고, (b)는 Sq_Gr ad (squared— gradient ), 그리고 (c)는 SML (Sum—Modifiedᅳ Lap lad an)을 사용하여 얻어진 그래프이다. 카메라 로부터의 거리에 따라 얻어진 복수의 특징백터에 대하여 특징 백터들의 표준편차 oFV, 특징 백터들 간의 최소 유클리드 거리 E, 그리고 oFV와 E의 차분 Δ을 다음의 표 1에 나타내었다. 【표 1】
Figure imgf000014_0002
표 1을 참조하면 , 차분 Δ의 값은 초점값 산출 기법에 무관하게 대체로 0에 근접하거나 0보다 큰 값으로 나타난다. 따라서 본 발명에 의해 제안된 기법으로 산 출돤특징 백터는 대부분의 초점값 산출 기법에 대하여 우수한 성능을 보임을 확인 할 수 있다. 특히 SML에 의해 초점값을 산출하는 경우에 얻어진 특징 백터는 oFV
E의 차분값이 크게 나타나므로 다른 기법들에 비해 성능이 더 우수하다.
다음으로 본 발명에 의해 제안된 기법에 따른 최적 초점 위치 결정의 성능을 앞에서 설명한 선행기술 1 내지 선행기술 4와 비교하였다. 성능 비교를 위한 시물레 이션은 실내 환경에서 20개의 객체를 사용하여 이루어졌으며, 각각의 객체는 카메 라로부터 10cm 내지 120cm의 다양한 거리에서 촬영되었다. 이들 객체는 데이터베이 스 (150) 구축이 아닌 실제 최적 초점 위치 결정을 위해 사용된 것이며, 객체의 크 기는 앞에서 설명한 초점 원도우의 크기보다크다.
정확도를 측정하기 위해서 다음의 수학식 8로 표현되는 수정 표준 편차 (Modified Standard Deviation : MSD)가사용되었다.
【수학 8】
Figure imgf000014_0001
여기서, 는 실제 최적 초점 거리, '는 본 발명에 의해 얻어진 최적 초점 거리, 그리고 T는 시물레이션 횟수를 나타낸다.
다음의 표 2에는 선행기술 1 내지 선행기술 4와 본 발명에 대하여 수학식 8에 의해 산출된 MSD의 값 및 각각의 방법을 수행하여 최적 초점 위치를 결정하기까지 요구되는 단계의 수를 나타내었다.
【표 2】 사용되 방법 MSD 평규 수행 다계의 수 서해기슴 1 0.47 9.55
선행기숨 2 2.38 8.76
선행기숨 3 0.94 7 선행기술 4 1.0 5.2
본 밝명 1.1 3
표 2를 참조하면, 본 발명은 최적 초점 위치를 결정하기 위해 평균적으로 3 개의 단계가 수행되므로 선행기술들에 비해 속도가 현저히 향상된 것을 알 수 있으 며, MSD의 값은 선행기술 1 및 선행기술 3보다는 크지만 이들 선행기술은 본 발명에 비해 현저하게 느린 수행 속도를 보이므로, 본 발명은 속도 및 정확성의 면에서 모 두 신뢰할 수 있는 성능을 보인다.
도 11은 기존에 사용된 초점 윈도우와 본 발명에서 제안된 하위 뷘도우를 사 용하여 얻어진 초점값 변화를 각각 나타낸 도면이다. 도 11의 (a)는 영상에 표시된 기존의 초점 윈도우이며, (b)는 이러한 초점 원도우로부터 산출된 초점값을 렌즈 위치, 즉 초점 위치에 따라 도시한 그래프이다. 도 11의 (a)에서 촬영 대상인 객체 는 카메라에 가까이 위치하고 있으나, 절반 정도만 초점 원도우 내에 위치한다. 이러한 경우에 얻어지는 초점값 그래프는 도 11의 (b)와 같이 객체 및 배경 부분에 대응하는 지점에서 각각 최대치를 나타내며, 이는 객체 및 배경에 각각 대 응하는 두 개의 최적 초점 위치이다. 그에 따라 하나의 초점 원도우만을 사용하는 기존의 자동 초점 기법에 의하면 객체를 촬영하기 위한 최적 초점 위치를 정확히 결정하지 못하는 경우가 발생한다.
한편, 도 11의 (c)는 본 발명에서 제시된 방법에 따라 초점 원도우가 복수의 하위 휜도우로 분할된 경우를 도시한 도면이다. 도 11의 (d)는 16개의 하위 원도우 중에서 어두운 회색으로 표시된 하위 원도우로부터 얻어진 초점값 그래프이며, (e) 는 밝은 회색으로 표시된 하위 원도우로부터 얻어진 초점값 그래프이다. 도 11의 (d)에 도시된 그래프에서 최적 초점 위치는 7인 반면, (e)에 도시된 그래프에서 최 적 초점 위치는 1이다. 본 발명에 따라 중심에 위치하는 하위 원도우에 더 높은 가 중치를 부여한다면 객체를 촬영하기 위한 최적 초점 위치를 정확하게 결정할 수 있 다.
도 12는 기존의 자동 초점 기법과 본 발명에 따른 자동 초점 기법에 의해 촬 영된 영상을 나타낸 도면이다. 도 12의 (a)는 기존의 초점 원도우로부터 초점값을 산출하여 최적 초점 위치를 결정한 결과 얻어진 영상으로, 카메라에 가까이 위치하 는 객체가 아닌 배경 부분에 초점이 맞추어져 있다. 그러나 본 발명에 따라 촬영된 도 12의 (b)에서는 객체 부분에 정확히 초점이 맞추어져 있는 것을 확인할 수 있 다.
본 발명은 또한 컴퓨터로 읽올 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스 템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 .기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브 (예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매 체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대해 도시하고 설명하였으나, 본 발 명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경 은 청구범위 기재의 범위 내에 있게 된다.

Claims

【청구의 범위】
【청구항 1】
사전에 설정된 간격으로 이격된 복수의 초점 위치에서 순차적으로 대상영역 을 촬영하여 얻어진 복수의 입력영상 중에서 서로 인접한 입력영상으로부터 산출된 초점값의 변화율을 기초로 상기 대상영역에 대웅하는 특징 백터를 산출하는 특징 백터 산출부; 및
복수의 기준 특징 백터 및 각각의 기준 특징 백터에 대웅하는 기준 초점 위 치가 저장된 데이터베이스에서 상기 대상영역에 대웅하는 특징 백터와의 차가 최소 인 기준 특징 백터에 대웅하여 저장된 기준 초점 위치를 상기 대상영역을 촬영하기 위한 최적 초점 위치로 결정하는 초점 위치 결정부;를 포함하는 것을 특징으로 하 는 트레이닝 기반의 자동 초점 장치.
【청구항 2]
제 1항에 있어세
상기 복수의 초점 위치를 포함하는 기준 개수의 초점 위치에서 대상객체를 촬영하여 각각 얻어진 견본영상들로 이루어진 이미지셋을 복수의 대상객체 각각의 식별정보 및 카메라로부터 상기 대상객체까지의 거리에 대웅하여 복수 개 생성하는 이미지 획득부;
상기 이미지 획득부에 의해 얻어진 복수의 이미지셋 각각에 대하여 상기 이 미지셋에 포함된 견본영상들 중에서 서로 인접한 견본영상으로부터 산출된 초점값 의 변화율을 기초로 견본 특징 백터를 산출하는 견본 특징 백터 산출부;
상기 각각의 이미지셋에 포함된 견본영상들 중에서 초점값이 최대인 견본영 상이 촬영된 초점 위치를 상기 각각의 이미지셋에 대웅하는 기준 초점 위치로 결정 하는 기준 초점 위치 결정부; 및
상기 기준 초점 위치의 값을 기준으로 상기 복수의 이미지셋을 상기 기준 개 수의 그룹으로 분류하고, 상기 각각의 그룹에 속하는 이미지셋에 대하여 산출된 견 본 특징 백터들의 평균을 상기 기준 특징 백터로 결정하여 상기 데이터베이스에 저 장하는 데이터 저장부;를 더 포함하는 것을 특징으로 하는 트레이닝 기반의 자동 초점 장치 .
【청구항 3】
제 2항에 있어서,
상기 견본 특징 백터 산출부는 사전에 선택된 적어도 세 개의 초점 위치에서 촬영된 견본영상을 사용하여 상기 견본 특징 백터를 산출하며, 상기 특징 백터 산출부는 상기 견본 특징 백터의 산출에 사용된 견본영상들 이 촬영된 초점 위치와 동일한 초점 위치에서 각각 촬영된 복수의 입력영상을 사용 하여 상기 대상영역에 대웅하는 특징 백터를 산출하는 것을 특징으로 하는 트레이 닝 기반의 자동 초점 장치 .
【창구항 4】
제 1항 내지 제 3항 중 어느 한 항에 있어서,
상기 특징 백터 산출부는 상기 대상영역을 촬영하기 위한 초기 초점 위치 및 상기 초기 초점 위치로부터 상기 간격으로 이격된 적어도 두 개의 초점 위치에서 상기 대상영역을 촬영하여 얻어진 적어도 세 개의 상기 입력영상 사이의 초점값의 변화율로 이루어진 상기 특징 백터를 산출하는 것을 특징으로 하는 트레이닝 기반 의 자동 초점 장치 .
【청구항 5]
제 1항 내지 제 3항 중 어느 한 항에 있어서,
상기 각각의 입력영상에 초점값 산출을 위해 설정된 초점 휜도우가 복수의 하위 원도우로 분할되며,
상기 특징 백터 산출부는 상기 각각의 하위 윈도우에 대하여 상기 대상영역 에 대웅하는 하위 특징 백터를 산출하고,
상기 초점 위치 결정부는 상기 각각의 하위 특징 백터를 기초로 상기 데이터 베이스로부터 선택된 복수의 기준 초점 위치 중에서 미디언 값을 상기 최적 초점 위치로 결정하는 것을 특징으로 하는 트레이닝 기반의 자동 초점 장치.
【청구항 6】
제 5항에 있어서,
상기 초점 위치 결정부는 상기 데이터베이스로부터 선택된 복수의 기준 초점 위치 각각에 가중치를 부여하여 상기 최적 초점 위치를 결정하며,
상기 각각의 가중치는 상기 초점 원도우 내에서 상기 하위 원도우의 위치를 기초로 설정되는 것을 특징으로 하는 트레이닝 기반의 자동 초점 장치.
【청구항 7]
(a) 사전에 설정된 간격으로 이격된 복수의 초점 위치에서 순차적으로 대상 영역을 촬영하여 얻어진 복수의 입력영상 중에서 서로 인접한 입력영상으로부터 산 출된 초점값의 변화율을 기초로 상기 대상영역에 대응하는 특징 백터를 산출하는 단계; 및
(b) 복수의 기준 특징 백터 및 각각의 기준 특징 백터에 대웅하는 기준 초점 위치가 저장된 데이터베이스에서 상기 대상영역에 대웅하는 특징 백터와의 차가 최 소인 기준 특징 백터에 대웅하여 저장된 기준 초점 위치를 상기 대상영역을 촬영하 기 위한 최적 초점 위치로 결정하는 단계;를 포함하는 것을 특징으로 하는 트레이 닝 기반의 자동 초점 방법 .
【청구항 8】
제 7항에 있어서,
상기 (a) 단계 이전에,
(c) 상기 복수의 초점 위치를 포함하는 기준 개수의 초점 위치에서 대상객체 를 촬영하여 각각 얻어진 견본영상들로 이루어진 이미지셋을 복수의 대상객체 각각 의 식별정보 및 카메라로부터 상기 대상객체까지의 거리에 대웅하여 복수 개 생성 하는 단계;
(d) 상기 (c) 단계에서 얻어진 복수의 이미지셋 각각에 대하여 상기 이미지 셋에 포함된 견본영상들 중에서 서로 인접한 견본영상으로부터 산출된 초점값의 변 화율을 기초로 견본 특징 백터를 산출하는 단계;
(e) 상기 각각의 이미지셋에 포함된 견본영상들 증에서 초점값이 최대인 견 본영상이 촬영된 초점 위치를 상기 각각의 이미지셋에 대웅하는 기준 초점 위치로 결정하는 단계; 및
(f) 상기 기준 초점 위치의 값을 기준으로 상기 복수의 이미지셋을 상기 기 준 개수의 그룹으로 분류하고, 상기 각각의 그룹에 속하는 이미지셋에 대하여 산출 된 견본 특징 백터들의'평균을 상기 기준 특징 백터로 결정하여 상기 데이터베이스 에 저장하는 단계;를 더 포함하는 것을 특징으로 하는 트레이닝 기반의 자동 초점 방법.
【청구항 9]
제 8항에 있어서,
상기 (d) 단계에서, 사전에 선택된 적어도 세 개의 초점 위치에서 촬영된 견 본영상을 사용하여 상기 견본 특징 백터를 산출하며 ,
상기 (a) 단계에서, 상기 견본 특징 백터의 산출에 사용된 견본영상들이 촬 영된 초점 위치와 동일한 초점 위치에서 각각 촬영된 복수의 입력영상을 사용하여 상기 대상영역에 대웅하는 특징 백터를 산출하는 것을 특징으로 하는 트레이닝 기 반의 자동 초점 방법ᅳ
【청구항 10】
제 7 내지 제 9항 중 어느 한 항에 있어서, 상기 (a) 단계에서, 상기 대상영역을 촬영하기 위한 초기 초점 위치 및 상기 초기 초점 위치로부터 상기 간격으로 이격된 적어도 두 개의 초점 위치에서 상기 대상영역을 촬영하여 얻어진 적어도 세 개의 상기 입력영상 사이의 초점값의 변화 율로 이루어진 상기 특징 백터를 산출하는 것을 특징으로 하는 트레이닝 기반의 자 동 초점 방법 .
【청구항 11】
제 7항 내지 제 9항 중 어느 한 항에 있어서,
상기 각각의 입력영상에 초점값 산출을 위해 설정된 초점 원도우가 복수의 하위 원도우로 분할되며,
상기 (a) 단계에서, 상기 각각의 하위 원도우에 대하여 상기 대상영역에 대 응하는 하위 특징 백터를 산출하고ᅳ
상기 (b) 단계에서, 상기 각각의 하위 특징 백터를 기초로 상기 데이터베이 스로부터 선택된 복수의 기준 초점 위치 중에서 미디언 값을 상기 최적 초점 위치 로 결정하는 것을 특징으로 하는 트레이닝 기반의 자동 초점 방법.
【청구항 12】
게 11항에 있어서,
상기 (b).단계에서, 상기 데이터베이스로부터 선택된 복수의 기준 초점 위치 각각에 가증치를 부여하여 상기 최적 초점 위치를 결정하며,
상기 각각의 가중치는 상기 초점 원도우 내에서 상기 하위 원도우의 위치를 기초로 설정되는 것을 특징으로 하는 트레이닝 기반의 자동 초점 방법.
【청구항 13】
제 7항 내지 제 9항 중 어느 한 항에 기재된 트레이닝 기반의 자동 초점 방 법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
PCT/KR2010/009367 2010-11-11 2010-12-27 트레이닝 기반의 자동 초점 장치 및 방법 WO2012063994A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020100112166A KR101133024B1 (ko) 2010-11-11 2010-11-11 트레이닝 기반의 자동 초점 장치 및 방법
KR10-2010-0112166 2010-11-11

Publications (1)

Publication Number Publication Date
WO2012063994A1 true WO2012063994A1 (ko) 2012-05-18

Family

ID=46051120

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2010/009367 WO2012063994A1 (ko) 2010-11-11 2010-12-27 트레이닝 기반의 자동 초점 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101133024B1 (ko)
WO (1) WO2012063994A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780841A (zh) * 2014-01-23 2014-05-07 深圳市金立通信设备有限公司 一种拍摄方法及拍摄装置
WO2022068466A1 (zh) * 2020-09-30 2022-04-07 华为技术有限公司 自动聚焦方法、装置及摄像机

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072073A (ja) * 2000-08-31 2002-03-12 Fuji Photo Film Co Ltd 自動焦点調節装置及び方法
US20050212950A1 (en) * 2004-03-26 2005-09-29 Chinon Kabushiki Kaisha Focal length detecting method, focusing device, image capturing method and image capturing apparatus
KR20060013117A (ko) * 2004-08-06 2006-02-09 삼성테크윈 주식회사 디지털 촬영 장치에서의 자동 포커싱 방법, 및 이 방법을채용한 디지털 촬영 장치
KR20060043025A (ko) * 2004-08-18 2006-05-15 삼성테크윈 주식회사 자동 초점 제어 방법 및 자동 초점 제어장치
KR20070091813A (ko) * 2006-03-07 2007-09-12 삼성전기주식회사 자동초점 수행 방법 및 이를 이용한 자동초점 조정장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002072073A (ja) * 2000-08-31 2002-03-12 Fuji Photo Film Co Ltd 自動焦点調節装置及び方法
US20050212950A1 (en) * 2004-03-26 2005-09-29 Chinon Kabushiki Kaisha Focal length detecting method, focusing device, image capturing method and image capturing apparatus
KR20060013117A (ko) * 2004-08-06 2006-02-09 삼성테크윈 주식회사 디지털 촬영 장치에서의 자동 포커싱 방법, 및 이 방법을채용한 디지털 촬영 장치
KR20060043025A (ko) * 2004-08-18 2006-05-15 삼성테크윈 주식회사 자동 초점 제어 방법 및 자동 초점 제어장치
KR20070091813A (ko) * 2006-03-07 2007-09-12 삼성전기주식회사 자동초점 수행 방법 및 이를 이용한 자동초점 조정장치

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103780841A (zh) * 2014-01-23 2014-05-07 深圳市金立通信设备有限公司 一种拍摄方法及拍摄装置
WO2022068466A1 (zh) * 2020-09-30 2022-04-07 华为技术有限公司 自动聚焦方法、装置及摄像机

Also Published As

Publication number Publication date
KR101133024B1 (ko) 2012-04-09

Similar Documents

Publication Publication Date Title
CN107705333B (zh) 基于双目相机的空间定位方法及装置
US11361459B2 (en) Method, device and non-transitory computer storage medium for processing image
CN107131883B (zh) 基于视觉的全自动移动终端室内定位系统
EP3817360A1 (en) Method for tracking target in panoramic video, and panoramic camera
US9626552B2 (en) Calculating facial image similarity
US10089762B2 (en) Methods for navigating through a set of images
CN106973221B (zh) 基于美学评价的无人机摄像方法和系统
JP2004199669A (ja) 顔検出
US20130215234A1 (en) Method and apparatus for stereo matching
US11164292B2 (en) System and method for correcting image through estimation of distortion parameter
JP4624947B2 (ja) 画像のトリミング方法および装置並びにプログラム
CN109451240B (zh) 对焦方法、装置、计算机设备和可读存储介质
CN113630549B (zh) 变焦控制方法、装置、电子设备和计算机可读存储介质
CN111614897B (zh) 一种基于用户偏好多维度驱动的智能拍照方法
CN104184935A (zh) 影像拍摄设备及方法
CN112446322B (zh) 眼球特征检测方法、装置、设备及计算机可读存储介质
WO2022127814A1 (zh) 一种图像的显著性物体检测方法、装置、设备及存储介质
CN106204554A (zh) 基于多聚焦图像的景深信息获取方法、系统及拍摄终端
WO2020042000A1 (zh) 相机设备及对焦方法
CN110336948B (zh) 一种预定区域聚焦的方法、装置、存储介质及电子装置
CN109544584B (zh) 一种实现巡检稳像精度测量的方法及系统
CN109344758B (zh) 基于改进局部二值模式的人脸识别方法
KR102155154B1 (ko) 드론을 이용한 예술사진 촬영방법 및 그 기능을 갖는 드론
WO2012063994A1 (ko) 트레이닝 기반의 자동 초점 장치 및 방법
CN106780558B (zh) 基于计算机视觉的点生成无人机目标初始跟踪框的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10859579

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10859579

Country of ref document: EP

Kind code of ref document: A1