KR101301301B1 - Face identification filter planning method and apparatus thereof - Google Patents

Face identification filter planning method and apparatus thereof Download PDF

Info

Publication number
KR101301301B1
KR101301301B1 KR1020120080773A KR20120080773A KR101301301B1 KR 101301301 B1 KR101301301 B1 KR 101301301B1 KR 1020120080773 A KR1020120080773 A KR 1020120080773A KR 20120080773 A KR20120080773 A KR 20120080773A KR 101301301 B1 KR101301301 B1 KR 101301301B1
Authority
KR
South Korea
Prior art keywords
design
filter
face
values
objective function
Prior art date
Application number
KR1020120080773A
Other languages
Korean (ko)
Inventor
이장형
권용호
Original Assignee
주식회사 에스원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스원 filed Critical 주식회사 에스원
Priority to KR1020120080773A priority Critical patent/KR101301301B1/en
Application granted granted Critical
Publication of KR101301301B1 publication Critical patent/KR101301301B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A face recognition filter design method and a device thereof are provided to facilitate the design of a filter with an improved face recognition capability by obtaining maximum sensitivity in variances for representing the face identity for different people and minimum sensitivity in matters unrelated to the determination of the face identity. CONSTITUTION: A filter designing device determines one or more face population groups and selects one or more designing parameters with respect to a face recognition filter (S100,S110). A device separately applies a virtual filter corresponding to a relevant design combination to images contained in a face population group according to the combination of the designing parameters (S130,S140). The device calculates intra-individual variances, inter-individual variances, and objective values by the designing combinations (S150,S160). The device determines a face recognition filter to design (S180). [Reference numerals] (1) Filter designing device; (AA) No; (BB) Yes; (S100) Determine one or more face population groups which contains images obtained from different shooting conditions; (S110) Select a designing parameter; (S120) Determine the application range and step size with respect to the designing parameter; (S130) Form a plurality of designing combinations; (S140) Apply a virtual filter to a face population group according to a single designing combination; (S150) Calculate intra-individual variances and inter-individual variances on the basis of filter responding data; (S160) Calculate objective values on the basis of the individual variances and the inter-individual variances; (S170) Tasks carried out with respect to all designing combinations?; (S180) Select a maximum value among a plurality of objective values and select a designing combination corresponding to the value

Description

얼굴 인식 필터 설계 방법 빛 그 장치 {Face identification filter planning method and apparatus thereof}Face identification filter planning method and apparatus

본 발명은 필터를 설계하는 방법 및 그 장치에 관한 것으로, 특히 얼굴을 인식하는 필터를 설계하는 방법 및 그 장치에 관한 것이다. The present invention relates to a method and a device for designing a filter, and more particularly, to a method and device for designing a filter for recognizing a face.

생체 인식 중 얼굴 인식은 다양한 분야에 적용되고 있으며, 얼굴 인식의 정확성을 높이기 위한 다양한 연구들이 이루어지고 있다. 획득한 얼굴 이미지에 대한 컴퓨터화된 식별을 위하여 주파수 영역에서의 정량화를 가능케 하는 필터링이 널리 사용되고 있다. 필터링에 사용되는 얼굴 인식 필터로는 가버(Gabor) 필터 등이 있다. Face recognition among biometrics is applied to various fields, and various studies are being conducted to increase the accuracy of face recognition. Filtering to enable quantization in the frequency domain is widely used for computerized identification of acquired face images. The face recognition filter used for filtering includes a Gabor filter.

필터링을 위하여 일반적으로 단수의 필터보다는 일련의 주파수와 방향성을 팩터(factor)로 가지는 복수의 필터로 이루어지는 필터 집합(filter bank)이 사용된다. 필터 집합에서 각 필터의 방향성 값들은 임의적으로 선택될 수 있다. 주파수는 연속적인 양이므로 필터 집합에 대하여 선택 가능한 주파수는 무한하다. 이러한 무한한 설계 공간(design space)을 고려하여 얼굴 인식 필터를 설계하는 경우, 팩터의 변화와 설계자가 팩터의 변화에 따라 상정한 최적화 범주(optimization criterion)에 대한 적합성과 달성 여부에 대한 검증이 요구되며, 이러한 검증은 상호작용적으로(interactively) 모니터링이 필요한 부분이다. 이러한 부분들을 고려하여 얼굴 인식 필터를 개발하는 환경은 이제까지 존재하지 않았다. In general, a filter bank including a plurality of filters having a series of frequencies and directional factors as a factor is used rather than a single filter. Directional values of each filter in the filter set may be arbitrarily selected. Since the frequency is a continuous quantity, the selectable frequencies for the filter set are infinite. When designing the face recognition filter in consideration of this infinite design space, it is necessary to verify the suitability and achievement of the optimization criterion assumed by the factor change and the designer's change according to the factor change. This verification is an area that needs to be monitored interactively. Considering these aspects, there is no environment for developing a face recognition filter.

필터 집합은 다양한 이미지 특성에 대하여 다양한 감도(sensitivity)를 보일 수 있다. 예를 들어, 이미지의 화질은 이미지 획득 장치와 조명도, 해상도, 거리 등의 촬영 조건에 따라 다양한 변화(예: 저화질 또는 고화질)를 보일 수 있다. 촬영 조건에 따른 이러한 다양한 변화들은 개인의 얼굴 정체성에 관련된 것이 아니므로, 이상적인 얼굴 인식 필터는 촬영 조건에 따른 변화에 대하여 최소의 감도를 가지는 것이 요구된다. The filter set may exhibit various sensitivity to various image characteristics. For example, the image quality of the image may show various changes (eg, low quality or high quality) according to the image capturing apparatus and shooting conditions such as lighting degree, resolution, and distance. Since these various changes according to the shooting conditions are not related to the face identity of the individual, the ideal face recognition filter is required to have a minimum sensitivity to the changes according to the shooting conditions.

한편 복수의 사람들에 대한 얼굴 이미지들의 집합인 얼굴 인구(population, set)는 얼굴 부분별로(예: 눈, 코, 입) 그리고 사용되는 필터 집합의 주파수들에 따라 상이한 분산(variation, variance)을 가진다. 이상적인 얼굴 인식 필터는 이러한 분산에 대해 최대의 감도를 유지하는 것이 요구된다. On the other hand, a population (set), which is a set of face images for multiple people, has different variations (variations, variances) by face part (e.g. eyes, nose, mouth) and by the frequencies of the filter set used. . An ideal face recognition filter is required to maintain maximum sensitivity to this dispersion.

팩터에 대한 설계 공간이 무한함을 고려할 때, 효율적인 필터설계를 위하여 팩터의 변화에 따른 이러한 목적 함수들의 변화에 대한 상호 작용적인 모니터링(interactive monitoring)이 필요하다. Given that the design space for the factor is infinite, interactive monitoring of the change of these objective functions according to the change of the factor is required for efficient filter design.

본 발명이 해결하고자 하는 기술적 과제는 이상적인 필터를 용이하게 설계할 수 있는 방법 및 그 장치를 제공하는 것이다. The technical problem to be solved by the present invention is to provide a method and apparatus for easily designing an ideal filter.

또한 본 발명이 해결하고자 하는 과제는 설계자와의 상호적 작용을 통하여 필터에 대한 팩터들을 효율적으로 변경시키면서 최적의 필터를 설계할 수 있는 방법 및 그 장치를 제공하는 것이다. Another object of the present invention is to provide a method and an apparatus capable of designing an optimal filter while efficiently changing factors for the filter through interaction with a designer.

본 발명의 특징에 따른 방법은 얼굴 인식 필터를 설계하는 방법이며, 설계하고자 하는 얼굴 인식 필터를 적용할 복수의 사람들에 대한 이미지들을 포함하는 얼굴 인구 집합을 적어도 하나 결정하는 단계; 상기 얼굴 인식 필터에 대한 설계 파라미터를 적어도 하나 선택하고, 상기 선택된 설계 파라미터를 조합하여 적어도 하나의 설계 조합을 생성하는 단계; 상기 설계 조합별로, 해당 설계 조합에 대응하는 가상 필터를 상기 얼굴 인구 집합에 포함되는 이미지들에 대하여 각각 적용하여 필터 응답 데이터들을 획득하는 단계; 상기 설계 조합별로, 획득된 필터 응답 데이터들을 토대로 동일인에 대한 각각의 이미지별 차이를 나타내는 개인내 분산값 및 서로 다른 사람들간의 이미지 차이를 나타내는 개인간 분산값들을 산출하는 단계; 상기 개인내 분산값과 개인간 분산값들을 토대로 상기 설계 조합별로 목적 함수값을 산출하는 단계; 및 상기 설계 조합별 목적 함수값들을 토대로 설계하고자 하는 얼굴 인식 필터를 결정하는 단계를 포함한다. A method according to an aspect of the present invention is a method of designing a face recognition filter, comprising: determining at least one face population set including images of a plurality of people to which the face recognition filter to be designed is to be applied; Selecting at least one design parameter for the face recognition filter and combining the selected design parameters to generate at least one design combination; For each of the design combinations, applying a virtual filter corresponding to the design combination to each of the images included in the face population set to obtain filter response data; For each design combination, calculating intra-individual variance values representing differences of each image for the same person and inter-individual dispersion values representing image differences between different people based on the obtained filter response data; Calculating an objective function value for each design combination based on the in-person dispersion value and the in-person dispersion value; And determining a face recognition filter to be designed based on the objective function values for each design combination.

상기 얼굴 인구 집합을 적어도 하나 결정하는 단계는, 서로 다른 촬영 조건에서 획득한 복수의 사람들에 대한 이미지들을 포함하는 복수의 얼굴 인구 집합을 결정할 수 있다. 여기서 상기 복수의 얼굴 인구 집합은 동일인에 대하여 서로 다른 촬영 조건에서 획득한 이미지들을 각각 포함할 수 있다. The determining of the at least one face population set may determine a plurality of face population sets including images of a plurality of people obtained under different photographing conditions. Here, the plurality of face population sets may each include images acquired under different shooting conditions for the same person.

이 경우 상기 얼굴 인구 집합을 적어도 하나 결정하는 단계는, 촬영 조건을 선택할 수 있는 이미지 선택 입력창을 출력하는 단계; 상기 이미지 선택 입력창을 통하여 입력되는 데이터를 토대로 촬영 조건--상기 촬영 조건은 조명도, 해상도, 거리, 카메라 각도 중 적어도 하나임--을 선택하는 단계; 및 상기 선택된 촬영 조건에 대응하는 얼굴 인구 집합을 결정하는 단계를 포함할 수 있다. In this case, the determining of the at least one face population set may include: outputting an image selection input window for selecting a shooting condition; Selecting a shooting condition based on the data input through the image selection input window, wherein the shooting condition is at least one of an illumination degree, a resolution, a distance, and a camera angle; And determining a face population set corresponding to the selected photographing condition.

한편 상기 설계 조합을 생성하는 단계는, 얼굴 인식 필터의 주파수 및 방향성, 그리고 필터가 적용되는 이미지의 영역에 해당하는 커넬(kernel)의 폭과 크기 중에서 적어도 하나인 설계 파라미터를 선택하는 단계; 및 상기 선택된 설계 파라미터들에 대하여 복수의 값들을 설정하고, 설정된 설계 파라미터들의 복수의 값들을 조합하여 복수의 설계 조합을 생성하는 단계를 포함할 수 있다.The generating of the design combination may include selecting a design parameter which is at least one of a frequency and directivity of a face recognition filter and a width and a size of a kernel corresponding to an area of an image to which the filter is applied; And setting a plurality of values for the selected design parameters, and generating a plurality of design combinations by combining a plurality of values of the set design parameters.

여기서 상기 복수의 설계 조합을 생성하는 단계는 상기 선택된 설계 파라미터 각각에 대하여 최소값과 최대값으로 이루어진 적용 범위 및 스텝 크기를 결정하는 단계; 상기 설계 파라미터별로 적용 범위내에서 상기 스텝 크기에 대응하는 값들에 해당하는 복수의 값들을 추출하는 단계; 및 상기 설계 파라미터별로 추출된 복수의 값들을 조합하여 복수의 설계 조합을 생성하는 단계를 포함할 수 있다. Wherein the generating of the plurality of design combinations comprises: determining an application range and step size consisting of a minimum value and a maximum value for each of the selected design parameters; Extracting a plurality of values corresponding to the values corresponding to the step size within an application range for each design parameter; And generating a plurality of design combinations by combining the plurality of values extracted for each design parameter.

또한 상기 설계 조합을 생성하는 단계는, 상기 설계 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있는 설계 파라미터 입력창을 출력하는 단계; 및 상기 설계 파라미터 입력창을 통하여 입력되는 데이터를 토대로 적어도 하나인 설계 파라미터를 선택하고, 선택된 설계 파라미터별로 적용 범위 및 스텝 단위를 결정하는 단계를 포함할 수 있다. The generating of the design combination may include: outputting a design parameter input window for selecting an application range and a step unit for each design parameter; And selecting at least one design parameter based on data input through the design parameter input window, and determining an application range and a step unit for each selected design parameter.

한편 상기 분산값들을 산출하는 단계는 하나의 얼굴 인구 집합내에 포함되는 복수의 사람들에 대한 이미지들에 해당하는 필터 응답 데이터들을 토대로 해당 얼굴 인구 집합에 포함되는 사람들에 대한 개인간 분산값을 산출하여, 상기 모든 얼굴 인구 집합 각각에 대한 개인간 분산값들을 산출하는 단계; 및 상기 복수의 얼굴 인구 집합들로부터 하나의 사람에 대응하는 이미지들에 해당하는 필터 응답 데이터들을 토대로, 하나의 사람에 대한 개인내 분산값을 산출하여, 모든 사람들 각각에 대한 개인내 분산값을 산출하는 단계를 포함할 수 있다. The calculating of the variance values may include calculating an variance value between individuals for the people included in the face population set based on filter response data corresponding to the images of the plurality of people included in the face population set. Calculating interpersonal variance values for each of all face population sets; And calculating an in-person variance value for one person based on filter response data corresponding to images corresponding to one person from the plurality of face population sets, and calculating an in-person variance value for each person. It may include the step.

이 경우 상기 목적 함수값을 산출하는 단계는 상기 개인간 분산값을 개인내 분산값으로 나누어서 설계 조합별로 목적 함수값을 산출할 수 있다. In this case, the calculating of the objective function value may calculate the objective function value for each design combination by dividing the variance value between the individuals by the variance value within the individual.

또한 상기 목적 함수값을 산출하는 단계는 목적 함수 = max [sum M(Var_bj) / sum N (Var_wi)]를 토대로 목적 함수값을 산출할 수 있으며, 여기서 상기 sum M(Var_bj)는 모든 얼굴 인구 집합들에 대하여 산출된 개인간 분산값들(Var_bj)들의 합을 나타내고, 상기 sum N (Var_wi)는 모든 사람들에 대하여 각각 산출된 개인내 분산값들(Var_wi)의 합을 나타낸다. The calculating of the objective function may include calculating an objective function based on objective function = max [sum M (Var_bj) / sum N (Var_wi)], where sum M (Var_bj) is a set of all face populations. The sum N (Var_wi) represents the sum of the intra-person variance values Var_bj calculated for each person, and the sum N (Var_wi) represents the sum of the intra-person variance values Var_wi calculated for all people.

한편 상기 얼굴 인식 필터를 결정하는 단계는 상기 설계 조합별 획득한 목적 함수값들 중에서 최대값을 가지는 목적 함수값을 선택하고, 선택된 목적 함수값에 대응하는 설계 조합을 토대로 얼굴 인식 필터를 설계할 수 있다. The determining of the face recognition filter may include selecting an objective function value having a maximum value among the objective function values acquired for each design combination, and designing a face recognition filter based on a design combination corresponding to the selected objective function value. have.

또한 본 발명의 다른 특징에 따른 필터 설계 장치는, 설계하고자 하는 얼굴 인식 필터를 적용할 복수의 사람들에 대한 이미지들을 포함하는 얼굴 인구 집합을 적어도 하나 결정하는 이미지 집합 결정부; 상기 얼굴 인식 필터에 대한 설계 파라미터를 적어도 하나 선택하는 파라미터 선택부; 상기 선택된 설계 파라미터를 조합하여 적어도 하나의 설계 조합을 생성하는 설계 조합 생성부; 상기 설계 조합별로, 해당 설계 조합에 대응하는 가상 필터를 상기 얼굴 인구 집합에 포함되는 이미지들에 대하여 각각 적용하여 필터 응답 데이터들을 획득하는 가상 필터 적용부; 상기 설계 조합별로, 획득된 필터 응답 데이터들을 토대로 동일인에 대한 각각의 이미지별 차이를 나타내는 개인내 분산값 및 서로 다른 사람들간의 이미지 차이를 나타내는 개인간 분산값들을 산출하는 필터 특징량 산출부; 및 상기 개인내 분산값과 개인간 분산값들을 토대로 상기 설계 조합별로 목적 함수값을 산출하고, 상기 설계 조합별 목적 함수값을 토대로 설계하고자 하는 얼굴 인식 필터를 결정하는 목적 함수 산출부를 포함할 수 있다. In addition, the filter design apparatus according to another aspect of the present invention, the image set determination unit for determining at least one face population set including images of a plurality of people to apply the face recognition filter to be designed; A parameter selector to select at least one design parameter for the face recognition filter; A design combination generation unit generating at least one design combination by combining the selected design parameters; A virtual filter applying unit for obtaining filter response data for each of the design combinations by applying a virtual filter corresponding to the design combination to the images included in the face population set; A filter feature variable calculating unit for calculating individual variance values representing differences between individual images of the same person and individual variance values representing image differences between different people based on the acquired filter response data; And an objective function calculator configured to calculate an objective function value for each design combination based on the in-person variance value and the interpersonal variance value, and determine a face recognition filter to be designed based on the objective function value for each design combination.

이외에도 서로 다른 촬영 조건에서 획득한 복수의 사람들에 대한 이미지들을 포함하는 복수의 얼굴 인구 집합이 저장되어 있는 이미지 저장부를 더 포함할 수 있으며, 여기서 상기 복수의 얼굴 인구 집합은 동일인에 대하여 서로 다른 촬영 조건에서 획득한 이미지들을 각각 포함하고 있을 수 있다. In addition, the apparatus may further include an image storage unit configured to store a plurality of face population sets including images of a plurality of people acquired under different shooting conditions, wherein the plurality of face population sets may be different from each other in the same person. Each of the images obtained from the may include.

또한 상기 선택된 설계 파라미터 각각에 대하여 최소값과 최대값으로 이루어진 적용 범위 및 스텝 크기를 결정하는 파라미터 범위 결정부를 더 포함할 수 있으며, 이 경우 상기 설계 조합 생성부는 상기 설계 파라미터별로 적용 범위내에서 상기 스텝 크기에 대응하는 값들에 해당하는 복수의 값들을 추출하고, 상기 설계 파라미터별 복수의 값들을 조합하여 복수의 설계 조합을 생성할 수 있다. The apparatus may further include a parameter range determination unit configured to determine an application range and a step size including a minimum value and a maximum value for each of the selected design parameters. In this case, the design combination generation unit may include the step size within the application range for each design parameter. A plurality of design combinations may be generated by extracting a plurality of values corresponding to the values corresponding to and combining the plurality of values for each design parameter.

한편 상기 파라미터 선택부는 얼굴 인식 필터의 주파수 및 방향성, 그리고 필터가 적용되는 이미지의 영역에 해당하는 커넬(kernel)의 폭과 크기 중에서 적어도 하나인 설계 파라미터를 선택할 수 있다. The parameter selector may select a design parameter that is at least one of a frequency and direction of the face recognition filter, and a width and a size of a kernel corresponding to an area of an image to which the filter is applied.

또한 상기 목적 함수 산출부는 상기 설계 조합별 획득한 목적 함수값들 중에서 최대값을 가지는 목적 함수값을 선택하고, 선택된 목적 함수값에 대응하는 설계 조합을 토대로 얼굴 인식 필터를 설계할 수 있다. The objective function calculator may select an objective function value having a maximum value among the objective function values obtained for each design combination, and design a face recognition filter based on the design combination corresponding to the selected objective function value.

이외에도, 필터 설계 장치는 촬영 조건을 선택할 수 있는 이미지 선택 입력창, 설계 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있는 설계 파라미터 입력창, 그리고 상기 필터 응답 데이터 및 목적 함수값을 출력하는 출력부; 및 상기 이미지 선택 입력창 및 설계 파라미터 입력창을 통하여 입력되는 데이터들을 이미지 집합 결정부, 설계 파라미터 선택부, 및 파라미터 범위 결정부로 각각 전달하는 입력부를 더 포함할 수 있다. In addition, the filter design apparatus includes an image selection input window for selecting shooting conditions, a design parameter input window for selecting an application range and a step unit for each design parameter, and an output unit for outputting the filter response data and the objective function value; And an input unit configured to transfer data input through the image selection input window and the design parameter input window to the image set determiner, the design parameter selector, and the parameter range determiner, respectively.

본 발명의 실시 예에 따르면, 최적의 얼굴 인식 필터 설계가 이루어진다. According to an embodiment of the present invention, an optimal face recognition filter design is achieved.

또한 얼굴 인식 필터의 팩터들이 무한하게 설계 가능한 환경 하에서도, 서로 다른 사람들에 대한 얼굴 정체성을 나타내는 분산값에 대해서는 최대의 감도를 가지면서, 얼굴 정체성 결정과 관련 없는 사항들에 대해서는 최소의 감도를 가지는 얼굴 인식 필터를 설계할 수 있다. 따라서 얼굴 인식 특성이 보다 향상된 필터를 용이하게 설계할 수 있다.In addition, even in an environment where the factors of the face recognition filter can be infinitely designed, the sensitivity of the face recognition filter has the maximum sensitivity to the variance representing the face identity of different people and minimum sensitivity to the matters not related to the face identity determination. Face recognition filters can be designed. Therefore, a filter having improved face recognition characteristics can be easily designed.

도 1은 본 발명의 실시 예에 따른 필터 설계 방법의 흐름도이다.
도 2는 본 발명의 실시 예에 따른 필터 응답 데이터들을 나타낸 예시도이다.
도 3 내지 도 5는 본 발명의 실시 예에 따른 필터들의 특징량에 따른 분산 정도를 나타낸 예시도이다.
도 6은 본 발명의 실시 예에 따른 필터 설계 장치의 구조도이다.
1 is a flowchart illustrating a filter design method according to an embodiment of the present invention.
2 is an exemplary view showing filter response data according to an exemplary embodiment of the present invention.
3 to 5 are exemplary views showing the degree of dispersion in accordance with the characteristic amount of the filter according to an embodiment of the present invention.
6 is a structural diagram of a filter design device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시 예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention.

그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 및 청구범위 전체에서, 어떤 부분이 어떤 구성 요소를 '포함'한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification and claims, when a section is referred to as including an element, it is understood that it may include other elements as well, without departing from the other elements unless specifically stated otherwise.

이제 본 발명의 실시 예에 따른 얼굴 인식 필터 설계 방법 및 그 장치에 대하여 설명한다. A method and apparatus for designing a face recognition filter according to an exemplary embodiment of the present invention will now be described.

얼굴 인식 필터는 복수의 팩터(factor)들을 포함하며, 팩터들은 주파수(frequency), 방향성(orientation) 등을 포함한다. 팩터들에 따라 얼굴 인식 필터의 특성이 변화됨으로, 팩터들을 최적으로 선택하여야 원하는 특성을 가지는 얼굴 인식 필터를 얻을 수 있다. 즉, 필터의 주파수와 방향을 적절하게 결정하여야 원하는 특성을 가지는 얼굴 인식 필터를 얻을 수 있다. The face recognition filter includes a plurality of factors, and the factors include frequency, orientation, and the like. Since the characteristics of the face recognition filter change according to the factors, the face recognition filter having the desired characteristics may be obtained only by optimally selecting the factors. In other words, it is necessary to determine the frequency and direction of the filter appropriately to obtain a face recognition filter having desired characteristics.

얼굴 인식 필터는 다양한 이미지 특성에 대하여 다양한 반응값 즉, 감도(sensitivity)를 가진다. 이미지는 촬영 조건(예를 들어, 조명도, 해상도, 거리 등)에 따라 다양한 특성을 가질 수 있으며, 촬영 조건에 따라 저화질, 중화질, 고화질 등의 화질 변화를 가질 수 있다. 이러한 촬영 조건에 따른 화질 변화와 같은 이미지 특성은 실질적으로 개인별로 다르게 나타나는 정체성에 관련된 것이 아니기 때문에, 이러한 이미지 특성에 대한 얼굴 인식 필터의 감도는 작을수록 보다 정확한 얼굴 인식이 이루어질 수 있다. The face recognition filter has various response values, ie sensitivity, for various image characteristics. The image may have various characteristics according to shooting conditions (eg, illumination, resolution, distance, etc.), and may have a change in image quality such as low quality, neutral quality, and high quality according to the shooting conditions. Since the image characteristics such as the image quality change according to the shooting conditions are not substantially related to the identity that is different for each individual, the smaller the sensitivity of the face recognition filter for such image characteristics, the more accurate face recognition can be achieved.

한편, 얼굴 인식 필터를 이미지에 적용시킨 경우, 이미지의 얼굴 영역별(예를 들어, 눈, 코, 입 등)로 필터링 후 획득되는 픽셀값들을 토대로 하는 얼굴 인구 상의 분산(variation)은 개인의 정체성의 판별에 관련된 것으로, 개인 식별을 위하여 사용된다. 따라서 이러한 분산에 대한 얼굴 인식 필터의 감도는 클수록 보다 정확한 얼굴 인식이 이루어질 수 있다. On the other hand, when the face recognition filter is applied to the image, the variation in the face population based on the pixel values obtained after filtering by the face region (for example, eyes, nose, mouth, etc.) of the image is an individual's identity. It is used for personal identification as it relates to the identification of. Therefore, the greater the sensitivity of the face recognition filter to such dispersion, the more accurate face recognition can be achieved.

얼굴 인식 필터는 동일인의 이미지에 대해서는 가능한 균일한 반응값 즉, 감도를 가져야 하며, 타인들의 이미지에 대해서는 가능한 분별력 있는 감도를 가지도록 설계되어야 한다. 본 발명의 실시 예에서는 이러한 얼굴 인식 필터에 대한 최적한 조건이 만족되도록 얼굴 인식 필터를 설계하는 방법 및 그 장치를 제공한다. The face recognition filter should be designed to have a uniform response value, that is, sensitivity, to the image of the same person, and to be as sensitive as possible to the image of others. An embodiment of the present invention provides a method and apparatus for designing a face recognition filter such that an optimal condition for the face recognition filter is satisfied.

얼굴 인식을 위하여, 얼굴 인식 필터(이하, 설명의 편의를 위하여 "필터"라고 명명함)들을 복수개 포함하는 필터 집합(또는 필터 뱅크)이 사용된다. 필터 집합은 포함되는 각각의 필터들에 대한 팩터들을 조합하는 것에 의하여 특징지어질 수 있으며, 예를 들어, 8개의 방향성, 3개의 주파수를 가지는 경우, 24개의 필터를 포함하는 필터 집합이 사용될 수 있다. For face recognition, a filter set (or filter bank) including a plurality of face recognition filters (hereinafter referred to as "filters" for convenience of description) is used. The filter set may be characterized by combining factors for each of the filters included, for example, a filter set comprising 24 filters may be used if it has eight directional, three frequencies. .

필터 설계를 위하여, 통계적 대표성을 가지는 얼굴의 이미지들을 포함하는 얼굴 인구 집합이 사용된다. 얼굴 인구 집합은 이미지 특성에 따라 분류될 수 있는데, 예를 들어, 이미지의 화질별로 얼굴 인구 집합이 분류될 수 있다. 구체적인 예로서, 저화질을 가지는 이미지들로 이루어진 얼굴 인구 집합, 중화질을 가지는 이미지들로 이루어진 얼굴 인구 집합, 고화질을 가지는 이미지들로 이루어진 얼굴 인구 집합 등으로 분류될 수 있다. 이 경우, 이미지 화질별로 얼굴 인구 집합에 포함되는 각 이미지들은 동일한 사람에 대한 이미지일 수 있다. 즉, 저화질에 대응하는 얼굴 인구 집합의 첫번째 이미지와 중화질에 대응하는 얼굴 인구 집합의 첫번째 이미지, 그리고 고화질에 대응하는 얼굴 인구 집합의 첫번째 이미지가 동일한 사람에 대한 이미지일 수 있다. For filter design, a face population set is used that includes images of faces with statistical representation. The face population set may be classified according to image characteristics. For example, the face population set may be classified according to the image quality of the image. As a specific example, it may be classified into a face population set made of images having low quality, a face population set made of images having neutral quality, and a face population set made of images having high quality. In this case, each image included in the face population set for each image quality may be an image of the same person. That is, the first image of the face population set corresponding to the low quality, the first image of the face population set corresponding to the medium quality, and the first image of the face population set corresponding to the high quality may be images of the same person.

본 발명의 실시 예에서는 여러 사람에 대하여 서로 다른 촬영 조건(예를 들어, 조명도, 해상도, 거리 등)에 따라 획득한 이미지들을 포함하는 얼굴 인구 집합들을 사용한다. 예를 들어, n 명의 사람(1, 2, 3, …, n)에 대하여 다양한 촬영 조건(c1, c2, c3, …,cm)별로 얻어지는 얼굴 인구 집합(s1, s2, s3, …,sm)들이 사용된다. 각 얼굴 인구 집합에는 식별자가 부여될 수 있으며, 얼굴 인구 집합에 포함되는 각각의 이미지에 대해서도 식별자가 부여될 수 있다. 예를 들어, s1의 식별자를 가지는 얼굴 인구 집합은 id001, id002, id003, …, idn과 같은 식별자를 가지는 이미지들을 포함할 수 있다. 특히, 본 발명의 실시 예에서는 각 촬영 조건별 얼굴 인구 집합에 포함되는 각 이미지에 대하여, 식별자를 통하여 어떠한 촬영 조건하에서 얻어진 이미지인지를 알 수 있도록, 예를 들어, "id001_조명010_해상도030"과 같은 형태의 식별자를 사용할 수도 있다. 즉, 얼굴 인구 집합에 포함되는 이미지의 식별자가 촬영 조건에 따른 특징 데이터를 포함하는 형태로 구현될 수 있다. In an exemplary embodiment of the present invention, face population sets including images acquired according to different shooting conditions (eg, lighting degree, resolution, distance, etc.) of various people are used. For example, face population sets s1, s2, s3, ..., sm obtained for n people (1, 2, 3, ..., n) according to various shooting conditions (c1, c2, c3, ..., cm). Are used. An identifier may be assigned to each face population set, and an identifier may also be assigned to each image included in the face population set. For example, the face population set having an identifier of s1 is id001, id002, id003,... , may include images having an identifier such as idn. Particularly, in the embodiment of the present invention, for each image included in the face population set for each shooting condition, the identifier may be identified under which shooting condition the image is obtained, for example, "id001_lighting010_resolution 030. You can also use an identifier of the form "." That is, the identifier of the image included in the face population set may be implemented to include feature data according to shooting conditions.

본 발명의 실시 예에서는 설계 파라미터들의 조합을 통하여 필터를 설계할 수 있다. 여기서 설계 파라미터는 필터의 특성을 결정짓는 팩터와 커넬(kernel)을 포함한다. 커넬은 필터가 적용되는 대상이 되는 이미지의 소정 영역의 높이와 넓이를 지정한다. In an embodiment of the present invention, the filter may be designed through a combination of design parameters. The design parameters here include a factor and kernel that determine the characteristics of the filter. The kernel specifies the height and width of a given area of the image to which the filter is applied.

도 1은 본 발명의 실시 예에 따른 얼굴 인식 필터 설계 방법의 흐름도이다. 이러한 필터 설계 방법은 필터 설계 장치(1)에 의하여 수행될 수 있다. 1 is a flowchart illustrating a face recognition filter design method according to an exemplary embodiment of the present invention. Such a filter design method may be performed by the filter design device 1.

먼저, 첨부한 도 1에 도시되어 있듯이, 필터 설계 장치(1)는 설계하고자 하는 얼굴 인식 필터를 적용할 이미지들인 얼굴 인구 집합을 결정한다. 특히 설계하고자 하는 필터가 최소의 감도를 가지기를 원하는 이미지의 특성에서 다양한 값을 가지는 이미지들을 포함하는 얼굴 인구 집합을 결정한다(S100). 예를 들어, 화질에 대하여 최소한의 감도를 가지는 필터를 설계하기 위하여, n 명의 사람별로 저화질의 촬영 조건에서 획득한 이미지들을 포함하는 얼굴 인구 집합, 중화질의 촬영 조건에서 획득한 이미지들을 포함하는 얼굴 인구 집합, 그리고 고화질의 촬영 조건에서 획득한 이미지들을 포함하는 얼굴 인구 집합들을 결정한다. 여기서 저화질의 촬영 조건, 중화질의 촬영 조건, 고화질의 촬영 조건은 각 조건별로 미리 설정된 조명도, 해상도, 거리, 또는 카메라의 각도를 가진다. 또한 조명도, 해상도, 거리, 또는 카메라 각도 등의 값들을 미리 설정된 값이 아닌 별도의 값으로 개별적으로 선택하면서, 원하는 촬영 조건을 선택할 수도 있다. First, as shown in FIG. 1, the filter design apparatus 1 determines a face population set that is images to which the face recognition filter to be designed is applied. In particular, the face population set including the images having various values in the characteristics of the image that the filter to be designed has the minimum sensitivity is determined (S100). For example, in order to design a filter with minimal sensitivity to image quality, a face population set including images acquired under low quality shooting conditions for each of n people, and a face population including images obtained under medium quality shooting conditions The face population sets including the set and the images obtained under the high quality shooting conditions are determined. Here, the low quality shooting conditions, the medium quality shooting conditions, and the high quality shooting conditions have preset illumination degree, resolution, distance, or camera angle for each condition. In addition, while selecting values such as illumination, resolution, distance, or camera angle individually as a separate value instead of a preset value, a desired shooting condition may be selected.

여기서, 설계자가 원하는 이미지 특성에 대응하는 다양한 값을 가지는 이미지들을 선택할 수 있도록, 필터 설계 장치(1)는 출력 수단을 통하여 이미지 선택 입력창을 제공할 수 있다. 이미지 선택 입력창은 촬영 조건인 조명도, 해상도, 거리, 또는 카메라 각도 등을 개별적으로 선택 또는 입력할 수 있도록 하는 형태로 이루어진다. 즉, 촬영 조건을 구성하는 조명도, 해상도, 거리, 또는 카메라 각도 각각에 대하여, 미리 설정된 복수의 값 중에서 하나를 선택할 수 있도록 하거나 또는 임의의 값을 입력할 수 있도록 이미지 선택 입력창이 제공될 수 있다. 필터 설계 장치(1)는 이러한 이미지 선택 입력창을 통하여 입력되는 조명도, 해상도, 거리, 또는 카메라 각도 각각에 대한 값들을 토대로 대응하는 촬영 조건에서 획득한 이미지들을 포함하는 얼굴 인구 집합을 저장수단으로부터 로딩한다. Here, the filter design device 1 may provide an image selection input window through output means so that a designer can select images having various values corresponding to desired image characteristics. The image selection input window is configured to individually select or input lighting conditions, resolution, distance, or camera angle, which are photographing conditions. That is, for each illumination degree, resolution, distance, or camera angle constituting the shooting condition, an image selection input window may be provided to select one of a plurality of preset values or to input an arbitrary value. . The filter design device 1 stores from the storage means a face population set including images acquired under corresponding shooting conditions based on the values of illumination degree, resolution, distance, or camera angle input through the image selection input window. Load.

위에 기술된 바와 같이, 설계하고자 하는 필터가 최소의 감도를 가지기를 원하는 이미지의 특성에서 다양한 값을 가지는 이미지들을 포함하는 복수의 얼굴 인구 집합들이 결정된 다음에, 설계 파라미터들을 결정한다(S110). As described above, after determining a plurality of face population sets including images having various values in the characteristics of the image to which the filter to be designed has the minimum sensitivity, design parameters are determined (S110).

설계 파라미터들은 필터의 주파수 및 방향성을 포함하며, 또한 커넬의 폭과 크기를 포함하며, 이러한 설계 파라미터들 중에서 적어도 하나를 사용할 수 있다. 필터 설계시 사용할 설계 파라미터가 결정된 다음에, 해당 설계 파라미터에 대한 적용 범위 및 스텝 크기를 결정한다(S120). 여기서 적용 범위는 설계 파라미터에 대한 최대값 및 최소값을 가지는 범위이며, 스텝 단위는 적용 범위에서 해당 값들이 변화되는 간격을 나타낸다. 예를 들어, 설계 파라미터로서 필터의 주파수와 커넬의 폭이 사용되는 경우, 주파수에 대하여 0.1~0.3 (cycles/pixel)의 적용 범위가 설정되면서, 스텝 단위로 "0.1"이 결정될 수 있다. 이에 따라 주파수로 "0.1, 0.2, 0.3"의 값들이 사용된다. 또한 커넬의 폭에 대하여 11~19의 적용 범위가 설정되면서 스텝 단위로 "2"가 결정될 수 있다. 이에 따라 커넬의 폭으로 "11, 13, 15, 17, 19"의 값들이 사용된다. The design parameters include the frequency and directivity of the filter, and also include the width and size of the kernel, and may use at least one of these design parameters. After the design parameters to be used for the filter design are determined, an application range and step size for the corresponding design parameters are determined (S120). Here, the application range is a range having the maximum value and the minimum value for the design parameter, and the step unit represents the interval at which the corresponding values change in the application range. For example, when the frequency of the filter and the width of the kernel are used as design parameters, "0.1" may be determined in units of steps while an application range of 0.1 to 0.3 (cycles / pixel) is set for the frequency. Accordingly, values of "0.1, 0.2, 0.3" are used as the frequency. In addition, "2" may be determined in units of steps while an application range of 11 to 19 is set for the kernel width. Accordingly, values of "11, 13, 15, 17, 19" are used as the width of the kernel.

여기서, 설계자가 원하는 설계 파라미터와 각 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있도록, 필터 설계 장치(1)는 출력 수단을 통하여 설계 파라미터 입력창을 제공할 수 있다. 이 경우에도 설계 파라미터별로 적용 범위 및 스텝 단위에 대하여 미리 설정된 복수의 값 중에서 하나를 선택할 수 있도록 하거나 또는 임의의 값을 입력할 수 있도록 설계 파라미터 입력창이 제공될 수 있다.Here, the filter design device 1 may provide a design parameter input window through an output means so that a designer can select a desired design parameter and an application range and a step unit for each parameter. In this case, a design parameter input window may be provided to select one of a plurality of preset values for the application range and the step unit for each design parameter or to input an arbitrary value.

위에 기술된 바와 같이 적어도 하나의 설계 파라미터가 결정된 다음에 각각의 설계 파라미터들에 대하여 적용 범위 및 스텝 단위를 결정하여 설계 파라미터별로 복수의 값들을 획득한다. 이러한 복수의 값을 가지는 설계 파라미터들을 조합하여 복수의 설계 조합을 획득할 수 있다(S130). 예를 들어 위에서와 같이 3개의 주파수 값들과 5개의 커넬의 폭의 값들을 조합하면 15개의 설계 조합이 획득될 수 있다. 이러한 설계 조합들에 대응하는 가상 필터들 즉, 설계 조합에 따른 설계 파라미터 값으로 설계되는 가상 필터들이 필터 집합을 이루게 된다. As described above, after at least one design parameter is determined, an application range and a step unit are determined for each design parameter to obtain a plurality of values for each design parameter. A plurality of design combinations may be obtained by combining the design parameters having the plurality of values (S130). For example, combining the three frequency values and the values of five kernel widths as described above, 15 design combinations can be obtained. Virtual filters corresponding to these design combinations, that is, virtual filters designed with design parameter values according to the design combinations, form a filter set.

위에 기술된 바와 같은 선택 및 결정의 과정은 필터를 설계하는 설계자와의 상호 작용 인터페이스를 통하여 수행될 수 있다. The process of selection and determination as described above can be performed through an interactive interface with the designer designing the filter.

필터 설계 장치(1)는 획득한 설계 조합들을 위의 단계(S100)에서 결정된 이미지 집합들인 얼굴 인구 집합들에 대하여 적용하여 설계 조합에 대응하는 필터의 응답을 획득한다(S140). 여기서는 필터의 응답을 설명의 편의상 "필터 응답 데이터"라고 명명한다. 설계 조합별로 서로 다른 특성을 가지는 가상 필터들을 얼굴 인구 집합에 포함되는 각각의 이미지들에 대하여 적용하여, 얼굴 인구 집합별로 각각의 이미지에 가상 필터를 적용한 결과인 필터 응답 데이터들을 획득한다. 이를 위하여, 필터 설계 장치(1)는 설계 데이터들을 토대로 형성된 모든 설계 조합에 대한 스위핑(sweeping)을 수행한다. 예를 들어, 3개의 주파수 값들과 5개의 커넬의 폭의 값들을 조합하여 획득한 15개의 설계 조합들에 해당하는 모든 가상 필터들을, 저화질의 얼굴 인구 집합, 중화질의 얼굴 인구 집합, 고화질의 얼굴 집합의 각각의 이미지에 대하여 각각 적용하여, 각각의 이미지에 대한 필터 응답 데이터를 획득한다. 도 2는 본 발명의 실시 예에 따른 필터 응답 데이터들을 나타낸 예시도이다. 여기서는 가버 필터로 이루어진 설계 조합별 가상 필터를 이미지에 적용하였을 경우에 획득한 필터 응답 데이터를 나타낸다. The filter design apparatus 1 obtains the response of the filter corresponding to the design combination by applying the acquired design combinations to the face population sets which are the image sets determined in the above step S100 (S140). Here, the filter response is referred to as "filter response data" for convenience of explanation. Virtual filters having different characteristics for each design combination are applied to each image included in the face population set, thereby obtaining filter response data resulting from applying the virtual filter to each image for each face population set. To this end, the filter design device 1 performs sweeping for all design combinations formed on the basis of design data. For example, all hypothetical filters corresponding to 15 design combinations obtained by combining three frequency values and five kernel width values can be obtained from a low quality face population set, a medium quality face population set, and a high quality face set. Apply for each image of, respectively, to obtain filter response data for each image. 2 is an exemplary view showing filter response data according to an exemplary embodiment of the present invention. Here, filter response data obtained when a virtual filter for each design combination composed of Gabor filters is applied to an image is shown.

다음, 필터 설계 장치(1)는 얼굴 인구 집합 각각에 대하여 설계 조합에 따른 가상 필터들을 적용하여 획득한 필터 응답 데이터들을 토대로, 동일인에 대한 각각의 이미지별 차이를 나타내는 분산값들을 산출하고, 또한 서로 다른 사람들간의 이미지 차이를 나타내는 분산값들을 산출한다. 동일인에 대한 각각의 이미지별 차이를 나타내는 분산값은 "개인내 분산값"이라고 명명될 수 있으며, 서로 다른 사람들간의 이미지 차이를 나타내는 분산값들을 "개인간 분산값"이라고 명명할 수 있다(S150).Next, the filter design apparatus 1 calculates variance values representing differences for each image of the same person, based on filter response data obtained by applying virtual filters according to a design combination to each face population set, and also mutually. Calculate variances that represent image differences between different people. The variance value representing the difference for each image of the same person may be referred to as an "intra-individual variance value", and the variance values representing the image difference between different people may be referred to as the "dispersion value between individuals" (S150).

예를 들어서, 설계 파라미터를 얼굴 인구 집합에 적용시켜 획득한 필터 응답 데이터들을 다음 표 1과 같이 나타낼 수 있다. 하기의 표 1은 하나의 설계 조합에 따른 가상 필터를 복수의 얼굴 인구 집합들에 적용시킨 경우를 나타낸다. For example, filter response data obtained by applying a design parameter to a face population set may be shown in Table 1 below. Table 1 below shows a case where a virtual filter according to one design combination is applied to a plurality of face population sets.

Figure 112012059217360-pat00001
Figure 112012059217360-pat00001

예를 들어, 3개의 주파수 값들과 5개의 커넬의 폭의 값들을 조합하여 획득한 15개의 설계 조합들이 있다고 하자. 그리고 위에서 살펴본 바와 같이 개인 식별자 001, 002, 003, …, n을 각각 가지는 n 명의 사람(1, 2, 3, …, n)들에 대하여 서로 다른 촬영 조건하에서 획득한 이미지들을 포함하는 복수의 얼굴 인구 집합(s1, s2, s3, …,sm)이 있다고 하자. 복수의 얼굴 인구 집합의 각각의 이미지에 대하여 설계 조합에 따른 가상 필터를 적용하면 위에 기술된 표 1과 같은 필터 응답 데이터를 획득할 수 있다. For example, suppose there are 15 design combinations obtained by combining three frequency values and five kernel width values. As described above, the personal identifiers 001, 002, 003,... A plurality of face population sets (s1, s2, s3, ..., sm) containing images obtained under different shooting conditions for n persons (1, 2, 3, ..., n) each having n Let's say When the virtual filter according to the design combination is applied to each image of the plurality of face population sets, filter response data as shown in Table 1 described above may be obtained.

15개의 설계 조합들 중에서 제1 설계 조합에 따른 가상 필터를 복수의 얼굴 인구 집합(s1, s2, s3,…, sm)의 각각의 이미지에 적용하면 표 1과 같은 필터 응답 데이터들(R1_001_S1, R1_001_S2, … R1_001_Sm, R2_002_S1, R2_002_S2, … R2_002_Sm, …, Rn_n_S1, Rn_n_S2, … Rn_n_Sm)이 획득된다. If the virtual filter according to the first design combination is applied to each image of the plurality of face population sets s1, s2, s3, ..., sm, among the 15 design combinations, the filter response data R1_001_S1 and R1_001_S2 are shown in Table 1. ... R1_001_Sm, R2_002_S1, R2_002_S2, ... R2_002_Sm, ..., Rn_n_S1, Rn_n_S2, ... Rn_n_Sm) are obtained.

필터 설계 장치(1)는 제1 설계 조합에 따른 가상 필터를 얼굴 인구 집합들에 대하여 적용하여 획득한 표 1과 같은 필터 응답 데이터들을 토대로, 개인내 분산값과 개인간 분산값들을 산출한다. The filter design device 1 calculates the in-person dispersion value and the in-person dispersion value based on the filter response data shown in Table 1 obtained by applying the virtual filter according to the first design combination to the face population sets.

즉, 001의 식별자를 가지는 개인에 대하여 서로 다른 촬영 조건에 따른 얼굴 인구 집합에 포함되는 복수의 이미지들에 대하여 제1 설계 조합에 따른 가상 필터를 적용한 결과, R1_001_S1, R1_001_S2, … R1_001_Sm의 필터 응답 데이터들이 획득된다. 이러한 필터 응답 데이터들은 001의 식별자를 가지는 한 명의 사람에 해당하는 것이므로, 필터 설계 장치(1)는 이러한 필터 응답 데이터들을 토대로 001의 식별자를 가지는 개인에 대한 개인내 분산값 Var_w1를 산출한다. That is, as a result of applying the virtual filter according to the first design combination to the plurality of images included in the face population set according to different shooting conditions for the individual having the identifier of 001, R1_001_S1, R1_001_S2,... Filter response data of R1_001_Sm are obtained. Since these filter response data correspond to one person having an identifier of 001, the filter design device 1 calculates an in-person variance value Var_w1 for a person having an identifier of 001 based on such filter response data.

이와 같이 n의 식별자를 가지는 개인에 대하여 서로 다른 촬영 조건에 따른 얼굴 인구 집합에 포함되는 복수의 이미지들에 대하여 제1 설계 조합에 따른 가상 필터를 적용한 결과, Rn_n_S1, Rn_n_S2, … Rn_n_Sm의 필터 응답 데이터들이 획득되며, 이러한 필터 응답 데이터들을 토대로 n의 식별자를 가지는 개인에 대한 개인내 분산값 Var_w1을 산출한다. 즉, 모든 개인에 대하여 개인내 분산값들을 각각 산출한다. As a result of applying the virtual filter according to the first design combination to the plurality of images included in the face population set according to different shooting conditions for the individual having the identifier of n, Rn_n_S1, Rn_n_S2,... Filter response data of Rn_n_Sm is obtained, and an intraperson dispersion value Var_w1 for an individual having an identifier of n is calculated based on these filter response data. That is, variance values are calculated for each individual.

한편, 위의 표1에 따르면, s1의 식별자를 가지는 얼굴 인구 집합에 포함되는 각각의 이미지들에 대하여, R1_001_S1, R2_002_S1, …, Rn_n_S1과 같은 필터 응답 데이터들이 획득된다. 필터 설계 장치는 s1의 얼굴 인구 집합에 포함되는 이미지들에 대하여 획득한 필터 응답 데이터들을 토대로 서로 다른 개인간 분산값 Var_b1을 산출한다. 이와 같이 sm의 식별자를 가지는 얼굴 인구 집합에 포함되는 각각의 이미지들에 대하여 획득한 필터 응답 데이터들을 토대로, Sm의 얼굴 인구 집합에 대한 개인간 분산값 Var_bm을 산출한다. 즉, 모든 얼굴 인구 집합에 대하여 각각 개인간 분산값을 산출한다.Meanwhile, according to Table 1 above, for each of the images included in the face population set having the identifier of s1, R1_001_S1, R2_002_S1,... Filter response data such as Rn_n_S1 is obtained. The filter design apparatus calculates the variance value Var_b1 between different individuals based on the filter response data obtained for the images included in the face population set of s1. Thus, the variance value Var_bm between individuals for the face population set of Sm is calculated based on the filter response data obtained for each image included in the face population set having the identifier of sm. In other words, the variance value between individuals is calculated for each face population set.

도 3 내지 도 5는 본 발명의 실시 예에 따른 필터들의 특징량에 따른 분산 정도를 나타낸 예시도이다.3 to 5 are exemplary views showing the degree of dispersion in accordance with the characteristic amount of the filter according to an embodiment of the present invention.

도 3 내지 도 5에서, 각각의 그래프들은 얼굴 인구 집합내 각각의 얼굴에 설계 조합에 따른 가상 필터(예를 들어, 가버 필터, LBP(local binary pattern (LBP), uniform LBP 등의 형태)를 적용하여 얻어진 필터 응답 데이터들의 분산을 나타낸다. 가버 필터는 각도와 주파수 특성을 가지는데, 도 3 내지 도 6은 각각 주파수는 동일하지만 서로 다른 각도를 가지는 설계 조합에 따른 필터들을 얼굴 이미지에 적용하였을 때의 필터 응답 데이터들의 분산들을 나타낸다. 이것은 단지 하나의 예이다. 3 to 5, each graph applies a virtual filter (eg, a Gabor filter, a local binary pattern (LBP), a uniform LBP, etc.) according to a design combination to each face in the face population set. The Gabor filters have angle and frequency characteristics, and FIGS. 3 to 6 show the filter images according to the design combinations having the same frequency but different angles. Represent variances of filter response data, this is just one example.

다음, 필터 설계 장치(1)는 하나의 설계 조합에 따른 가상 필터를 토대로 획득한 개인간 분산값들과 개인내 분산값들을 토대로, 해당 설계 조합에 대응하는 목적 함수를 산출한다(S160). 목적 함수는 다음과 같이 나타낼 수 있다. Next, the filter design apparatus 1 calculates an objective function corresponding to the corresponding design combination based on the interpersonal variance values and the in-person variance values acquired based on the virtual filter according to one design combination (S160). The objective function can be written as

Figure 112012059217360-pat00002
Figure 112012059217360-pat00002

여기서, sum M(Var_bj)는 모든 얼굴 인구 집합들에 대하여 산출된 개인간 분산값들(Var_bj)들의 합(제1 총 분산값)을 나타내며, sum N (Var_wi)는 모든 개인들에 대하여 각각 산출된 개인내 분산값들(Var_wi)의 합(제2 총 분산값)을 나타낸다. Here, sum M (Var_bj) represents the sum (first total variance) of the interpersonal variance values Var_bj calculated for all face population sets, and sum N (Var_wi) is respectively calculated for all individuals. The sum of the intra-person variances Var_wi (the second total variance).

따라서 이러한 제1 총 분산값을 제2 총 분산값으로 나누어서 산출되는 값을 목적 함수값으로 저장한다. 이때, 필터 설계 장치(1)는 산출된 목적 함수값을 출력 수단을 통하여 표시하여, 설계자가 해당 설계 조합에 따른 개인간의 차이를 나타내는 분산과 개인내의 차이를 나타내는 분산에 따른 해당 필터의 특징량인 목적 함수값을 확인할 수 있도록 한다. Therefore, a value calculated by dividing the first total variance value by the second total variance value is stored as the objective function value. At this time, the filter design device 1 displays the calculated objective function value through the output means, so that the designer is a feature amount of the filter according to the variance representing the difference between the individuals according to the design combination and the variance representing the difference within the individual. Allows you to check the objective function value.

이와 같이 필터 응답 데이터들을 획득하고 이를 토대로 개인내 분산값 및 개인간 분산값 그리고 목적 함수값을 산출하는 과정을 모든 설계 조합 예를 들어, 15개의 설계 조합 각각에 대하여 수행한다(S170).In this way, the process of obtaining the filter response data and calculating the intra-individual variance value, the inter-individual variance value, and the objective function value is performed on all the design combinations, for example, each of the 15 design combinations (S170).

여기서 필터 설계 장치(1)는 획득한 모든 필터 응답 데이터 중에서 일부분만을 사용하여 개인내 분산값 및 개인간 분산값을 산출할 수 있다. 예를 들어, 64×64 크기의 얼굴 이미지들을 포함하는 얼굴 인구 집합에 대하여, 8개의 방향성 값들과 3개의 주파수 값들을 조합한 필터들의 집합을 적용하면, 약 10만개(98304 = 64×64×8×3)의 필터 응답 데이터들이 획득될 수 있다. 이러한 방대한 양의 필터 응답 데이터들을 처리하는데 있어서의 이해 용이도(interpretability)와 처리 용이성을 향상시키기 위하여, 모든 필터 응답 데이터들을 사용하는 것이 아니라 예를 들어 설정된 조건을 만족하거나 또는 무작위로 추출한 일부 필터 응답 데이터들을 사용하여 개인내 분산값 및 개인간 분산값 그리고 목적 함수값을 산출하는 과정을 수행할 수 있다. Here, the filter design device 1 may calculate the in-person dispersion value and the in-person dispersion value using only a part of all the filter response data obtained. For example, for a face population set containing 64 × 64 face images, applying a set of filters combining eight directional values and three frequency values results in approximately 100,000 (98304 = 64 × 64 × 8). Filter response data of × 3) may be obtained. To improve the interpretability and ease of processing in processing such a large amount of filter response data, some filter responses, for example, satisfying a set condition or randomly extracting a predetermined condition instead of using all filter response data, are used. The data can be used to calculate the variance in individuals, the variance between individuals, and the objective function.

한편 필터 설계 장치(1)는 모든 설계 조합에 대한 목적 함수값을 산출하는 과정이 완료되면, 각 설계 조합별로 산출된 목적 함수값들 중에서 가장 큰 값을 가지는 목적 함수값을 선택한다. 그리고 선택된 목적 함수값 산출된 사용된 설계 조합에 따라 필터를 설계하게 된다. Meanwhile, when the process of calculating the objective function values for all the design combinations is completed, the filter design apparatus 1 selects the objective function value having the largest value among the objective function values calculated for each design combination. The filter is then designed according to the selected combination of the calculated objective function values.

한편, 각 설계 조합에 대한 목적 함수값을 산출하면서, 하나의 설계 조합에 대한 목적 함수값이 산출되면, 현재 산출된 값을 이전에 저장된 목적 함수값과 비교하여 보다 작은 경우에는 목적 함수값을 이전에 저장된 값으로 유지하고, 현재 산출된 값이 이전에 저장된 목적 함수값보다 큰 경우에는 현재 산출된 값을 목적 함수값으로 저장하는 과정을 통하여, 모든 설계 조합에 대한 목적 함수값을 산출하는 과정이 완료되면, 최종적으로 가장 큰 값을 가지는 목적 함수값이 저장되도록 할 수도 있다. On the other hand, if the objective function value for one design combination is calculated while calculating the objective function value for each design combination, the current calculated value is compared with the previously stored objective function value and the objective function value is transferred if it is smaller. If the current calculated value is larger than the previously stored objective function value, the objective function value for all design combinations is calculated by storing the current calculated value as the objective function value. Upon completion, the objective function value having the largest value may be finally stored.

이러한 목적 함수값은 서로 다른 사람들에 대한 얼굴 정체성을 나타내는 분산값에 대해서는 최대의 감도를 가지면서, 얼굴 정체성 결정과 관련 없는 사항들에 대해서는 최소의 감도를 가지는 얼굴 인식 필터를 설계할 수 있도록 한다. These objective function values allow the design of a face recognition filter with maximum sensitivity for variances representing face identity for different people, and minimum sensitivity for matters not related to facial identity determination.

다음에는 필터 설계 장치의 구조에 대하여 설명한다. Next, the structure of the filter design apparatus is demonstrated.

도 6은 본 발명의 실시 예에 따른 필터 설계 장치의 구조를 나타낸 도이다. 6 is a view showing the structure of a filter design device according to an embodiment of the present invention.

첨부한 도 6에서와 같이 본 발명의 실시 예에 따른 필터 설계 장치(1)는 이미지 집합 결정부(11), 설계 파라미터 선택부(12), 파라미터 범위 결정부(13), 설계 조합 생성부(14), 가상 필터 적용부(15), 필터 특징량 산출부(16), 목적 함수 산출부(17), 이미지 저장부(18), 그리고 입력부(19) 및 출력부(20)를 포함한다. 여기서 이미지 저장부(18)는 다양한 촬영 조건별로 복수의 사람들에 대하여 획득한 이미지들을 포함하는 얼굴 인구 집합들을 저장한다. 입력부(19)는 설계자로부터의 입력을 받아서 각 부(11, 12, 13)로 전달하는 입력 인터페이스로서 기능하며, 출력부(20)는 각 부(11~17)의 처리 결과를 설계자가 확인할 수 있도록 표시하거나 출력하는 출력 인터페이스로서 기능한다. As shown in FIG. 6, the filter design apparatus 1 according to an exemplary embodiment of the present invention may include an image set determiner 11, a design parameter selector 12, a parameter range determiner 13, and a design combination generator. 14), a virtual filter applying unit 15, a filter feature variable calculating unit 16, an objective function calculating unit 17, an image storing unit 18, and an input unit 19 and an output unit 20. The image storage unit 18 stores face population sets including images acquired for a plurality of people according to various shooting conditions. The input unit 19 functions as an input interface that receives input from the designer and transfers it to each of the units 11, 12, and 13, and the output unit 20 allows the designer to check the processing results of each unit 11 to 17. It acts as an output interface to display or output.

이미지 집합 결정부(11)는 설계하고자 하는 얼굴 인식 필터를 적용할 이미지들인 얼굴 인구 집합을 결정하며, 설계하고자 하는 필터가 최소의 감도를 가지기를 원하는 이미지의 특성에서 다양한 값을 가지는 이미지들을 포함하는 얼굴 인구 집합들을 결정한다. 그리고 결정된 얼굴 인구 집합들을 이미지 저장부(18)로부터 로딩하여 가상 필터 적용부(15)로 제공할 수 있다. 여기서 이미지 집합 결정부(11)는 설계자가 원하는 이미지 특성에 대응하는 다양한 값을 가지는 이미지들을 선택할 수 있도록, 출력부(20)를 통하여 이미지 선택 입력창을 제공할 수 있다The image set determiner 11 determines a face population set, which is an image to which the face recognition filter to be designed is applied, and includes images having various values in the characteristics of the image that the filter to be designed has with minimum sensitivity. Determine face population sets. The determined facial population sets may be loaded from the image storage unit 18 and provided to the virtual filter applying unit 15. Here, the image set determiner 11 may provide an image selection input window through the output unit 20 so that a designer can select images having various values corresponding to desired image characteristics.

설계 파라미터 선택부(12)는 필터의 주파수 및 방향성, 또는 커넬의 폭과 크기 들 중에서 적어도 하나인 설계 파라미터를 선택한다. 파라미터 범위 결정부(13)는 설계 파라미터에 대한 적용 범위 및 스텝 크기를 결정한다. 여기서, 파라미터 범위 결정부(13)는 설계자가 원하는 설계 파라미터와 각 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있도록, 출력부(20)를 통하여 설계 파라미터 입력창을 제공할 수 있다. The design parameter selector 12 selects a design parameter that is at least one of the frequency and directivity of the filter, or the width and size of the kernel. The parameter range determination unit 13 determines the application range and the step size for the design parameter. Here, the parameter range determination unit 13 may provide a design parameter input window through the output unit 20 so that a designer can select a desired design parameter and an application range and step unit for each parameter.

설계 조합 생성부(14)는 각각의 설계 파라미터들에 대하여 결정되는 적용 범위 및 스텝 단위를 토대로 획득되는 설계 파라미터별로 복수의 값들을 조합하여 복수의 설계 조합을 생성한다. The design combination generation unit 14 generates a plurality of design combinations by combining a plurality of values for each design parameter obtained based on an application range and a step unit determined for each design parameter.

가상 필터 적용부(15)는 생성된 설계 조합들에 각각 해당하는 가상 필터들을 얼굴 인구 집합에 포함되는 각각의 이미지들에 대하여 적용하여, 얼굴 인구 집합별로 각각의 이미지에 가상 필터를 적용한 결과인 필터 응답 데이터들을 획득한다. The virtual filter application unit 15 applies virtual filters corresponding to the generated design combinations to each of the images included in the face population set, and is a filter that is a result of applying the virtual filter to each image for each face population set. Acquire response data.

필터 특징량 산출부(16)는 얼굴 인구 집합 각각에 대하여 설계 조합에 따른 가상 필터들을 적용하여 획득한 필터 응답 데이터들을 토대로 필터의 특징량 즉, 동일인에 대한 각각의 이미지별 차이를 나타내는 개인내 분산값, 개인들간의 이미지 차이를 나타내는 개인간 분산값들을 산출한다. The filter feature variable calculating unit 16 is based on the filter response data obtained by applying the virtual filters according to the design combinations to each face population set. Values, variance values between individuals representing the image differences between individuals are calculated.

목적 함수 산출부(17)는 개인내 분산값들의 총합인 제2 총 분산값을 개인간 분산값들의 총합인 제1 총 분산값으로 나누어서 목적 함수값을 산출한다. 그리고 산출된 목적 함수값들 중에서 최대값을 선택한다. 또한 산출되는 목적 함수값들과 선택된 최대값의 목적 함수값을 출력부(20)를 통하여 표시할 수 있다. The objective function calculation unit 17 calculates the objective function value by dividing the second total variance value, which is the sum of the variance values in the individual, by the first total variance value, which is the sum of the variance values between individuals. The maximum value is selected from the calculated objective function values. In addition, the calculated objective function values and the objective function value of the selected maximum value may be displayed through the output unit 20.

여기서, 설계 조합별 획득한 목적 함수값들 중에서 최대값을 가지는 목적 함수값을 선택하고, 선택된 목적 함수값에 대응하는 설계 조합을 토대로 얼굴 인식 필터를 설계할 수 있다. Here, the objective function value having the maximum value may be selected from among the objective function values acquired for each design combination, and the face recognition filter may be designed based on the design combination corresponding to the selected objective function value.

이상에서 설명한 본 발명의 실시 예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시 예에 따른 전자 상거래 방법 및 그 시스템의 구성에 대응하는 기능을 실행시킬 수 있는 프로그램 또는 그 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 앞서 설명한 실시예의 기재로부터 본 발명이 속하는 기술분야의 전문가라면 쉽게 구현할 수 있는 것이다. Although the present invention has been described and illustrated in detail, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the present invention. Readable recording medium. The present invention can be easily implemented by those skilled in the art from the description of the embodiments described above.

이상에서 본 발명의 실시 예에 대하여 상세하게 설명하였지만 본 발명의 권리 범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리 범위에 속하는 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, It belongs to the scope of right.

Claims (17)

얼굴 인식 필터를 설계하는 방법에서,
설계하고자 하는 얼굴 인식 필터를 적용할 복수의 사람들에 대한 이미지들을 포함하는 얼굴 인구 집합을 적어도 하나 결정하는 단계;
상기 얼굴 인식 필터에 대한 설계 파라미터를 적어도 하나 선택하고, 상기 선택된 설계 파라미터를 조합하여 적어도 하나의 설계 조합을 생성하는 단계;
상기 설계 조합별로, 해당 설계 조합에 대응하는 가상 필터를 상기 얼굴 인구 집합에 포함되는 이미지들에 대하여 각각 적용하여 필터 응답 데이터들을 획득하는 단계;
상기 설계 조합별로, 획득된 필터 응답 데이터들을 토대로 동일인에 대한 각각의 이미지별 차이를 나타내는 개인내 분산값 및 서로 다른 사람들간의 이미지 차이를 나타내는 개인간 분산값들을 산출하는 단계;
상기 개인내 분산값과 개인간 분산값들을 토대로 상기 설계 조합별로 목적 함수값을 산출하는 단계; 및
상기 설계 조합별 목적 함수값들을 토대로 설계하고자 하는 얼굴 인식 필터를 결정하는 단계
를 포함하는 방법.
In how to design face recognition filter,
Determining at least one face population set including images of a plurality of people to which the face recognition filter to be designed is to be applied;
Selecting at least one design parameter for the face recognition filter and combining the selected design parameters to generate at least one design combination;
For each of the design combinations, applying a virtual filter corresponding to the design combination to each of the images included in the face population set to obtain filter response data;
For each design combination, calculating intra-individual variance values representing differences of each image for the same person and inter-individual dispersion values representing image differences between different people based on the obtained filter response data;
Calculating an objective function value for each design combination based on the in-person dispersion value and the in-person dispersion value; And
Determining a face recognition filter to be designed based on the objective function values for each design combination;
≪ / RTI >
제1항에 있어서
상기 얼굴 인구 집합을 적어도 하나 결정하는 단계는,
서로 다른 촬영 조건에서 획득한 복수의 사람들에 대한 이미지들을 포함하는 복수의 얼굴 인구 집합을 결정하고, 상기 복수의 얼굴 인구 집합은 동일인에 대하여 서로 다른 촬영 조건에서 획득한 이미지들을 각각 포함하고 있는, 방법.
The method of claim 1, wherein
Determining at least one face population set,
Determine a plurality of face population sets including images of a plurality of people acquired under different shooting conditions, wherein the plurality of face population sets each include images acquired under different shooting conditions for the same person; .
제2항에 있어서
상기 얼굴 인구 집합을 적어도 하나 결정하는 단계는,
촬영 조건을 선택할 수 있는 이미지 선택 입력창을 출력하는 단계;
상기 이미지 선택 입력창을 통하여 입력되는 데이터를 토대로 촬영 조건--상기 촬영 조건은 조명도, 해상도, 거리, 카메라 각도 중 적어도 하나임--을 선택하는 단계; 및
상기 선택된 촬영 조건에 대응하는 얼굴 인구 집합을 결정하는 단계
를 포함하는, 방법
The method according to claim 2, wherein
Determining at least one face population set,
Outputting an image selection input window for selecting shooting conditions;
Selecting a shooting condition based on the data input through the image selection input window, wherein the shooting condition is at least one of an illumination degree, a resolution, a distance, and a camera angle; And
Determining a face population set corresponding to the selected shooting condition
≪ / RTI >
제1항에 있어서
상기 설계 조합을 생성하는 단계는,
얼굴 인식 필터의 주파수 및 방향성, 그리고 필터가 적용되는 이미지의 영역에 해당하는 커넬(kernel)의 폭과 크기 중에서 적어도 하나인 설계 파라미터를 선택하는 단계; 및
상기 선택된 설계 파라미터들에 대하여 복수의 값들을 설정하고, 설정된 설계 파라미터들의 복수의 값들을 조합하여 복수의 설계 조합을 생성하는 단계
를 포함하는 방법.
The method of claim 1, wherein
Generating the design combination,
Selecting a design parameter that is at least one of a frequency and a direction of the face recognition filter and a width and a size of a kernel corresponding to an area of an image to which the filter is applied; And
Setting a plurality of values for the selected design parameters and generating a plurality of design combinations by combining the plurality of values of the set design parameters
≪ / RTI >
제4항에 있어서
상기 복수의 설계 조합을 생성하는 단계는
상기 선택된 설계 파라미터 각각에 대하여 최소값과 최대값으로 이루어진 적용 범위 및 스텝 크기를 결정하는 단계;
상기 설계 파라미터별로 적용 범위내에서 상기 스텝 크기에 대응하는 값들에 해당하는 복수의 값들을 추출하는 단계; 및
상기 설계 파라미터별로 추출된 복수의 값들을 조합하여 복수의 설계 조합을 생성하는 단계
를 포함하는 방법.
The method of claim 4, wherein
Generating the plurality of design combinations
Determining an application range and step size consisting of minimum and maximum values for each of the selected design parameters;
Extracting a plurality of values corresponding to the values corresponding to the step size within an application range for each of the design parameters; And
Generating a plurality of design combinations by combining a plurality of values extracted for each design parameter
≪ / RTI >
제4항에 있어서
상기 설계 조합을 생성하는 단계는,
상기 설계 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있는 설계 파라미터 입력창을 출력하는 단계; 및
상기 설계 파라미터 입력창을 통하여 입력되는 데이터를 토대로 적어도 하나인 설계 파라미터를 선택하고, 선택된 설계 파라미터별로 적용 범위 및 스텝 단위를 결정하는 단계
를 포함하는 방법.
The method of claim 4, wherein
Generating the design combination,
Outputting a design parameter input window for selecting an application range and a step unit for each design parameter; And
Selecting at least one design parameter based on data input through the design parameter input window, and determining an application range and a step unit for each selected design parameter
≪ / RTI >
제1항에 있어서
상기 분산값들을 산출하는 단계는
하나의 얼굴 인구 집합내에 포함되는 복수의 사람들에 대한 이미지들에 해당하는 필터 응답 데이터들을 토대로 해당 얼굴 인구 집합에 포함되는 사람들에 대한 개인간 분산값을 산출하여, 상기 모든 얼굴 인구 집합 각각에 대한 개인간 분산값들을 산출하는 단계; 및
상기 복수의 얼굴 인구 집합들로부터 하나의 사람에 대응하는 이미지들에 해당하는 필터 응답 데이터들을 토대로, 하나의 사람에 대한 개인내 분산값을 산출하여, 모든 사람들 각각에 대한 개인내 분산값을 산출하는 단계
를 포함하는 방법.
The method of claim 1, wherein
The calculating of the variance values
Based on the filter response data corresponding to the images of the plurality of people included in one face population set, the variance value of individuals for the people included in the face population set is calculated, and the variance between individuals for each of the face population sets is calculated. Calculating values; And
Computing an in-person variance for one person based on filter response data corresponding to images corresponding to a person from the plurality of face population sets, calculating an in-person variance for each individual step
≪ / RTI >
제7항에 있어서
상기 목적 함수값을 산출하는 단계는
상기 개인간 분산값을 개인내 분산값으로 나누어서 설계 조합별로 목적 함수값을 산출하는, 방법.
The method of claim 7, wherein
Computing the objective function value
And calculating an objective function value for each design combination by dividing the variance value between the individuals by the variance value within the individual.
제8항에 있어서
상기 목적 함수값을 산출하는 단계는
목적 함수 = max [sum M(Var_bj) / sum N (Var_wi)]
를 토대로 산출되며,
상기 sum M(Var_bj)는 모든 얼굴 인구 집합들에 대하여 산출된 개인간 분산값들(Var_bj)들의 합을 나타내고, 상기 sum N (Var_wi)는 모든 사람들에 대하여 각각 산출된 개인내 분산값들(Var_wi)의 합을 나타내는, 방법.
The method of claim 8, wherein
Computing the objective function value
Objective Function = max [sum M (Var_bj) / sum N (Var_wi)]
Is based on
The sum M (Var_bj) represents the sum of the interpersonal variance values Var_bj calculated for all face population sets, and the sum N (Var_wi) represents the intra-person variance values Var_wi calculated for all people, respectively. Indicating the sum of.
제1항에 있어서
상기 얼굴 인식 필터를 결정하는 단계는
상기 설계 조합별 획득한 목적 함수값들 중에서 최대값을 가지는 목적 함수값을 선택하고, 선택된 목적 함수값에 대응하는 설계 조합을 토대로 얼굴 인식 필터를 설계하는, 방법.
The method of claim 1, wherein
Determining the face recognition filter
Selecting an objective function value having a maximum value among the objective function values obtained for each design combination, and designing a face recognition filter based on a design combination corresponding to the selected objective function value.
설계하고자 하는 얼굴 인식 필터를 적용할 복수의 사람들에 대한 이미지들을 포함하는 얼굴 인구 집합을 적어도 하나 결정하는 이미지 집합 결정부;
상기 얼굴 인식 필터에 대한 설계 파라미터를 적어도 하나 선택하는 파라미터 선택부;
상기 선택된 설계 파라미터를 조합하여 적어도 하나의 설계 조합을 생성하는 설계 조합 생성부;
상기 설계 조합별로, 해당 설계 조합에 대응하는 가상 필터를 상기 얼굴 인구 집합에 포함되는 이미지들에 대하여 각각 적용하여 필터 응답 데이터들을 획득하는 가상 필터 적용부;
상기 설계 조합별로, 획득된 필터 응답 데이터들을 토대로 동일인에 대한 각각의 이미지별 차이를 나타내는 개인내 분산값 및 서로 다른 사람들간의 이미지 차이를 나타내는 개인간 분산값들을 산출하는 필터 특징량 산출부; 및
상기 개인내 분산값과 개인간 분산값들을 토대로 상기 설계 조합별로 목적 함수값을 산출하고, 상기 설계 조합별 목적 함수값을 토대로 설계하고자 하는 얼굴 인식 필터를 결정하는 목적 함수 산출부
를 포함하는, 필터 설계 장치.
An image set determiner configured to determine at least one face population set including images of a plurality of people to which a face recognition filter to be designed is applied;
A parameter selector to select at least one design parameter for the face recognition filter;
A design combination generation unit generating at least one design combination by combining the selected design parameters;
A virtual filter applying unit for obtaining filter response data for each of the design combinations by applying a virtual filter corresponding to the design combination to the images included in the face population set;
A filter feature variable calculating unit for calculating individual variance values representing differences between individual images of the same person and individual variance values representing image differences between different people based on the acquired filter response data; And
An objective function calculation unit configured to calculate an objective function value for each design combination based on the in-person variance value and the interpersonal variance value, and determine a face recognition filter to be designed based on the objective function value for each design combination.
Including, filter design device.
제11항에 있어서
서로 다른 촬영 조건에서 획득한 복수의 사람들에 대한 이미지들을 포함하는 복수의 얼굴 인구 집합이 저장되어 있는 이미지 저장부를 더 포함하고,
상기 복수의 얼굴 인구 집합은 동일인에 대하여 서로 다른 촬영 조건에서 획득한 이미지들을 각각 포함하고 있는, 필터 설계 장치.
The method of claim 11, wherein
The apparatus may further include an image storage unit configured to store a plurality of face population sets including images of a plurality of people acquired under different shooting conditions.
And the plurality of face population sets each include images acquired under different photographing conditions for the same person.
제11항에 있어서
상기 선택된 설계 파라미터 각각에 대하여 최소값과 최대값으로 이루어진 적용 범위 및 스텝 크기를 결정하는 파라미터 범위 결정부를 더 포함하고,
상기 설계 조합 생성부는 상기 설계 파라미터별로 적용 범위내에서 상기 스텝 크기에 대응하는 값들에 해당하는 복수의 값들을 추출하고, 상기 설계 파라미터별 복수의 값들을 조합하여 복수의 설계 조합을 생성하는, 필터 설계 장치.
The method of claim 11, wherein
And a parameter range determiner configured to determine an application range and step size consisting of minimum and maximum values for each of the selected design parameters.
The design combination generating unit extracts a plurality of values corresponding to the values corresponding to the step size within an application range for each design parameter, and generates a plurality of design combinations by combining the plurality of values for each design parameter. Device.
제11항에 있어서
상기 파라미터 선택부는 얼굴 인식 필터의 주파수 및 방향성, 그리고 필터가 적용되는 이미지의 영역에 해당하는 커넬(kernel)의 폭과 크기 중에서 적어도 하나인 설계 파라미터를 선택하는, 필터 설계 장치.
The method of claim 11, wherein
And the parameter selector selects a design parameter that is at least one of a frequency and a direction of a face recognition filter and a width and a size of a kernel corresponding to an area of an image to which the filter is applied.
제11항에 있어서
상기 목적 함수 산출부는
목적 함수 = max sum M(Var_bj) / sum N (Var_wi)
를 토대로 목적 함수의 값을 산출하며,
상기 sum M(Var_bj)는 모든 얼굴 인구 집합들에 대하여 산출된 개인간 분산값들(Var_bj)들의 합을 나타내고, 상기 sum N (Var_wi)는 모든 사람들에 대하여 각각 산출된 개인내 분산값들(Var_wi)의 합을 나타내는, 필터 설계 장치.
The method of claim 11, wherein
The objective function calculation unit
Objective Function = max sum M (Var_bj) / sum N (Var_wi)
To calculate the value of the objective function,
The sum M (Var_bj) represents the sum of the interpersonal variance values Var_bj calculated for all face population sets, and the sum N (Var_wi) represents the intra-person variance values Var_wi calculated for all people, respectively. Filter design device, representing the sum of.
제11항에 있어서
상기 목적 함수 산출부는
상기 설계 조합별 획득한 목적 함수값들 중에서 최대값을 가지는 목적 함수값을 선택하고, 선택된 목적 함수값에 대응하는 설계 조합을 토대로 얼굴 인식 필터를 설계하는, 필터 설계 장치.
The method of claim 11, wherein
The objective function calculation unit
And selecting an objective function value having a maximum value among the objective function values obtained for each design combination, and designing a face recognition filter based on a design combination corresponding to the selected objective function value.
제13항에 있어서
촬영 조건을 선택할 수 있는 이미지 선택 입력창, 설계 파라미터별로 적용 범위와 스텝 단위를 선택할 수 있는 설계 파라미터 입력창, 그리고 상기 필터 응답 데이터 및 목적 함수값을 출력하는 출력부; 및
상기 이미지 선택 입력창 및 설계 파라미터 입력창을 통하여 입력되는 데이터들을 이미지 집합 결정부, 설계 파라미터 선택부, 및 파라미터 범위 결정부로 각각 전달하는 입력부
를 더 포함하는, 필터 설계 장치.

The method of claim 13, wherein
An image selection input window for selecting shooting conditions, a design parameter input window for selecting an application range and a step unit for each design parameter, and an output unit for outputting the filter response data and the objective function value; And
An input unit for transferring data input through the image selection input window and the design parameter input window to the image set determiner, the design parameter selector, and the parameter range determiner, respectively.
Further comprising a filter design device.

KR1020120080773A 2012-07-24 2012-07-24 Face identification filter planning method and apparatus thereof KR101301301B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120080773A KR101301301B1 (en) 2012-07-24 2012-07-24 Face identification filter planning method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120080773A KR101301301B1 (en) 2012-07-24 2012-07-24 Face identification filter planning method and apparatus thereof

Publications (1)

Publication Number Publication Date
KR101301301B1 true KR101301301B1 (en) 2013-08-28

Family

ID=49221423

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120080773A KR101301301B1 (en) 2012-07-24 2012-07-24 Face identification filter planning method and apparatus thereof

Country Status (1)

Country Link
KR (1) KR101301301B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524420B2 (en) 2014-01-23 2016-12-20 Samsung Electronics Co., Ltd. User authentication method and apparatus
CN115201227A (en) * 2022-06-28 2022-10-18 北京山水云图科技有限公司 Filter plate design method and device based on X-ray detection and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263639A (en) 2002-03-08 2003-09-19 Koji Fukami Face image recognizing device and method
JP2008257425A (en) 2007-04-04 2008-10-23 Sony Corp Face recognition device, face recognition method and computer program
JP2008312036A (en) 2007-06-15 2008-12-25 Toyota Central R&D Labs Inc Device, method and program for face detection
JP2009053916A (en) 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263639A (en) 2002-03-08 2003-09-19 Koji Fukami Face image recognizing device and method
JP2008257425A (en) 2007-04-04 2008-10-23 Sony Corp Face recognition device, face recognition method and computer program
JP2008312036A (en) 2007-06-15 2008-12-25 Toyota Central R&D Labs Inc Device, method and program for face detection
JP2009053916A (en) 2007-08-27 2009-03-12 Sony Corp Face image processing apparatus, face image processing method, and computer program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9524420B2 (en) 2014-01-23 2016-12-20 Samsung Electronics Co., Ltd. User authentication method and apparatus
CN115201227A (en) * 2022-06-28 2022-10-18 北京山水云图科技有限公司 Filter plate design method and device based on X-ray detection and computer readable storage medium

Similar Documents

Publication Publication Date Title
Xiao et al. Brightness and contrast controllable image enhancement based on histogram specification
EP3333768A1 (en) Method and apparatus for detecting target
Vernon et al. Modeling first impressions from highly variable facial images
CN109214337B (en) Crowd counting method, device, equipment and computer readable storage medium
CN102236899B (en) Method and device for detecting objects
CN106780662B (en) Face image generation method, device and equipment
CN110414428A (en) A method of generating face character information identification model
CN104657709B (en) Facial image recognition method, device and server
CN107330359A (en) A kind of method and apparatus of face contrast
CN107292299B (en) Side face recognition methods based on kernel specification correlation analysis
CN113179421B (en) Video cover selection method and device, computer equipment and storage medium
CN106910180B (en) A kind of image quality measure method and device
CN109190617A (en) A kind of rectangle detection method of image, device and storage medium
CN110111347A (en) Logos extracting method, device and storage medium
CN109753873A (en) Image processing method and relevant apparatus
KR101301301B1 (en) Face identification filter planning method and apparatus thereof
KR20150099964A (en) Method and apparatus for extracting image feature
CN107169093B (en) target image acquisition method and device
Chen et al. A novel face super resolution approach for noisy images using contour feature and standard deviation prior
CN113887507A (en) Face image processing method and device, electronic equipment and storage medium
Copeland et al. Evaluation of image metrics for target discrimination using psychophysical experiments
CN110084789A (en) A kind of quality evaluating method and calculating equipment of iris image
CN106028140B (en) A kind of terminal user ID login method and system
Laco et al. Depth in the visual attention modelling from the egocentric perspective of view
CN104899909B (en) Color Mapping Approach and device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160802

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20170801

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180802

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20190801

Year of fee payment: 7