KR101658528B1 - NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks - Google Patents

NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks Download PDF

Info

Publication number
KR101658528B1
KR101658528B1 KR1020140058643A KR20140058643A KR101658528B1 KR 101658528 B1 KR101658528 B1 KR 101658528B1 KR 1020140058643 A KR1020140058643 A KR 1020140058643A KR 20140058643 A KR20140058643 A KR 20140058643A KR 101658528 B1 KR101658528 B1 KR 101658528B1
Authority
KR
South Korea
Prior art keywords
image
polynomial
data
principal component
component analysis
Prior art date
Application number
KR1020140058643A
Other languages
Korean (ko)
Other versions
KR20150131658A (en
Inventor
오성권
Original Assignee
수원대학교산학협력단
위아코퍼레이션 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 수원대학교산학협력단, 위아코퍼레이션 주식회사 filed Critical 수원대학교산학협력단
Priority to KR1020140058643A priority Critical patent/KR101658528B1/en
Publication of KR20150131658A publication Critical patent/KR20150131658A/en
Application granted granted Critical
Publication of KR101658528B1 publication Critical patent/KR101658528B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/446Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering using Haar-like filters, e.g. using integral image techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은, 조명이 없는 환경에서 얼굴을 인식하는 방법에 관한 것으로서, (1) 나이트 비전(Night Vision) 카메라를 이용하여 이미지를 획득하는 단계; (2) 상기 단계 (1)에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고, 외란 값을 제거하는 과정을 수행하는 데이터 전처리 단계; (3) 상기 단계 (2)에서 전처리된 데이터를, 2방향 2차원 주성분분석(2-Directional 2-Dimensional Principal Component Analysis, 이하, ‘(2D)²PCA’라 함) 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소하는 단계; 및 (4) 다항식 방사형 기저함수 기반 신경회로망(Polynomial-based Radial Basis Function Neural Networks, 이하 ‘pRBFNNs’이라 함)을 이용하여, 상기 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
본 발명에서 제안하고 있는 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에 따르면, 나이트 비전 카메라를 통하여 이미지를 획득함으로써, 조명이 없는 환경에서도 얼굴 인식이 가능하다.
또한, 본 발명에 따르면, 획득된 이미지 데이터에서 얼굴 영역을 검출하고 외란 값을 제거한 후에 2방향 2차원 주성분분석 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소함으로써, 인식 속도 및 인식률이 개선될 수 있다.
뿐만 아니라, 본 발명에 따르면, 다항식 방사형 기저함수 기반 신경회로망을 이용하되, FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하며, 차분 진화 알고리즘을 이용하여 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화함으로써, 출력 공간 내의 선형 판정 경계를 비선형 판정 경계로 나타낼 수 있도록 하고, 최적화된 파라미터에서의 빠른 학습 수렴으로 인식 성능이 향상된다.
The present invention relates to a method of recognizing a face in an environment without illumination, comprising the steps of: (1) acquiring an image using a night vision camera; (2) a data preprocessing step of detecting a face region in the image data obtained in the step (1) and removing a disturbance value; (3) The data preprocessed in the above step (2) is subjected to a two-dimensional 2D principal component analysis (hereinafter referred to as '2D (2D) PCA' Reducing the data dimension while using both directions intact; (4) Polynomial-based Radial Basis Function Neural Networks (hereinafter referred to as " pRBFNNs ") to recognize faces in the image data with reduced data dimensions And is characterized by its constitution.
According to the two-way two-dimensional principal component analysis algorithm proposed by the present invention and the nighttime facial recognition method using the optimal polynomial radial basis function based neural network, it is possible to recognize the face even in the environment without illumination by acquiring the image through the night vision camera Do.
Further, according to the present invention, the face area is detected in the obtained image data, the disturbance value is removed, and then the two-dimensional two-dimensional principal component analysis algorithm is used to reduce the data dimension while using the two directions of the two- And the recognition rate can be improved.
In addition, according to the present invention, a polynomial radial basis function based neural network is used, but a fuzzy C-means (FCM) clustering algorithm is used, and the degree of polynomial, the number of clusters, By optimizing, the linear decision boundary in the output space can be represented by the nonlinear decision boundary, and the recognition performance is improved by fast learning convergence in the optimized parameter.

Description

2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법{NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks}FIELD OF THE INVENTION [0001] The present invention relates to a two-way two-dimensional principal component analysis algorithm and a nighttime facial recognition method using a polynomial radial basis function based neural network. [0002]

본 발명은 야간 얼굴 인식 방법에 관한 것으로서, 보다 구체적으로는 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에 관한 것이다.More particularly, the present invention relates to a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using a polynomial radial basis function-based neural network.

최근 지문, 홍채 얼굴 등의 생체 정보를 인식하여 인증하는 생체 정보 인증 시스템이 개발되고 있다. 그 중 얼굴 인식은 다른 생체 정보 인식 방법과 달리 접촉을 필요로 하지 않아 사용자에게 편리함을 부여한다. 종래에는 CCD 카메라로 이미지를 취득(특허출원 제10-2006-0119515호 등 참조)하는데, 조명이 없는 야간에는 조도가 낮기 때문에 인식을 수행하기 어려운 문제가 있었다.
Recently, a biometric information authentication system for recognizing and authenticating biometric information such as a fingerprint and an iris face has been developed. Among them, face recognition does not require contact unlike other biometric information recognition methods, thereby giving convenience to the user. Conventionally, an image is acquired by a CCD camera (see Patent Application No. 10-2006-0119515, etc.). However, since the illuminance is low at nighttime without illumination, recognition is difficult to perform.

또한, 얼굴 인식을 위해서는 얼굴의 패턴을 인식하여 특징을 추출하고 판별하는 과정이 필요하다. 패턴인식을 위한 다양한 방법들 중 신경회로망을 기반으로 설계된 분류기는, 학습능력과 일반화 능력의 우수성으로 인해 다양한 분야의 패턴인식 시스템에서 가장 많이 사용되는 분류기 중 하나이다. 신경회로망기반 분류기는 입력층, 다수의 은닉층, 출력층을 갖는 다층(multi-layered) 구조가 일반적이며, 경사하강법을 이용하여 학습된다. 기존의 신경회로망을 기반으로 한 많은 분류기는 연결가중치가 상수항으로 구성되어 있으며, 상수항으로 구성된 연결 가중치는 은닉층 뉴런의 활성 함수와의 선형 결합을 통해 출력 공간 내에 선형 판별 함수(linear discernment function)로 표현된다(M. J. Er, S. Q. Wu, J. W. Lu, and H. L. Toh, “Face recognition with radical basis function (RBF) neural networks,” IEEE Trans. Neural Networks, vol. 13, no. 3, pp. 697-710, 2002.). 이는 네트워크가 출력 공간 내에 선형 판정 경계(초평면)를 생성하도록 만들며 선형적인 특성을 가지게 할 수 있다.
In addition, for facial recognition, it is necessary to recognize facial patterns to extract and identify features. Among various methods for pattern recognition, a neural network based classifier is one of the most used classifiers in pattern recognition systems of various fields because of its superior ability of learning ability and generalization ability. The neural network-based classifier is a multi-layered structure with an input layer, a plurality of hidden layers, and an output layer, and is learned using a slope descent method. Many classifiers based on existing neural networks have connection weights that are made up of constant terms, and connection weights composed of constant terms are expressed as linear discernment functions in the output space through linear combination with the activation function of hidden neurons. 3, pp. 697-710 (2002), "Magnetic Resonance Imaging (MRI), SQ Wu, JW Lu, and HL Toh," Face Recognition with RBF Neural Networks, "IEEE Trans. Neural Networks, Vol. .). This may cause the network to create a linear decision boundary (hyperplane) within the output space and have a linear characteristic.

한편, 주성분 분석법은 벡터 표현의 통계적 특성을 기반으로 한 방법으로서 통계적으로 변화가 있는 N차원의 M개의 벡터를 공분산 행렬에 의해 고유 벡터로 표현한다. 주성분 분석법은 서로 다른 공간의 차원을 줄여서 간단히 표현하는 실용적인 방법으로 많이 사용되고 있으나, 고차원의 데이터로 구성되는 얼굴 데이터의 패턴 인식에서, 한 방향으로의 변환은 인식률을 떨어트리는 문제가 있다.On the other hand, principal component analysis is based on the statistical characteristics of vector representation, and expresses M vectors of statistically changed N dimensions as eigenvectors by covariance matrix. The principal component analysis method is widely used as a practical method for simply expressing the dimensions of different spaces. However, in the pattern recognition of facial data composed of high dimensional data, conversion in one direction has a problem of lowering the recognition rate.

본 발명은 기존에 제안된 방법들의 상기와 같은 문제점들을 해결하기 위해 제안된 것으로서, 나이트 비전 카메라를 통하여 이미지를 획득함으로써, 조명이 없는 환경에서도 얼굴 인식이 가능한, 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법을 제공하는 것을 그 목적으로 한다.
The present invention has been proposed in order to solve the above-mentioned problems of the previously proposed methods. By acquiring an image through a night vision camera, a two-way two-dimensional principal component analysis algorithm capable of recognizing faces even in a light- The object of the present invention is to provide a nighttime face recognition method using a polynomial radial basis function based neural network.

또한, 본 발명은, 획득된 이미지 데이터에서 얼굴 영역을 검출하고 외란 값을 제거한 후에 2방향 2차원 주성분분석 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소함으로써, 인식 속도 및 인식률이 개선된, 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법을 제공하는 것을 다른 목적으로 한다.
In addition, the present invention reduces the data size while using two directions of the two-dimensional image intact by using the two-way two-dimensional principal component analysis algorithm after detecting the face region in the obtained image data and removing the disturbance value, Another object of the present invention is to provide a two-way two-dimensional principal component analysis algorithm with improved recognition rate and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network.

뿐만 아니라, 본 발명은, 다항식 방사형 기저함수 기반 신경회로망을 이용하되, FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하며, 차분 진화 알고리즘을 이용하여 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화함으로써, 출력 공간 내의 선형 판정 경계를 비선형 판정 경계로 나타낼 수 있도록 하고, 최적화된 파라미터에서의 빠른 학습 수렴으로 인식 성능이 향상된, 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법을 제공하는 것을 또 다른 목적으로 한다.In addition, the present invention uses a polynomial radial basis function-based neural network, uses a FCM (Fuzzy C-means) clustering algorithm, optimizes the degree of polynomials, the number of clusters and the fuzzy coefficient using a difference evolution algorithm Two-way two-dimensional principal component analysis algorithm and optimal polynomial radial basis function-based neural network, in which the linear decision boundary in the output space can be represented by a nonlinear decision boundary and the recognition performance is improved by fast learning convergence in the optimized parameter Another object of the present invention is to provide a nighttime facial recognition method.

상기한 목적을 달성하기 위한 본 발명의 특징에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법은,According to an aspect of the present invention, there is provided a nighttime face recognition method using a two-way two-dimensional principal component analysis algorithm and an optimal polynomial radial basis function based neural network,

조명이 없는 환경에서 얼굴을 인식하는 방법으로서,A method of recognizing a face in an environment without illumination,

(1) 나이트 비전(Night Vision) 카메라를 이용하여 이미지를 획득하는 단계;(1) acquiring an image using a night vision camera;

(2) 상기 단계 (1)에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고, 외란 값을 제거하는 과정을 수행하는 데이터 전처리 단계;(2) a data preprocessing step of detecting a face region in the image data obtained in the step (1) and removing a disturbance value;

(3) 상기 단계 (2)에서 전처리된 데이터를, 2방향 2차원 주성분분석(2-Directional 2-Dimensional Principal Component Analysis, 이하, ‘(2D)²PCA’라 함) 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소하는 단계; 및(3) The data preprocessed in the above step (2) is subjected to a two-dimensional 2D principal component analysis (hereinafter referred to as '2D (2D) PCA' Reducing the data dimension while using both directions intact; And

(4) 다항식 방사형 기저함수 기반 신경회로망(Polynomial-based Radial Basis Function Neural Networks, 이하 ‘pRBFNNs’이라 함)을 이용하여, 상기 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식하는 단계를 포함하는 것을 그 구성상의 특징으로 한다.
(4) a step of recognizing a face in the image data in which the data dimension is reduced by using a polynomial-based radial basis functional neural network (hereinafter referred to as " pRBFNNs " It is a feature of the configuration.

바람직하게는, 상기 단계 (2)는,Preferably, the step (2)

(2-1) 할-라이크 특징(Haar-like feauture) 및 아다부스트(Ada-boost) 알고리즘을 이용하여 얼굴 영역을 검출하는 단계; 및(2-1) detecting a face region using a Haar-like feauture and an Ada-boost algorithm; And

(2-2) 히스토그램 평활화(Histogram Equalization) 기법을 사용하여 외란 값을 제거하는 단계를 포함할 수 있다.
(2-2) removing the disturbance value using a histogram equalization technique.

더욱 바람직하게는, 상기 단계 (2-2)는,More preferably, the step (2-2)

(2-2-1) 상기 단계 (2-1)에서 검출된 얼굴 영역 이미지의 히스토그램을 생성하는 단계;(2-2-1) generating a histogram of the face region image detected in the step (2-1);

(2-2-2) 하기 수학식을 이용하여 상기 단계 (2-2-1)에서 생성된 히스토그램을 정규화하고 정규화 누적값을 계산하며 보정값을 도출하는 단계; 및(2-2-2) normalizing the histogram generated in the step (2-2-1) using the following equation, calculating a normalized cumulative value, and deriving a correction value; And

Figure 112014045901985-pat00001
Figure 112014045901985-pat00001

(G: 영상의 밝기, N: 영상의 크기, H(i): 정규화 누적값, h(i): 보정 값)(G: image brightness, N: image size, H (i): cumulative normalization value, h (i): correction value)

(2-2-3) 상기 단계 (2-1)에서 검출된 얼굴 영역 이미지의 화소 위치에 상기 단계 (2-2-2)에서 보정한 보정값을 적용한 새로운 출력을 매핑하는 단계를 포함할 수 있다.
(2-2-3) mapping a new output applying the correction value corrected in the step (2-2-2) to the pixel position of the face region image detected in the step (2-1) have.

바람직하게는, 상기 단계 (2)는,Preferably, the step (2)

ASM(Active shape Model)을 이용하여 얼굴 영역과 배경을 분리할 수 있다.
ASM (Active Shape Model) can be used to separate face area and background.

바람직하게는, 상기 단계 (3)은,Preferably, the step (3)

(3-1) 행렬로 표현되는 학습 이미지의 샘플들의 평균 이미지값을 도출하는 단계;(3-1) deriving an average image value of samples of a learning image represented by a matrix;

(3-2) 상기 단계 (3-1)에서 도출한 평균 이미지값을 이용하여 상기 학습 이미지 샘플들의 이미지 열의 공분산 행렬을 도출하는 단계;(3-2) deriving a covariance matrix of the image sequence of the learning image samples using the average image value derived in the step (3-1);

(3-3) 고유치 분석을 통하여 상기 단계 (3-2)에서 도출한 이미지 열의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;(3-3) deriving an eigenvalue of the covariance matrix of the image sequence derived in the step (3-2) and an eigenvector corresponding to the eigenvalue by analyzing the eigenvalue;

(3-4) 상기 단계 (3-3)에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 열의 벡터를 도출하는 단계;(3-4) For each eigenvalue derived in step (3-3), d eigenvalues are selected in descending order of eigenvalues, a transformation matrix having an eigenvector corresponding to the selected eigenvalue is generated, and data d Deriving a vector of image columns with reduced dimensions;

(3-5) 상기 단계 (3-1)에서 도출한 평균 이미지값을 이용하여 상기 학습 이미지 샘플들의 이미지 행의 공분산 행렬을 도출하는 단계;(3-5) deriving a covariance matrix of the image row of the learning image samples using the average image value derived in the step (3-1);

(3-6) 고유치 분석을 통하여 상기 단계 (3-5)에서 도출한 이미지 행의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;(3-6) deriving an eigenvalue of the covariance matrix of the image row derived in the step (3-5) and an eigenvector corresponding thereto, through eigenvalue analysis;

(3-7) 상기 단계 (3-6)에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 행의 벡터를 도출하는 단계; 및(3-7) For each eigenvalue derived in step (3-6), d eigenvalues are selected in descending order of eigenvalues, a transformation matrix having an eigenvector corresponding to the selected eigenvalue is generated, and data d Deriving a vector of image rows with reduced dimensions; And

(3-8) 상기 단계 (3-4) 및 단계 (3-7)에서 생성된 이미지 열 및 이미지 행의 벡터를 이용하여 상기 얼굴 인식을 위한 전체 이미지를 도출하는 단계를 포함할 수 있다.
(3-8) deriving the entire image for face recognition using the image column and the vector of the image row generated in the step (3-4) and the step (3-7).

바람직하게는, 상기 단계 (4)에서, 상기 pRBFNNs는,Preferably, in said step (4), said pRBFNNs comprise

조건부, 결론부, 추론부로 분리되어 기능적 모듈로 동작하되, 상기 조건부의 활성함수로는 FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하고, 상기 결론부의 연결 가중치는 다항식으로 확장하여 사용할 수 있다.
(Fuzzy C-means) clustering algorithm is used as the active function of the conditional part, and the connection weight of the conclusion part can be extended to a polynomial function.

더욱 바람직하게는, 상기 단계 (4)는,More preferably, the step (4)

차분 진화(Differential Evolution, DE) 알고리즘을 이용하여 상기 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화하는 단계를 더 포함할 수 있다.And optimizing the degree of the polynomial, the number of clusters and the fuzzy coefficient using a Differential Evolution (DE) algorithm.

본 발명에서 제안하고 있는 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에 따르면, 나이트 비전 카메라를 통하여 이미지를 획득함으로써, 조명이 없는 환경에서도 얼굴 인식이 가능하다.
According to the two-way two-dimensional principal component analysis algorithm proposed by the present invention and the nighttime facial recognition method using the optimal polynomial radial basis function based neural network, it is possible to recognize the face even in the environment without illumination by acquiring the image through the night vision camera Do.

또한, 본 발명에 따르면, 획득된 이미지 데이터에서 얼굴 영역을 검출하고 외란 값을 제거한 후에 2방향 2차원 주성분분석 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소함으로써, 인식 속도 및 인식률이 개선될 수 있다.
Further, according to the present invention, the face area is detected in the obtained image data, the disturbance value is removed, and then the two-dimensional two-dimensional principal component analysis algorithm is used to reduce the data dimension while using the two directions of the two- And the recognition rate can be improved.

뿐만 아니라, 본 발명에 따르면, 다항식 방사형 기저함수 기반 신경회로망을 이용하되, FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하며, 차분 진화 알고리즘을 이용하여 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화함으로써, 출력 공간 내의 선형 판정 경계를 비선형 판정 경계로 나타낼 수 있도록 하고, 최적화된 파라미터에서의 빠른 학습 수렴으로 인식 성능이 향상된다.In addition, according to the present invention, a polynomial radial basis function based neural network is used, but a fuzzy C-means (FCM) clustering algorithm is used, and the degree of polynomial, the number of clusters, By optimizing, the linear decision boundary in the output space can be represented by the nonlinear decision boundary, and the recognition performance is improved by fast learning convergence in the optimized parameter.

도 1은 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법의 흐름을 도시한 도면.
도 2는 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에서 단계 S200의 구체적 흐름을 도시한 도면.
도 3은 할-라이크 특징의 특징 추출 방법을 도시한 도면.
도 4는 적분 이미지 특징 추출 과정을 도시한 도면.
도 5는 히스토그램 평활화 과정을 도시한 도면.
도 6은 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에서 단계 S300의 구체적 흐름을 도시한 도면.
도 7은 (2D)²PCA를 이용한 차원 축소되는 과정을 도시한 도면.
도 8은 기존의 방사형 기저 함수 신경회로망을 도시한 도면.
도 9는 본 발명에서 제안하고 있는 다항식 방사형 기저함수 기반 신경회로망을 도시한 도면.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a flowchart illustrating a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention.
FIG. 2 illustrates a concrete flow of step S200 in a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention.
FIG. 3 is a diagram showing a feature extraction method of the Hal-like feature. FIG.
4 is a diagram illustrating a process of extracting an integral image feature.
FIG. 5 illustrates a histogram smoothing process. FIG.
FIG. 6 illustrates a specific flow of step S300 in a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function based neural network according to an embodiment of the present invention.
FIG. 7 is a diagram showing a process of dimensionally reducing by using a (2D) PCA; FIG.
8 shows a conventional radial basis functional neural network;
9 is a diagram illustrating a polynomial radial basis function based neural network proposed in the present invention.

이하에서는 첨부된 도면을 참조하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 바람직한 실시예를 상세히 설명한다. 다만, 본 발명의 바람직한 실시예를 상세하게 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략한다. 또한, 유사한 기능 및 작용을 하는 부분에 대해서는 도면 전체에 걸쳐 동일 또는 유사한 부호를 사용한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. In the following detailed description of the preferred embodiments of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The same or similar reference numerals are used throughout the drawings for portions having similar functions and functions.

덧붙여, 명세서 전체에서, 어떤 부분이 다른 부분과 ‘연결’되어 있다고 할 때, 이는 ‘직접적으로 연결’되어 있는 경우뿐만 아니라, 그 중간에 다른 소자를 사이에 두고 ‘간접적으로 연결’되어 있는 경우도 포함한다. 또한, 어떤 구성요소를 ‘포함’한다는 것은, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있다는 것을 의미한다.
In addition, in the entire specification, when a part is referred to as being 'connected' to another part, it may be referred to as 'indirectly connected' not only with 'directly connected' . Also, to "include" an element means that it may include other elements, rather than excluding other elements, unless specifically stated otherwise.

도 1은 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법의 흐름을 도시한 도면이다. 도 1에 도시된 바와 같이, 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법은, 나이트 비전(Night Vision) 카메라를 이용하여 이미지를 획득하는 단계(S100), 단계 S100에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고, 외란 값을 제거하는 과정을 수행하는 데이터 전처리 단계(S200), 단계 S200에서 전처리된 데이터를, 2방향 2차원 주성분분석(2-Directional 2-Dimensional Principal Component Analysis, 이하, ‘(2D)²PCA’라 함) 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소하는 단계(S300), 및 다항식 방사형 기저함수 기반 신경회로망(Polynomial-based Radial Basis Function Neural Networks, 이하 ‘pRBFNNs’이라 함)을 이용하여, 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식하는 단계(S400)를 포함하여 구현될 수 있다. 단계 S100은, 나이트 비전 카메라를 통하여 수행되고, 단계 S200 내지 단계 S400은, 사용자 단말기 또는 야간 얼굴 인식 장치의 데이터 전처리 모듈(단계 S200), 데이터 차원 축소 모듈(단계 S300) 및 얼굴 인식 모듈(단계 S400)에서 각각 수행될 수 있다.
FIG. 1 is a flowchart illustrating a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention. As shown in FIG. 1, a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention are implemented using a night vision camera A data preprocessing step (S200) for performing a process of acquiring an image (S100), detecting a face area in the image data acquired in step S100 and removing a disturbance value, a preprocessing step (S200) (S300) of reducing a data dimension while using two directions of a two-dimensional image intact by using a 2-dimensional principal component analysis (hereinafter referred to as '2D (2D) PCA') algorithm, and Using Polynomial-based Radial Basis Function Neural Networks (pRBFNNs), the data dimension is reduced to a reduced image size Including a step (S400) of recognizing a face from emitter it can be implemented. Step S100 is performed through the night vision camera and steps S200 to S400 are performed by the user terminal or the night preprocessing module (step S200), the data dimension reduction module (step S300) and the face recognition module ), Respectively.

단계 S100에서는, 나이트 비전 카메라를 이용하여 이미지를 획득할 수 있다. 나이트 비전이란, 열화상(Thermal imaging) 기술을 이용한 것으로서, 적외선 카메라가 물체의 열에너지를 감지하여 흑백 영상 이미지로 재현하는 방법이다. 기존의 CCD 카메라를 이용한 2차원 얼굴 인식 시스템은 야간의 얼굴 추출이 어려워 인식이 어려웠다. 본 발명에서는 이러한 단점을 보완하기 위하여 종래의 CCD 카메라 대신에, 야간의 얼굴 이미지를 취득할 수 있는 나이트 비전 카메라를 이용함으로써, 주간의 얼굴 이미지와 비슷한 이미지를 취득할 수 있다.
In step S100, an image can be acquired using a night vision camera. Night Vision is a method of using thermal imaging technology, in which an infrared camera senses the thermal energy of an object and reproduces it as a monochrome image. The conventional two - dimensional face recognition system using the CCD camera has difficulty in recognition because it is difficult to extract faces at night. According to the present invention, a night vision camera capable of acquiring a nighttime facial image is used in place of the conventional CCD camera to compensate for such a disadvantage, so that an image similar to a daytime facial image can be obtained.

단계 S200에서는, 단계 S100에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고 외란 값을 제거하는 과정 등의 데이터 전처리가 수행될 수 있다. 도 2는 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에서 단계 S200의 구체적 흐름을 도시한 도면이다. 도 2에 도시된 바와 같이, 본 발명의 일실시예에 따르면, 단계 S200은, 할-라이크 특징(Haar-like feauture) 및 아다부스트(Ada-boost) 알고리즘을 이용하여 얼굴 영역을 검출하는 단계(S210) 및 히스토그램 평활화(Histogram Equalization) 기법을 사용하여 외란 값을 제거하는 단계(S220)를 포함하여 구현될 수 있다. 아다부스트 알고리즘은 야간 이미지 내의 배경과 얼굴의 특징 데이터를 분석하여 얼굴 영역만을 검출하고 히스토그램 평활화는 야간 이미지 내의 품질을 개선하고 조도에 의한 왜곡현상을 보완할 수 있다.
In step S200, data preprocessing such as a process of detecting a face area and removing a disturbance value from the image data acquired in step S100 may be performed. FIG. 2 is a diagram illustrating a specific flow of step S200 in a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention. 2, in operation S200, a face region is detected using a Haar-like feature and an Ada-boost algorithm S210) and removing a disturbance value using a histogram equalization technique (S220). The AdaBoost algorithm detects only the face region by analyzing the feature data of the background and face in the night image, and the histogram smoothing can improve the quality in the night image and compensate the distortion caused by illumination.

구체적으로 단계 S210은, 할-라이크 특징 및 아다부스트 알고리즘을 이용하여 얼굴 영역을 검출하는 과정이다. 먼저 할-라이크 특징과 적분 이미지를 통하여 얼굴 영역을 검출할 수 있다. 할-라이크 특징은 P.Viola와 M.Jones에 의해 제안된 알고리즘으로 단순한 합을 이용한 연산과정을 통하여 계산된다. 빠른 속도로 연산이 가능하기 때문에 실시간으로 인식을 하는 얼굴 인식기에 적합하다. 도 3은 할-라이크 특징의 특징 추출 방법을 도시한 도면이다. 도 3에 도시된 바와 같이, 에지 특징(edge feature), 라인 특징(line feature), 대각 특징(diagonal features)을 추출할 수 있고, 특징 영역 내에 있는 픽셀(pixel)값을 더해서 영역의 합을 계산하고, 각 영역의 합의 차이를 계산하여, 할-라이크 특징을 추출할 수 있다. 도 4는 적분 이미지 특징 추출 과정을 도시한 도면이다. 도 4에 도시된 바와 같이, 이미지 내의 모든 픽셀에 대하여 미리 누적된 값을 이용하여 빠르게 연산이 가능하다. 아다부스트 알고리즘은, Y.Freund와 R.Shapire에 의하여 제안된 알고리즘으로 단계적으로 접근하는 계층적 구조를 갖는다. 이러한 구조는 확률 분포를 이용하여 단계별로 에러가 제거되고 속도가 증가하며 n개의 약 분류기를 선형적으로 결합한다. 최종적으로 높은 검출 능력을 갖는 강 분류기를 생성하게 된다.
Specifically, step S210 is a process of detecting a face region using a Hal-like feature and an Adaboost algorithm. First, the face region can be detected through the Hal-like feature and the integral image. The Hal-like property is calculated by P. Viola and M. Jones using simple sums. Because it can operate at high speed, it is suitable for face recognizer that recognizes in real time. 3 is a diagram illustrating a feature extraction method of the Hal-like feature. As shown in FIG. 3, an edge feature, a line feature, and diagonal features can be extracted, and the sum of the areas can be calculated by adding pixel values in the feature region And the difference of the sum of each area is calculated to extract the Hal-like characteristic. 4 is a diagram illustrating an extraction process of an integral image feature. As shown in FIG. 4, it is possible to quickly calculate using all the accumulated values for all the pixels in the image. The AdaBoost algorithm has a hierarchical structure approaching step by step with algorithms proposed by Y. Freund and R.Shapire. This structure linearly combines the n weak classifiers by eliminating the error step by step and using the probability distribution. Finally, a strong classifier with high detection capability is created.

단계 S220에서는, 히스토그램 평활화 기법을 사용하여 외란 값을 제거할 수 있다. 나이트 비전 카메라를 이용하여 획득한 얼굴 이미지 데이터에는 외란 값이 존재할 수 있다. 본 발명에서는 이러한 외란 값을 없애주기 위하여 히스토그램을 사용할 수 있다. 도 5는 히스토그램 평활화 과정을 도시한 도면이다. 도 5에 도시된 바와 같이, 외란을 최소화하기 위하여, 획득된 얼굴 이미지의 명함의 분포 값을 균일하게 해줌으로써, 한쪽으로 치우친 히스토그램을 일정한 분포를 가지도록 만들어줄 수 있다.
In step S220, the disturbance value may be removed using the histogram smoothing technique. The disturbance value may exist in the face image data acquired using the night vision camera. In the present invention, a histogram can be used to eliminate such disturbance values. FIG. 5 is a diagram illustrating a histogram smoothing process. As shown in FIG. 5, in order to minimize the disturbance, the distribution values of the business cards of the obtained face image are made uniform, so that the histogram biased toward one side can be made to have a uniform distribution.

바람직하게는, 단계 S220은, 단계 S210에서 검출된 얼굴 영역 이미지의 히스토그램을 생성하는 단계(S221), 하기 수학식 1을 이용하여 단계 S221에서 생성된 히스토그램을 정규화하고 정규화 누적값을 계산하며 보정값을 도출하는 단계(S222), 및 단계 S210에서 검출된 얼굴 영역 이미지의 화소 위치에 단계 S222에서 보정한 보정값을 적용한 새로운 출력을 매핑하는 단계(S223)를 포함하여 구현될 수 있다.Preferably, step S220 includes generating a histogram of the face area image detected in step S210 (S221), normalizing the histogram generated in step S221 using the following equation (1), calculating a normalized cumulative value, And a step S223 of mapping a new output applying the correction value corrected in step S222 to the pixel position of the face area image detected in step S210.

Figure 112014045901985-pat00002
Figure 112014045901985-pat00002

(G: 영상의 밝기, N: 영상의 크기, H(i): 정규화 누적값, h(i): 보정 값)
(G: image brightness, N: image size, H (i): cumulative normalization value, h (i): correction value)

한편, 본 발명의 다른 실시예에 따르면, 단계 S200에서는 ASM(Active shape Model)을 사용하여 배경과 얼굴을 분리할 수 있다. ASM은 통계적인 모델을 이용한 특징점들을 추출하는 방법으로 얼굴의 특징점 추출을 위해서 많이 사용되고 있는 방법 중의 하나이다. ASM은 형상모델을 생성하기 위해 학습 데이터로부터 특징점들을 이용하여 평균 형상을 구한다. 다시 형상을 평균에 매칭 시키도록 크기변환, 회전변환, 평균이동시킨 후 또다시 변형된 형상들의 평균을 구한다. 이전 평균과 새로 구한 평균의 오차가 어느 특정 값 이상 나타나지 않을 때까지 구하는 과정을 반복한다. 이렇게 구한 평균형상을 이용해서 새로운 얼굴 이미지가 들어오면 평균형상과 비교하여 얼굴 영역을 검출하게 된다. 이는 얼굴 영역 검출 방법의 일실시예로서 이에 한정하는 것은 아니다.
Meanwhile, according to another embodiment of the present invention, in step S200, an ASM (Active Shape Model) can be used to separate the background and the face. ASM is one of the methods that are used for extracting feature points of face by extracting feature points using statistical model. The ASM uses the feature points from the training data to obtain the average shape to generate the shape model. After resizing, rotating and averaging the shape to match the average again, the average of the deformed shapes is obtained again. Repeat the process until the difference between the previous average and the newly obtained average is no more than a certain value. When a new face image comes in using the average shape thus obtained, the face region is detected by comparing with the average shape. This is an embodiment of the face area detection method and is not limited thereto.

단계 S300에서는, 단계 S200에서 전처리된 데이터를 2방향 2차원 주성분분석 알고리즘을 이용하여 데이터 차원을 축소할 수 있다. 주성분 분석법(Principal Component Analysis, PCA)은 벡터 표현의 통계적 특성을 기반으로 한 방법으로 통계적 변화가 있는 N차원의 M개의 벡터를 공분산 행렬에 의하여 고유 벡터로 표현한다. 주성분 분석법은 서로 다른 공간의 차원을 줄여서 간단히 표현하는 실용적인 방법이다. 얼굴 이미지 데이터는, 고차원의 데이터이므로 패턴 인식에 사용할 경우, 많은 데이터의 양으로 인하여 인식 속도가 느려지는 단점이 있다. 본 발명에서는, 이러한 인식 속도 개선을 위하여 (2D)²PCA 알고리즘을 사용하여 데이터의 차원을 축소한다. 일반적인 PCA 방법은 한 방향으로 차원을 축소하나, 본 발명에서는 (2D)²PCA 알고리즘을 사용하여 2차원 이미지의 두 방향 그대로를 이용하여 차원을 축소할 수 있다. 이와 같은 방식을 채택함으로써, PCA 방법에 비하여 인식률을 더욱 높일 수 있다.
In step S300, the data preprocessed in step S200 can be reduced in size using the bi-directional two-dimensional principal component analysis algorithm. Principal Component Analysis (PCA) is a method based on the statistical properties of vector representation, and expresses M vectors of N dimensions with statistical changes by eigenvectors by covariance matrix. Principal component analysis is a practical method of simply expressing the dimensions of different spaces. Since facial image data is high-dimensional data, there is a disadvantage in that the recognition speed is slowed down due to a large amount of data when used for pattern recognition. In the present invention, the dimension of the data is reduced using the (2D) PCA algorithm to improve the recognition speed. The general PCA method reduces the dimension in one direction. In the present invention, however, it is possible to reduce the dimension using two directions of the two-dimensional image using the (2D) PCA algorithm. By adopting this method, the recognition rate can be further increased as compared with the PCA method.

도 6은 본 발명의 일실시예에 따른 2방향 2차원 주성분분석 알고리즘 및 최적 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법에서 단계 S300의 구체적 흐름을 도시한 도면이다. 도 6에 도시된 바와 같이, 본 발명의 일실시예에 따르면, 단계 S300은, 행렬로 표현되는 학습 이미지의 샘플들의 평균 이미지값을 도출하는 단계(S310), 단계 S310에서 도출한 평균 이미지값을 이용하여 학습 이미지 샘플들의 이미지 열의 공분산 행렬을 도출하는 단계(S320), 고유치 분석을 통하여 단계 S320에서 도출한 이미지 열의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계(S330), 단계 S330에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 열의 벡터를 도출하는 단계(S340), 단계 S310에서 도출한 평균 이미지값을 이용하여 학습 이미지 샘플들의 이미지 행의 공분산 행렬을 도출하는 단계(S350), 고유치 분석을 통하여 단계 S350에서 도출한 이미지 행의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계(S360), 단계 S360에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 행의 벡터를 도출하는 단계(S370), 및 단계 S340 및 단계 S370에서 생성된 이미지 열 및 이미지 행의 벡터를 이용하여 얼굴 인식을 위한 전체 이미지를 도출하는 단계(S380)를 포함하여 구현될 수 있다. 단계 S310 내지 단계 S380은, (2D)²PCA의 과정으로서, 도 6에 도시된 바와 같이, 단계 S320 내지 단계 S340은 이미지 열의 벡터를 도출하는 단계이고, 단계 S350 내지 단계 S370은 이미지 행의 벡터를 도출하는 단계로서, 이미지 열의 벡터를 먼저 도출할 수도 있고, 이미지 행의 벡터를 먼저 도출할 수도 있는 등 그 순서에는 구애받지 않는다. 도 7은 (2D)²PCA를 이용한 차원 축소되는 과정을 도시한 도면이다. 도 7에 도시된 바와 같이, (2D)²PCA를 이용하면, 2차원 이미지의 두 방향 그대로를 이용하여 차원이 축소된다. 이하에서는 단계 S310 내지 단계 S380에 대하여 더욱 상세하게 살펴보기로 한다.
FIG. 6 is a diagram illustrating a concrete flow of step S300 in a two-way two-dimensional principal component analysis algorithm and a nighttime face recognition method using an optimal polynomial radial basis function-based neural network according to an embodiment of the present invention. As shown in FIG. 6, according to an embodiment of the present invention, step S300 includes deriving an average image value of samples of a learning image represented by a matrix (S310), calculating an average image value derived in step S310 Deriving a covariance matrix of the image sequence of the learning image samples at step S320, deriving eigenvalues of the covariance matrix of the image sequence derived at step S320 and the eigenvectors corresponding thereto at step S330 through eigenvalue analysis at step S330, Selecting d eigenvalues in descending order of the eigenvalues with respect to the eigenvalues derived from the eigenvalues derived from the eigenvalues obtained in step S340 , Deriving a covariance matrix of the image row of the learning image samples using the average image value derived in step S310 (S350) (S360) of deriving the eigenvalues of the covariance matrix of the image row derived in step S350 and the eigenvectors corresponding thereto, d eigenvalues are selected in descending order of the eigenvalues for the eigenvalues derived in step S360, Generating a transform matrix having an eigenvector corresponding to the selected eigenvalue, deriving a vector of image rows in which the data dimension is reduced by d (S370), and deriving a vector of image columns and image rows generated in steps S340 and S370 And deriving an entire image for face recognition using the captured image (S380). Step S310 to step S380 are steps of (2D) PCA, as shown in FIG. 6, steps S320 to S340 are steps of deriving vectors of image columns, and steps S350 to S370 are steps of deriving vectors of image rows , The vector of the image sequence may be derived first, or the vector of the image sequence may be derived first. FIG. 7 is a view showing a process of dimensionally reducing by (2D) PCA. As shown in Fig. 7, when the (2D) PCA is used, the dimension is reduced using the two directions of the two-dimensional image intact. Hereinafter, steps S310 to S380 will be described in more detail.

전체 학습이미지 데이터의 개수를 M개, 이때 n번째 학습이미지를

Figure 112014045901985-pat00003
행렬(n = 1, 2, …, M)로, 학습 이미지의 샘플들의 평균 이미지를
Figure 112014045901985-pat00004
로 나타낸다고 할 때, 행렬로 표현되는 학습 이미지의 샘플들의 평균 이미지값(
Figure 112014045901985-pat00005
)은, 하기 수학식 2로 표현될 수 있다(단계 S310).The number of total learning image data is M,
Figure 112014045901985-pat00003
With the matrix (n = 1, 2, ..., M), the average image of samples of the training image
Figure 112014045901985-pat00004
The average image value of the samples of the learning image represented by the matrix (
Figure 112014045901985-pat00005
) Can be expressed by the following equation (2) (step S310).

Figure 112014045901985-pat00006
Figure 112014045901985-pat00006

학습이미지 세트들의 이미지 열의 공분산 행렬 RGt는 하기 수학식 3으로 표현될 수 있다(단계 S320).The covariance matrix RG t of the image sequence of the learning image sets can be expressed by the following equation (3) (step S320).

Figure 112014045901985-pat00007
Figure 112014045901985-pat00007

고유치 분석을 통해

Figure 112014045901985-pat00008
의 고유값
Figure 112014045901985-pat00009
과 이에 대응하는 고유벡터
Figure 112014045901985-pat00010
을 계산할 수 있다(하기 수학식 4 참고, 단계 S330).Through eigenvalue analysis
Figure 112014045901985-pat00008
Eigenvalue of
Figure 112014045901985-pat00009
And the corresponding eigenvectors
Figure 112014045901985-pat00010
(See Equation 4 below, step S330).

Figure 112014045901985-pat00011
Figure 112014045901985-pat00011

(T: transpose, λ: 고유값, u: 고유 벡터 r:열의 수)
(T: transpose, λ: eigenvalue, u: eigenvector r: number of columns)

단계 S330에서 구한 고유값

Figure 112014045901985-pat00012
에 대해 고유값이 큰 순서대로 d개의 고유치
Figure 112014045901985-pat00013
를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환행렬
Figure 112014045901985-pat00014
을 생성할 수 있다(단계 S340).
Figure 112014045901985-pat00015
는, d만큼 차원을 줄인 이미지 열의 벡터를 의미한다.
The eigenvalues obtained in step S330
Figure 112014045901985-pat00012
D < / RTI > eigenvalues < RTI ID = 0.0 >
Figure 112014045901985-pat00013
And a transformation matrix having an eigenvector corresponding to the selected eigenvalue
Figure 112014045901985-pat00014
(Step S340).
Figure 112014045901985-pat00015
Means a vector of image columns whose dimension is reduced by d.

한편, 학습이미지 세트들의 이미지 행의 공분산 행렬 LGt는 하기 수학식 5로 표현될 수 있다(단계 S350).On the other hand, the covariance matrix LG t of the image rows of the learning image sets can be expressed by the following equation (5) (step S350).

Figure 112014045901985-pat00016
Figure 112014045901985-pat00016

고유치 분석을 통해

Figure 112014045901985-pat00017
의 고유값
Figure 112014045901985-pat00018
과 이에 대응하는 고유벡터 을 계산할 수 있다(하기 수학식 6 참고, 단계 S360).Through eigenvalue analysis
Figure 112014045901985-pat00017
Eigenvalue of
Figure 112014045901985-pat00018
And the corresponding eigenvector can be calculated (see Equation (6), step S360).

Figure 112014045901985-pat00019
Figure 112014045901985-pat00019

(T: transpose, λ: 고유값, u: 고유 벡터, c: 행의 수)
(T: transpose, λ: eigenvalue, u: eigenvector, c: number of rows)

단계 S360에서 구한 고유값

Figure 112014045901985-pat00020
고유값이 큰 순서대로 d개의 고유치
Figure 112014045901985-pat00021
를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환행렬
Figure 112014045901985-pat00022
을 생성할 수 있다(단계 S370).
Figure 112014045901985-pat00023
는, d만큼 차원을 줄인 이미지 행의 벡터를 의미한다.
The eigenvalues obtained in step S360
Figure 112014045901985-pat00020
The d eigenvalues in descending order of eigenvalues
Figure 112014045901985-pat00021
And a transformation matrix having an eigenvector corresponding to the selected eigenvalue
Figure 112014045901985-pat00022
(Step S370).
Figure 112014045901985-pat00023
Means a vector of image rows that have been reduced in dimension by d.

단계 S380에서는, 단계 S340에서 생성된 이미지 열의 벡터와 단계 S370에서 생성된 이미지 행의 벡터를 이용하여 얼굴 인식을 위한 전체 이미지를 도출할 수 있다. 얼굴 인식을 위한 전체 이미지를 도출하는 식은 하기 수학식 7에 의할 수 있다.In step S380, the entire image for face recognition can be derived using the vector of the image sequence generated in step S340 and the vector of the image row generated in step S370. The equation for deriving the entire image for face recognition can be represented by the following equation (7).

Figure 112014045901985-pat00024
Figure 112014045901985-pat00024

단계 S400에서는, 다항식 방사형 기저함수 기반 신경회로망(pRBFNNs)을 이용하여, 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식할 수 있다. 본 발명에서 제안하고 있는 pRBFNNs는 기존의 신경회로망과 결합하여 3가지 기능적 모듈로 동작할 수 있다. 즉, 조건부, 결론부, 추론부로 분리되어 기능적 모듈로 동작하되, 상기 조건부의 활성함수로는 FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하고, 상기 결론부의 연결 가중치는 다항식으로 확장하여 사용할 수 있다.
In step S400, the face can be recognized in the image data in which the data dimension is reduced by using the polynomial radial basis function-based neural network (pRBFNNs). The pRBFNNs proposed in the present invention can operate as three functional modules in combination with existing neural networks. That is, the Fuzzy C-means (FCM) clustering algorithm is used as an active function of the conditional part, and the connection weight of the conclusion part is extended to a polynomial function .

본 발명에서 제안하고 있는 pRBFNNs는 기존의 RBFNN과 달리 결론부의 연결 가중치를 상수항에서 다항식으로 확장하여 사용한다. 그리고 조건부의 활성함수는 기존의 RBFNN에서 사용하는 가우시안 함수 대신 FCM 클러스터링을 사용한다. pRBFNNs 패턴분류기는 전처리가 끝난 입력 이미지 데이터를 학습과 인식 단계에서 사용한다. 도 8은 기존의 방사형 기저 함수 신경회로망을 도시한 도면이고, 도 9는 본 발명에서 제안하고 있는 다항식 방사형 기저함수 기반 신경회로망을 도시한 도면이다. 도 8에 도시된 바와 같이 기존의 방사형 기저 함수 신경회로망은 입력층과 은닉층 그리고 출력층으로 구성되어 있고, 기능적 모듈로서 조건부와 결론부, 추론부로 분리되어 동작한다.
Unlike the conventional RBFNN, the pRBFNNs proposed in the present invention are extended from the constant term to the polynomial of the concatenation weight. And the conditional activity function uses FCM clustering instead of the Gaussian function used in the conventional RBFNN. The pRBFNNs pattern classifier uses the preprocessed input image data in the learning and recognition phase. FIG. 8 is a diagram illustrating a conventional radial basis function network, and FIG. 9 is a diagram illustrating a polynomial radial basis function based neural network proposed in the present invention. As shown in FIG. 8, the conventional radial basis functional neural network is composed of an input layer, a hidden layer, and an output layer, and functions as a functional module separated into a conditional part, a conclusion part, and a reasoning part.

조건부는 일반적인 신경회로망의 은닉층을 의미하며 은닉층의 노드 수는 사용자에 의하여 결정되고 노드 수만큼 활성 함수가 존재한다. 일반적으로 조건부의 활성함수로는 가우시안 함수를 사용하고 결론부는 상수항을 사용한다. 모델의 최종 출력은 조건부와 결론부의 상수항으로 표현한다.
The conditional part means a hidden layer of a general neural network. The number of nodes in the hidden layer is determined by the user and there are as many active functions as the number of nodes. In general, the Gaussian function is used as the active function of the conditional part, and the constant part is used as the conclusion part. The final output of the model is expressed as a constant term of conditional and conclusion.

한편, 도 9에 도시된 바와 같이, 본 발명에서 제안하고 있는 pRBFNNs 패턴 분류기의 조건부는, 기존의 RBFNN에서 사용하던 가우시안 함수가 아닌 Fuzzy C-means 클러스터링 알고리즘을 사용하고, FCM 클러스터링은 각 클러스터에 포함되는 데이터의 소속 정도가 퍼지 집합으로 출력되어 방사형의 활성 함수 형태를 나타내기 때문에 가우시안 함수의 역할을 대신할 수 있다. 결론부에서는 하기 표 1과 같이 상수항을 제외한 일차식, 2차식, 변형된 2차식의 3가지 형태 중 하나의 형태를 갖는다.9, the condition part of the pRBFNNs pattern classifier proposed in the present invention uses a fuzzy C-means clustering algorithm instead of the Gaussian function used in the conventional RBFNN, and FCM clustering is included in each cluster The degree of membership of the data is output as a fuzzy set and represents a radial type of active function, so that the function of the Gaussian function can be substituted. In the conclusion part, it has one of the three forms of linear equation, quadratic equation and modified quadratic equation except for constant term as shown in Table 1 below.

TypeType Polynomial TypePolynomial Type LinearLinear

Figure 112014045901985-pat00025
Figure 112014045901985-pat00025
QuadraticQuadratic
Figure 112014045901985-pat00026
Figure 112014045901985-pat00026
Modified
Quadratic
Modified
Quadratic
Figure 112014045901985-pat00027
Figure 112014045901985-pat00027

클러스터링 알고리즘이란 데이터의 분류에서 사용되는 알고리즘으로 데이터 안의 유사한 패턴과 형태 등의 기준을 통하여 데이터를 분류하여 개체의 소속집단을 정의해주는 알고리즘이다. 본 발명에서는 클러스터링에 대한 각 데이터를 거리를 기준으로 하여 소속 정도를 측정하였고 데이터들의 특성을 분류하는 FCM클러스터링 알고리즘을 사용할 수 있다. FCM 클러스터링은, 하나의 클러스터에 속해져 있는 각각의 데이터 점을 소속 정도에 의해서 클러스터에 대한 데이터 소속 정도를 일일이 열거한 데이터 분류 알고리즘이다. FCM 클러스터링 알고리즘을 패턴분류기의 조건부에 가우시안 활성함수 대신 사용함으로써 입력데이터의 특성을 더욱 잘 반영할 수 있다. FCM 클러스터링 알고리즘의 클러스터 수는 은닉층 노드의 수와 같고 퍼지 집합으로 이루어진 소속행렬의 값은 가우시안 활성 함수에 의한 적합도 값과 같고 FCM 클러스터링의 퍼지화 계수는 가우시안 함수의 분포상수와 같은 역할을 한다. 과정은 다음과 같다. 우선, 클러스터의 개수와 퍼지화 계수를 선택하고, 소속행렬 U(r)를 초기화한다(수학식 8 참조).Clustering algorithms are algorithms used in the classification of data, which classify data by reference to similar patterns and forms in the data to define the belonging group of the object. In the present invention, the FCM clustering algorithm can be used to measure the degree of affiliation of each data for clustering on the basis of distance and to classify characteristics of data. FCM clustering is a data classification algorithm in which each data point belonging to one cluster is listed in order of the degree of belonging to the cluster. By using the FCM clustering algorithm instead of the Gaussian activation function in the conditional part of the pattern classifier, the characteristics of the input data can be better reflected. The number of clusters in the FCM clustering algorithm is equal to the number of hidden layer nodes, the value of the membership matrix composed of fuzzy sets is equal to the fitness value by the Gaussian activation function, and the fuzzification coefficient of FCM clustering is the same as the distribution constant of the Gaussian function. The process is as follows. First, the number of clusters and the fuzzification coefficient are selected, and the belonging matrix U (r) is initialized (see Equation (8)).

Figure 112014045901985-pat00028
Figure 112014045901985-pat00028

(U(r): 해당 소속행렬, c: 클러스터 수, n: 데이터 수)
(U (r) : corresponding member matrix, c: number of clusters, n: number of data)

두 번째로, 값을 기반으로 각각의 클러스터에 대한 중심 값을 구한다(하기 수학식 9, 수학식 10 참조).Secondly, the center value for each cluster is obtained based on the values (see Equation (9) and (10) below).

Figure 112014045901985-pat00029
Figure 112014045901985-pat00029

(i: 클러스터, n: 데이터 개수, j: 입력, v: 클러스터 중심)(i: cluster, n: number of data, j: input, v: cluster center)

Figure 112014045901985-pat00030
Figure 112014045901985-pat00030

(i: 클러스터, n: 데이터 개수, j: 입력, m: 퍼지화 계수, v: 클러스터 중심)
(i: cluster, n: number of data, j: input, m: fuzzy coefficient, v: cluster center)

세 번째로, 각각의 클러스터 중심과 데이터와의 거리를 계산하여 새로운 소속행렬을 생성한다(하기 수학식 11, 수학식 12 참조).Third, the distance between each cluster center and the data is calculated to generate a new member matrix (see Equation (11) and (12) below).

Figure 112014045901985-pat00031
Figure 112014045901985-pat00031

(i: 클러스터, k: 데이터, l: 입력 개수, u(r+1): 새로운 소속행렬)(i: cluster, k: data, l: number of inputs, u (r + 1 )

Figure 112014045901985-pat00032
Figure 112014045901985-pat00032

(i: 클러스터, k: 데이터, c: 클러스터 수, m: 퍼지화 계수, u(r+1): 새로운 소속행렬)
(i: cluster, k: data, c: number of clusters, m: fuzzification coefficient, u (r +

네 번째로, 오차가 허용범위 안에 도달하면 종료하고, 그렇지 않으면 두 번째 단계로 돌아간다(하기 수학식 13 참조).Fourth, if the error is within the allowable range, terminate; otherwise, go back to the second step (see Equation 13 below).

Figure 112014045901985-pat00033
Figure 112014045901985-pat00033

(U(r): 해당 소속행렬, U(r+1): 다음 소속행렬, : 오차율)
(U (r) : corresponding member matrix, U (r + 1) : next member matrix,: error rate)

다항식 방사형 기저함수 기반 신경회로망의 결론부는 조건부에서 분리한 각 로컬 영역을 다항식 함수의 로컬 회기모델로서 표현하며, 하기 수학식 14의 “then”이후의 규칙을 형성할 수 있다.The conclusion of the polynomial radial basis function neural network expresses each local region separated from the conditional part as a local regression model of the polynomial function and can form the rule after " then " in the following equation (14).

Figure 112014045901985-pat00034
Figure 112014045901985-pat00034

(A: 멤버십 함수, fij(x): 다항식, i: 규칙, j: 출력 뉴런)
(A: membership function, f ij (x): polynomial, i: rule, j: output neuron)

수학식 14의 fji(x)에서 출력 뉴런에 대한 첨자 j(=1,…,s)를 생략한 fi(x)는 수학식 15 내지 17의 형태를 갖는 세 가지 타입의 함수 중 하나의 형태를 갖는다. 즉, 로컬 회기 모델은 상수항, 일차식 또는 이차식으로 표현되어 진다.In f ji (x) of equation (14) the subscript for the output neuron j (= 1, ..., s ) f i (x) is omitted is of one of the functions of the three types in the form of Equation 15 to 17 . In other words, the local session model is expressed as a constant term, a linear or quadratic expression.

Figure 112014045901985-pat00035
Figure 112014045901985-pat00035

(i: 규칙)(i: rule)

Figure 112014045901985-pat00036
Figure 112014045901985-pat00036

(i: 규칙, n: 입력 수)(i: rule, n: number of inputs)

Figure 112014045901985-pat00037
Figure 112014045901985-pat00037

(i: 규칙, n: 입력 수)
(i: rule, n: number of inputs)

만약 입력 공간의 차원이 매우 클 경우 수학식 17의 2차 항에 대해 입력변수들의 조합 수가 증가하여 계산량이 많이 증가하기 때문에 수학식 18로 표현되는 감소된 2차 함수를 사용하여 계산량을 줄인다.If the dimension of the input space is very large, the number of combinations of input variables increases with respect to the second term of the equation (17), so that the amount of computation increases. Therefore, the reduced amount of the quadratic function expressed by equation (18) is used to reduce the amount of computation.

Figure 112014045901985-pat00038
Figure 112014045901985-pat00038

(i: 규칙, n: 입력 수)
(i: rule, n: number of inputs)

다항식 파라미터 계수를 추정하기 위해서 가중 최소자승법 (Weighted Least Square EstimatioN: WLSE)을 사용할 수 있다. WLSE는 회귀다항식의 계수를 추정하는 알고리즘이며 LSE와 유사하다. LSE는 오차제곱의 합이 최소가 되도록 계수를 추정하지만, WLSE는 오차제곱의 가중치가 곱해진다는 차이가 있다. LSE는 다항식의 계수를 한꺼번에 구하기 때문에 전역 모델의 학습을 수행하고, 입력변수와 멤버십 함수의 수가 많아지면 퍼지 규칙 수가 기하급수적으로 늘어나기 때문에 컴퓨터 연산을 수행하지 못하는 경우가 발생한다. 하지만 WLSE는 각 규칙의 독립적으로 구하며 로컬학습을 수행한다. 각 로컬영역에 대한 해석력을 향상시킬 수 있는 장점이 있어 컴퓨터의 계산 부하를 줄일 수 있고 서로 다른 형태의 다항식으로 표현될 수 있다. 본 발명에 제안하고 있는, 다항식 방사형 기저함수 기반의 신경회로망은 기존의 상수항의 연결가중치를 1차식과 2차식으로 확장함으로써, 은닉층 뉴런의 출력 간의 비선형 결합으로 인해 분류기로서의 성능을 향상시킬 수 있다.
Weighted Least Square Estimation N (WLSE) can be used to estimate the polynomial parameter coefficients. WLSE is an algorithm for estimating the coefficients of regression polynomials and is similar to LSE. The LSE estimates the coefficients so that the sum of the squared errors is minimized, but the WLSE differs in that the weights of the squared errors are multiplied. Since LSE collects polynomial coefficients all at once, it performs global model learning, and when the number of input variables and membership functions increases, the number of fuzzy rules increases exponentially. However, the WLSE is independent of each rule and performs local learning. It has the advantage of improving the interpreting power for each local area, which can reduce the computational load of the computer and can be represented by different types of polynomials. The polynomial radial basis function based neural network proposed in the present invention can improve the performance as a classifier due to the nonlinear coupling between the output of the hidden layer neuron by extending the connection weights of the existing constant term into the first order and the second order.

제안된 다항식 기반 RBFNNs의 구조는 위에서 언급한 바와 같이 조건부를 FCM 클러스터링을 통한 퍼지 공간 분할, 결론부를 다항식으로 로컬 영역을 표현하는 로컬 회기 모델로 이해할 수 있다. 추론부에서는 “If-then” 퍼지 규칙 기반의 퍼지 추론에 의해 네트워크의 최종출력을 구하게 된다. 추론부의 뉴런에 의해 입력신호들은 합하여져 그 결과를 출력층 뉴런의 최종 출력으로 내보내진다(수학식 19 참조).The proposed polynomial-based RBFNNs structure can be understood as a local session model that expresses the local region as a polynomial and concludes the fuzzy space division through conditional FCM clustering as mentioned above. Inference section obtains final output of network by fuzzy reasoning based on "If-then" fuzzy rule. The input signals are summed by the inference neuron and the result is output to the final output of the output layer neuron (see equation (19)).

Figure 112014045901985-pat00039
Figure 112014045901985-pat00039

(j: 데이터, c: 규칙 수)
(j: data, c: number of rules)

한편, 단계 S400은, 차분 진화(Differential Evolution, DE) 알고리즘을 이용하여 상기 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화하는 단계를 더 포함할 수 있다. 차분 진화 알고리즘은 Price와 Storn에 의해 벡터 차분을 사용하여 Chebychev 다항 곡선의 내삽 문제를 해결하는 과정에서 개발되었다. 차분 진화 알고리즘은 전역 최적해에 대한 수렴성이 우수하고 구조가 간단하여 다른 진화 알고리즘들에 비해 컴퓨팅 시간이 짧다는 장점을 갖는다. 차분 진화 알고리즘에서 사용되는 연산자는 주로 임의로 선택된 개체들 사이의 차이를 사용한다. 차분 진화 알고리즘을 이용하여 제안된 모델의 다항식의 차수와 클러스터의 수 그리고 퍼지화 계수를 최적화하였다. 차분 진화 알고리즘의 수행 과정은 다음과 같다.
Meanwhile, the step S400 may further include optimizing the degree of the polynomial, the number of clusters and the fuzzification coefficient using a differential evolution (DE) algorithm. The differential evolution algorithm was developed in the course of solving the interpolation problem of Chebychev polynomial curves using vector differences by Price and Storn. Differential evolution algorithms have the advantage that they have excellent convergence to the global optimization and are simple in structure, resulting in shorter computing time than other evolutionary algorithms. The operators used in the differential evolution algorithm mainly use the differences between randomly selected entities. We have optimized the degree of polynomials, the number of clusters and the fuzzy coefficients of the proposed model using a differential evolution algorithm. The procedure of the differential evolution algorithm is as follows.

첫 번째로, 초기 집단 생성할 수 있다. 랜덤 값으로 μ개의 개체를 초기화, 각 개체는 n개의 목적 변수로 구성할 수 있다(하기 수학식 20 참조).First, the initial population can be created. Initialize μ objects with random values, and each entity can be composed of n objective variables (see Equation 20 below).

Figure 112014045901985-pat00040
Figure 112014045901985-pat00040

(u: 개채, n: 개체의 목적 변수, t: 세대)
(u: denominator, n: objective variable of the object, t: household)

두 번째로, 집단 내의 모든 개체의 목적 함수를 평가할 수 있다(하기 수학식 21 참조).Second, the objective function of all entities in the group can be evaluated (see Equation 21 below).

Figure 112014045901985-pat00041
Figure 112014045901985-pat00041

(Φ: 최소화되어야 하는 목적 함수, u: 총 목적 변수의 한 개체)
(Φ: objective function to be minimized, u: one object of total objective variable)

세 번째로, 모든 개체(i=1, …, μ)에 대하여 차분 변화를 위한 개체를 선택하여 교배용 벡터를 만들고 이를 교배 대상 벡터와 교배할 수 있다(하기 수학식 22 및 23 참조).Thirdly, a mating vector can be created by selecting an object for differential change with respect to all the objects (i = 1, ..., μ), and mated with the mating vector (see Equations 22 and 23 below).

Figure 112014045901985-pat00042
Figure 112014045901985-pat00042

(v: 교배용 벡터, i: 교배용 벡터의 순번, ar1, ar2, ar3: 교배용 벡터를 만들기 위한 선택된 개체의 목적변수)(v: mating vector, i: order of vector for mating, a r1 , a r2 , a r3 : target variable of selected entity for making mating vector)

Figure 112014045901985-pat00043
Figure 112014045901985-pat00043

(x'i: 교배된 i번째 개체, vi: i번째 교배용 벡터, ai: i번째 개체)
(x ' i : mated i-th object, v i : i-th mating vector, a i : i-th object)

네 번째로, 모든 개체의 목적 함수를 평가할 수 있으며, 다섯 번째로, 종료조건을 확인하고 만족하지 않으면 t=t+1로 하고 세 번째 단계로 복귀할 수 있다.
Fourth, the objective function of all objects can be evaluated. Fifthly, the end condition is checked. If not satisfied, t = t + 1, and the process returns to the third step.

본 발명은 이하의 실험예에 의하여 더욱 상세히 설명되나, 본 발명이 이하의 실험예에 의해 어떤 식으로든 제한되는 것은 아니다.
The present invention will be described in more detail with reference to the following experimental examples, but the present invention is not limited in any way by the following experimental examples.

실험예Experimental Example 1. 얼굴 인식률 비교 실험 1. Face recognition rate comparison experiment

본 실험의 데이터 구성은 수원대학교 지능 제어 및 컴퓨터 지능 연구실(IC&CI Lab)의 인원 12명으로 구성하였고 연구실 인원의 얼굴 데이터는 3가지 조건으로 구성하였다. 첫 번째 조건으로 빛이 존재하지 않는 암전 상태의 상황으로 조도 값은 0~5 Lux 값을 가지는 상황에서 나이트 비전을 사용하여 12명의 얼굴 데이터를 취득하였다. 그리고 두 번째로는 희미한 빛이 존재하는 경우의 상황이며 조도 값은 5~20 Lux 값의 상황을 만들어 데이터를 취득하였고, 마지막으로 상황으로는 우리가 일반적으로 취득하는 방법과 동일한 방법으로 주간에 취득을 하였다. 각 상황별에서 인식후보 12명의 데이터는 10장씩 총 360장으로 구성하였다(표 2 참조).The data structure of this experiment consisted of 12 members of IC & CI Lab (Intelligent Control and Computer Intelligence Laboratory) of Suwon University and facial data of lab personnel consisted of 3 conditions. As a first condition, 12 face data were acquired using Nightvision in the situation where the light intensity was 0 ~ 5 Lux in the dark state without light. The second is the situation when there is a dim light. The illumination value is 5 ~ 20 Lux and the data is acquired. Finally, the situation is acquired during the day in the same way as we usually acquire. Respectively. In each situation, the data of 12 candidates were composed of a total of 360 sheets of 10 sheets (see Table 2).

Figure 112014045901985-pat00044
Figure 112014045901985-pat00044

이렇게 취득한 데이터는 광원이 포함되어 있을 수 있어 영상의 식별에 어려움을 주는 경우가 발생할 수 있기 때문에 히스토그램 평활화를 사용하여 광원으로 인한 외란을 최소화하였고. Harr-like feature와 Ada-boost 알고리즘을 통하여 얼굴과 배경을 분리하는 전처리 과정을 수행하였다. 그리고 이렇게 취득된 얼굴 이미지는 고차원의 데이터로 구성이 되어있기 때문에 연산의 시간이 오래 걸리는 단점이 발생할 수 있기 때문에 (2D)2 PCA 알고리즘을 이용하여 고차원 데이터를 축소하는 과정을 거침으로 연산의 시간을 단축하였다. 또한 인식 성능을 향상시키기 위하여 최적화 알고리즘으로 차분 진화 알고리즘을 사용하여 파라미터를 최적화하였다. 실험에 적용한 파라미터 값은 하기 표 3과 같다.Since the acquired data may contain a light source, it may be difficult to identify the image. Therefore, disturbance due to the light source is minimized by using histogram smoothing. We performed a preprocessing process to separate face and background through Harr-like feature and Ada-boost algorithm. And thus the face image obtained is an operation time of the step of reducing the high-dimensional data using a (2D) 2 PCA algorithm to Rough because because this consists of high-dimensional data may cause a disadvantage that the time of the operation takes a long Respectively. In order to improve the recognition performance, the parameters are optimized by using the difference evolution algorithm as the optimization algorithm. The parameter values applied to the experiment are shown in Table 3 below.

ParameterParameter ValueValue No. of generationsNo. of generations 6060 No. of populationsNo. of populations 4040 Search rangeSearch range Polynomial typePolynomial type 2~42 to 4 No. of clustersNo. of clusters 2~52 to 5 Fuzzification CoefficientFuzzification Coefficient 1.1~3.01.1 to 3.0

이렇게 축소된 데이터를 이용하여 주간과 야간 그리고 PCA와 (2D)2 PCA를 사용하였을 때의 인식률을 pRBFNNs 패턴분류기를 통하여 산출하였다. 하기 표 4는 인식률 산출결과를 나타낸 표이다.Using the reduced data, the recognition rate for daytime and nighttime, PCA and (2D) 2 PCA was calculated through the pRBFNNs pattern classifier. Table 4 below shows the results of the recognition rate calculation.

Figure 112014045901985-pat00045
Figure 112014045901985-pat00045

표 4에 나타난 바와 같이, PCA 방법에 비하여 (2D)2PCA에 의한 경우에 일괄적으로 인식률의 향상을 나타내었으며, 암전 상태에서도 인식이 가능함을 확인할 수 있었다. 본 발명에서는, 나이트 비전 카메라를 이용하여 야간에서도 이미지 취득이 가능하게 하였고, Ada-Boost 알고리즘을 사용하여 얼굴 이미지를 검출하였으며, 히스토그램 평활화를 이용하여 이미지의 왜곡 현상을 최소화할 수 있다. 이렇게 얻어진 고차원 이미지는 (2D)2PCA 알고리즘을 이용하여 저차원으로 축소하였고, pRBFNNs을 이용한 지능형 패턴 분류 모델을 통하여 얼굴 인식을 수행하였으며, 마지막으로 차분 진화 알고리즘을 사용하여 파라미터를 최적화하였다. 또한, 본 발명에서 제안하고 있는 얼굴 인식 방법의 성능을 평가하기 위하여 IC&CI Lab data를 사용하고 실제 얼굴 인식 시스템을 설계한 결과, 야간에서도 얼굴 인식률이 유의하게 향상함을 확인할 수 있었다.
As shown in Table 4, when the (2D) 2 PCA method was used, the recognition rate was improved at a time as compared with the PCA method. According to the present invention, it is possible to acquire an image even at night using a night vision camera, a face image is detected using Ada-Boost algorithm, and image distortion can be minimized by using histogram smoothing. The high dimensional images were reduced to low dimensions using the (2D) 2 PCA algorithm, face recognition was performed using the intelligent pattern classification model using pRBFNNs, and finally the parameters were optimized using a differential evolution algorithm. In addition, in order to evaluate the performance of the face recognition method proposed by the present invention, the actual face recognition system using IC & CI Lab data was designed, and it was confirmed that the face recognition rate significantly improved at night.

이상 설명한 본 발명은 본 발명이 속한 기술분야에서 통상의 지식을 가진 자에 의하여 다양한 변형이나 응용이 가능하며, 본 발명에 따른 기술적 사상의 범위는 아래의 특허청구범위에 의하여 정해져야 할 것이다.The present invention may be embodied in many other specific forms without departing from the spirit or essential characteristics of the invention.

S100: 나이트 비전(Night Vision) 카메라를 이용하여 이미지를 획득하는 단계
S200: 단계 S100에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고, 외란 값을 제거하는 과정을 수행하는 데이터 전처리 단계
S210: 할-라이크 특징(Haar-like feauture) 및 아다부스트(Ada-boost) 알고리즘을 이용하여 얼굴 영역을 검출하는 단계
S220: 히스토그램 평활화(Histogram Equalization) 기법을 사용하여 외란 값을 제거하는 단계
S221: 단계 S210에서 검출된 얼굴 영역 이미지의 히스토그램을 생성하는 단계
S222: 단계 S221에서 생성된 히스토그램을 정규화하고 정규화 누적값을 계산하며 보정값을 도출하는 단계
S223: 단계 S210에서 검출된 얼굴 영역 이미지의 화소 위치에 단계 S222에서 보정한 보정값을 적용한 새로운 출력을 매핑하는 단계
S300: 단계 S200에서 전처리된 데이터를, 2방향 2차원 주성분분석 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소하는 단계
S310: 행렬로 표현되는 학습 이미지의 샘플들의 평균 이미지값을 도출하는 단계;
S320: 단계 S310에서 도출한 평균 이미지값을 이용하여 학습 이미지 샘플들의 이미지 열의 공분산 행렬을 도출하는 단계;
S330: 고유치 분석을 통하여 단계 S320에서 도출한 이미지 열의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;
S340: 단계 S330에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 열의 벡터를 도출하는 단계;
S350: 단계 S310에서 도출한 평균 이미지값을 이용하여 학습 이미지 샘플들의 이미지 행의 공분산 행렬을 도출하는 단계;
S360: 고유치 분석을 통하여 단계 S350에서 도출한 이미지 행의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;
S370: 단계 S360에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 행의 벡터를 도출하는 단계; 및
S380: 단계 S340 및 단계 S370에서 생성된 이미지 열 및 이미지 행의 벡터를 이용하여 얼굴 인식을 위한 전체 이미지를 도출하는 단계
S400: 다항식 방사형 기저함수 기반 신경회로망을 이용하여, 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식하는 단계
S100: Step of acquiring an image using a night vision camera
S200: a data preprocessing step of detecting a face area in the image data acquired in step S100 and performing a process of removing a disturbance value
S210: Detecting the face region using Haar-like feaure and Ada-boost algorithm
S220: removing the disturbance value using a histogram equalization technique
S221: a step of generating a histogram of the face area image detected in step S210
S222: normalizing the histogram generated in step S221, calculating a normalized cumulative value, and deriving a correction value
S223: mapping a new output to which the correction value corrected in step S222 is applied to the pixel position of the face region image detected in step S210
S300: The step of reducing the data dimension while using the two directions of the two-dimensional image intact using the bi-directional two-dimensional principal component analysis algorithm at step S200
S310: deriving an average image value of samples of the training image represented by a matrix;
S320: deriving a covariance matrix of the image sequence of the learning image samples using the average image value derived in step S310;
S330: deriving an eigenvalue of the covariance matrix of the image sequence derived in step S320 and an eigenvector corresponding thereto from the eigenvalue analysis;
Step S340: d eigenvalues are selected in descending order of the eigenvalues for the eigenvalues derived in step S330, a transformation matrix having an eigenvector corresponding to the selected eigenvalues is generated, and a vector of the image sequence in which the data dimension is reduced by d is derived ;
S350: deriving a covariance matrix of image rows of the learning image samples using the average image value derived in step S310;
S360: deriving an eigenvalue of the covariance matrix of the image row derived in step S350 and an eigenvector corresponding thereto from the eigenvalue analysis;
In step S370, d eigenvalues are selected in descending order of the eigenvalues for the eigenvalues derived in step S360, a transformation matrix having the eigenvectors corresponding to the selected eigenvalues is generated, and a vector of the image row in which the data dimension is reduced by d ; And
S380: deriving the entire image for face recognition using the image column and the image row vector generated in steps S340 and S370
S400: Step of recognizing a face from image data whose data dimension is reduced by using a polynomial radial basis function-based neural network

Claims (7)

조명이 없는 환경에서 얼굴을 인식하는 방법으로서,
(1) 나이트 비전(Night Vision) 카메라를 이용하여 이미지를 획득하는 단계;
(2) 상기 단계 (1)에서 획득된 이미지 데이터에서 얼굴 영역을 검출하고, 외란 값을 제거하는 과정을 수행하는 데이터 전처리 단계;
(3) 상기 단계 (2)에서 전처리된 데이터를, 2방향 2차원 주성분분석(2-Directional 2-Dimensional Principal Component Analysis, 이하, ‘(2D)²PCA’라함) 알고리즘을 이용하여 2차원 이미지의 두 방향을 그대로 이용하면서 데이터 차원을 축소하는 단계; 및
(4) 다항식 방사형 기저함수 기반 신경회로망(Polynomial-based Radial Basis Function Neural Networks, 이하 ‘pRBFNNs’이라 함)을 이용하여, 상기 데이터 차원이 축소된 이미지 데이터에서 얼굴을 인식하는 단계를 포함하되,
상기 단계 (3)은,
(3-1) 행렬로 표현되는 학습 이미지의 샘플들의 평균 이미지값을 도출하는 단계;
(3-2) 상기 단계 (3-1)에서 도출한 평균 이미지값을 이용하여 상기 학습 이미지 샘플들의 이미지 열의 공분산 행렬을 도출하는 단계;
(3-3) 고유치 분석을 통하여 상기 단계 (3-2)에서 도출한 이미지 열의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;
(3-4) 상기 단계 (3-3)에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 열의 벡터를 도출하는 단계;
(3-5) 상기 단계 (3-1)에서 도출한 평균 이미지값을 이용하여 상기 학습 이미지 샘플들의 이미지 행의 공분산 행렬을 도출하는 단계;
(3-6) 고유치 분석을 통하여 상기 단계 (3-5)에서 도출한 이미지 행의 공분산 행렬의 고유값과 이에 대응하는 고유벡터를 도출하는 단계;
(3-7) 상기 단계 (3-6)에서 도출한 고유값에 대하여 고유값이 큰 순서대로 d개의 고유치를 선택하고, 선택한 고유값에 대응되는 고유벡터를 가지는 변환 행렬을 생성하여 d만큼 데이터 차원을 줄인 이미지 행의 벡터를 도출하는 단계; 및
(3-8) 상기 단계 (3-4) 및 단계 (3-7)에서 생성된 이미지 열 및 이미지 행의 벡터를 이용하여 상기 얼굴 인식을 위한 전체 이미지를 도출하는 단계를 포함하고,
상기 단계 (4)에서 상기 pRBFNNs는,
조건부, 결론부, 추론부로 분리되어 기능적 모듈로 동작하되, 상기 조건부의 활성함수로는 FCM(Fuzzy C-means) 클러스터링 알고리즘을 사용하고, 상기 결론부의 연결 가중치는 다항식으로 확장하여 사용하며,
상기 단계 (4)는,
차분 진화(Differential Evolution, DE) 알고리즘을 이용하여 상기 다항식의 차수와 클러스터의 수 및 퍼지화 계수를 최적화하는 단계를 더 포함하고,
상기 차분 진화 알고리즘의 수행 단계는,
(a) 각 개체가 n개의 목적 변수로 구성되며, 랜덤 값으로 u개의 개체를 초기화한 초기 집단을 생성하는 단계;
(b) 상기 단계 (a)에서 생성된 집단 내의 모든 개체의 목적 함수를 하기 수학식을 이용하여 평가하는 단계;
Figure 112016048674707-pat00056

(Φ: 최소화되어야 하는 목적 함수, u: 총 목적 변수의 한 개체, t: 세대)
(c) 상기 모든 개체(i=1, …, μ)에 대하여 차분 변화를 위한 개체를 선택하고, 하기 수학식을 이용하여 교배용 벡터를 만들고, 이를 교배 대상과 교배하는 단계;
Figure 112016048674707-pat00057

(v: 교배용 벡터, i: 교배용 벡터의 순번, ar1, ar2, ar3: 교배용 벡터를 만들기 위한 선택된 개체의 목적변수)
Figure 112016048674707-pat00058

(x'i: 교배된 i번째 개체, vi: i번째 교배용 벡터, ai: i번째 개체)
(d) 상기 모든 개체의 목적 함수를 평가하는 단계: 및
(e) 종료조건을 확인하고 만족하지 않으면, t=t+1로 하고 상기 단계 (c)로 복귀하는 단계를 포함하는 것을 특징으로 하는, 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법.
A method of recognizing a face in an environment without illumination,
(1) acquiring an image using a night vision camera;
(2) a data preprocessing step of detecting a face region in the image data obtained in the step (1) and removing a disturbance value;
(3) The data preprocessed in the above step (2) is subjected to two-dimensional two-dimensional principal component analysis (hereinafter referred to as '2D (2D) PCA' Reducing the data dimension while using the direction as it is; And
(4) recognizing a face from the reduced image data by using a polynomial-based radial basis functional neural network (hereinafter, referred to as 'pRBFNNs'),
The step (3)
(3-1) deriving an average image value of samples of a learning image represented by a matrix;
(3-2) deriving a covariance matrix of the image sequence of the learning image samples using the average image value derived in the step (3-1);
(3-3) deriving an eigenvalue of the covariance matrix of the image sequence derived in the step (3-2) and an eigenvector corresponding to the eigenvalue by analyzing the eigenvalue;
(3-4) For each eigenvalue derived in step (3-3), d eigenvalues are selected in descending order of eigenvalues, a transformation matrix having an eigenvector corresponding to the selected eigenvalue is generated, and data d Deriving a vector of image columns with reduced dimensions;
(3-5) deriving a covariance matrix of the image row of the learning image samples using the average image value derived in the step (3-1);
(3-6) deriving an eigenvalue of the covariance matrix of the image row derived in the step (3-5) and an eigenvector corresponding thereto, through eigenvalue analysis;
(3-7) For each eigenvalue derived in step (3-6), d eigenvalues are selected in descending order of eigenvalues, a transformation matrix having an eigenvector corresponding to the selected eigenvalue is generated, and data d Deriving a vector of image rows with reduced dimensions; And
(3-8) deriving an entire image for the face recognition using the image column and the vector of the image row generated in the step (3-4) and the step (3-7)
Wherein the pRBFNNs in step (4)
(Fuzzy C-means) clustering algorithm is used as an active function of the conditional part, and the connection weights of the conclusion part are extended to a polynomial,
The step (4)
Further comprising optimizing the order of the polynomial, the number of clusters, and the fuzzy coefficient using a Differential Evolution (DE) algorithm,
Wherein the step of performing the differential evolution algorithm comprises:
(a) generating an initial group in which each entity consists of n objective variables and initializes u entities with random values;
(b) evaluating an objective function of all entities in the population generated in the step (a) using the following equation;
Figure 112016048674707-pat00056

(Φ: objective function to be minimized, u: one object of total objective variable, t: household)
(c) selecting an entity for a difference change for all the entities (i = 1, ..., μ), creating a mating vector using the following mathematical expression and crossing the mating vector with the mating object;
Figure 112016048674707-pat00057

(v: mating vector, i: order of vector for mating, ar1, ar2, ar3: objective variable of selected object to make mating vector)
Figure 112016048674707-pat00058

(x ' i : crossed i-th object, vi: i-th crossing vector, ai: i-th object)
(d) evaluating an objective function of all of the entities; and
(e) confirming the termination condition and if not satisfied, returning to step (c) with t = t + 1, characterized in that the two-way two-dimensional principal component analysis algorithm and the polynomial radial basis function based nerve Night Face Recognition Method Using Network.
제1항에 있어서, 상기 단계 (2)는,
(2-1) 할-라이크 특징(Haar-like feauture) 및 아다부스트(Ada-boost) 알고리즘을 이용하여 얼굴 영역을 검출하는 단계; 및
(2-2) 히스토그램 평활화(Histogram Equalization) 기법을 사용하여 외란 값을 제거하는 단계를 포함하는 것을 특징으로 하는, 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법.
2. The method of claim 1, wherein step (2)
(2-1) detecting a face region using a Haar-like feauture and an Ada-boost algorithm; And
(2-2) a two-way two-dimensional principal component analysis algorithm and a polynomial radial basis function-based neural network using a histogram equalization technique to remove a disturbance value .
제2항에 있어서, 상기 단계 (2-2)는,
(2-2-1) 상기 단계 (2-1)에서 검출된 얼굴 영역 이미지의 히스토그램을 생성하는 단계;
(2-2-2) 하기 수학식을 이용하여 상기 단계 (2-2-1)에서 생성된 히스토그램을 정규화하고 정규화 누적값을 계산하며 보정값을 도출하는 단계; 및
Figure 112014045901985-pat00046

(G: 영상의 밝기, N: 영상의 크기, H(i): 정규화 누적값, h(i): 보정 값)
(2-2-3) 상기 단계 (2-1)에서 검출된 얼굴 영역 이미지의 화소 위치에 상기 단계 (2-2-2)에서 보정한 보정값을 적용한 새로운 출력을 매핑하는 단계를 포함하는 것을 특징으로 하는, 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법.
3. The method according to claim 2, wherein the step (2-2)
(2-2-1) generating a histogram of the face region image detected in the step (2-1);
(2-2-2) normalizing the histogram generated in the step (2-2-1) using the following equation, calculating a normalized cumulative value, and deriving a correction value; And
Figure 112014045901985-pat00046

(G: image brightness, N: image size, H (i): cumulative normalization value, h (i): correction value)
(2-2-3) mapping a new output applying the correction value corrected in the step (2-2-2) to the pixel position of the face region image detected in the step (2-1) A two - way two - dimensional principal component analysis algorithm and a nighttime face recognition method using a polynomial radial basis function neural network.
제1항에 있어서, 상기 단계 (2)는,
ASM(Active shape Model)을 이용하여 얼굴 영역을 검출하는 것을 특징으로 하는, 2방향 2차원 주성분분석 알고리즘 및 다항식 방사형 기저함수 기반 신경회로망을 이용한 야간 얼굴 인식 방법.
2. The method of claim 1, wherein step (2)
A two-way two-dimensional principal component analysis algorithm and a nighttime facial recognition method using a polynomial radial basis function-based neural network, characterized in that a face region is detected using an ASM (Active Shape Model).
삭제delete 삭제delete 삭제delete
KR1020140058643A 2014-05-15 2014-05-15 NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks KR101658528B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140058643A KR101658528B1 (en) 2014-05-15 2014-05-15 NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140058643A KR101658528B1 (en) 2014-05-15 2014-05-15 NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks

Publications (2)

Publication Number Publication Date
KR20150131658A KR20150131658A (en) 2015-11-25
KR101658528B1 true KR101658528B1 (en) 2016-09-23

Family

ID=54845450

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140058643A KR101658528B1 (en) 2014-05-15 2014-05-15 NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks

Country Status (1)

Country Link
KR (1) KR101658528B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180073164A (en) 2016-12-22 2018-07-02 세종대학교산학협력단 Method and appartus for adaptive driver facial imaging environment control

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180130778A (en) * 2017-05-30 2018-12-10 주식회사 트위니 Cosmetic recommendation method, and recording medium storing program for executing the same, and recording medium storing program for executing the same, and cosmetic recommendation system
CN113673143B (en) * 2020-05-15 2024-09-13 中国石油化工股份有限公司 Storage, biochemical oxygen demand soft measurement method, system and device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
2D PCA 알고리즘을 이용한 최적 RBFNNs 기반 나이트비전 얼굴인식 시뮬레이터 설계, Proceedings of KIIS Fall Conference 2013 Vol 23 No 2*
ASM알고리즘과 하이브리드 전처리 기법을 이용한 최적화된 RBFNNs 패턴분류기 기반 나이트비전 얼굴인식 시뮬레이터 구현, 2013년 정보 및 제어 학술대회(CICS ‘13) 논문집*

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180073164A (en) 2016-12-22 2018-07-02 세종대학교산학협력단 Method and appartus for adaptive driver facial imaging environment control

Also Published As

Publication number Publication date
KR20150131658A (en) 2015-11-25

Similar Documents

Publication Publication Date Title
Liew et al. Gender classification: a convolutional neural network approach
KR101254177B1 (en) A system for real-time recognizing a face using radial basis function neural network algorithms
US7587064B2 (en) Active learning system for object fingerprinting
KR101254181B1 (en) Face recognition method using data processing technologies based on hybrid approach and radial basis function neural networks
KR101433472B1 (en) Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition
KR101749268B1 (en) A robust face recognition method for pose variations based on pose estimation
KR101589149B1 (en) Face recognition and face tracking method using radial basis function neural networks pattern classifier and object tracking algorithm and system for executing the same
JP2004078959A (en) Face recognition method utilizing artificial neural network and its device
KR101687217B1 (en) Robust face recognition pattern classifying method using interval type-2 rbf neural networks based on cencus transform method and system for executing the same
Doukim et al. Combining neural networks for skin detection
Chen et al. High performance iris recognition based on 1-D circular feature extraction and PSO–PNN classifier
Deshpande et al. Super resolution and recognition of long range captured multi‐frame iris images
KR101658528B1 (en) NIGHT VISION FACE RECOGNITION METHOD USING 2-Directional 2-Dimensional Principal Component Analysis ALGORITHM AND Polynomial-based Radial Basis Function Neural Networks
Bailly et al. Boosting feature selection for neural network based regression
CN113435315A (en) Expression recognition method based on double-path neural network feature aggregation
Aria et al. Generalized cooccurrence matrix to classify IRS-1D images using neural network
Pathak et al. Entropy based CNN for segmentation of noisy color eye images using color, texture and brightness contour features
Al-Dabbas et al. Two Proposed Models for Face Recognition: Achieving High Accuracy and Speed with Artificial Intelligence
Yu et al. Research on face recognition method based on deep learning
Deng et al. View-invariant gait recognition based on deterministic learning and knowledge fusion
eddine Agab et al. Dynamic hand gesture recognition based on textural features
CN114743278A (en) Finger vein identification method based on generation of confrontation network and convolutional neural network
Kumar et al. Pixel-based skin color classifier: A review
Sasikala et al. A comparative study on the swarm intelligence based feature selection approaches for fake and real fingerprint classification
Borgi et al. Face, gender and race classification using multi-regularized features learning

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right