KR20080104565A - Method and system for recognizing a face by means of an image variation sensing - Google Patents

Method and system for recognizing a face by means of an image variation sensing Download PDF

Info

Publication number
KR20080104565A
KR20080104565A KR1020070051501A KR20070051501A KR20080104565A KR 20080104565 A KR20080104565 A KR 20080104565A KR 1020070051501 A KR1020070051501 A KR 1020070051501A KR 20070051501 A KR20070051501 A KR 20070051501A KR 20080104565 A KR20080104565 A KR 20080104565A
Authority
KR
South Korea
Prior art keywords
image
face
variation
face recognition
facial
Prior art date
Application number
KR1020070051501A
Other languages
Korean (ko)
Other versions
KR100874088B1 (en
Inventor
오현준
오석표
이준우
정원석
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020070051501A priority Critical patent/KR100874088B1/en
Publication of KR20080104565A publication Critical patent/KR20080104565A/en
Application granted granted Critical
Publication of KR100874088B1 publication Critical patent/KR100874088B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

A face recognition method using an image variation sensing function and a system thereof are provided to discriminate the image variation of a photographed picture, thereby increasing the efficiency in the face recognition. A face recognition method using image variation sensing comprises the following steps. A client transmits a photographed picture to a service managing server(S100). The service managing server pre-processes the picture for face recognition(S102), and then extracts a face image based on the photographed picture in order to discriminate face components forming the face image(S104). And then, the service managing server extracts face feature points formed with the face components in order to sense the image variation through the pattern change based on the extracted face feature points(S108), and executes at least one of a face recognition application which uses the face feature points based on the sensed result and a face recognition application which uses the pre-processed image(S110).

Description

영상변이 센싱을 활용한 얼굴인식 방법 및 시스템{METHOD AND SYSTEM FOR RECOGNIZING A FACE BY MEANS OF AN IMAGE VARIATION SENSING}METHOD AND SYSTEM FOR RECOGNIZING A FACE BY MEANS OF AN IMAGE VARIATION SENSING}

도 1은 본 발명의 일실시 예에 따른 영상변이 센싱을 활용한 얼굴인식 시스템을 도시한 구성도, 1 is a block diagram showing a face recognition system using image shift sensing according to an embodiment of the present invention,

도 2는 도 1에 도시된 서비스 관리서버의 내부 구성을 도시한 구성도, 및2 is a block diagram showing the internal configuration of the service management server shown in Figure 1, and

도 3는 도 1에 도시된 영상변이 센싱을 활용한 얼굴인식 시스템의 동작과정을 도시한 순서도이다.FIG. 3 is a flowchart illustrating an operation of a face recognition system using image shift sensing shown in FIG. 1.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100 : 클라이언트 200 : 통신망100: client 200: communication network

300 : 서비스 관리서버 310 : 인터페이스부300: service management server 310: interface unit

320 : 영상전처리부 330 : 얼굴영역 추출부320: image preprocessing unit 330: face region extraction unit

340 : 얼굴 구성요소 판별부 350 : 영상변이 센싱부340: Face component discriminator 350: Image shift sensing unit

360 : 제어부360 control

본 발명은 얼굴인식 기술에 관한 것으로, 더욱 상세하게는 촬영된 영상으로부터의 얼굴 인식을 방해하는 얼굴포즈, 조명, 얼굴표정 또는 오클루전 등과 같은 다양한 영상변이와 대응하여 적용되기 위한 각각의 얼굴인식 애플리케이션을 구비하고, 해당 촬영영상에 대한 영상변이를 판별하여 최적의 얼굴인식 애플리케이션을 실행하기 위한 영상변이 센싱을 활용한 얼굴인식 방법에 관한 것이다.The present invention relates to face recognition technology, and more particularly, each face recognition to be applied in response to various image variations such as face pose, lighting, facial expression or occlusion that interfere with face recognition from the captured image. The present invention relates to a face recognition method using an image variation sensing for executing an optimal face recognition application by determining an image variation of a corresponding captured image.

통상적으로, 사람의 얼굴은 조명, 표정, 연령, 영상이 획득된 시기, 잡음 등의 변화에 따라 매우 다른 얼굴 영상으로 나타나기 때문에 이를 정확히 인식한다는 것은 매우 어려운 문제이다. 얼굴인식 시스템의 핵심은 이러한 얼굴에 대한 영상변이에 영향받지 않고 안정적인 얼굴인식 성능을 구현하는 것이다.안정된 성능을 갖는 얼굴인식 시스템의 개발은 회사, 연구소, 은행 등에서의 보안 시스템이나 휴먼 컴퓨터 인터페이스 등의 분야에 상당히 중요하게 적용될 수 있다.In general, it is very difficult to accurately recognize a face because a human face appears as a very different face image according to a change in lighting, facial expression, age, when the image was acquired, noise, and the like. The core of the face recognition system is to realize stable face recognition performance without being affected by the image variation of the face. The development of a face recognition system with stable performance is a security system or a human computer interface in a company, a laboratory, a bank, etc. It can be very important in the field.

얼굴을 인식하기 위하여 얼굴의 국부적인 기하학적 특징을 이용하거나 탬플릿 매칭을 적용하는 방법이 있었으나, 이 방법은 조명 변화나 표정 변화를 갖는 얼굴 형상을 인식하기 위해서 많은 중간처리 영상의 형성으로 인해 메모리 양이 증대하고 계산에 많은 시간이 소요되는 문제를 가지고 있다. 따라서 메모리 양과 인식 시간을 줄이기 위하여 하나의 얼굴 영상을 벡터 공간상의 하나의 특징 벡터들로 변환하여 촬영된 영상의 얼굴영역에 대한 특징 벡터와 인식 대상의 얼굴(또는, 표준 탬플릿으로 구현된 얼굴)에 대한 특징 벡터들을 비교함으로써, 얼굴을 인식하는 방법이 연구되어 왔으며 대표적으로 소정의 촬영영상에 포함된 얼굴의 특징점을 이용하는 얼굴인식 애플리케이션(FBA; Feature Based Approach)과 상기 촬영영상으로부 터 얼굴영역을 추출하기 위해 변환하는 전처리 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션(ABA; Appearance Based Approach)이 있다. 이러한 각 얼굴인식 애플리케이션의 일례로 아이겐훼이스(Eigenface) 방법과 피셔훼이스(Fisherface) 방법이 있다.In order to recognize a face, there was a method of using a local geometric feature of a face or applying a template matching, but this method uses a large amount of memory due to the formation of a large number of intermediate images in order to recognize a face shape having a lighting change or a facial expression change. There is a problem that increases and takes a lot of time to calculate. Therefore, in order to reduce the amount of memory and the recognition time, a face image is converted into one feature vector in a vector space, and the feature vector of the face region of the captured image and the face of the recognition target (or a face implemented by a standard template) are used. By comparing feature vectors, a method of recognizing a face has been studied and typically, a facial recognition application (FBA) using a feature point of a face included in a predetermined image and a face region from the captured image There is an Appearance Based Approach (ABA) that uses image data forming a preprocessed image to be converted for extraction. Examples of each of these face recognition applications are the Eigenface method and the Fisherface method.

아이겐훼이스 방법은 중간처리 영상에 대한 데이터의 분산을 나타내는 분산 행렬로부터 고유치와 고유벡터를 구하고 얼굴 영상을 큰 값의 고유치들에 대응하는 고유벡터들의 좌표로 표현한다. 이렇게 구한 좌표가 하나의 얼굴 영상을 나타내는 특정 벡터이다. 실제 인식 단계에서는, 입력으로 들어온 촬영영상으로부터 추출한 얼굴 영상을 선형 변환하여 얻은 특징 벡터를 오프라인 시 미리 구해 놓은 특징 벡터들과 비교함으로써, 얼굴을 인식하게 된다. 얼굴 영상에 대하여 PCA(Principal Component Analysis)를 적용하여 얼굴벡터 공간의 차원을 효과적으로 줄임으로써, 전체 얼굴영상들을 선형 변환된 몇 개의 특징 벡터만을 비교하여 인식하므로 실제 인식(온-라인) 시 계산 속도가 빠르다는 장점이 있다.The eigenface method obtains the eigenvalues and eigenvectors from the variance matrix representing the variance of the data for the intermediate processed image and expresses the face image as the coordinates of the eigenvectors corresponding to the large eigenvalues. The coordinates thus obtained are specific vectors representing one face image. In the actual recognition step, the face is recognized by comparing the feature vector obtained by linearly transforming the face image extracted from the captured image as an input with the feature vectors previously obtained offline. By applying PCA (Principal Component Analysis) on the face image, the dimension of face vector space is effectively reduced, so that the entire face images are compared by comparing only a few feature vectors that have been linearly transformed. Fast has the advantage.

그러나, 이 방법은 조명 변화가 있는 얼굴 영상이나 얼굴의 표정이 변화할 때 또는 부분적인 오클루전(Occlusion)이 있는 얼굴 영상들로부터 구하여진 특징 벡터들은 클래스 간의 분리가 용이하지 않아 인식률이 저조하다는 단점이 있다. 그 이유는 아이겐훼이스 방법이 각 클래스내 분산행렬 및 클래스간 분산행렬 대신에 전체 얼굴영상 벡터들의 분산 행렬의 고유치 분석을 수행하기 때문이다. However, in this method, feature vectors obtained from face images with changing lighting or facial expressions with partial occlusion or face images with partial occlusion are not easily separated between classes, resulting in poor recognition rate. There are disadvantages. This is because the eigenface method performs eigenvalue analysis of the variance matrix of the entire face image vectors instead of the variance matrix and inter-class variance matrix in each class.

피셔훼이스 방법은 PCA를 적용하여 얼굴을 인식하는 방법에 부가하여 클래스내의 데이터 분산을 나타내는 행렬과 클래스 간의 데이터 분산을 나타내는 행렬을 이용하는 FLD(Fisher Linear Discrimination)를 적용하는 방법이다. FLD는 얼굴벡터 공간의 차원을 획기적으로 줄이는 효과뿐만 아니라 선형 변화된 특징 벡터들 사이의 클래스 분리를 최대로 하는 선형 변환을 이용함으로써, 클래스 간의 특징 벡터들을 비교적 정확하게 분류하는 장점이 있다. FLD를 적용하여 얼굴을 인식하는 피셔훼이스 방법은 조명이나 표정 변화가 있는 얼굴 영상에 대해 아이겐훼이스 방법보다 우수한 인식 성능을 나타낸다. 클래스내 분산 및 클래스간 분산을 나타내는 행렬을 구하기 위해서는 많은 메모리 양과 계산 시간을 필요로 하고, 조명 변화나 오클루전이 심한 얼굴 영상에 대해서는 여전히 인식률이 저하되는 문제점이 있다.The Fisher Face method is a method of applying a FLD (Fisher Linear Discrimination) using a matrix representing data distribution between classes and a matrix representing data distribution between classes in addition to a method of recognizing a face by applying PCA. FLD has the advantage of classifying feature vectors relatively accurately by using linear transformation that maximizes class separation between linearly changed feature vectors as well as the effect of dramatically reducing the dimension of face vector space. The Fischer Face method which recognizes a face by applying FLD shows better recognition performance than the eigenface method for the face image with lighting or facial expression change. In order to obtain a matrix representing intra-class dispersion and inter-class dispersion, a large amount of memory and computation time are required, and the recognition rate is still degraded for a face image with severe illumination change or occlusion.

이와 같이, 종래의 기술에 의한 얼굴인식 방법은 얼굴포즈, 조명, 얼굴표정 또는 오클루전 등과 같은 다양한 영상변이 중에서, 어느 하나의 영상변이와 대응하는 얼굴인식 애플리케이션을 기반으로 하여 구현되는 것임에 따라, 예를 들어 얼굴표정을 추출하는 것을 위주로 하는 얼굴인식 애플리케이션을 기반으로 얼굴인식을 실행할 경우에 조명 또는 오클루전에 의한 영상변이에 대하여는 얼굴 인식율이 현저히 떨러지므로, 얼굴인식 시스템을 구현하는 데에 그 효율이 매우 미흡한 문제점이 있었다.As described above, the face recognition method according to the related art is implemented based on a face recognition application corresponding to any one image variation among various image variations such as face pose, lighting, facial expression, or occlusion. For example, when face recognition is executed based on a face recognition application focused on extracting facial expressions, the face recognition rate is significantly shaken for image variation caused by lighting or occlusion. There was a problem of very poor efficiency.

따라서, 본 발명은 상기의 문제점들을 해결하기 위해 창출된 것으로, 본 발명의 목적은 촬영된 영상으로부터의 얼굴 인식을 방해하는 얼굴포즈, 조명, 얼굴표정 또는 오클루전 등과 같은 다양한 영상변이와 대응하여 적용되기 위한 각각의 얼굴인식 애플리케이션을 구비하고, 해당 촬영영상에 대한 영상변이를 판별하여 최적 의 얼굴인식 애플리케이션을 실행하기 위한 영상변이 센싱을 활용한 얼굴인식 방법 및 시스템을 제공하는 데 있다.Accordingly, the present invention was created to solve the above problems, and an object of the present invention is to respond to various image variations such as face poses, lighting, facial expressions, or occlusion that interfere with face recognition from captured images. There is provided a face recognition application for each application, and to determine the image drift for the image taken to provide a face recognition method and system utilizing the image variance sensing for executing the optimal face recognition application.

이러한 목적을 이루기 위한 본 발명의 시스템은 소정의 객체를 촬영하여 형성한 촬영영상을 통신망을 통해 송출하는 클라이언트 및 상기 촬영영상으로부터 영상에 포함된 사람의 얼굴영역을 추출하기 위한 영상 전처리를 실행한 후 전처리된 영상을 기초로 추출한 얼굴영역으로부터 얼굴 구성요소를 판별하고, 상기 얼굴 구성요소로 형성되는 얼굴 특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애 요인이 되는 영상변이를 센싱하며, 센싱 실행결과에 따라 얼굴 구성요소에 포함되는 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 중 적어도 어느 하나를 실행하기 위한 서비스 관리서버를 포함하여 구현될 수 있다.In order to achieve the above object, the system of the present invention executes a client for transmitting a photographed image formed by photographing a predetermined object through a communication network and image preprocessing for extracting a face region of a person included in the image from the photographed image. Determining a face component from the extracted face region based on the pre-processed image, sensing the image variation that is an obstacle to face recognition through the pattern variation based on the facial feature points formed by the face component, and according to the sensing execution result. And a service management server for executing at least one of a face recognition application using the face feature included in a face component and a face recognition application using image data constituting the preprocessed image.

상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 영상변이 센싱을 활용한 얼굴인식 방법은, (가) 클라이언트가 촬영하여 형성한 촬영영상을 서비스 관리서버로 전달하는 단계, 나) 상기 서비스 관리서버가 상기 촬영영상로부터의 얼굴인식을 위한 영상 전처리를 실행하는 단계, 다) 상기 전처리된 영상을 기초로 얼굴영역을 추출하고 상기 얼굴영역을 이루는 얼굴 구성요소를 판별하는 단계, 라) 상기 얼굴 구성요소로 형성되는 얼굴 특징점을 추출하고 상기 얼굴 특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애요인이 되는 영상변이를 센싱하는 단계, (마) 상기 센싱 결과를 토대로 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션(FBA; Feature Based Approach) 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션(ABA; Appearance Based Approach) 중 적어도 어느 하나를 실행하는 단계 및 (바) 상기 얼굴인식 애플리케이션의 실행결과를 상기 클라이언트로 전달하는 단계를 포함하는 것을 특징으로 한다.Face recognition method using the image shift sensing according to the first aspect of the present invention for achieving the above object, (A) the step of delivering the photographed image formed by the client to the service management server, b) the service management Performing image preprocessing for face recognition from the photographed image by the server; c) extracting a face region based on the preprocessed image and determining a facial component constituting the face region; Extracting facial feature points formed of elements and sensing image variations that are obstacles to face recognition through pattern variation based on the facial feature points, (e) facial recognition application using the facial feature points based on the sensing result (FBA) Feature Based Approach and facial recognition application using image data forming the preprocessed image (AB) A; executing at least one of the Appearance Based Approach) and (f) delivering the execution result of the face recognition application to the client.

바람직하게는, 상기 (가) 단계는 상기 클라이언트가 화상통신망을 통해 상기 서비스 관리서버에 접속하는 것을 특징으로 한다.Preferably, the step (a) is characterized in that the client connects to the service management server through a video communication network.

바람직하게는, 상기 (나) 단계는 상기 촬영영상에 대한 영상 필터링, 컬러변환, 좌표변환 및 얼굴인식을 위한 부가 연산을 포함하는 영상 전처리를 실행하는 것을 특징으로 한다.Preferably, the step (b) is characterized by executing image preprocessing including additional operations for image filtering, color transformation, coordinate transformation, and face recognition for the photographed image.

바람직하게는, 상기 (다) 단계는 상기 전처리된 영상과 표준영상 탬플릿 간의 정합 비교를 거쳐 블롭(Blob) 해석을 통해 상기 얼굴영역을 추출하고, 상기 얼굴영역에 대한 비율연산을 통해 상기 얼굴영역을 검증하는 것을 특징으로 한다.Preferably, the step (c) extracts the face region through blob analysis through matching comparison between the preprocessed image and the standard image template, and extracts the face region through a ratio operation with respect to the face region. It is characterized by verifying.

바람직하게는, 상기 (다) 단계는 상기 얼굴영역과 상기 표준영상 탬플릿 간의 정합 비교를 거쳐 투영기반 추출 및 기하학적 예측을 통해 상기 얼굴 구성요소를 판별하는 것을 특징으로 한다.Preferably, the step (c) is characterized by determining the face component through projection-based extraction and geometric prediction through matching between the face region and the standard image template.

바람직하게는, 상기 (라) 단계는 상기 영상변이를 이루는 요소로 얼굴포즈, 조명, 얼굴표정 및 오클루전(Occlusion) 중 적어도 어느 하나를 포함하는 것을 특징으로 한다.Preferably, the step (d) includes at least one of face pose, illumination, facial expression, and occlusion as elements of the image shift.

바람직하게는, 상기 (라) 단계는 상기 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위 내에 있을 경 우, 상기 얼굴포즈로 인한 영상변이로 설정하는 것을 특징으로 한다.Preferably, in the step (d), if the pattern change amount based on the facial feature point is within a predetermined error range based on the pattern change amount corresponding to the standard image template, the step (c) is set to an image shift caused by the face pose. .

바람직하게는, 상기 (마) 단계는 상기 얼굴포즈에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the step (e) is to execute a face recognition application using the face feature point, when the image variation with respect to the face pose.

바람직하게는, 상기 (라) 단계는 상기 얼굴특징점에 기반한 패턴 변화량 중 특정 부위의 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 경우, 상기 얼굴표정에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the step (d) sets the image variation for the facial expression when the pattern variation of a specific portion of the pattern variation based on the facial feature point is out of a predetermined error range based on a pattern variation corresponding to a standard image template. Characterized in that.

바람직하게는, 상기 (마) 단계는 상기 얼굴표정에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the step (e) is to perform a face recognition application using the face feature point, when the image variation with respect to the facial expression.

바람직하게는, 상기 (라) 단계는 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 명암 변화량인 것으로 판별되는 경우, 상기 조명에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the step (d) is to set the image variation for the illumination when the pattern variation based on the facial feature point is determined to be an intensity variation outside a predetermined error range based on the pattern variation corresponding to the standard template. It features.

바람직하게는, 상기 (마) 단계는 상기 조명에 대한 영상변이일 경우, 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the step (e) is to execute a face recognition application using the image data constituting the pre-processed image, when the image shift for the illumination.

바람직하게는, 상기 (라) 단계는 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 부분적인 영상 왜곡이 있을 경우, 상기 오클루전에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, in the step (d), if there is a partial image distortion based on the pattern change amount corresponding to the standard template, the pattern change amount based on the facial feature point is set as an image shift for the occlusion.

바람직하게는, 상기 (마) 단계는 상기 오클루전에 대한 영상변이일 경우, 상 기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 및 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the step (e) is to execute a face recognition application using image data constituting the pre-processed image and a face recognition application using the face feature point in case of an image shift for the occlusion. .

또한, 상기 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 영상변이 센싱을 활용한 얼굴인식 시스템은, 촬영하여 형성한 촬영영상을 통신망을 통해 송출하는 클라이언트 및 상기 촬영영상에 대한 영상 전처리 실행 후 전처리된 영상을 기초로 추출한 얼굴영역으로부터 얼굴 구성요소를 판별하고, 상기 얼굴 구성요소로 형성되는 얼굴 특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애 요인이 되는 영상변이를 센싱하며, 상기 센싱 결과에 따라 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 중 적어도 어느 하나를 실행하기 위한 서비스 관리서버를 포함하는 것을 특징으로 한다.In addition, the face recognition system using the image shift sensing according to the second aspect of the present invention for achieving the above object, after performing the client and the image pre-processing for the photographed image to transmit the photographed image formed through the communication network Determining a face component from a face region extracted based on a preprocessed image, and sensing an image variation that is an obstacle to face recognition through a pattern variation based on a facial feature point formed by the face component, and according to the sensing result. And a service management server for executing at least one of a face recognition application using the face feature and a face recognition application using image data constituting the preprocessed image.

바람직하게는, 상기 서비스 관리서버는 상기 영상변이를 이루는 요소로 얼굴포즈, 조명, 얼굴표정 및 오클루전(Occlusion) 중 적어도 어느 하나를 포함하는 것을 특징으로 한다.Preferably, the service management server includes at least one of face pose, lighting, facial expression, and occlusion as an element constituting the video transition.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위 내에 있을 경우, 상기 얼굴포즈로 인한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the service management server is set to an image shift due to the face pose when the pattern change amount based on the facial feature point is within a predetermined error range based on a pattern change amount corresponding to a standard image template.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴포즈에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the service management server is characterized in that for executing a face recognition application using the facial feature point, if the image variation with respect to the face pose.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴특징점에 기반한 패턴 변화량 중 특정 부위의 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 경우, 상기 얼굴표정에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the service management server is configured to set the image variation for the facial expression when the pattern variation of a specific portion of the pattern variation based on the facial feature point is out of a predetermined error range based on a pattern variation corresponding to a standard image template. It is characterized by.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴표정에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the service management server is characterized in that for running the face recognition application using the facial feature point, if the image variation for the facial expression.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 명암 변화량인 것으로 판별되는 경우, 상기 조명에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the service management server, if it is determined that the pattern change amount based on the facial feature point is a change amount of contrast outside the predetermined error range based on the pattern change amount corresponding to the standard template, it is set to the image shift for the illumination It is done.

바람직하게는, 상기 서비스 관리서버는 상기 조명에 대한 영상변이일 경우, 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the service management server is characterized in that when the image shift for the illumination, the face recognition application using the image data forming the pre-processed image.

바람직하게는, 상기 서비스 관리서버는 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 부분적인 영상 왜곡이 있을 경우, 상기 오클루전에 대한 영상변이로 설정하는 것을 특징으로 한다.Preferably, the service management server is configured to set the image variation for the occlusion when there is a partial image distortion based on the pattern variation amount corresponding to the standard template, based on the facial feature point.

바람직하게는, 상기 서비스 관리서버는 상기 오클루전에 대한 영상변이일 경우, 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 및 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 한다.Preferably, the service management server is characterized in that when the image shift for the occlusion, the face recognition application using the image data constituting the pre-processed image and the face recognition application using the face feature point.

이하, 첨부도면을 참조하여 본 발명에 따른 영상변이 센싱을 활용한 얼굴인식 시스템의 바람직한 실시예를 보다 상세히 설명하면 다음과 같다.Hereinafter, a preferred embodiment of a face recognition system using image shift sensing according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시 예에 따른 영상변이 센싱을 활용한 얼굴인식 시스템을 도시한 구성도이다. 도 1에 도시된 바와 같이, 영상변이 센싱을 활용한 얼굴인식 시스템은 사용자를 촬영하여 형성한 촬영영상을 통신망(200)을 통해 송출하는 클라이언트(100) 및 상기 클라이언트(100)로부터 제공되는 촬영영상을 얼굴 인식 실행을 위한 영상으로 변환하는 영상 전처리 실행하고, 이렇게 변환된 전처리된 영상을 기초로 얼굴영역을 추출하며 상기 얼굴영역으로부터 얼굴 구성요소를 판별하며, 상기 얼굴 구성요소로 형성되는 얼굴 특징점에 기반하여 패턴 변화량을 시뮬레이션하고, 상기 패턴 변화량을 통해 얼굴인식에 장애 요인이 되는 영상변이를 센싱하여 형성되는 결과에 따라 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션(FBA; Feature Based Approach) 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션(ABA; Appearance Based Approach) 중 적어도 어느 하나를 실행하기 위한 서비스 관리서버(300)를 포함한다.1 is a block diagram illustrating a face recognition system using image shift sensing according to an embodiment of the present invention. As shown in FIG. 1, in the face recognition system using image shift sensing, a client 100 and a captured image provided from the client 100 transmit a captured image formed by photographing a user through a communication network 200. Image preprocessing for converting the image into an image for face recognition, extracting a face region based on the converted preprocessed image, determining a face component from the face region, and applying a face feature to the face feature point formed by the face component. Based on the result of simulating a pattern change amount and sensing the image variation that is a obstacle to face recognition through the pattern change amount, a face recognition application (FBA) using the facial feature point and the preprocessed image Face Recognition Application (ABA; Appearance Based Appr) oach) includes a service management server 300 for executing at least one.

상기 서비스 관리서버(300)는 촬영영상에 대한 영상전처리 실행을 위해, 영상 필터링을 하여 해당 영상에 대한 잡음을 제거하고, 컬러변환, 좌표변환 및 얼굴인식을 위한 부가 연산을 실행하여 얼굴추출을 용이하게 하기 위한 영상으로 처리하게 된다. The service management server 300 performs image preprocessing on the captured image, removes noise on the corresponding image by filtering the image, and executes additional operations for color conversion, coordinate transformation, and face recognition to facilitate face extraction. It will be processed as an image to make it.

여기서, 영상 필터링은 에지 추출, 가우시안 필터링, 라플라시안 필터링, 가버 필터링, 캐니에지추출 등의 기술을 이용하며, 컬러 변환은 RGB 변환, HLS 변환, HSV 변환, YCrCb 변환, YUV 변환, XYZ 변환 I1I2I3 변환 등의 기술을 이용한다. Here, image filtering uses techniques such as edge extraction, Gaussian filtering, Laplacian filtering, Gabor filtering, and canine edge extraction, and color conversion includes RGB conversion, HLS conversion, HSV conversion, YCrCb conversion, YUV conversion, XYZ conversion, I1I2I3 conversion, etc. Use the technology of

또한, 좌표변환에 대하여는 직교좌표계 변환, 극좌표계 변환, 로그-극좌표계 변환 등의 기술을 이용하며, 부가 연산의 실행에서는 논리 연산, 산술 연산, 임계치 분할 등의 기술이 적용되는 것이 바람직하다.For coordinate transformation, techniques such as Cartesian coordinate transformation, polar coordinate transformation, and log-polar coordinate transformation are used. It is preferable that techniques such as logical operation, arithmetic operation, and threshold division are applied to the execution of the additional operation.

이후, 서비스 관리서버(300)는 전처리된 영상으로부터 얼굴영역을 추출하기 위해, 정합비교 및 불롭(Blob) 해석을 거쳐 해당 얼굴영역을 추출하고, 상기 얼굴영역에 대한 비율연산을 통해 추출한 얼굴영역에 대한 검증도 실행한다. 즉, 비율연산이라는 것은 얼굴높이 및 얼굴너비에 대한 비율이며 이는 통상적인 통계치를 기준으로 산정되는 것이다. Thereafter, the service management server 300 extracts the face region through matching comparison and blob analysis, and extracts the face region from the preprocessed image, and extracts the face region and extracts the face region from the face region. Also run the verification. In other words, the ratio calculation is the ratio of face height and face width, which are calculated based on normal statistics.

더욱 상세하게는, 상기 정합비교는 오차합 비교, 상관계수 비교, 상관계수 2 비교 등의 기술이 적용되는 것이며, 불롭 해석은 최대블롭 해석, 블롭별 레이블링 등의 기술이 적용되는 것이 가능하다.More specifically, the matching comparison is a technique such as error sum comparison, correlation coefficient comparison, correlation coefficient 2 comparison, etc., and the blow analysis can be applied to techniques such as maximum blob analysis, labeling for each blob.

추출한 얼굴영역으로부터 눈, 코, 입 등의 얼굴 구성요소를 추출하기 위해, 상기 추출한 얼굴영역과 표준영상 탬플릿 간이 정합 비교를 거쳐 투영기반 추출 및 기하학적 예측을 통해 각각의 얼굴 구성요소를 판별한다. 여기서의 정합 비교도 오차합 비교, 상관계수 비교, 상관계수 2 비교 등의 기술이 적용되며, 투영기반 추출은 수평 투영 또는 수직 투영에 대한 기술이 적용된다. 또한, 기하학적 예측이라 함은 상기 표준영상 탬플릿을 토대로 형성되는 각각의 얼굴 구성요소에 대한 요소 비를 통해 실행되는 것이다.In order to extract facial components such as eyes, nose and mouth from the extracted facial regions, each facial component is determined through projection-based extraction and geometric prediction through the matching matching between the extracted facial region and the standard image template. In the matching comparison, techniques such as error sum comparison, correlation coefficient comparison, and correlation coefficient 2 comparison are applied, and the projection-based extraction is applied with the technique of horizontal projection or vertical projection. In addition, geometric prediction is performed through an element ratio for each facial component formed based on the standard image template.

더 나아가, 얼굴 구성요소에서의 특징점을 추출하기 위해, 기하학적 특징, 변환 특징, 통계적 특징 등을 추출하게 되며, 기하학적 특징으로써 국부적 특징과 전역적 특징을 추출하고, 변환 특징은 고속퓨리에 변환과 이산퓨리에 변환을 통해 형성되는 특징이며, 통계적 특징은 평균, 분산, 노옴(Norm) 등으로 산출되는 특징이다.Furthermore, in order to extract feature points in facial components, geometric features, transformation features, statistical features, etc. are extracted, and local and global features are extracted as geometric features, and the transformation features are Fast Fourier Transform and Discrete Fourier. It is a feature formed through the transformation, and the statistical feature is a feature calculated by means of average, variance, and norm.

이후, 상기 서비스 관리서버(300)는 상기 영상변이를 이루는 요소로 얼굴포즈, 조명, 얼굴표정 및 오클루전(Occlusion) 중 적어도 어느 하나를 포함하는지 여부를 센싱하게 되며, 이러한 센싱 과정에서 상기 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위 내에 있는 것으로 센싱 결과가 형성되면, 다양한 영상변이 중 얼굴 포즈에 의한 영상변이인 것으로 판별한다.Thereafter, the service management server 300 senses whether it includes at least one of face pose, lighting, facial expression, and occlusion as an element constituting the image variation. In the sensing process, the face is detected. When the sensing result is formed that the pattern change amount based on the feature point is within a predetermined error range based on the pattern change amount corresponding to the standard image template, it is determined that the image change is caused by the face pose among various image variations.

이에 , 서비스 관리서버(300)는 상기 얼굴 포즈에 의한 영상변이에 대응하여 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하게 된다.Accordingly, the service management server 300 executes the face recognition application using the face feature in response to the image shift caused by the face pose.

또 다르게, 얼굴특징점에 기반한 패턴 변화량 중 특정 부위의 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량과 비교하여 볼 때 예정된 오차 범위를 벗어나는 경우, 상기 특정 부위는 얼굴에서 웃음, 놀람, 두려움, 당황함 등의 요인으로 인해 다른 부위에 비해 패턴 변화량이 집중되는 부위이며, 이러할 경우에는 얼굴표정에 대한 영상변이인 것으로 판별하게 된다.Alternatively, when the pattern variation of a specific region of the pattern variation based on the facial feature is outside the predetermined error range when compared with the pattern variation corresponding to the standard image template, the specific region may smile, surprise, fear or embarrassment on the face. Due to such factors, the pattern change amount is concentrated compared to other parts, and in this case, it is determined that the image variation is related to facial expression.

이에, 서비스 관리서버(300)는 얼굴표정에 의한 영상변이에 대응하여 얼굴특 징점을 이용하는 얼굴인식 애플리케이션을 실행하게 된다.Accordingly, the service management server 300 executes a face recognition application using face feature points in response to the image variation caused by facial expression.

또 다르게는, 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량과 비교하여 볼 때, 영상 전반에 걸쳐 각 픽셀의 상관도가 명암 변화량(Intensity)이며, 이러한 명암 변화량이 예정된 오차 범위를 벗어날 경우, 조명에 대한 영상변이인 것으로 판별한다. In addition, when the pattern variation based on the facial feature point is compared with the pattern variation corresponding to the standard template, the correlation of each pixel is the intensity of intensity throughout the image, and the intensity variation is outside the predetermined error range. In this case, it is determined that there is an image shift for illumination.

이에, 서비스 관리서버(300)는 전처리된 영상을 이루는 영상 데이터를 모두 이용하는 얼굴인식 애플리케이션을 실행하게 된다.Accordingly, the service management server 300 executes the face recognition application using all the image data forming the preprocessed image.

그리고, 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 부분적인 영상 왜곡이 있는 경우, 부분적인 얼굴 구성요소에 대한 패턴 인식이 이루어지지 않은 오클루전에 대한 영상변이인 것으로 판별한다.In addition, when there is a partial image distortion based on the standard template and the corresponding pattern variation amount based on the facial feature point, it is determined that the image variation is for the occlusion that the pattern recognition for the partial face component is not performed.

이에, 서비스 관리서버(300)는 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션과 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 함께 실행하게 된다.Accordingly, the service management server 300 executes the face recognition application using the image data constituting the pre-processed image and the face recognition application using the facial feature point together.

도 2는 도 1에 도시된 서비스 관리서버(300)의 내부 구성을 도시한 구성도이다. 도 2에 도시된 바와 같이, 서비스 관리서버(300)는 클라이언트(100)로부터 촬영영상을 제공받는 인터펜이스부(310), 촬영영상에 대한 영상 전처리를 실행하여 얼굴 인식할 수 있는 영상으로 처리하는 영상전처리부(320), 전처리된 영상을 기초로 얼굴영역을 추출하기 위한 얼굴영역 추출부(330), 얼굴영역으로부터 얼굴 구성요소를 판별하기 위한 얼굴 구성요소 판별부(340), 얼굴 구성요소로 형성되는 얼굴특징점을 추출하고 상기 얼굴특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애 요인이 되는 영상변이를 센싱하기 위한 영상변이 센싱부(350) 및 상기 센싱 결과를 토대로 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 중 적어도 어느 하나를 실행하기 위한 제어부(360)를 포함한다.2 is a block diagram showing the internal configuration of the service management server 300 shown in FIG. As shown in FIG. 2, the service management server 300 processes the image into a face-recognized image by executing an image preprocessing on the interface 310, which receives the captured image from the client 100, and the captured image. The image preprocessing unit 320, a face region extraction unit 330 for extracting a face region based on the preprocessed image, a face component determination unit 340 for determining a face component from the face region, and a face component. A facial recognition application using the facial feature point based on the image variation sensing unit 350 and the sensing result for extracting a facial feature point to be formed and sensing an image variance that is an obstacle to face recognition through the amount of pattern change based on the facial feature point. And a controller for executing at least one of a face recognition application using image data forming the preprocessed image. 360).

이하에서는, 첨부도면을 참조하여 본 발명에 따른 영상변이 센싱을 활용한 얼굴인식 시스템의 동작과정에 대해 보다 상세히 설명하면 다음과 같다.Hereinafter, with reference to the accompanying drawings will be described in more detail with respect to the operation of the face recognition system using the image shift sensing according to the present invention.

도 3는 도 1에 도시된 영상변이 센싱을 활용한 얼굴인식 시스템의 동작과정을 도시한 순서도이다. 도 3에 도시된 바와 같이, 영상변이 센싱을 활용한 얼굴인식 방법은 클라이언트(100)가 사용자의 얼굴을 촬영하여 생성한 촬영영상을 통신망(200)을 통해 서비스 관리서버(300)로 전달하는 것으로 진행된다(S100). FIG. 3 is a flowchart illustrating an operation of a face recognition system using image shift sensing shown in FIG. 1. As shown in FIG. 3, in the face recognition method using image shift sensing, the client 100 transmits the captured image generated by photographing the user's face to the service management server 300 through the communication network 200. It proceeds (S100).

이에, 서비스 관리서버(300)는 제공받은 촬영영상으로부터 사용자을 인식하기 위한 영상전처리를 실행하고(S102), 상기 S102 단계에서 전처리된 영상을 기초로 하여 얼굴영역을 추출하며(S104), 상기 얼굴영역에 각각 배치되는 얼굴 구성요소를 판별하기 위한 과정을 실행하게 된다(S106).Accordingly, the service management server 300 executes image preprocessing for recognizing a user from the received captured image (S102), extracts a face region based on the preprocessed image in step S102 (S104), and the face region. In step S106, a process for determining a face component disposed in each is performed.

이후로, 서비스 관리서버(300)는 상기 추출한 얼굴 구성요소를 이루는 얼굴 특징점을 추가적으로 판별하고(S108), 상기 S108 단계에서 판별하여 형성한 얼굴특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애요인으로 작용하는 영상변이가 어떠한 것인지를 판별하기 위한 센싱을 실행한다(S110).Thereafter, the service management server 300 additionally determines a facial feature point constituting the extracted face component (S108), and acts as an obstacle to face recognition through a pattern change amount based on the facial feature point formed in step S108. Sensing is performed to determine what the video shift is (S110).

상기 S110 단계에서, 상기 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬 플릿과 대응하는 패턴 변화량과 비교하여 볼 때 예정된 오차 범위 이내에 있을 경우, 상기 표준영상 탬플릿에 적응하는 얼굴포즈인 것으로 판별하여 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 싱행한다(S114).In step S110, when the pattern change amount based on the facial feature point is within a predetermined error range when compared with the pattern change amount corresponding to the standard image template, the facial feature point is determined to be a face pose adapted to the standard image template. The face recognition application to be used is executed (S114).

또한, 상기 S110 단계에서, 얼굴특징점에 기반한 패턴 변화량 중 특정 부위의 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량에 비해 예정된 오차범위를 벗어나는 경우(S116), 상기 특정 부위와 상관되는 얼굴표정인 것으로 판별하여 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행한다(S118).In addition, in the step S110, if the pattern change amount of the specific region of the pattern change based on the facial feature point is out of the predetermined error range compared to the pattern change amount corresponding to the standard image template (S116), the facial expression correlates to the specific region. The face recognition application using the facial feature is determined and executed (S118).

상기 S110 단계에서, 얼굴특징점에 기반한 패턴 변화량이 영상 전반에 걸친 명암 변화량과 대응하고, 상기 명암변화량이 표준영상 탬플릿이 이루는 명암변화량에 비해 예정된 오차범위를 벗어날 경우(S120), 조명에 의한 영상변이인 것으로 판별하여 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션을 실행한다(S122).In the step S110, if the pattern change amount based on the facial feature points corresponds to the change amount of contrast throughout the image, and the contrast change is out of a predetermined error range compared to the change amount of contrast formed by the standard image template (S120), the image shift by illumination The face recognition application using the image data constituting the pre-processed image is determined as being (S122).

또한, 상기 S124 단계에서, 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 부분적인 영상 왜곡이 있는 것으로 판별될 경우(S124), 오클루전에 의한 영상변이인 것으로 하여 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션과 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 모두 실행한다(S126).In addition, in the step S124, when it is determined that there is a partial image distortion based on the pattern change amount corresponding to the standard image template in step S124 (S124), the image is preprocessed as being an image variation due to occlusion. Both the face recognition application using the image data constituting the image and the face recognition application using the facial feature point are executed (S126).

이러한 과정을 거쳐, 서비스 관리서버(300)는 클라이언트(100)로부터 제공된 촬영영상에 대한 얼굴인식을 실행한다(S128).Through this process, the service management server 300 executes face recognition for the captured image provided from the client 100 (S128).

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below. I can understand that you can.

따라서, 본 발명에서는 촬영된 영상으로부터의 얼굴 인식을 방해하는 얼굴포즈, 조명, 얼굴표정 또는 오클루전 등과 같은 다양한 영상변이와 대응하여 적용되기 위한 각각의 얼굴인식 애플리케이션을 구비하고, 해당 촬영영상에 대한 영상변이를 판별하여 최적의 얼굴인식 애플리케이션을 실행함으로써, 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션이 가지는 강점을 모두 활용하여 얼굴인식 효율을 높일 수 있는 이점이 있다.Accordingly, the present invention is provided with a face recognition application to be applied in response to various image variations such as face pose, lighting, facial expression or occlusion that interfere with face recognition from the captured image, It is possible to increase the face recognition efficiency by utilizing the strengths of both the face recognition application using the facial feature and the face recognition application using the image data forming the preprocessed image by executing the optimal face recognition application by determining the image variation. There is this.

Claims (16)

(가) 클라이언트가 촬영하여 형성한 촬영영상을 서비스 관리서버로 전달하는 단계;(A) transmitting the photographed image formed by the client to the service management server; (나) 상기 서비스 관리서버가 상기 촬영영상로부터의 얼굴인식을 위한 영상 전처리를 실행하는 단계;(B) the service management server executing image preprocessing for face recognition from the captured image; (다) 상기 전처리된 영상을 기초로 얼굴영역을 추출하고 상기 얼굴영역을 이루는 얼굴 구성요소를 판별하는 단계;(C) extracting a face region based on the preprocessed image and determining a face component constituting the face region; (라) 상기 얼굴 구성요소로 형성되는 얼굴 특징점을 추출하고 상기 얼굴 특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애요인이 되는 영상변이를 센싱하는 단계;(D) extracting facial feature points formed by the face components and sensing image variation that is an obstacle to face recognition through a pattern change amount based on the facial feature points; (마) 상기 센싱 결과를 토대로 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션(FBA; Feature Based Approach) 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션(ABA; Appearance Based Approach) 중 적어도 어느 하나를 실행하는 단계; 및(E) executing at least one of a facial recognition application (FBA) using the facial feature point and an facial recognition application (ABA) using image data constituting the preprocessed image based on the sensing result; Doing; And (바) 상기 얼굴인식 애플리케이션의 실행결과를 상기 클라이언트로 전달하는 단계를 포함하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.(F) The face recognition method using image variation sensing comprising the step of delivering the execution result of the face recognition application to the client. 제 1 항에 있어서, 상기 (가) 단계는The method of claim 1, wherein step (a) 상기 클라이언트가 화상통신망을 통해 상기 서비스 관리서버에 접속하는 것 을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.And the client accesses the service management server through a video communication network. 제 1 항에 있어서, 상기 (나) 단계는The method of claim 1, wherein step (b) 상기 촬영영상에 대한 영상 필터링, 컬러변환, 좌표변환 및 얼굴인식을 위한 부가 연산을 포함하는 영상 전처리를 실행하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.And image preprocessing including image filtering, color transformation, coordinate transformation, and additional operations for face recognition of the photographed image. 제 1 항에 있어서, 상기 (다) 단계는The method of claim 1, wherein the step (c) 상기 전처리된 영상과 표준영상 탬플릿 간의 정합 비교를 거쳐 블롭(Blob) 해석을 통해 상기 얼굴영역을 추출하고, 상기 얼굴영역에 대한 비율연산을 통해 상기 얼굴영역을 검증하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.The image variation sensing is characterized in that the face region is extracted through blob analysis through matching comparison between the preprocessed image and the standard image template, and the face region is verified through a ratio operation with respect to the face region. Facial recognition method utilized. 제 4 항에 있어서, 상기 (다) 단계는The method of claim 4, wherein the step (c) 상기 얼굴영역과 상기 표준영상 탬플릿 간의 정합 비교를 거쳐 투영기반 추출 및 기하학적 예측을 통해 상기 얼굴 구성요소를 판별하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.The face recognition method using image disparity sensing, characterized in that the face component is determined through a matching comparison between the face region and the standard image template through projection-based extraction and geometric prediction. 제 1 항에 있어서, 상기 (라) 단계는The method of claim 1, wherein step (d) 상기 영상변이를 이루는 요소로 얼굴포즈, 조명, 얼굴표정 및 오클루 전(Occlusion) 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.The image recognition method using the image shift sensing, characterized in that it comprises at least one of facial pose, illumination, facial expression and occlusion as an element constituting the image variation. 제 6 항에 있어서, 상기 (라) 단계는The method of claim 6, wherein the step (d) 상기 얼굴특징점에 기반한 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위 내에 있을 경우, 상기 얼굴포즈로 인한 영상변이로 설정하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.And when the pattern variation based on the facial feature is within a predetermined error range based on a standard image template and a pattern variation corresponding to the standard image template, set the image variation due to the face pose. 제 7 항에 있어서, 상기 (마) 단계는The method of claim 7, wherein the step (e) 상기 얼굴포즈에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.In the case of the image variation with respect to the face pose, the face recognition method using image variation sensing, characterized in that for executing the face recognition application using the facial feature point. 제 6 항에 있어서, 상기 (라) 단계는The method of claim 6, wherein the step (d) 상기 얼굴특징점에 기반한 패턴 변화량 중 특정 부위의 패턴 변화량이 표준영상 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 경우, 상기 얼굴표정에 대한 영상변이로 설정하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.When the pattern variation of a specific region of the pattern variation based on the facial feature is out of a predetermined error range based on the pattern variation corresponding to the standard image template, the image variation sensing is set as an image variation for the facial expression. One face recognition method. 제 9 항에 있어서, 상기 (마) 단계는The method of claim 9, wherein step (e) 상기 얼굴표정에 대한 영상변이일 경우, 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.When the image variation of the facial expression, the facial recognition method using image variation sensing, characterized in that for executing the facial recognition application using the facial feature point. 제 6 항에 있어서, 상기 (라) 단계는The method of claim 6, wherein the step (d) 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 예정된 오차 범위를 벗어나는 명암 변화량인 것으로 판별되는 경우, 상기 조명에 대한 영상변이로 설정하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.When it is determined that the pattern change amount based on the facial feature point is a change amount of contrast that falls outside a predetermined error range based on the pattern change amount corresponding to the standard template, the image variation sensing face is set as an image variation for the illumination. Recognition method. 제 11 항에 있어서, 상기 (마) 단계는The method of claim 11, wherein step (e) 상기 조명에 대한 영상변이일 경우, 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.In the case of the image shift with respect to the illumination, the face recognition method using image shift sensing, characterized in that for executing the face recognition application using the image data forming the pre-processed image. 제 6 항에 있어서, 상기 (라) 단계는The method of claim 6, wherein the step (d) 상기 얼굴특징점에 기반한 패턴 변화량이 표준 탬플릿과 대응하는 패턴 변화량을 토대로 부분적인 영상 왜곡이 있을 경우, 상기 오클루전에 대한 영상변이로 설정하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.And a pattern variation based on the facial feature point, when there is a partial image distortion based on a standard template and a pattern variation corresponding to the standard template. 제 13 항에 있어서, 상기 (마) 단계는The method of claim 13, wherein step (e) 상기 오클루전에 대한 영상변이일 경우, 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 및 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션을 실행하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 방법.And a face recognition application using image data constituting the pre-processed image and a face recognition application using the facial feature point when the image variation is about the occlusion. 촬영하여 형성한 촬영영상을 통신망을 통해 송출하는 클라이언트; 및A client for transmitting a photographed image formed by photographing through a communication network; And 상기 촬영영상에 대한 영상 전처리 실행 후 전처리된 영상을 기초로 추출한 얼굴영역으로부터 얼굴 구성요소를 판별하고, 상기 얼굴 구성요소로 형성되는 얼굴 특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애 요인이 되는 영상변이를 센싱하며, After performing the image preprocessing on the photographed image, the face component is determined from the extracted facial region based on the preprocessed image, and the image variation that is an obstacle to face recognition through the pattern variation based on the facial feature points formed by the face component. Senses, 상기 센싱 결과에 따라 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 중 적어도 어느 하나를 실행하기 위한 서비스 관리서버를 포함하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 시스템.And a service management server for executing at least one of a face recognition application using the face feature and a face recognition application using image data constituting the pre-processed image according to the sensing result. Face recognition system. 제 15 항에 있어서, 상기 서비스 관리서버는The method of claim 15, wherein the service management server 상기 클라이언트로부터 상기 촬영영상을 제공받는 인터페이스부;An interface unit receiving the captured image from the client; 상기 촬영영상에 대한 영상 전처리 실행하는 영상전처리부;An image preprocessing unit configured to perform image preprocessing on the captured image; 상기 전처리된 영상을 기초로 얼굴영역을 추출하기 위한 얼굴영역 추출부;A face region extractor for extracting a face region based on the preprocessed image; 상기 얼굴영역으로부터 상기 얼굴 구성요소를 판별하기 위한 얼굴 구성요소 판별부;A face component discriminating unit for discriminating the face component from the face region; 상기 얼굴 구성요소로 형성되는 얼굴특징점을 추출하고 상기 얼굴특징점에 기반한 패턴 변화량을 통해 얼굴인식에 장애요인이 되는 영상변이를 센싱하기 위한 영상변이 센싱부; 및An image variation sensing unit for extracting a facial feature point formed of the face component and sensing an image variation that is an obstacle to face recognition through a pattern change amount based on the facial feature point; And 상기 센싱 결과를 토대로 상기 얼굴특징점을 이용하는 얼굴인식 애플리케이션 및 상기 전처리된 영상을 이루는 영상 데이터를 이용하는 얼굴인식 애플리케이션 중 적어도 어느 하나를 실행하기 위한 제어부를 포함하는 것을 특징으로 하는 영상변이 센싱을 활용한 얼굴인식 시스템.And a control unit configured to execute at least one of a face recognition application using the facial feature point and a face recognition application using image data constituting the pre-processed image based on the sensing result. Recognition system.
KR1020070051501A 2007-05-28 2007-05-28 Face Recognition Method and System Using Image Shift Sensing KR100874088B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070051501A KR100874088B1 (en) 2007-05-28 2007-05-28 Face Recognition Method and System Using Image Shift Sensing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070051501A KR100874088B1 (en) 2007-05-28 2007-05-28 Face Recognition Method and System Using Image Shift Sensing

Publications (2)

Publication Number Publication Date
KR20080104565A true KR20080104565A (en) 2008-12-03
KR100874088B1 KR100874088B1 (en) 2008-12-16

Family

ID=40366167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070051501A KR100874088B1 (en) 2007-05-28 2007-05-28 Face Recognition Method and System Using Image Shift Sensing

Country Status (1)

Country Link
KR (1) KR100874088B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427488B1 (en) * 2012-12-28 2014-08-07 고려대학교 산학협력단 Apparatus for recognizing object using infrared
CN112069915A (en) * 2020-08-14 2020-12-11 武汉轻工大学 ATM with face recognition system
US11200405B2 (en) 2018-05-30 2021-12-14 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100907597B1 (en) 2007-12-05 2009-07-14 에스케이 텔레콤주식회사 Face recognition system and method based on lighting control, and apparatus and server applied thereto
KR102322115B1 (en) 2019-01-09 2021-11-04 엔트롤 주식회사 Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation
KR20200086489A (en) 2019-01-09 2020-07-17 엔트롤 주식회사 Apparatus and method for improving face recognition performance in accordance to outdoor illuminance variation

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067237A (en) 1998-08-17 2000-03-03 Victor Co Of Japan Ltd Person identifying device
KR100467152B1 (en) 2003-11-25 2005-01-24 (주)버뮤다정보기술 Personal authentication method of face recognition system
JP4459137B2 (en) 2005-09-07 2010-04-28 株式会社東芝 Image processing apparatus and method
JP4799105B2 (en) 2005-09-26 2011-10-26 キヤノン株式会社 Information processing apparatus and control method therefor, computer program, and storage medium

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427488B1 (en) * 2012-12-28 2014-08-07 고려대학교 산학협력단 Apparatus for recognizing object using infrared
US11200405B2 (en) 2018-05-30 2021-12-14 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
US11790494B2 (en) 2018-05-30 2023-10-17 Samsung Electronics Co., Ltd. Facial verification method and apparatus based on three-dimensional (3D) image
CN112069915A (en) * 2020-08-14 2020-12-11 武汉轻工大学 ATM with face recognition system
CN112069915B (en) * 2020-08-14 2024-02-02 武汉轻工大学 ATM with face recognition system

Also Published As

Publication number Publication date
KR100874088B1 (en) 2008-12-16

Similar Documents

Publication Publication Date Title
US10503981B2 (en) Method and apparatus for determining similarity of objects in images
US8331698B2 (en) Ethnicity classification using multiple features
CN110084135B (en) Face recognition method, device, computer equipment and storage medium
JP5010905B2 (en) Face recognition device
US8818034B2 (en) Face recognition apparatus and methods
KR100608595B1 (en) Face identifying method and apparatus
Menser et al. Face detection in color images using principal components analysis
CA3077830A1 (en) System and method for appearance search
JP2016081212A (en) Image recognition device, image recognition method, and image recognition program
KR100874088B1 (en) Face Recognition Method and System Using Image Shift Sensing
CN111144366A (en) Strange face clustering method based on joint face quality assessment
JP2002342756A (en) Method for detecting position of eye and mouth in digital image
KR101872811B1 (en) Apparatus and method for action pattern recognition, and method for generating of action pattern classifier
KR101279561B1 (en) A fast and accurate face detection and tracking method by using depth information
KR101558547B1 (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
Borghi et al. Face Verification from Depth using Privileged Information.
Barbu An automatic face detection system for RGB images
Yadav et al. A novel approach for face detection using hybrid skin color model
KR101350882B1 (en) Server for analysing video
Liu et al. Presentation attack detection for face in mobile phones
KR100553850B1 (en) System and method for face recognition / facial expression recognition
Singh et al. Template matching for detection & recognition of frontal view of human face through Matlab
KR100907597B1 (en) Face recognition system and method based on lighting control, and apparatus and server applied thereto
AU2011265494A1 (en) Kernalized contextual feature
Dwivedi et al. A new hybrid approach on face detection and recognition

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121121

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20131121

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141120

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151123

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161130

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171129

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190926

Year of fee payment: 12