KR20190107480A - Aparatus and method for face recognition - Google Patents

Aparatus and method for face recognition Download PDF

Info

Publication number
KR20190107480A
KR20190107480A KR1020180028769A KR20180028769A KR20190107480A KR 20190107480 A KR20190107480 A KR 20190107480A KR 1020180028769 A KR1020180028769 A KR 1020180028769A KR 20180028769 A KR20180028769 A KR 20180028769A KR 20190107480 A KR20190107480 A KR 20190107480A
Authority
KR
South Korea
Prior art keywords
block
face image
registered
similarity
input
Prior art date
Application number
KR1020180028769A
Other languages
Korean (ko)
Inventor
김광주
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020180028769A priority Critical patent/KR20190107480A/en
Publication of KR20190107480A publication Critical patent/KR20190107480A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06K9/00302
    • G06K9/00268
    • G06K9/00288
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is a face recognition method. The face recognition method includes the following steps of: classifying one input face image into a first input face image divided by a first block unit and a second input face image divided by a second block unit; calculating first block similarity by comparing characteristic values of a first registration face image and the first input face image; calculating second block similarity by comparing characteristic values of a second registration face image and the second input face image; calculating final similarity between the registration face images and the input face images by adding up the first block similarity and the second block similarity; and extracting the final similarity in regard to every registration face image registered in the face recognition database, and outputting a registration face image with the largest final similarity as a result of recognizing the input face images. Therefore, the face recognition method is capable of preventing a deterioration in the performance of face recognition.

Description

얼굴 인식 장치 및 방법{APARATUS AND METHOD FOR FACE RECOGNITION}Facial recognition device and method {APARATUS AND METHOD FOR FACE RECOGNITION}

본 발명은 얼굴 인식 기술에 관한 것으로, 상세하게는, 사전에 등록된 얼굴 영상과 현재 입력된 얼굴 영상이 동일인인지를 판단하는 기술에 관한 것이다.The present invention relates to a face recognition technology, and more particularly, to a technology for determining whether a face image registered in advance and a face image currently input are the same person.

얼굴 인식은 얼굴 영상에서 특징을 추출하고, 다양한 분류기를 통해 학습된 얼굴 데이터와 새롭게 획득된 얼굴 영상에서 추출된 특징 데이터를 비교하여 동일인임을 인식하는 기술이다.Face recognition is a technology for recognizing that a person is the same by extracting a feature from a face image and comparing face data learned through various classifiers with feature data extracted from a newly acquired face image.

얼굴 인식을 위해, 얼굴 영상에서 특징 데이터를 추출하는 방법으로, LBP(Local Binary Features) 추출 기법, MCT(Modified Census Transform)를 이용하는 기법, 가버 필터(Gabor filter)를 이용하는 기법 등 이 있다. For face recognition, feature data may be extracted from face images, such as LBP (Local Binary Features) extraction technique, Modified Census Transform (MCT) technique, and Gabor filter technique.

이러한 방법들로부터 추출된 특징은 분류기를 통해 학습되는 데, 이 때 사용되는 분류기로, 서포트 벡터 머신(Support Vector Machine), 인공 신경망(Artificial Neural Network), 최근접 이웃 탐색(Nearest Neighbor search) 등이 있다. The features extracted from these methods are learned through classifiers. The classifiers used here are the Support Vector Machine, Artificial Neural Network, Nearest Neighbor Search, etc. have.

얼굴 인식기는 새롭게 획득된 얼굴 영상을 대규모로 사전에 등록된 얼굴 데이터베이스에서 고속으로 검색할 수 있어야 하며, 얼굴 데이터베이스에 새로운 얼굴이 추가 등록될 시 얼굴 데이터베이스의 갱신 비용을 최소화하고, 추가 등록된 사항에 대해서 즉시 적용될 수 있는 방향으로 개발되어야 한다.The face recognizer must be able to search newly acquired face images in a large scale in a pre-registered face database at a high speed. When a new face is added to the face database, it minimizes the update cost of the face database, It should be developed in a way that can be applied immediately.

이러한 이유로 서포트 벡터 머신이나 인공신경망을 이용한 분류기보다 최근접 이웃 탐색을 이용한 분류기가 보편적으로 사용되고 있다. For this reason, classifiers using nearest neighbor search are more commonly used than classifiers using support vector machines or neural networks.

일반적으로, 얼굴 인식에서 최근접 이웃 탐색은 비교되는 두 얼굴 영상을 각각 동일한 비율의 블록으로 분할하고, 동일한 위치의 양 블록에 나타난 특징들을 비교하여 얼굴 유사도를 계산하는 방법이다. In general, the nearest neighbor search in face recognition is a method of calculating face similarity by dividing two compared face images into blocks having the same ratio and comparing the features shown in both blocks at the same position.

그런데, 이러한 최근접 이웃 탐색에 기반한 방법은 추출된 특징에서 분류에 도움을 주지 않는 성분들(노이즈)이 포함된 블록이 높은 비율로 포함되어 있다면, 동일인임에도 불구하고 두 얼굴간의 유사도 값이 낮아지게 된다. 예를 들면, 등록된 얼굴 영상과 비교되는 입력 얼굴 영상이 표정 변화, 안경 착용 및 머리 스타일 변화 등이 발생한 경우 얼굴 인식률이 떨어지게 된다.However, the method based on the search for the nearest neighbors, if the block containing the components (noise) that does not help classification in the extracted feature is included in a high proportion, the similarity value between the two faces is lowered even though they are the same person. do. For example, when the input face image compared to the registered face image occurs in facial expression change, wearing glasses, and hair style change, the face recognition rate decreases.

본 발명은 위와 같은 종래기술의 문제점을 해결하기 위하여, 특징 서술자나, 분류기 학습 부분은 수정하지 않고, 다중 블록 위치 영역에 나타난 특징들을 적응적으로 비교함으로써, 얼굴 유사도 계산 오류를 방지하여 향상된 얼굴 인식률을 제공하는 얼굴 인식 장치 및 방법을 제공하는데 그 목적이 있다.In order to solve the problems of the related art, the present invention improves face recognition rate by preventing face similarity calculation errors by adaptively comparing features appearing in a multi-block position region without modifying feature descriptors or classifier learning. An object of the present invention is to provide a face recognition apparatus and method for providing the same.

상술한 목적을 달성하기 위한 본 발명의 일면에 따른 얼굴 인식 방법은, 하나의 등록 얼굴 영상을 제1 블록 단위로 특징값을 추출한 제1 등록 얼굴 영상과 제2 블록 단위로 특징값을 추출한 제2 등록 얼굴 영상으로 구분하여 얼굴인식 데이터베이스에 등록하는 단계; 하나의 입력 얼굴 영상을 상기 제1 블록 단위로 구획한 제1 입력 얼굴 영상과 상기 제2 블록 단위로 구획한 제2 입력 얼굴 영상으로 분류하고, 상기 제1 입력 얼굴 영상과 상기 제2 입력 얼굴 영상의 각 블록에서 특징값을 추출하는 단계; 상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제1 블록 유사도를 계산하고, 상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제2 블록 유사도를 계산하는 단계; 상기 제1 블록 유사도와 상기 제2 블록 유사도를 이용하여, 상기 입력 얼굴 영상과 상기 등록 얼굴 영상 간의 최종 유사도를 계산하는 단계; 및 상기 최종 유사도를 상기 얼굴인식 데이터베이스에 등록된 모든 등록 얼굴 영상에 대해 추출하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력하는 단계를 포함한다.In accordance with an aspect of the present invention, there is provided a face recognition method, including: a first registered face image in which a feature value is extracted from one registered face image in a first block unit, and a second extracted feature value in a second block unit; Dividing the registered face image into a face recognition database; One input face image is classified into a first input face image partitioned by the first block unit and a second input face image partitioned by the second block unit, and the first input face image and the second input face image. Extracting feature values from each block of; Comparing feature values of the first input face image and the first registered face image in block units, a first block similarity is calculated, and feature values of the second input face image and the second registered face image in block units. Calculating a second block similarity by comparison; Calculating a final similarity between the input face image and the registered face image by using the first block similarity and the second block similarity; And extracting the final similarity for all registered face images registered in the face recognition database, and outputting the registered face image having the maximum similarity as the recognition result of the input face image.

본 발명의 일면에 따른 얼굴 인식 장치는, 다수의 등록 얼굴 영상이 등록된 얼굴인식 데이터베이스를 저장한 메모리로서, 각 등록 얼굴 영상은 제1 블록 단위로 특징값이 추출된 제1 등록 얼굴 영상과 제2 블록 단위로 특징값이 추출된 제2 등록 얼굴 영상을 포함하는 상기 메모리; 및 하나의 입력 얼굴 영상을 상기 제1 블록 단위로 구획한 제1 입력 얼굴 영상과 상기 제2 블록 단위로 구획한 제2 입력 얼굴 영상으로 분류하고, 상기 제1 입력 얼굴 영상과 상기 제2 입력 얼굴 영상의 각 블록에서 특징값을 추출하고, 상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제1 블록 유사도를 계산하고, 상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제2 블록 유사도를 계산하고, 상기 제1 블록 유사도와 상기 제2 블록 유사도를 이용하여, 상기 입력 얼굴 영상과 상기 등록 얼굴 영상 간의 최종 유사도를 계산하고, 상기 최종 유사도를 상기 얼굴인식 데이터베이스에 등록된 모든 등록 얼굴 영상에 대해 추출하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력하는 프로세서를 포함한다.A face recognition apparatus according to an aspect of the present invention is a memory storing a face recognition database in which a plurality of registered face images are registered, wherein each registered face image includes a first registered face image and a first registered face image from which feature values are extracted in units of first blocks. The memory including a second registered face image from which feature values are extracted in units of two blocks; And classifying one input face image into a first input face image partitioned by the first block unit and a second input face image partitioned by the second block unit, wherein the first input face image and the second input face A feature value is extracted from each block of the image, and a first block similarity is calculated by comparing the feature values of the first input face image and the first registered face image on a block basis, and the second input face image and the first image are calculated. 2 a second block similarity is calculated by comparing feature values of a registered face image in units of blocks, and a final similarity between the input face image and the registered face image is calculated using the first block similarity and the second block similarity. And extracting the final similarity for all registered face images registered in the face recognition database, and inputting the registered face image having the maximum final similarity. And a processor for outputting a recognition result of the cave image.

본 발명에 따르면, 블록의 크기에 따라 적응적 블록 비교(또는 매칭) 방법을 통해 얼굴 인식 프로세스를 실행함으로써, 입력 얼굴 영상의 노이즈 성분에 의한 얼굴 인식 성능의 저하를 방지할 수 있다.According to the present invention, by performing the face recognition process through the adaptive block comparison (or matching) method according to the size of the block, it is possible to prevent the degradation of the face recognition performance due to the noise component of the input face image.

도 1은 본 발명의 일 실시 예에 따른 얼굴 인식 장치의 블록도이다.
도 2는 본 발명의 일 실시 예에 따른 서로 다른 블록 단위로 구획된 등록 얼굴 영상과 입력 얼굴 영상의 예시도이다.
도 3은 본 발명의 일 실시 예에 따른 얼굴 인식 방법의 흐름도이다.
도 4는 도 3에 도시한 단계 S310의 상세 흐름도이다.
도 5는 도 3에 도시한 단계 S360의 상세 흐름도이다.
1 is a block diagram of a face recognition apparatus according to an exemplary embodiment.
2 is a diagram illustrating a registration face image and an input face image partitioned into different block units according to an exemplary embodiment.
3 is a flowchart of a face recognition method according to an exemplary embodiment.
4 is a detailed flowchart of step S310 shown in FIG.
FIG. 5 is a detailed flowchart of step S360 shown in FIG. 3.

이하, 본 발명의 다양한 실시 예가 첨부된 도면과 연관되어 기재된다. Hereinafter, various embodiments of the present invention will be described in connection with the accompanying drawings.

본 발명의 다양한 실시 예는 다양한 변경을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시 예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시 예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.Various embodiments of the present invention may have various changes and various embodiments, and specific embodiments are illustrated in the drawings and related detailed descriptions are described. However, this is not intended to limit the various embodiments of the present invention to specific embodiments, it should be understood to include all modifications and / or equivalents and substitutes included in the spirit and scope of the various embodiments of the present invention. In the description of the drawings, similar reference numerals are used for similar elements.

본 발명의 다양한 실시 예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 발명의 다양한 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Expressions such as "comprises" or "can include" as used in various embodiments of the present disclosure indicate the existence of a corresponding function, operation or component disclosed, and additional one or more functions, operations or It does not restrict the components. In addition, in various embodiments of the present invention, the terms "comprise" or "have" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist. Or other features or numbers, steps, operations, components, parts or combinations thereof in any way should not be excluded in advance.

본 발명의 다양한 실시 예에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한 다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.In various embodiments of the present disclosure, the expression "or" includes any and all combinations of words listed together. For example, "A or B" may include A, may include B, or may include both A and B.

본 발명의 다양한 실시 예에서 사용된 "제 1," "제2", "첫째" 또는 "둘째," 등의 표현들은 다양한 실시 예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시 예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.Expressions such as "first," "second," "first," or "second," and the like used in various embodiments of the present disclosure may modify various elements of the various embodiments, but do not limit the corresponding elements. Do not. For example, the above expressions do not limit the order and / or importance of the corresponding elements. The above expressions may be used to distinguish one component from another. For example, both a first user device and a second user device are user devices and represent different user devices. For example, without departing from the scope of the various embodiments of the present disclosure, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성 요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않은 것으로 이해될 수 있어야 할 것이다.When a component is said to be "connected" or "connected" to another component, the component may or may not be directly connected to or connected to the other component. It is to be understood that there may be new other components between the other components. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it will be understood that there is no new other component between said one component and said other component. Should be able.

본 발명의 실시 예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명의 실시 예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the embodiments. Singular expressions include plural expressions unless the context clearly indicates otherwise.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiments of the present invention belong.

본 발명은 사전에 구축된 얼굴 데이터베이스를 조회하여, 사용자의 입력 얼굴 영상이 얼굴 데이터베이스에 등록된 등록 얼굴 영상인지를 판단하여, 사용자의 얼굴을 인식하는 모든 종류의 시스템에 적용될 수 있다. The present invention can be applied to all kinds of systems for recognizing a face of a user by querying a face database previously established, determining whether the input face image of the user is a registered face image registered in the face database.

특히, 본 발명은 입력 얼굴 영상과 등록 얼굴 영상을 블록 크기가 적응적으로 변경된 블록 단위의 매칭 방법(비교 방법)을 통해 사용자의 얼굴을 인식함으로써, 사용자의 입력 얼굴 영상에 존재하는 노이즈 성분(표정 변화, 액세서리 착용 또는 머리 스타일의 변경)에 따른 얼굴 인식의 성능 저하를 방지할 수 있다. In particular, the present invention by recognizing the user's face through the block-based matching method (comparison method) adaptively changed the block size of the input face image and the registered face image, the noise component (expression) present in the input face image of the user Performance of facial recognition due to a change, wearing an accessory, or changing a hair style) can be prevented.

도 1은 본 발명의 일 실시 예에 다른 얼굴 인식 장치의 블록도이다.1 is a block diagram of a face recognition apparatus according to an embodiment of the present invention.

도 1을 참조하면, 얼굴 인식 장치(100)는 영상 획득부(110), 프로세서(120), 사용자 인터페이스(130), 메모리(140), 디스플레이(150) 및 통신부(160)를 포함할 수 있다.Referring to FIG. 1, the face recognition apparatus 100 may include an image acquirer 110, a processor 120, a user interface 130, a memory 140, a display 150, and a communicator 160. .

영상 획득부(110)는 카메라(도시하지 않음)로부터 입력되는 입력 영상을 획득한다. 여기서, 카메라(도시하지 않음)는 깊이 인식 카메라, 스테레오 카메라 및 컬러 카메라를 포함할 수 있다.The image acquisition unit 110 acquires an input image input from a camera (not shown). Here, the camera (not shown) may include a depth recognition camera, a stereo camera and a color camera.

입력 영상은 인식 대상과 비교되는 사용자의 얼굴이 포함된 이전 입력 영상과 인식 대상이 되는 동일 사용자의 얼굴이 포함된 현재 입력 영상을 포함한다. The input image includes a previous input image including the face of the user compared to the recognition target and a current input image including the face of the same user as the recognition target.

이전 입력 영상은 이전 시간에 획득한 영상이고, 현재 입력 영상은 현재 시간에 획득한 영상이다. The previous input image is an image acquired at a previous time, and the current input image is an image obtained at the current time.

사용자의 표정 변화, 액세서리 착용(예, 안경) 및 머리 스타일 변화 등과 같은 요인으로 인해, 이전 입력 영상에 포함된 사용자의 얼굴과 현재 입력 영상에 포함된 동일 사용자의 얼굴은 차이가 있는 것으로 가정한다.Due to factors such as a change in facial expression of a user, wearing of an accessory (eg, glasses), and a hair style, it is assumed that a face of a user included in a previous input image and a face of the same user included in a current input image are different.

이전 입력 영상은 얼굴 인식 대상과 비교되는 등록 얼굴 영상으로 가공 처리되어, 얼굴인식 데이터베이스(140)에 등록되고, 현재 입력 영상은 얼굴 인식 대상이 되는 입력 얼굴 영상으로 가공 처리된다.The previous input image is processed into a registered face image to be compared with a face recognition target, and is registered in the face recognition database 140, and the current input image is processed into an input face image to be a face recognition target.

프로세서(120)는 입력된 이전 입력 영상을 등록 얼굴 영상으로 변환하여 얼굴인식 데이터베이스(142)에 등록하는 얼굴 등록 프로세스를 실행한다.The processor 120 executes a face registration process of converting the input previous input image into a registered face image and registering it in the face recognition database 142.

얼굴 등록 프로세스가 완료되면, 프로세서(120)는 입력된 현재 입력 영상을 입력 얼굴 영상(또는 쿼리 얼굴 영상)으로 변환하고, 입력 얼굴 영상과 등록 얼굴 영상을 블록 단위로 비교하여 입력 얼굴 영상에 대한 얼굴 인식 프로세스를 실행한다. 이때 프로세서(120)는 고정된 하나의 블록 크기를 기반으로 입력 얼굴 영상과 등록 얼굴 영상을 블록 단위로 비교하는 것이 아니라 적응적으로 변경된 다수의 블록 크기를 기반으로 입력 얼굴 영상과 등록 얼굴 영상을 블록 단위로 비교한다. 이러한 비교를 "적응적 블록 비교(또는 매칭) 방법"이라 지칭한다. When the face registration process is completed, the processor 120 converts the input current input image into an input face image (or a query face image), compares the input face image with the registered face image in units of blocks, and performs a face on the input face image. Run the recognition process. In this case, the processor 120 does not compare the input face image and the registered face image in units of blocks based on a fixed block size, but blocks the input face image and the registered face image based on a plurality of adaptively changed block sizes. Compare in units. This comparison is referred to as the "adaptive block comparison (or matching) method".

얼굴 등록 프로세스와 얼굴 인식 프로세스를 실행하기 위해, 프로세서(120)는, 예를 들면, CPU(central processing unit), GPU(graphic processing unit) 또는 이들의 조합으로 구현될 수 있다. 프로세서(120)에 대한 설명은 아래에서 상세히 기술한다.In order to execute the face registration process and the face recognition process, the processor 120 may be implemented by, for example, a central processing unit (CPU), a graphic processing unit (GPU), or a combination thereof. Description of the processor 120 is described in detail below.

사용자 인터페이스(130)는 사용자에 의해 입력되는 명령을 프로세서(120)에게 전달하는 것일 수 있다. 명령은, 예를 들면, 얼굴 등록 프로세스와 얼굴 인식 프로세스의 시작, 제어 및 종료와 관련된 것일 수 있다. 사용자 인터페이스(130)는, 예를 들면, 키보드, 터치 스크린에 기반한 다양한 입력 수단일 수 있다.The user interface 130 may transmit a command input by the user to the processor 120. The command may, for example, relate to the start, control and end of the face registration process and the face recognition process. The user interface 130 may be various input means based on, for example, a keyboard and a touch screen.

메모리(140)는 얼굴 등록 프로세스와 얼굴 인식 프로세스의 실행에 필요한 다수의 소프트웨어들을 저장할 수 있다. 나아가, 메모리(140)는 얼굴 등록 프로세스와 얼굴 인식 프로세스의 실행에 의해 생성된 중간(intermediate) 데이터, 최종 결과 데이터 등을 저장할 수 있다. 중간 데이터는 프로세서(120) 내의 각 구성들(121, 122, 123, 124, 125)에서 출력하는 데이터일 수 있고, 최종 결과 데이터는 얼굴인식 데이터베이스(142), 프로세서(120) 내의 얼굴 인식부(126)에서 출력되는 얼굴 인식 결과 등을 포함한다. The memory 140 may store a plurality of software required for executing the face registration process and the face recognition process. Furthermore, the memory 140 may store intermediate data, final result data, etc. generated by the face registration process and the face recognition process. The intermediate data may be data output from the components 121, 122, 123, 124, and 125 in the processor 120, and the final result data may be the face recognition database 142 and the face recognition unit in the processor 120. And a face recognition result output from 126).

메모리(140)는 저장된 정보를 유지하기 위해 지속적인 전력 공급을 요구하지 않는 비-휘발성 메모리(Non-volatile memory)와 저장된 정보를 유지하기 위해 지속적인 전력 공급을 요구하는 휘발성 메모리(volatile memory)를 포함한다. 비-휘발성 메모리는, 예를 들면, 롬(ROM), 플래시 메모리, 하드 디스크, 광디스크 드라이브 등을 포함한다. 휘발성 메모리는, 예를 들면, 램(RAM)일 수 있다.Memory 140 includes non-volatile memory that does not require a continuous power supply to maintain stored information and volatile memory that requires a continuous power supply to maintain stored information. . Non-volatile memory includes, for example, a ROM, a flash memory, a hard disk, an optical disk drive, and the like. The volatile memory may be, for example, RAM.

디스플레이(150)는 얼굴 등록 프로세스와 얼굴 인식 프로세스의 처리 과정 또는 처리 결과에 대한 정보를 표시할 수 있다.The display 150 may display information about a process or a result of the face registration process and the face recognition process.

통신부(160)는 얼굴 등록 프로세스와 얼굴 인식 프로세스에 따른 처리 결과를 외부 장치로 송신하거나 외부장치로부터 얼굴 등록 프로세스와 얼굴 인식 프로세스와 관련된 데이터 정보 등을 수신하는 것으로, 유선 통신 또는 무선 통신을 지원하는 것일 수 있다. 무선 통신은, 예를 들면, 이동 통신, 근거리 무선 통신, 인터넷 통신 등을 포함한다.The communicator 160 transmits processing results according to the face registration process and the face recognition process to an external device or receives data information related to the face registration process and the face recognition process from an external device, and supports wired communication or wireless communication. It may be. Wireless communication includes mobile communication, short-range wireless communication, Internet communication, and the like, for example.

이하, 프로세서(120)에서 실행되는 얼굴 등록 프로세스와 얼굴 인식 프로세스에 대해 상세히 기술한다.Hereinafter, the face registration process and the face recognition process executed by the processor 120 will be described in detail.

프로세서(120)Processor 120

프로세서(120)는 얼굴 등록 프로세스와 얼굴 인식 프로세스를 실행하기 위해, 기능 단위로 구분되는 다수의 유닛을 포함하도록 구성될 수 있다. 예를 들면, 프로세서(120)는 얼굴 검출부(121), 전처리부(122), 블록 구획부(123), 특징값 추출부(124), 유사도 계산부(125) 및 얼굴 인식부(126)를 포함할 수 있다.The processor 120 may be configured to include a plurality of units divided into functional units to execute the face registration process and the face recognition process. For example, the processor 120 may include a face detector 121, a preprocessor 122, a block partitioner 123, a feature value extractor 124, a similarity calculator 125, and a face recognizer 126. It may include.

도 1에서 프로세서(120) 내의 각 구성들 사이에는 점선 화살표와 실선 화살표가 나타난다. 점선 화살표는 각 구성들이 얼굴 등록 프로세스의 실행에 따라 출력하는 신호의 흐름이고, 실선 화살표는 각 구성들이 얼굴 인식 프로세스의 실행에 따라 출력하는 신호의 흐름을 나타낸 것이다.In FIG. 1, dotted arrows and solid arrows appear between the components in the processor 120. The dashed arrows indicate the flow of signals that each component outputs according to the execution of the face registration process, and the solid arrows indicate the flow of signals that each component outputs according to the execution of the facial recognition process.

프로세스의 실행 순서에서, 얼굴 등록 프로세스가 완료된 이후에 얼굴 인식 프로세스가 실행됨을 유의해야 한다. 따라서 아래의 각 구성에서 얼굴 등록 프로세스와 관련된 정보 처리 과정(이전 시간에 입력된 이전 입력 영상의 처리)과 얼굴 인식 프로세스와 관련된 정보 처리 과정(현재 시간에 입력된 현재 입력 영상의 처리)을 함께 설명하지만, 이는 설명의 편의를 위함일 뿐, 동시에 실행되는 것이 아님을 유의해야 한다.In the execution order of the processes, it should be noted that the face recognition process is executed after the face registration process is completed. Therefore, in each of the following configurations, the information processing process related to the face registration process (processing of the previous input image input at the previous time) and the information processing process related to the face recognition process (processing of the current input image input at the current time) are described together. However, it should be noted that this is for convenience of description only and is not executed at the same time.

얼굴 Face 검출부Detector (121)(121)

얼굴 검출부(121)는 입력된 이전 입력 영상(P1)으로부터 검출된 얼굴 영역을 얼굴 영상(P2, 이하, 등록 얼굴 영상)으로서 출력하고, 입력된 현재 입력 영상(C1)으로부터 검출된 얼굴 영역을 얼굴 영상(C2, 이하, 입력 얼굴 영상)으로서 검출한다. The face detector 121 outputs a face region detected from the input previous input image P1 as a face image P2 (hereinafter, a registered face image) and faces a face region detected from the input current input image C1. It detects as an image (C2, hereinafter, input face image).

얼굴 검출 방법으로, 지식 기반 방법, 특징 기반 방법, 템플릿 매칭 방법, 외형 기반 방법 등이 이용될 수 있으며, 구체적인 예로, Haar-like 특징 기반의 아다부스트(Adaboost) 학습 알고리즘을 이용하여 입력영상으로부터 얼굴영역을 검출할 수 있다. 그러나, 본 명세서에서는 특정한 얼굴 검출 기술에 한정하지 않는다. As a face detection method, a knowledge-based method, a feature-based method, a template matching method, an appearance-based method, and the like may be used. As a specific example, a face from an input image using an Adaboost learning algorithm based on a Haar-like feature may be used. The area can be detected. However, the present specification is not limited to a specific face detection technique.

참고로, 아다부스트(AdaBoost) 학습 알고리즘은 여러 개의 약한 분류기들의 선형적인 결합을 통하여 최종적으로 높은 검출 성능을 가지는 강한 분류기를 그룹화하는 분류기법의 하나이다.For reference, the AdaBoost learning algorithm is one of classification techniques for grouping strong classifiers with high detection performance through linear combination of several weak classifiers.

전처리부(122)Preprocessor (122)

전처리부(122)는 얼굴 검출부(121)로부터 입력된 등록 얼굴 영상(P2)과 입력 얼굴 영상(C2)에 대해 전처리(pre-processing) 프로세스를 실행하여, 전처리된 등록 얼굴 영상(P3)과 전처리된 입력 얼굴 영상(C3)을 출력한다. The preprocessor 122 performs a pre-processing process on the registered face image P2 and the input face image C2 input from the face detector 121, thereby preprocessing the registered face image P3 and the preprocess. The output input face image C3.

전처리부(122)는, 예를 들면, 등록 얼굴 영상(P2)과 입력 얼굴 영상(C2)을 각각 리사이징(resizing)하여 정규화하고, 정규화된 등록 얼굴 영상(P2)과 입력 얼굴 영상(C2)의 각 화소들에 대하여 LBP(Local Binary Pattern) 패턴을 변환시키는 전처리를 수행할 수 있다. The preprocessor 122 resizes the registered face image P2 and the input face image C2, for example, and normalizes them, respectively, and normalizes the registered face image P2 and the input face image C2. For each pixel, preprocessing for converting a local binary pattern (LBP) pattern may be performed.

이진 패턴 변환 방법에는 MCS-LBP(Modified Center Symmetric Local Binary Pattern), MLDP(Modified Local Directional Pattern), CGP(Centralized Gradient Pattern) 중 하나가 사용될 수 있다.The binary pattern conversion method may use one of a Modified Center Symmetric Local Binary Pattern (MCS-LBP), a Modified Local Directional Pattern (MLDP), and a Centralized Gradient Pattern (CGP).

블록 block 구획부Compartment (123)(123)

블록 구획부(123)는 전처리된 등록 얼굴 영상(P3)과 전처리된 입력 얼굴 영상(C3)을 블록 크기가 적응적으로 가변되는 다양한 블록 단위로 구획한다. The block partitioner 123 partitions the preprocessed registered face image P3 and the preprocessed input face image C3 into various block units in which the block size is adaptively changed.

일 예에서, 블록 구획부(123)는 제1 블록 크기를 정의하는 제1 블록 단위로 등록 얼굴 영상(P3)과 입력 얼굴 영상(C3)을 구획할 수 있다. 제1 블록 단위로 구획된 등록 얼굴 영상과 입력 얼굴 영상의 예가 도 2에 나타난다.In an example, the block partitioner 123 may partition the registered face image P3 and the input face image C3 in units of first blocks that define the first block size. An example of a registered face image and an input face image divided in units of first blocks is shown in FIG. 2.

도 2에서 P4-1는 제1 블록 단위로 구획된 등록 얼굴 영상(이하, '제1 등록 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이고, C4-1는 제1 블록 단위로 구획된 입력 얼굴 영상(이하, '제1 입력 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이다. 도 2에 도시된 바와 같이, 제1 블록 단위로 구획된 제1 등록 얼굴 영상과 제1 입력 얼굴 영상의 경우, 2×2의 블록들로 구획될 수 있다.In FIG. 2, P4-1 is a reference number indicating an example of a registered face image (hereinafter, referred to as a 'first registered face image') divided in a first block unit, and C4-1 is divided in a first block unit. Reference number indicating an example of an input face image (hereinafter referred to as a 'first input face image'). As illustrated in FIG. 2, in the case of the first registered face image and the first input face image partitioned by the first block unit, the block may be divided into 2 × 2 blocks.

다른 예에서, 블록 구획부(123)는 제1 블록 크기보다 작은 제2 블록 크기를 정의하는 제2 블록 단위로 등록 얼굴 영상(P3)과 입력 얼굴 영상(C3)을 구획할 수 있다. In another example, the block partitioner 123 may partition the registered face image P3 and the input face image C3 in units of second blocks that define a second block size smaller than the first block size.

도 2에서 P4-2는 제2 블록 단위로 구획된 등록 얼굴 영상(이하, '제2 등록 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이고, C4-2는 제2 블록 단위로 구획된 입력 얼굴 영상(이하, '제2 입력 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이다. 도 2에 도시된 바와 같이, 제2 블록 단위로 구획된 제2 등록 얼굴 영상과 제2 입력 얼굴 영상의 경우, 4×4의 블록들로 구획될 수 있다.In FIG. 2, P4-2 is a reference number indicating an example of a registered face image (hereinafter, referred to as a 'second registered face image') divided in units of second blocks, and C4-2 is divided in units of second blocks. Reference number indicating an example of an input face image (hereinafter referred to as a 'second input face image'). As illustrated in FIG. 2, in the case of the second registered face image and the second input face image partitioned by the second block unit, the second registered face image may be divided into 4 × 4 blocks.

또 다른 예에서, 블록 구획부(123)는 제2 블록 크기보다 작은 제3 블록 크기를 정의하는 제3 블록 단위로 등록 얼굴 영상(P3)과 입력 얼굴 영상(C3)을 구획할 수 있다.In another example, the block partitioner 123 may partition the registered face image P3 and the input face image C3 in units of third blocks that define a third block size smaller than the size of the second block.

도 2에서 P4-3은 제3 블록 단위로 구획된 등록 얼굴 영상(이하, '제3 등록 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이고, C4-3은 제3 블록 단위로 구획된 입력 얼굴 영상(이하, '제3 입력 얼굴 영상'이라 함)의 예를 지시하는 참조 번호이다. 도 2에 도시된 바와 같이, 제3 블록 단위로 구획된 제3 등록 얼굴 영상과 제3 입력 얼굴 영상의 경우, 6×6의 블록들로 구획될 수 있다.In FIG. 2, P4-3 is a reference number indicating an example of a registered face image (hereinafter, referred to as a 'third registered face image') divided in units of third blocks, and C4-3 is divided in units of third blocks. Reference number indicating an example of an input face image (hereinafter referred to as a 'third input face image'). As illustrated in FIG. 2, in the case of the third registered face image and the third input face image partitioned by the third block unit, the third registered face image may be divided into 6 × 6 blocks.

도시하지는 않았으나, 추가 예에서, 블록 구획부(123)는 더 많은 블록들로 등록 얼굴 영상과 입력 얼굴 영상을 구획할 수 있다. Although not shown, in a further example, the block dividing unit 123 may divide the registered face image and the input face image into more blocks.

설명의 편의를 위해, 이하에서는, 블록 구획부(123)가 전처리된 등록 얼굴 영상(P3)과 입력 얼굴 영상(C3)을 각각 제1 블록 단위 및 제2 블록 단위로 구획하는 것으로 가정한다. For convenience of explanation, hereinafter, it is assumed that the block dividing unit 123 divides the preprocessed registered face image P3 and the input face image C3 into first block units and second block units, respectively.

특징값 Feature Value 추출부Extraction unit (124)(124)

특징값 추출부(124)는 제1 블록 단위로 구획된 제1 등록 얼굴 영상(P4-1)의 각 블록에서 특징값(들)을 추출하고, 제2 블록 단위로 구획된 제2 등록 얼굴 영상(P4-2)의 각 블록에서 특징값(들)을 추출한다. 예를 들면, 제1 등록 얼굴 영상(P4-1)이 2×2개의 제1 블록 단위로 구획되는 경우, 2×2개의 특징값들이 추출되고, 제2 등록 얼굴 영상(P4-2)이 4×4개의 제2 블록 단위로 구획되는 경우, 4×4개의 특징값들이 추출된다. The feature value extractor 124 extracts the feature value (s) from each block of the first registered face image P4-1 partitioned by the first block unit, and the second registered face image partitioned by the second block unit. The feature value (s) are extracted from each block of (P4-2). For example, when the first registered face image P4-1 is partitioned into 2 × 2 first block units, 2 × 2 feature values are extracted, and the second registered face image P4-2 is four. In the case of being partitioned into x 4 second block units, 4 x 4 feature values are extracted.

이와 같이, 제1 블록 단위로 특징값이 추출된 제1 등록 얼굴 영상(P5-1)과 제2 블록 단위로 특징값이 추출된 제2 등록 얼굴 영상(P5-2)은 얼굴인식 데이터베이스(142)에 등록된다.As described above, the first registered face image P5-1 from which the feature value is extracted in the first block unit and the second registered face image P5-2 from which the feature value is extracted in the second block unit are the face recognition database 142. Is registered).

특징값 추출부(124)는 제1 블록 단위로 구획된 제1 입력 얼굴 영상(C4-1)의 각 블록에서 특징값(들)을 추출하고, 제2 블록 단위로 구획된 제2 입력 얼굴 영상(C4-2)의 각 블록에서 특징값(들)을 추출한다. 예를 들면, 제1 입력 얼굴 영상(P4-1)이 제1 블록 단위로 구획되는 경우, 2×2개의 특징값들이 추출되고, 제2 입력 얼굴 영상(P4-2)이 제2 블록 단위로 구획되는 경우, 4×4개의 특징값들이 추출된다. The feature value extractor 124 extracts the feature value (s) from each block of the first input face image C4-1 partitioned by the first block unit, and the second input face image partitioned by the second block unit. The feature value (s) is extracted from each block of (C4-2). For example, when the first input face image P4-1 is partitioned in the first block unit, 2 × 2 feature values are extracted, and the second input face image P4-2 is in the second block unit. When partitioned, 4x4 feature values are extracted.

이와 같이, 제1 블록 단위로 특징값이 추출된 제1 입력 얼굴 영상(C5-1)과 제2 블록 단위로 특징값이 추출된 제2 입력 얼굴 영상(C5-2)은 얼굴인식 데이터베이스(142)에 등록된 제1 등록 얼굴 영상(P5-1) 및 제2 등록 얼굴 영상(P5-2)과 각각 비교되기 위해, 유사도 계산부(125)로 출력된다.As described above, the first input face image C5-1 from which the feature value is extracted in the first block unit and the second input face image C5-2 from which the feature value is extracted in the second block unit are the face recognition database 142. In order to be compared with each of the first registered face image P5-1 and the second registered face image P5-2 registered in FIG. 9), the similarity calculator 125 is output to the similarity calculator 125.

한편, 각 블록에서 추출되는 특징값은 얼굴에 대한 고유한 특정을 나타내는 정보를 말한다. 이러한 특징값을 추출하는 방법으로, PCA(Principal Component Analysis), LDA(Linear Discriminate Analysis) 등이 선택적으로 사용될 수 있다. On the other hand, the feature value extracted from each block refers to information representing the unique specification for the face. As a method of extracting such feature values, PCA (Principal Component Analysis), LDA (Linear Discriminate Analysis), etc. may be selectively used.

다른 예로서, 2차원의 영상 행렬을 기반으로 얼굴영상 또는 변환된 영상의 특징정보를 추출할 수 있는 2D-PCA(2-Dimensional Principal Component Analysis) 기법을 이용할 수 있다. As another example, a 2-Dimensional Principal Component Analysis (2D-PCA) technique may be used to extract feature information of a face image or a converted image based on a two-dimensional image matrix.

2D-PCA 기법은 일반적인 PCA 기법에 비하여 프로젝션 행렬의 크기가 작아지므로, 이로 인하여 연산량 및 필요 메모리를 상대적으로 낮출 수 있기에 휴대용 장치, 저사양의 임베디드 시스템 등에 용이하게 적용될 수 있다. Since the size of the projection matrix is smaller than that of the general PCA method, the 2D-PCA technique can be easily applied to portable devices, low-end embedded systems, etc., because the amount of computation and required memory can be relatively low.

유사도 Similarity 계산부Calculation (125)(125)

유사도 계산부(125)는 상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제1 블록 유사도를 계산하고, 상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제2 블록 유사도를 계산한다. The similarity calculator 125 calculates a first block similarity by comparing feature values of the first input face image and the first registered face image in block units, and calculates the second input face image and the second registered face image. The second block similarity is calculated by comparing the feature values in units of blocks.

구체적으로, 제1 블록 유사도를 계산하기 위해, 유사도 계산부(125)는 상기 제1 입력 얼굴 영상(C5-1)의 특징값과 상기 제1 등록 얼굴 영상(P5-1)의 특징값을 동일한 위치의 블록끼리 블록 단위로 비교하여 다수의 블록 유사도들을 계산한다. 이 경우, 2×2개의 블록들로 구획된 제1 입력 얼굴 영상(C5-1)의 특징값과 2×2개의 블록들로 구획된 제1 등록 얼굴 영상(P5-1)의 특징값을 블록 단위로 비교하여 대응하는 블록들 간의 유사도를 계산하는 경우, 2×2개의 블록 유사도들이 계산될 수 있다.Specifically, in order to calculate the first block similarity, the similarity calculator 125 equals the feature value of the first input face image C5-1 and the feature value of the first registered face image P5-1. A plurality of block similarities are calculated by comparing blocks of positions in block units. In this case, the feature value of the first input face image C5-1 partitioned into 2 × 2 blocks and the feature value of the first registered face image P5-1 partitioned into 2 × 2 blocks are blocked. When the similarity between the corresponding blocks is calculated by comparing in units, 2 × 2 block similarities may be calculated.

다수의 블록 유사도들의 계산이 완료되면, 유사도 계산부(125)는 사전에 설정된 선별 규칙에 따라, 상기 다수의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별한다. 여기서, 상한치와 하한치는 설계에 따라 다양하게 설정될 수 있으며, 예를 들면, 상한치는 상기 다수의 블록 유사도들 중에서 상위 25%에 속하는 블록 유사도들 중에서 가장 낮은 블록 유사도일 수 있고, 하한치는 상기 다수의 블록 유사도들 중에서 하위 25%에 속하는 블록 유사도들 중에서 가장 높은 블록 유사도일 수 있다. When the calculation of the plurality of block similarities is completed, the similarity calculator 125 determines the middle of the plurality of block similarities except the upper block similarities larger than an upper limit and the lower block similarities smaller than a lower limit according to a preset selection rule. Select block similarities. Here, the upper limit value and the lower limit value may be set in various ways according to the design. For example, the upper limit value may be the lowest block similarity among the block similarities belonging to the upper 25% among the plurality of block similarities, and the lower limit may be set to the plurality of block similarities. It may be the highest block similarity among the block similarities belonging to the lower 25% among the block similarities of.

중간 블록 유사도들의 선별이 완료되면, 유사도 계산부(125)는 상기 중간 블록 유사도들을 합산하여 상기 제1 블록 유사도를 계산한다.When the selection of the intermediate block similarities is completed, the similarity calculator 125 calculates the first block similarity by adding the intermediate block similarities.

제2 블록 유사도의 계산 과정은 제1 블록 유사도의 계산 과정과 유사하다.The calculation process of the second block similarity is similar to the calculation process of the first block similarity.

즉, 유사도 계산부(125)는 상기 제2 입력 얼굴 영상(C5-2)과 상기 제2 등록 얼굴 영상(P5-2)의 특징값을 블록 단위로 비교하여 다수의 블록 유사도들을 계산하고, 사전에 설정된 선별 규칙에 따라, 상기 다수의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별한 후, 상기 선별된 중간 블록 유사도들을 합산하여 상기 제2 블록 유사도를 계산한다. That is, the similarity calculator 125 calculates a plurality of block similarities by comparing feature values of the second input face image C5-2 and the second registered face image P5-2 in units of blocks. According to the selection rule set in the above, after selecting the remaining middle block similarities except the upper block similarity larger than the upper limit and the lower block similarity smaller than the lower limit among the plurality of block similarities, the selected intermediate block similarities are summed Calculate the two block similarity.

제1 및 제2 블록 유사도의 계산이 완료되면, 유사도 계산부(125)는 상기 제1 블록 유사도와 상기 제2 블록 유사도를 합산하여, 상기 입력 얼굴 영상(C5)과 상기 등록 얼굴 영상(P5) 간의 최종 유사도를 계산한다. 이러한 최종 유사도는 상기 얼굴인식 데이터베이스에 등록된 모든 등록 얼굴 영상에 대해 계산된다.When the calculation of the first and second block similarities is completed, the similarity calculator 125 adds the first block similarity and the second block similarity, and thus the input face image C5 and the registered face image P5. Calculate the final similarity between the livers. This final similarity is calculated for all registered face images registered in the face recognition database.

이와 같이, 블록 크기 별로 계산된 블록 유사도를 모두 합산하여 상기 입력 얼굴 영상(C5)과 상기 등록 얼굴 영상(P5) 간의 최종 유사도를 계산함으로써, 최종 유사도의 정확도를 높일 수 있다. As described above, the final similarity between the input face image C5 and the registered face image P5 is calculated by summing all the block similarities calculated for each block size, thereby increasing the accuracy of the final similarity.

블록 크기를 더 세분화하여 합산되는 블록 유사도의 개수가 늘어난다면 더욱 정확한 최종 유사도를 계산할 수 있을 것이다. 다만, 이러한 경우, 비교되는 블록 쌍의 개수가 늘어나기 때문에, 유사도 계산에 따른 연산량이 증가할 수 있다. 따라서, 하드웨어 성능을 충분히 고려하여 가변되는 블록 크기의 범위는 적절하게 조정될 필요가 있다.If the block size is further subdivided to increase the number of block similarities, the more accurate final similarity may be calculated. However, in this case, since the number of block pairs to be compared increases, the amount of calculation according to the similarity calculation may increase. Therefore, in consideration of hardware performance, a range of variable block sizes needs to be appropriately adjusted.

블록 크기의 범위는 사용자에 의해 선택될 수 있다. 예를 들면, 블록 구획부(123)가 2×2개의 블록 단위, 4×4개의 블록 단위, 8×8개의 블록 단위, 16×16개의 블록 단위, 32×32개의 블록 단위로 이루어진 5개의 구획 프로세스를 지원하는 경우, 사용자 인터페이스(130)를 통해 사용자로부터 입력되는 선택 명령에 따라 3개 또는 4개의 구획 프로세스가 실행될 수 있다.The range of block sizes can be selected by the user. For example, the block partition unit 123 has five partitions each composed of 2 × 2 block units, 4 × 4 block units, 8 × 8 block units, 16 × 16 block units, and 32 × 32 block units. When supporting the process, three or four compartment processes may be executed according to a selection command input from the user through the user interface 130.

한편, 블록 유사도는 아래의 수학식 1에 의해 계산될 수 있다.Meanwhile, the block similarity may be calculated by Equation 1 below.

Figure pat00001
Figure pat00001

여기서, sim(a, b)는 a와 b의 유사도를 구하는 함수이고, Finput(i, j)는 쿼리로 입력된 입력 얼굴 영상의 i 번째 행, j 번째 열에 위치한 블록의 특징값이고,

Figure pat00002
는 L번째 등록된 사람의 g 번째 등록 얼굴 영상에서 i 번째 행, j 번째 열에 위치한 블록의 특징값이다. 따라서 상기 수학식 1은 입력 얼굴 영상과 등록 얼굴 영상을 소정의 블록 단위로 블록화시켜 블록 매트릭스를 구성하였을 때, 입력 얼굴 영상의 (i, j)째 블록과 등록 얼굴 영상의 (i, j)째 블록의 유사도를 산출하기 위한 식이다.Here, sim (a, b) is a function for calculating the similarity between a and b, F input (i, j) is a feature value of the block located in the i th row and j th column of the input face image input by the query.
Figure pat00002
Is the feature value of the block located in the i th row and the j th column of the g th registration face image of the L th registered person. Therefore, in Equation 1, when the input face image and the registered face image are blocked by a predetermined block unit to form a block matrix, the (i, j) th block of the input face image and the (i, j) th of the registered face image The equation for calculating the similarity of blocks.

얼굴 Face 인식부Recognition (125)(125)

얼굴 인식부(125)는 유사도 계산부(125)에 의해 계산된 최종 유사도를 얼굴인식 데이터베이스(140)에 등록된 모든 등록 얼굴 영상에 대해 추출하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력한다. 즉, 얼굴 인식부(125)는 얼굴인식 데이터베이스(140)에 등록된 개인별 최종 유사도값 중에서 가장 큰 값을 갖는 등록자를 입력 얼굴 영상에 매칭되는 사람으로 인식한다. The face recognition unit 125 extracts the final similarity calculated by the similarity calculator 125 for all registered face images registered in the face recognition database 140 and inputs the registered face image having the maximum final similarity. Output as a result of face image recognition. That is, the face recognition unit 125 recognizes the registrant having the largest value among individual final similarity values registered in the face recognition database 140 as a person matching the input face image.

상기 인식결과는 디스플레이(150)를 통해 시각적인 정보 형태로 출력되거나 통신부(160)를 통해 원거리에 위치한 외부 장치로 송신될 수 있다. The recognition result may be output in the form of visual information through the display 150 or transmitted to an external device located at a far distance through the communication unit 160.

이상 설명한 바와 같이, 본 발명의 얼굴 인식 장치(100)에 의하면, 블록 크기별로 계산된 블록 유사도를 모두 합산하여 상기 입력 얼굴 영상(C5)과 상기 등록 얼굴 영상(P5) 간의 최종 유사도를 계산함으로써, 최종 유사도의 정확도를 높임으로써, 궁극적으로 얼굴 인식에 대한 오류를 최소화할 수 있다.As described above, according to the face recognizing apparatus 100 of the present invention, by calculating the final similarity between the input face image C5 and the registered face image P5 by summing all the block similarities calculated for each block size, By increasing the accuracy of the final similarity, ultimately, errors in face recognition can be minimized.

도 3은 본 발명의 일 실시 예에 따른 얼굴 인식 방법의 흐름도이고, 도 4는 도 3에 도시한 단계 S310의 상세 흐름도이고, 도 5는 도 3에 도시한 단계 S360의 상세 흐름도이다. 아래의 각 단계에서 도 1 및 2를 참조하여 설명한 내용과 중복되는 내용은 간략히 기재하거나 생략하기로 한다.3 is a flowchart of a face recognition method according to an embodiment of the present disclosure, FIG. 4 is a detailed flowchart of step S310 illustrated in FIG. 3, and FIG. 5 is a detailed flowchart of step S360 illustrated in FIG. 3. In the steps below, contents overlapping with those described with reference to FIGS. 1 and 2 will be briefly described or omitted.

도 3을 참조하면, 단계 S310에서, 특징값이 추출된 얼굴 등록 영상을 얼굴인식 데이터베이스에 등록하는 과정이 수행된다. 이에 대한 상세한 과정이 도 4에 도시된다. Referring to FIG. 3, in step S310, a process of registering a face registration image from which feature values have been extracted into a face recognition database is performed. A detailed process for this is shown in FIG. 4.

도 4를 참조하면, 얼굴 등록 영상을 얼굴인식 데이터베이스에 등록하기 위해, 먼저, 단계 S311에서, 영상 획득부(110)로부터 획득된 이전 입력 영상(P1)으로부터 얼굴 영역(P2, 이하, 등록 얼굴 영상)을 검출하는 과정이 수행된다. 여기서, 등록 얼굴 영상(P2)을 검출하는 방법으로, 지식 기반 방법, 특징 기반 방법, 템플릿 매칭 방법, 외형 기반 방법, Haar-like 특징 기반의 아다부스트(Adaboost) 학습 알고리즘 등이 이용될 수 있다.Referring to FIG. 4, in order to register a face registration image in a face recognition database, first, in step S311, a face region P2, hereinafter, a registered face image from a previous input image P1 obtained from the image obtaining unit 110. ) Is performed. Here, as a method of detecting the registered face image P2, a knowledge-based method, a feature-based method, a template matching method, an appearance-based method, a Haar-like feature-based Adaboost learning algorithm, and the like may be used.

이어, 단계 S313에서, 검출된 등록 얼굴 영상(P2)을 전처리하는 과정이 수행된다. 전처리 과정은, 예를 들면, 등록 얼굴 영상(P2)을 리사이징(resizing)하여 정규화하고, 정규화된 등록 얼굴 영상(P2)의 각 화소들에 대하여 LBP(Local Binary Pattern) 패턴을 변환시키는 과정으로 이루어질 수 있다. 여기서, 이진 패턴 변환 방법에는 MCS-LBP(Modified Center Symmetric Local Binary Pattern), MLDP(Modified Local Directional Pattern), CGP(Centralized Gradient Pattern) 중 하나가 사용될 수 있다.Next, in step S313, a process of preprocessing the detected registered face image P2 is performed. For example, the preprocessing may be performed by resizing the registered face image P2 to normalize it, and converting a LBP pattern for each pixel of the normalized registered face image P2. Can be. Here, one of MCS-LBP (Modified Center Symmetric Local Binary Pattern), MLDP (Modified Local Directional Pattern), and CGP (Centralized Gradient Pattern) may be used as the binary pattern conversion method.

이어, 단계 S315에서, 전처리된 등록 얼굴 영상(P3)을 서로 다른 블록 단위로 구획하여, 제1 및 제2 등록 얼굴 영상(P4-1, P4-2)으로 분류하는 과정이 수행된다. 예를 들면, 전처리된 등록 얼굴 영상(P3)을 하나의 블록이 제1 블록 크기로 정의되는 제1 블록 단위로 구획된 제1 등록 얼굴 영상(P4-1)과 하나의 블록이 상기 제1 블록 크기보다 작은 제2 블록 크기로 정의되는 제2 블록 단위로 구획된 제2 등록 얼굴 영상(P4-2)으로 분류한다. 이때, 제1 등록 얼굴 영상(P4-1)에 구획된 블록의 개수는 M×N이고, 제2 등록 얼굴 영상(P4-2)에 구획된 블록의 개수는 m×n이다. 여기서, M×N은 m×n보다 작은 값이다.Subsequently, in step S315, a process of dividing the preprocessed registered face image P3 into different block units and classifying the first and second registered face images P4-1 and P4-2 is performed. For example, the first registered face image P4-1 divided into pre-processed registered face images P3 by a first block unit in which one block is defined as a first block size, and one block are the first blocks. The image is classified into a second registered face image P4-2 partitioned into second block units defined by a second block size smaller than the size. In this case, the number of blocks partitioned in the first registered face image P4-1 is M × N, and the number of blocks partitioned in the second registered face image P4-2 is m × n. Here, M × N is a value smaller than m × n.

이어, 단계 S317에서, 제1 등록 얼굴 영상(P4-1)의 각 블록에서 특징값을 추출하고, 제2 등록 얼굴 영상(P4-2)의 각 블록에서 특징값을 추출하는 과정이 수행된다. 제1 등록 얼굴 영상(P4-1)에 구획된 블록의 개수는 M×N이므로, 제1 등록 얼굴 영상(P4-1)에서 추출된 특징값은 M×N개의 특징값들로 이루어지며, 제2 등록 얼굴 영상(P4-2)에서 구획된 블록의 개수는 m×n이므로, 제2 등록 얼굴 영상(P4-2)에서 추출된 특징값은 m×n개의 특징값들로 이루어진다.Next, in step S317, a feature value is extracted from each block of the first registered face image P4-1, and a feature value is extracted from each block of the second registered face image P4-2. Since the number of blocks partitioned in the first registered face image P4-1 is M × N, the feature value extracted from the first registered face image P4-1 includes M × N feature values. Since the number of blocks partitioned from the two registered face images P4-2 is m × n, the feature value extracted from the second registered face image P4-2 includes m × n feature values.

이어, 단계 S319에서, 특징값(M×N개의 특징값들)이 추출된 제1 등록 얼굴 영상(P5-1)과 특징값(m×n개의 특징값들)이 추출된 제2 등록 얼굴 영상(P5-2)가 얼굴인식 데이터베이스(142)에 등록되는 과정이 수행된다.In operation S319, the first registered face image P5-1 from which the feature values (M × N feature values) are extracted and the second registered face image from which the feature values (m × n feature values) are extracted A process of registering (P5-2) to the face recognition database 142 is performed.

다시 도 3을 참조하면, 단계 S320에서, 현재 입력 영상(C1)에서 인식 대상이 되는 입력 얼굴 영상(C2)을 검출하는 과정이 수행된다. 입력 얼굴 영상(C2)의 검출 과정은 전술한 등록 얼굴 영상의 검출 과정(S311)과 동일하므로, 이에 대한 설명은 생략한다.Referring back to FIG. 3, in step S320, a process of detecting an input face image C2 as a recognition target from the current input image C1 is performed. Since the detection process of the input face image C2 is the same as the detection process S311 of the registered face image, the description thereof will be omitted.

이어, 단계 S330에서, 검출된 입력 얼굴 영상(C2)을 전처리 하는 과정이 수행된다. 입력 얼굴 영상(C2)의 전처리 과정은 등록 얼굴 영상(P2)의 전처리 과정(S313)과 동일하므로, 이에 대한 설명은 생략한다.Subsequently, in step S330, a process of preprocessing the detected input face image C2 is performed. Since the preprocessing process of the input face image C2 is the same as the preprocessing process S313 of the registered face image P2, a description thereof will be omitted.

이어, 단계 S340에서, 전처리된 입력 얼굴 영상을 서로 다른 블록 단위로 구획하여 제1 및 제2 입력 얼굴 영상(C4-1, C4-2)으로 분류하는 과정이 수행된다. 예를 들면, 전처리된 입력 얼굴 영상(C3)을 하나의 블록이 제1 블록 크기로 정의되는 제1 블록 단위로 구획된 제1 입력 얼굴 영상(C4-1)과 하나의 블록이 상기 제1 블록 크기보다 작은 제2 블록 크기로 정의되는 제2 블록 단위로 구획된 제2 입력 얼굴 영상(C4-2)으로 분류한다. 이때, 제1 입력 얼굴 영상(C4-1)에 구획된 블록의 개수는 M×N이고, 제2 입력 얼굴 영상(C4-2)에 구획된 블록의 개수는 m×n이다. 따라서, 제1 입력 얼굴 영상(C4-1)에 구획된 블록의 개수와 제1 등록 얼굴 영상(P4-1)에 구획된 블록의 개수는 동일하고, 제2 입력 얼굴 영상(C4-2)에 구획된 블록의 개수와 제2 등록 얼굴 영상(P4-2)에 구획된 블록의 개수는 동일하다.In operation S340, a process of dividing the preprocessed input face image into different block units and classifying the first and second input face images C4-1 and C4-2 is performed. For example, a first input face image C4-1 divided into a first block unit in which one block is defined as a first block size, and one block are preprocessed input face images C3. The image is classified into a second input face image C4-2 partitioned into second block units defined by a second block size smaller than the size. In this case, the number of blocks partitioned in the first input face image C4-1 is M × N, and the number of blocks partitioned in the second input face image C4-2 is m × n. Therefore, the number of blocks partitioned in the first input face image C4-1 and the number of blocks partitioned in the first registered face image P4-1 are the same, and the number of blocks partitioned in the first input face image C4-2 is the same. The number of partitioned blocks and the number of blocks partitioned in the second registered face image P4-2 are the same.

이어, 단계 S350에서, 제1 입력 얼굴 영상(P4-1)의 각 블록에서 특징값(M×N개의 특징값들)을 추출하고, 제2 입력 얼굴 영상(P4-2)의 각 블록에서 특징값(m×n개의 특징값들)을 추출하는 과정이 수행된다. 여기서, 특징값을 추출하는 방법은 전술한 등록 얼굴 영상의 각 블록에서 특징값을 추출하는 방법과 동일하다.In operation S350, a feature value (M × N feature values) is extracted from each block of the first input face image P4-1, and the feature is extracted from each block of the second input face image P4-2. A process of extracting a value (m × n feature values) is performed. Here, the method of extracting the feature value is the same as the method of extracting the feature value from each block of the registered face image.

이어, 단계 S360에서, 제1 및 제2 입력 얼굴 영상과 제1 및 제2 얼굴 등록 영상의 특징값을 블록 단위로 비교하여 최종 유사도 계산하는 과정이 수행된다. 이에 대한 상세 과정이 도 5에 도시된다. Subsequently, in operation S360, a process of calculating a final similarity is performed by comparing the feature values of the first and second input face images and the first and second face registered images in units of blocks. A detailed process for this is shown in FIG. 5.

도 5를 참조하면, 최종 유사도를 계산하기 위해, 먼저, 단계 S361에서, 상기 제1 입력 얼굴 영상(C5-1)의 특징값(M×N개의 특징값들)과 상기 제1 등록 얼굴 영상(P5-1)의 특징값(M×N개의 특징값들)을 블록 단위로 비교하여(동일한 위치의 블록끼리 1:1로 비교하여) 다수(M×N개)의 블록 유사도들을 계산하는 과정이 수행된다. Referring to FIG. 5, in order to calculate a final similarity, first, in step S361, a feature value (M × N feature values) of the first input face image C5-1 and the first registered face image ( P5-1) compares the feature values (M × N feature values) in units of blocks (comparing 1: 1 blocks of the same position) to calculate a plurality of (M × N) block similarities. Is performed.

이어, 단계 S362에서, 계산된 다수(M×N개)의 블록 유사도들 중에서 중간 블록 유사도들을 선별하는 과정이 수행된다. 예를 들면, 사전에 설정된 선별 규칙에 따라, 상기 다수(M×N개)의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별한다. 여기서, 상한치와 하한치는 설계에 따라 다양하게 설정될 수 있으며, 예를 들면, 상한치는 상기 다수의 블록 유사도들 중에서 상위 25%에 속하는 블록 유사도들 중에서 가장 낮은 블록 유사도일 수 있고, 하한치는 상기 다수의 블록 유사도들 중에서 하위 25%에 속하는 블록 유사도들 중에서 가장 높은 블록 유사도일 수 있다. Subsequently, in step S362, a process of selecting intermediate block similarities among the calculated (M × N) block similarities is performed. For example, the middle block similarities other than the upper block similarities larger than the upper limit and the lower block similarities smaller than the lower limit are selected from among the plurality (M × N) block similarities according to a preset selection rule. Here, the upper limit value and the lower limit value may be set in various ways according to the design. For example, the upper limit value may be the lowest block similarity among the block similarities belonging to the upper 25% among the plurality of block similarities, and the lower limit may be set to the plurality of block similarities. It may be the highest block similarity among the block similarities belonging to the lower 25% among the block similarities of.

이어, 단계 S363에서, 선별된 중간 블록 유사도들을 합산하여 제1 블록 유사도를 계산하는 과정이 수행된다.Then, in step S363, the process of calculating the first block similarity is performed by summing the selected intermediate block similarities.

이후, 제2 블록 유사도의 계산 과정이 수행된다. 제2 블록 유사도의 계산 과정은 제1 블록 유사도의 계산 과정과 동일하다.Thereafter, a calculation process of the second block similarity is performed. The calculation process of the second block similarity is the same as the calculation process of the first block similarity.

구체적으로, 단계 S364에서, 상기 제2 입력 얼굴 영상(C5-2)의 특징값(m×n개의 특징값들)과 상기 제2 등록 얼굴 영상(P5-2)의 특징값(m×n개의 특징값들)을 블록 단위로 비교하여(동일한 위치의 블록끼리 1:1로 비교하여) 다수(m×n개)의 블록 유사도들을 계산하는 과정이 수행된다. Specifically, in step S364, the feature values (m × n feature values) of the second input face image C5-2 and the feature values (m × n number) of the second registered face image P5-2. The feature values) are compared in units of blocks (comparing 1: 1 blocks of the same position) to calculate a plurality (m × n) of block similarities.

이어, 단계 S365에서, 계산된 다수(m×n개)의 블록 유사도들 중에서 중간 블록 유사도들을 선별하는 과정이 수행된다. 예를 들면, 상기 다수(m×n개)의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별한다.Subsequently, in step S365, a process of selecting middle block similarities among the calculated (m × n) block similarities is performed. For example, the middle block similarities except the upper block similarities larger than the upper limit and the lower block similarities smaller than the lower limit are selected from the plurality (m × n) block similarities.

이어, 단계 S366에서, 선별된 중간 블록 유사도들을 합산하여 제2 블록 유사도를 계산하는 과정이 수행된다.Subsequently, in operation S366, a process of calculating the second block similarity is performed by summing the selected intermediate block similarities.

제1 및 제2 블록 유사도가 계산되면, 단계 S367에서, 제1 블록 유사도와 제2 블록 유사도를 합산하여 최종 유사도를 계산하는 과정이 수행된다.When the first and second block similarities are calculated, a process of calculating the final similarity is performed by summing the first block similarity and the second block similarity.

다시 도 3을 참조하면, 최종 유사도의 계산이 완료되면, 단계 S370에서, 상기 최종 유사도를 얼굴인식 데이터베이스(142)에 등록된 모든 등록 얼굴 영상에 대해 계산하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력하는 과정을 끝으로, 입력 얼굴 영상에 대한 얼굴 인식과 관련된 일련의 모든 과정이 종료된다.Referring again to FIG. 3, when the calculation of the final similarity is completed, in step S370, the final similarity is calculated for all registered face images registered in the face recognition database 142, and the registered face image having the maximum final similarity is maximum. After the process of outputting the result of the recognition as the result of the input face image, all the series of processes related to face recognition of the input face image are completed.

이상에서 본 발명에 대하여 실시 예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 발명의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 본 발명의 실시 예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.Although the present invention has been described above with reference to the embodiments, these are merely examples and are not intended to limit the present invention. It will be appreciated that various modifications and applications are not illustrated. For example, each component shown in detail in the embodiment of the present invention may be modified. And differences relating to such modifications and applications will have to be construed as being included in the scope of the invention defined in the appended claims.

Claims (15)

하나의 등록 얼굴 영상을 제1 블록 단위로 특징값을 추출한 제1 등록 얼굴 영상과 제2 블록 단위로 특징값을 추출한 제2 등록 얼굴 영상으로 분류하여 얼굴인식 데이터베이스에 등록하는 단계;
인식 대상이 되는 하나의 입력 얼굴 영상을 상기 제1 블록 단위로 특징값을 추출한 제1 입력 얼굴 영상과 상기 제2 블록 단위로 특징값을 추출한 제2 입력 얼굴 영상으로 분류하는 단계;
상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제1 블록 유사도를 계산하고, 상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제2 블록 유사도를 계산하고, 상기 제1 블록 유사도와 상기 제2 블록 유사도를 이용하여, 상기 입력 얼굴 영상과 상기 등록 얼굴 영상 간의 최종 유사도를 계산하는 단계; 및
상기 최종 유사도를 상기 얼굴인식 데이터베이스에 등록된 모든 등록 얼굴 영상에 대해 추출하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력하는 단계를 포함하는 얼굴 인식 방법.
Classifying one registered face image into a first registered face image from which feature values are extracted in units of first blocks and a second registered face image from which feature values are extracted in units of second blocks, and registering the registered face images in a face recognition database;
Classifying one input face image to be recognized into a first input face image from which feature values are extracted in units of the first block and a second input face image from which feature values are extracted in units of the second block;
Comparing feature values of the first input face image and the first registered face image in block units, a first block similarity is calculated, and feature values of the second input face image and the second registered face image in block units. Calculating a second block similarity by comparison, and calculating a final similarity between the input face image and the registered face image by using the first block similarity and the second block similarity; And
Extracting the final similarity for all registered face images registered in the face recognition database, and outputting a registered face image having the maximum similarity as a recognition result of the input face image.
제1항에서, 상기 제1 블록 단위로 구획된 하나의 블록 크기와 상기 제2 블록 단위로 구획된 하나의 블록 크기는 서로 다른 것인 얼굴 인식 방법.
The face recognition method of claim 1, wherein the size of one block partitioned by the first block unit and the size of one block partitioned by the second block unit are different from each other.
제1항에서, 상기 등록하는 단계는,
상기 하나의 등록 얼굴 영상을 M×N개의 상기 제1 블록 단위로 구획한 상기 제1 등록 얼굴 영상과 m×n개의 상기 제2 블록 단위로 구획한 상기 제2 등록 얼굴 영상으로 분류하는 단계;
특징 추출 기법을 이용하여, 상기 제1 등록 얼굴 영상의 각 블록에서 특징값을 추출하고, 상기 제2 등록 얼굴 영상의 각 블록에서 특징값을 추출하는 단계; 및
특징값을 추출한 제1 등록 얼굴 영상과 제2 등록 얼굴 영상을 상기 얼굴인식 데이터베이스에 등록하는 단계
를 포함하는 것인 얼굴 인식 방법.
The method of claim 1, wherein the registering comprises:
Classifying the one registered face image into the first registered face image partitioned into M × N first block units and the second registered face image partitioned into m × n second block units;
Extracting a feature value from each block of the first registered face image and extracting a feature value from each block of the second registered face image using a feature extraction technique; And
Registering a first registered face image and a second registered face image from which feature values have been extracted into the face recognition database;
Face recognition method comprising a.
제1항에서, 상기 추출하는 단계는,
하나의 입력 얼굴 영상을 M×N개의 상기 제1 블록 단위로 구획한 제1 입력 얼굴 영상과 m×n개의 상기 제2 블록 단위로 구획한 제2 입력 얼굴 영상으로 분류하는 단계; 및
특징 추출 기법을 이용하여, 상기 제1 입력 얼굴 영상과 상기 제2 입력 얼굴 영상의 각 블록에서 특징값을 추출하는 단계;
를 포함하는 것인 얼굴 인식 방법.
The method of claim 1, wherein the extracting comprises:
Classifying one input face image into a first input face image partitioned into M × N first block units and a second input face image partitioned into m × n second block units; And
Extracting feature values from each block of the first input face image and the second input face image using a feature extraction technique;
Face recognition method comprising a.
제1항에서, 상기 계산하는 단계는,
상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 M×N개의 블록 유사도들을 계산하는 단계;
사전에 설정된 선별 규칙에 따라, 상기 M×N개의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별하는 단계;
상기 M×N개의 블록 유사도들에서 선별된 상기 중간 블록 유사도들을 합산하여 상기 제1 블록 유사도를 계산하는 단계;
상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 m×n개의 블록 유사도들을 계산하는 단계;
사전에 설정된 선별 규칙에 따라, 상기 m×n개의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별하는 단계;
상기 m×n개의 블록 유사도들에서 선별된 상기 중간 블록 유사도들을 합산하여 상기 제2 블록 유사도를 계산하는 단계
를 포함하는 것인 얼굴 인식 방법.
The method of claim 1, wherein the calculating
Calculating M × N block similarities by comparing feature values of the first input face image and the first registered face image in units of blocks;
Selecting middle block similarities except for upper block similarities larger than an upper limit and lower block similarities smaller than a lower limit among the M × N block similarities according to a preset selection rule;
Calculating the first block similarity by summing the intermediate block similarities selected from the M × N block similarities;
Calculating m × n block similarities by comparing feature values of the second input face image and the second registered face image in units of blocks;
Selecting middle block similarities except for upper block similarities larger than an upper limit and lower block similarities smaller than a lower limit among the m × n block similarities according to a preset selection rule;
Calculating the second block similarity by summing the intermediate block similarities selected from the m × n block similarities.
Face recognition method comprising a.
제1항에서, 상기 최종 유사도를 계산하는 단계는,
상기 제1 블록 유사도와 상기 제2 블록 유사도를 합산하여 상기 최종 유사도를 계산하는 단계인 것인 얼굴 인식 방법.
The method of claim 1, wherein the calculating of the final similarity degree comprises:
And calculating the final similarity by adding the first block similarity and the second block similarity.
다수의 등록 얼굴 영상이 등록된 얼굴인식 데이터베이스를 저장한 메모리로서, 각 등록 얼굴 영상은 제1 블록 단위로 특징값이 추출된 제1 등록 얼굴 영상과 제2 블록 단위로 특징값이 추출된 제2 등록 얼굴 영상을 포함하는 상기 메모리; 및
하나의 입력 얼굴 영상을 상기 제1 블록 단위로 특징값을 추출한 제1 입력 얼굴 영상과 상기 제2 블록 단위로 특징값을 추출한 제2 입력 얼굴 영상으로 분류하고, 상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제1 블록 유사도를 계산하고, 상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제2 블록 유사도를 계산하고, 상기 제1 블록 유사도와 상기 제2 블록 유사도를 이용하여 상기 입력 얼굴 영상과 상기 등록 얼굴 영상 간의 최종 유사도를 계산하고, 상기 최종 유사도를 상기 얼굴인식 데이터베이스에 등록된 모든 등록 얼굴 영상에 대해 추출하고, 상기 최종 유사도가 최대인 등록 얼굴 영상을 상기 입력 얼굴 영상의 인식 결과로 출력하는 프로세서;
를 포함하는 얼굴 인식 장치.
A memory storing a face recognition database in which a plurality of registered face images are registered, wherein each registered face image includes a first registered face image from which feature values are extracted in units of first blocks and a second extracted feature value in units of second blocks. The memory including a registered face image; And
Classify one input face image into a first input face image from which feature values are extracted in units of the first block, and a second input face image from which feature values are extracted in units of the second block. A first block similarity is calculated by comparing feature values of a registered face image in block units, and a second block similarity is calculated by comparing feature values of the second input face image and a second registered face image in block units. Calculate a final similarity between the input face image and the registered face image by using the first block similarity and the second block similarity, and extract the final similarity for all registered face images registered in the face recognition database. And a processor configured to output a registered face image having the maximum final similarity as a recognition result of the input face image.
Face recognition device comprising a.
제7항에서, 상기 프로세서는,
상기 하나의 입력 얼굴 영상에 대한 얼굴 인식 프로세스를 실행하기에 앞서, 상기 각 등록 얼굴 영상을 M×N개의 상기 제1 블록 단위로 특징값을 추출한 상기 제1 등록 얼굴 영상과 m×n개의 상기 제2 블록 단위로 특징값을 추출한 제2 등록 얼굴 영상을 분류하여 상기 얼굴인식 데이터베이스를 구축하고, 구축된 상기 얼굴인식 데이터베이스를 상기 메모리에 저장하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The method of claim 7, wherein the processor,
Prior to performing a face recognition process on the one input face image, the first registered face image and m × n pieces of the first registered face image obtained by extracting feature values of each registered face image in units of the M × N blocks; And classifying a second registered face image from which feature values have been extracted in units of two blocks, constructing the face recognition database, and storing the constructed face recognition database in the memory.
제7항에서, 상기 프로세서는,
상기 하나의 입력 얼굴 영상을 M×N개의 상기 제1 블록 단위로 구획한 제1 입력 얼굴 영상과 m×n개의 상기 제2 블록 단위로 구획한 제2 입력 얼굴 영상으로 분류하고, 특징 추출 알고리즘을 실행하여, 상기 제1 입력 얼굴 영상의 각 블록에서 특징값을 추출하고, 상기 제2 입력 얼굴 영상의 각 블록에서 특징값을 추출하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The method of claim 7, wherein the processor,
Classifying the one input face image into a first input face image partitioned into M × N first block units and a second input face image partitioned into m × n second block units, and extracting a feature extraction algorithm. And extracting a feature value from each block of the first input face image and extracting a feature value from each block of the second input face image.
제7항에서, 상기 프로세서는,
상기 제1 입력 얼굴 영상과 상기 제1 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 M×N개의 블록 유사도들을 계산하고, 사전에 설정된 선별 규칙에 따라, 상기 M×N개의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별하고, 상기 M×N개의 블록 유사도들에서 선별된 상기 중간 블록 유사도들을 합산하여 상기 제1 블록 유사도를 계산하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The method of claim 7, wherein the processor,
M × N block similarities are calculated by comparing the feature values of the first input face image and the first registered face image on a block basis, and an upper limit value is calculated among the M × N block similarities according to a preset selection rule. A process of selecting the intermediate block similarities except for larger upper block similarities and lower block similarities smaller than a lower limit, and summing the intermediate block similarities selected from the M × N block similarities to calculate the first block similarity Face recognition device that is to run.
제7항에서, 상기 프로세서는,
상기 제2 입력 얼굴 영상과 상기 제2 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 m×n개의 블록 유사도들을 계산하고, 사전에 설정된 선별 규칙에 따라, 상기 m×n개의 블록 유사도들 중에서 상한치보다 큰 상위 블록 유사도들과 하한치보다 작은 하위 블록 유사도들을 제외한 나머지 중간 블록 유사도들을 선별하고, 상기 m×n개의 블록 유사도들에서 선별된 상기 중간 블록 유사도들을 합산하여 상기 제2 블록 유사도를 계산하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The method of claim 7, wherein the processor,
By comparing feature values of the second input face image and the second registered face image in units of blocks, m × n block similarities are calculated, and an upper limit value among the m × n block similarities according to a preset selection rule. A process of selecting the middle block similarities except for larger upper block similarities and lower block similarities smaller than a lower limit, and summing the middle block similarities selected from the m × n block similarities to calculate the second block similarity Face recognition device that is to run.
제7항에서, 상기 프로세서는,
상기 제1 블록 유사도와 상기 제2 블록 유사도를 합산하여 상기 최종 유사도를 계산하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The method of claim 7, wherein the processor,
And summing the first block similarity and the second block similarity to calculate the final similarity.
제7항에서, 상기 메모리에 저장된 상기 각 얼굴 등록 영상은,
제3 블록 단위로 특징값이 추출된 제3 등록 얼굴 영상을 더 포함하는 것인 얼굴 인식 장치.
The apparatus of claim 7, wherein each of the face registration images stored in the memory comprises:
And a third registered face image from which feature values are extracted in units of third blocks.
제13항에서, 상기 프로세서는,
하나의 입력 얼굴 영상을 상기 제1 입력 얼굴 영상, 상기 제2 입력 얼굴 영상 및 상기 제3 블록 단위로 구획한 제3 입력 얼굴 영상으로 분류하는 프로세스를 실행하는 것인 얼굴 인식 장치.
The processor of claim 13, wherein the processor comprises:
And classifying one input face image into a first input face image, a second input face image, and a third input face image divided into units of the third block.
제14항에서, 상기 프로세서는,
상기 제3 입력 얼굴 영상의 각 블록에서 특징값을 더 추출하는 프로세스와,
상기 제3 입력 얼굴 영상과 상기 제3 등록 얼굴 영상의 특징값을 블록 단위로 비교하여 제3 블록 유사도를 더 계산하는 프로세스 및
상기 제1 블록 유사도, 상기 제2 블록 유사도 및 상기 제3 블록 유사도를 합산하여 상기 입력 얼굴 영상과 상기 등록 얼굴 영상 간의 최종 유사도를 계산하는 프로세스
를 실행하는 것인 얼굴 인식 장치.
The processor of claim 14, wherein the processor comprises:
Extracting a feature value from each block of the third input face image;
A process of further calculating a third block similarity by comparing feature values of the third input face image and the third registered face image on a block basis;
A process of calculating a final similarity between the input face image and the registered face image by summing up the first block similarity, the second block similarity, and the third block similarity;
Face recognition device that is to run.
KR1020180028769A 2018-03-12 2018-03-12 Aparatus and method for face recognition KR20190107480A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180028769A KR20190107480A (en) 2018-03-12 2018-03-12 Aparatus and method for face recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180028769A KR20190107480A (en) 2018-03-12 2018-03-12 Aparatus and method for face recognition

Publications (1)

Publication Number Publication Date
KR20190107480A true KR20190107480A (en) 2019-09-20

Family

ID=68067430

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180028769A KR20190107480A (en) 2018-03-12 2018-03-12 Aparatus and method for face recognition

Country Status (1)

Country Link
KR (1) KR20190107480A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113057529A (en) * 2021-02-22 2021-07-02 江苏柯林博特智能科技有限公司 Garbage classification control system based on stair cleaning robot
WO2021206848A1 (en) * 2020-04-08 2021-10-14 Nec Laboratories America, Inc. Efficient watchlist searching with normalized similarity
KR20220071528A (en) * 2020-11-24 2022-05-31 한국전력공사 Apparatus and method for recognizing face

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021206848A1 (en) * 2020-04-08 2021-10-14 Nec Laboratories America, Inc. Efficient watchlist searching with normalized similarity
KR20220071528A (en) * 2020-11-24 2022-05-31 한국전력공사 Apparatus and method for recognizing face
CN113057529A (en) * 2021-02-22 2021-07-02 江苏柯林博特智能科技有限公司 Garbage classification control system based on stair cleaning robot

Similar Documents

Publication Publication Date Title
US10163022B1 (en) Method for learning text recognition, method for recognizing text using the same, and apparatus for learning text recognition, apparatus for recognizing text using the same
US7912253B2 (en) Object recognition method and apparatus therefor
US9418283B1 (en) Image processing using multiple aspect ratios
KR102554724B1 (en) Method for identifying an object in an image and mobile device for practicing the method
US8929595B2 (en) Dictionary creation using image similarity
KR20090040209A (en) A multi-view face recognition method and system
KR101117549B1 (en) Face recognition system and method thereof
KR101865253B1 (en) Apparatus for age and gender estimation using region-sift and discriminant svm classifier and method thereof
JP2011013732A (en) Information processing apparatus, information processing method, and program
CN109271930B (en) Micro-expression recognition method, device and storage medium
Cheng et al. Person re-identification by articulated appearance matching
KR102286571B1 (en) Method for recognizing plural object in image
CN110598638A (en) Model training method, face gender prediction method, device and storage medium
Raut Facial emotion recognition using machine learning
KR20190107480A (en) Aparatus and method for face recognition
Bejaoui et al. Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern
KR102268174B1 (en) Pattern recognition system and method using gabor functions
Lahiani et al. Hand pose estimation system based on Viola-Jones algorithm for android devices
US9002115B2 (en) Dictionary data registration apparatus for image recognition, method therefor, and program
Aziz et al. Bengali Sign Language Recognition using dynamic skin calibration and geometric hashing
Mayer et al. Adjusted pixel features for robust facial component classification
JP2019220014A (en) Image analyzing apparatus, image analyzing method and program
Rasel et al. An efficient framework for hand gesture recognition based on histogram of oriented gradients and support vector machine
JPWO2019244276A1 (en) Search system, search method, and program
JP2017084006A (en) Image processor and method thereof