KR20190098858A - Method and apparatus for pose-invariant face recognition based on deep learning - Google Patents

Method and apparatus for pose-invariant face recognition based on deep learning Download PDF

Info

Publication number
KR20190098858A
KR20190098858A KR1020180012909A KR20180012909A KR20190098858A KR 20190098858 A KR20190098858 A KR 20190098858A KR 1020180012909 A KR1020180012909 A KR 1020180012909A KR 20180012909 A KR20180012909 A KR 20180012909A KR 20190098858 A KR20190098858 A KR 20190098858A
Authority
KR
South Korea
Prior art keywords
face
pose
deep learning
layer
feature
Prior art date
Application number
KR1020180012909A
Other languages
Korean (ko)
Other versions
KR102016082B1 (en
Inventor
이성환
강동오
Original Assignee
고려대학교 산학협력단
주식회사 새하컴즈
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 고려대학교 산학협력단, 주식회사 새하컴즈 filed Critical 고려대학교 산학협력단
Priority to KR1020180012909A priority Critical patent/KR102016082B1/en
Publication of KR20190098858A publication Critical patent/KR20190098858A/en
Application granted granted Critical
Publication of KR102016082B1 publication Critical patent/KR102016082B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • G06K9/00308
    • G06K9/00288
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a face recognition method using a computer. According to an embodiment of the present invention, the face recognition method comprises the following steps of: (a) detecting a face area from an original image using a first deep learning algorithm and calculating detection area information including coordinates of the detected face area; (b) calculating pose information about a face pose in the detected face area using a second deep learning algorithm; (c) calculating a pose-normalized face image from the original image based on at least part of the pose information and the detection area information; and (d) recognizing a face by comparing the pose-normalized face image with a face image previously stored in a database using a third deep learning algorithm.

Description

딥러닝 기반의 포즈 변화에 강인한 얼굴 인식 방법 및 장치 {Method and apparatus for pose-invariant face recognition based on deep learning}Face recognition method and apparatus robust to deep learning based pose change {Method and apparatus for pose-invariant face recognition based on deep learning}

본 발명은 이미지에서 사람의 얼굴을 인식하는 기술에 관한 것으로, 보다 상세하게는, 제약 조건이 없는 실제 환경 하에서 조명, 표정, 얼굴 포즈 변화 등의 조건 변화에 강인한 딥러닝 기반의 얼굴 인식 방법 및 장치에 관한 것이다. The present invention relates to a technology for recognizing a face of a person in an image, and more particularly, a deep learning-based face recognition method and apparatus that are robust to changes in conditions such as lighting, facial expressions, and face pose changes in a real environment without constraints. It is about.

최근 얼굴 검출 또는 얼굴 인식 기술은 컴퓨터 비전 문제에서 자주 다루어지고 있다. 기존의 얼굴 인식 방법은 정해진 환경 조건(조명, 표정, 포즈 등)에서 촬영된 영상에서 얼굴 인식을 했다면, 최근 제안된 방법들은 실제 환경과 같이 환경 조건의 제약 없이 촬영된 영상에서 얼굴을 추출하고 얼굴을 인식하도록 설계된다. Recently, face detection or face recognition technology is frequently dealt with in computer vision problems. Conventional face recognition methods have face recognition from images taken under defined environmental conditions (lighting, facial expressions, poses, etc.). Recently proposed methods extract faces from faces taken without limitations of environmental conditions such as real environments. Is designed to recognize.

그러나 환경 조건의 제약 없이 얼굴 검출 및 인식을 하기 위해서는 몇 가지 어려운 문제들을 극복해야 하는데, 예컨대 복잡한 배경은 시각적 변화가 매우 심하여 얼굴과 비얼굴에 대한 분별력 있는 특징 검출을 매우 어렵게 한다. 또한 촬영된 영상 내에 존재하는 얼굴은 다양한 크기를 가질 수 있기 때문에 얼굴 검출을 위해 검색해야 하는 공간이 매우 크고, 시점 변화에 따른 얼굴 포즈가 변하기 때문에 얼굴 형태가 매우 다양하다. However, in order to detect and recognize faces without the limitations of environmental conditions, some difficult problems must be overcome. For example, complex backgrounds can be so severe that it makes it difficult to detect discernible features on faces and non-faces. In addition, since the face existing in the captured image may have various sizes, the search space for face detection is very large, and the face poses vary according to the viewpoint change.

이러한 문제를 해결하는 한가지 방법으로 최근 딥러닝 기술을 적용하여 조명변화와 정면영상에 가까운 포즈 변화에 대해 좋은 얼굴 인식 결과를 출력하는 방법이 제시되고 있지만, 포즈가 극도로 변화된 이미지 또는 포즈를 제외한 실 환경에서 발생할 수 있는 변화들(조명, 배경, 얼굴 크기)에 상관없이 높은 정확도로 얼굴 인식을 할 수 있는 기술은 여전히 부족한 상태이며 이러한 기술에 대한 필요성이 제기되고 있다. One way to solve this problem is to apply a deep learning technique to output good face recognition results for lighting changes and pose changes close to the front image.However, except for images or poses with extremely changed poses Regardless of changes that may occur in the environment (lighting, background, face size), there is still a lack of technology for face recognition with high accuracy, and there is a need for such technology.

특허문헌1: 한국 공개특허공보 제2015-0065445호 (2015년 06월 15일 공개)Patent Document 1: Korean Unexamined Patent Publication No. 2015-0065445 (June 15, 2015) 특허문헌2: 한국 공개특허공보 제2017-0053069호 (2017년 05월 15일 공개)Patent Document 2: Korean Unexamined Patent Publication No. 2017-0053069 (published May 15, 2017)

본 발명의 일 실시예에 따르면, 이미지 내에 존재하는 얼굴에 대해 포즈의 변화에 상관없이 얼굴을 높은 정확도로 식별할 수 있는 얼굴 인식 방법을 제시하는 것을 목적으로 한다. According to an embodiment of the present invention, an object of the present invention is to provide a face recognition method capable of identifying a face with high accuracy regardless of a pose change with respect to a face existing in an image.

본 발명의 일 실시예에 따르면, 컴퓨터를 이용한 얼굴 인식 방법으로서, (a) 제1 딥러닝 알고리즘을 이용하여 원본 이미지에서 얼굴 영역을 검출하고 검출된 얼굴 영역의 좌표를 포함하는 검출영역 정보를 산출하는 단계; (b) 제2 딥러닝 알고리즘을 이용하여, 검출된 얼굴 영역에서 얼굴 포즈에 관한 포즈 정보를 산출하는 단계; (c) 상기 포즈 정보 중 적어도 일부 및 상기 검출영역 정보에 기초하여, 상기 원본 이미지로부터 포즈 정규화된 얼굴 이미지를 산출하는 단계; 및 (d) 제3 딥러닝 알고리즘을 이용하여, 상기 포즈 정규화된 얼굴 이미지를 데이터베이스에 기저장된 얼굴 이미지와 비교하여 얼굴을 인식하는 단계;를 포함하는 것을 특징으로 하는 얼굴 인식 방법을 제공할 수 있다. According to an embodiment of the present invention, as a face recognition method using a computer, (a) detecting a face region in an original image using a first deep learning algorithm and calculating detection region information including coordinates of the detected face region Doing; (b) calculating pose information about a face pose in the detected face region by using a second deep learning algorithm; (c) calculating a pose normalized face image from the original image based on at least some of the pose information and the detection region information; And (d) recognizing a face by comparing the pose normalized face image with a face image pre-stored in a database using a third deep learning algorithm. .

또한 본 발명의 일 실시예에 따르면, 상기 얼굴 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체를 제공할 수 있다.According to an embodiment of the present invention, a computer-readable recording medium having a program recorded thereon for executing the face recognition method on a computer may be provided.

본 발명의 일 실시예에 따르면 제약 조건이 없는 실제 환경 하에서 조명, 표정, 얼굴 포즈 변화 등의 조건 변화에도 불구하고 높은 정확도로 얼굴 식별을 결과를 출력할 수 있는 포즈 변화에 강인한 딥러닝 기반의 얼굴 인식 방법 및 장치를 제공할 수 있다. According to an embodiment of the present invention, a deep learning-based face that is robust to pose changes capable of outputting face identification results with high accuracy despite changing conditions such as lighting, facial expressions, and facial pose changes in a real environment without constraints. A recognition method and apparatus can be provided.

도1은 본 발명의 일 실시예에 따른 얼굴 인식 방법을 수행하는 얼굴 인식 시스템의 블록도,
도2는 일 실시예에 따른 얼굴 인식 방법의 예시적인 흐름도,
도3은 얼굴의 회전을 설명하기 위한 도면,
도4는 일 실시예에 따른 전처리 단계를 설명하기 위한 도면,
도5는 일 실시예에 따른 포즈 추정 단계를 설명하기 위한 도면,
도6은 일 실시예에 따른 요 난이도를 설정하는 예시적 방법을 설명하기 위한 도면,
도7은 일 실시예에 따른 포즈 추정 알고리즘의 학습에 사용되는 데이터를 설명하기 위한 도면,
도8은 일 실시예에 따른 포즈 정규화 단계를 설명하기 위한 도면,
도9는 일 실시예에 따른 얼굴 인식 단계를 설명하기 위한 도면,
도10은 일 실시예에 따른 얼굴 인식 장치를 설명하기 위한 블록도이다.
1 is a block diagram of a face recognition system for performing a face recognition method according to an embodiment of the present invention;
2 is an exemplary flowchart of a face recognition method according to an exemplary embodiment;
3 is a view for explaining the rotation of the face,
4 is a diagram for explaining a preprocessing step according to one embodiment;
5 is a diagram for describing a pose estimation step, according to an exemplary embodiment;
6 is a diagram for describing an exemplary method of setting yaw difficulty according to an embodiment;
7 is a diagram for describing data used for learning a pose estimation algorithm, according to an exemplary embodiment;
8 is a diagram for describing a pose normalization step, according to an exemplary embodiment;
9 is a view for explaining a face recognition step according to one embodiment;
10 is a block diagram illustrating a face recognition apparatus according to an exemplary embodiment.

이상의 본 발명의 목적들, 다른 목적들, 특징들 및 이점들은 첨부된 도면과 관련된 이하의 바람직한 실시예들을 통해서 쉽게 이해될 것이다. 그러나 본 발명은 여기서 설명되는 실시예들에 한정되지 않고 다른 형태로 구체화될 수도 있다. 오히려, 여기서 소개되는 실시예들은 개시된 내용이 철저하고 완전해질 수 있도록 그리고 당업자에게 본 발명의 사상이 충분히 전달될 수 있도록 하기 위해 제공되는 것이다.Objects, other objects, features and advantages of the present invention will be readily understood through the following preferred embodiments associated with the accompanying drawings. However, the present invention is not limited to the embodiments described herein and may be embodied in other forms. Rather, the embodiments introduced herein are provided so that the disclosure may be made thorough and complete, and to fully convey the spirit of the present invention to those skilled in the art.

본 명세서에서 제1, 제2 등의 용어가 구성요소들을 기술하기 위해서 사용된 경우, 이들 구성요소들이 이 같은 용어들에 의해서 한정되어서는 안 된다. 이들 용어들은 단지 어느 구성요소를 다른 구성요소와 구별시키기 위해서 사용되었을 뿐이다. 여기에 설명되고 예시되는 실시예들은 그것의 상보적인 실시예들도 포함한다.Where the terms first, second, etc. are used herein to describe the components, these components should not be limited by these terms. These terms are only used to distinguish one component from another. The embodiments described and illustrated herein also include complementary embodiments thereof.

본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 '포함한다(comprise)' 및/또는 '포함하는(comprising)'은 언급된 구성요소는 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, the words 'comprise' and / or 'comprising' do not exclude the presence or addition of one or more other components.

또한 본 명세서에서 발명의 구성요소를 지칭하기 위해 사용된 "...부", "…모듈", "…블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있고 이는 하드웨어나 소프트웨어 또는 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In addition, the terms "... unit", "... module", "... block" and the like used to refer to the components of the present invention may mean a unit for processing at least one function or operation, which It can be implemented in hardware or software, or a combination of hardware and software.

이하에서 도면을 참조하여 본 발명을 상세히 설명하도록 한다. 아래의 특정 실시예들을 기술하는데 있어서 여러 가지의 특정적인 내용들은 발명을 더 구체적으로 설명하고 이해를 돕기 위해 작성되었다. 하지만 본 발명을 이해할 수 있을 정도로 이 분야의 지식을 갖고 있는 독자는 이러한 여러 가지의 특정적인 내용들이 없어도 사용될 수 있다는 것을 인지할 수 있다. 어떤 경우에는 발명을 기술하는 데 있어서 흔히 알려졌으면서 발명과 크게 관련 없는 부분들은 본 발명을 설명하는 데 있어 혼돈이 오는 것을 막기 위해 기술하지 않음을 미리 언급해 둔다. Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. In describing the specific embodiments below, various specific details are set forth in order to explain and understand the invention in more detail. However, those skilled in the art can understand that the present invention can be used without these various specific details. In some cases, it is mentioned in advance that parts of the invention which are commonly known in the description and which are not related to the invention are not described in order to prevent confusion in describing the invention.

도1은 본 발명의 일 실시예에 따른 얼굴 인식 방법을 수행하는 얼굴 인식 시스템의 블록도이고, 도2는 일 실시예에 따른 얼굴 인식 방법의 예시적 흐름도이다. 1 is a block diagram of a face recognition system for performing a face recognition method according to an embodiment of the present invention, and FIG. 2 is an exemplary flowchart of a face recognition method according to an embodiment.

도면을 참조하면, 일 실시예에 따른 얼굴 인식 시스템은 전처리부(100), 포즈 추정부(200), 포즈 정규화부(300), 및 얼굴 인식부(400)를 포함하며, 필요에 따라 하나 이상의 데이터베이스(530)를 포함할 수 있다. Referring to the drawings, a face recognition system according to an embodiment includes a preprocessor 100, a pose estimator 200, a pose normalizer 300, and a face recognizer 400, and one or more according to need. Database 530 may be included.

이러한 얼굴 인식 시스템에 따르면, 우선 단계(S10)에서 전처리부(100)에 의한 전처리 단계가 수행된다. 전처리부(100)는 원본 이미지에서 얼굴 영역을 검출하고 검출된 얼굴 영역의 좌표를 포함하는 검출영역 정보를 산출한다. 일 실시예에서 전처리부(100)는 딥러닝 알고리즘을 이용하여 원본 이미지에서 얼굴 영역을 검출할 수 있다. 딥러닝 알고리즘은 머신 러닝(machine learning) 기법의 일종으로, 복수개의 은닉층을 포함하는 인공신경망(artificial neural network) 알고리즘을 의미한다. 딥러닝 알고리즘을 이용하기 위해 딥러닝 알고리즘 모델은 여러 다양한 얼굴 포즈를 포함하는 이미지들을 이용한 학습 단계가 선행되어야 하며, 이하의 설명에서는 본 명세서에서 언급되는 딥러닝 알고리즘이 이러한 학습단계를 완료하였다고 전제한다. According to the face recognition system, first, a preprocessing step by the preprocessor 100 is performed in step S10. The preprocessor 100 detects a face region in the original image and calculates detection region information including coordinates of the detected face region. In one embodiment, the preprocessor 100 may detect a face region in the original image using a deep learning algorithm. The deep learning algorithm is a kind of machine learning technique, and refers to an artificial neural network algorithm including a plurality of hidden layers. In order to use the deep learning algorithm, the deep learning algorithm model must be preceded by a learning step using images including various face poses, and the following description assumes that the deep learning algorithm mentioned herein has completed this learning step. .

일 실시예에서 전처리부(100)는 원본 이미지에서 얼굴 영역을 검출하고, 검출된 얼굴 영역에 관한 좌표를 포함한 검출영역 정보를 산출할 수 있다. 여기서 '검출영역 정보'는 예를 들어 원본 이미지 내에서의 얼굴 영역의 x 좌표, y 좌표, 폭(width), 및 높이(height) 정보 중 적어도 일부를 포함할 수 있다. 이 때 x 좌표와 y 좌표는 예를 들어 얼굴 영역의 중심점의 좌표일 수도 있고, 대안적으로, 얼굴 영역의 좌상단의 좌표 또는 좌하단의 좌표를 의미할 수도 있다. In an exemplary embodiment, the preprocessor 100 may detect a face region in the original image and calculate detection region information including coordinates of the detected face region. Here, the 'detection area information' may include, for example, at least some of x, y, width, and height information of the face area in the original image. In this case, the x coordinate and the y coordinate may be, for example, coordinates of the center point of the face region, or alternatively, may refer to coordinates of the upper left or lower left of the face region.

일 실시예에서, 전처리부(100)는 원본 이미지에서 얼굴 영역을 검출한 후 얼굴 영역을 정규화할 수 있다. 예를 들어 전처리부(100)는 검출된 얼굴 영역을 기설정된 크기의 이미지로 정규화할 수 있고 색상분포에 대한 정규화 처리도 수행할 수 있다. In one embodiment, the preprocessing unit 100 may normalize the face area after detecting the face area in the original image. For example, the preprocessing unit 100 may normalize the detected face region to an image having a predetermined size, and may also normalize the color distribution.

전처리부(100)에서 전처리된 이미지는 포즈 추정부(200)로 입력되고, 단계(S20)에서, 포즈 추정부(200)에 의한 포즈 정보 산출 동작이 수행된다. 포즈 추정부(200)는 전처리된 이미지의 얼굴 영역에서 얼굴 포즈(pose)에 관한 포즈 정보를 산출한다. 일 실시예에서 포즈 추정부(200)는 이러한 얼굴 포즈 정보의 산출을 딥러닝 알고리즘에 의해 수행할 수 있다. 일 실시예에서 포즈 추정부(200)가 산출하는 포즈 정보는 얼굴의 회전, 요(yaw)의 회전 방향, 및 요(yaw)의 난이도에 관한 정보를 포함할 수 있다. 여기서 '요'는 임의의 물체의 3차원상에서의 회전 방향을 나타내는 것과 동일한 의미로 사용된다. 즉, 도3에 도시한 것처럼 '요(yaw)'는 Y축(얼굴의 상하 방향)을 중심축으로 하는 회전(즉, 얼굴을 좌측 또는 우측으로 돌리는 것)이다. The image preprocessed by the preprocessor 100 is input to the pose estimator 200, and in operation S20, an operation of calculating pose information by the pose estimator 200 is performed. The pose estimator 200 calculates pose information regarding a face pose in the face region of the preprocessed image. In an embodiment, the pose estimator 200 may calculate the face pose information by a deep learning algorithm. In one embodiment, the pose information calculated by the pose estimator 200 may include information about a face rotation, a yaw rotation direction, and a difficulty level of the yaw. 'Yo' is used in the same sense as indicating the direction of rotation of any object in three dimensions. That is, as shown in Fig. 3, 'yaw' is a rotation about the Y axis (up and down direction of the face) (ie, turning the face left or right).

일 실시예에서 포즈 추정부(200)는 '얼굴의 회전'에 관한 정보를 각도로 산출한다. 예를 들어, 이미지 상의 얼굴이 기울어지지 않고 똑바로 세워져 있으면 얼굴의 회전 각도가 0이고, 얼굴이 시계 방향이나 반시계 방향으로 회전되어 있으면 회전된 각도에 따라 +90도에서 -90도 사이의 값을 가질 수 있다. In an exemplary embodiment, the pose estimator 200 calculates information about the 'rotation of the face' as an angle. For example, if the face on the image is upright and not tilted, the face's angle of rotation is zero, and if the face is rotated clockwise or counterclockwise, it can range from +90 degrees to -90 degrees depending on the rotated angle. Can have

일 실시예에서 포즈 추정부(200)는 요에 관한 정보를 정면, 좌측, 우측의 3가지로 분류하여 산출할 수 있다. 즉 얼굴이 정면을 바라보면 '정면'으로 산출하고, 좌측이나 우측을 바라보면 '좌측' 또는 '우측'으로 산출한다. 이 때 일 실시예에서 '좌측', '정면', 및 '우측'을 각각 0, 1, 2에 대응시켜 이 대응되는 숫자를 산출할 수 있다. 대안적 실시예에서, 포즈 추정부(200)는 요에 관한 정보를 각도로 산출할 수도 있다. 예컨대 정면을 0도로 표시하고, 좌측이나 우측으로 회전하면 이 회전한 각도에 따라 +90도에서 -90도 사이의 값으로 표시할 수 있다. According to an exemplary embodiment, the pose estimator 200 may classify and calculate the information about the yaw into three types, front, left, and right. In other words, if the face faces the front, it is calculated as 'front', and if it faces the left or the right, it is calculated as 'left' or 'right'. In this embodiment, the corresponding number may be calculated by mapping the left, front, and right sides to 0, 1, and 2, respectively. In an alternative embodiment, the pose estimator 200 may calculate the information about the yaw in an angle. For example, if the front is displayed at 0 degrees and rotated to the left or right, it can be displayed as a value between +90 degrees and -90 degrees depending on the rotated angle.

요 난이도는 얼굴의 요 방향 회전의 정도에 따라 난이도를 분류한 것으로, 예컨대 일 실시예에서, 요 방향 회전 정도에 따라 상, 중, 하로 구분할 수 있다. 대안적 실시예에서, 포즈 추정부(200)는 얼굴의 피치(pitch) 방향, 즉 도3의 X축(얼굴의 좌우 방향)을 중심축으로 하는 회전에 관한 정보를 더 포함할 수 있다. The degree of difficulty is classified as the degree of difficulty according to the degree of rotation of the yaw direction of the face. For example, in one embodiment, the degree of difficulty may be divided into upper, middle, and lower points according to the degree of yaw rotation. In an alternative embodiment, the pose estimator 200 may further include information about a rotation about the pitch direction of the face, that is, the X axis (left and right directions of the face) of FIG. 3.

다음으로, 포즈 정규화부(300)에 의해 포즈 정규화 단계(S30)가 실행된다. 포즈 정규화부(300)는 전처리부(100)에서 산출된 검출영역 정보 및 포즈 추정부(200)에서 산출된 포즈 정보에 기초하여, 원본 이미지로부터 포즈 정규화된 얼굴 이미지를 산출한다. 여기서 '포즈 정규화된 얼굴 이미지'는 얼굴 인식을 하기 쉽도록 얼굴 영역을 정규화한 이미지이다. 포즈 정규화부(300)는 예를 들어 얼굴의 회전 각도가 0도가 되도록 얼굴을 수직으로 세우고, 요 방향은 얼굴이 정면을 바라보거나 또는 왼쪽을 바라보도록 이미지를 반전시킴으로써 포즈 정규화를 수행할 수 있다. 이 때 포즈 정규화를 위해, 포즈 추정부(200)에서 산출된 얼굴의 회전 및 요 정보를 이용해서 얼굴 회전이나 반전을 수행할 수 있다. Next, the pose normalization step S30 is executed by the pose normalization unit 300. The pose normalization unit 300 calculates a pose normalized face image from the original image based on the detection region information calculated by the preprocessor 100 and the pose information calculated by the pose estimator 200. Here, the pose normalized face image is a normalized face region for easy face recognition. The pose normalization unit 300 may perform pose normalization by, for example, standing the face vertically so that the rotation angle of the face is 0 degrees, and inverting the image so that the face faces the front or the left. At this time, for pose normalization, face rotation or inversion may be performed using face rotation and yaw information calculated by the pose estimator 200.

또한 포즈 정규화부(300)는 전처리부(100)에서 산출된 검출영역 정보를 이용하여, 원본 이미지 내의 얼굴 영역을 추출하고, 필요시 색상분포의 정규화도 수행할 수 있다. In addition, the pose normalization unit 300 may extract the face region in the original image by using the detection region information calculated by the preprocessor 100, and may also normalize the color distribution if necessary.

포즈 정규화부(300)는 포즈 정규화된 이미지를 얼굴 인식부(400)로 전달하고, 단계(S40)에서, 얼굴 인식부(400)는 포즈 정규화된 이미지를 데이터베이스(530)에 저장된 얼굴 이미지와 비교하여 얼굴을 인식(식별)한다. 일 실시예에서 얼굴 인식부(400)는 딥러닝 알고리즘에 의해 얼굴 인식 동작을 수행할 수 있다. The pose normalization unit 300 transmits the pose normalized image to the face recognition unit 400, and in step S40, the face recognition unit 400 compares the pose normalized image with the face image stored in the database 530. To recognize (identify) the face. In one embodiment, the face recognition unit 400 may perform a face recognition operation by a deep learning algorithm.

일 실시예에서 얼굴 인식부(400)는 포즈 추정부(200)에서 산출된 요 난이도 정보를 이용할 수 있다. 예를 들어 다수의 레이어(계층)로 구성된 딥러닝 알고리즘을 이용할 경우, 얼굴 인식부(400)는 요 난이도에 따라 서로 상이한 가중치를 갖는 복수개의 서브 레이어를 적어도 한 계층 포함한다. 이 경우, 얼굴 특징을 나타내는 특징 벡터가 요 난이도에 따라 상기 복수개의 서브 레이어 중 하나의 서브 레이어로 전달되도록 구성되고, 이 서브 레이어에서 처리된 특징 벡터는 요 난이도에 상관없는 소정 벡터 공간의 특징 값으로 매핑(mapping)된다. 따라서 원본 이미지에서 검출된 얼굴이 다양한 포즈를 가지고 있더라도, 상기 복수개의 서브 레이어로 구성된 계층을 통과하면서 포즈 변화에 강인한 특징 값을 추출할 수 있고, 이 추출된 특징 값을 데이터베이스(530)에 저장된 이미지들과 비교하여 얼굴을 식별할 수 있다. In an embodiment, the face recognition unit 400 may use yaw difficulty information calculated by the pose estimator 200. For example, when using a deep learning algorithm composed of a plurality of layers (layers), the face recognition unit 400 includes at least one layer having a plurality of sublayers having different weights according to the degree of difficulty. In this case, a feature vector representing a face feature is configured to be delivered to one of the plurality of sublayers according to the degree of difficulty, and the feature vector processed in this sublayer is a feature value of a predetermined vector space regardless of the degree of difficulty. It is mapped to Therefore, even though a face detected in the original image has various poses, a feature value that is robust to a pose change can be extracted while passing through a layer composed of the plurality of sublayers, and the extracted feature value is stored in the database 530. Compare faces to identify faces.

한편 상술한 얼굴 인식 시스템은 복수개의 서로 다르게 학습된 딥러닝 알고리즘을 포함할 수 있다. 예를 들어 전처리부(100)는 원본 이미지에서 얼굴 영역을 검출하기 위한 제1 딥러닝 알고리즘을 포함하고, 포즈 추정부(200)는 전처리된 이미지에서 포즈 정보를 산출하기 위한 제2 딥러닝 알고리즘을 포함하고, 얼굴 인식부(400)는 포즈 정규화된 이미지에서 얼굴을 추출하고 데이터베이스 내의 이미지와 비교하여 얼굴을 인식하기 위한 제3 딥러닝 알고리즘을 포함할 수 있다. Meanwhile, the above-described face recognition system may include a plurality of differently learned deep learning algorithms. For example, the preprocessor 100 includes a first deep learning algorithm for detecting a face region in the original image, and the pose estimator 200 executes a second deep learning algorithm for calculating pose information in the preprocessed image. The facial recognition unit 400 may include a third deep learning algorithm for extracting a face from a pose normalized image and comparing the image with an image in a database.

일 실시예에서 이러한 딥러닝 알고리즘 중 일부는 컨벌루션 신경망(CNN: convolution neural network) 알고리즘으로 구현될 수 있다. 일 실시예에서 컨벌루션 신경망 알고리즘은 하나 이상의 컨벌루션 레이어, 하나 이상의 활성 함수, 및 하나 이상의 풀링(pooling) 레이어를 포함할 수 있고, 이 때 각각의 컨벌루션 레이어는 하나 이상의 컨벌루션 필터로 구성될 수 있다. 이러한 컨벌루션 신경망의 구조는 본 발명의 구체적 실시 형태에 따라 달라질 수 있으며, 신경망을 구성하는 컨벌루션 레이어, 활성 함수, 풀링 레이어 등은 당업계에 공지된 기술이므로 상세한 설명은 생략한다. In one embodiment, some of these deep learning algorithms may be implemented with a convolution neural network (CNN) algorithm. In one embodiment, the convolutional neural network algorithm may include one or more convolutional layers, one or more active functions, and one or more pooling layers, where each convolutional layer may consist of one or more convolutional filters. The structure of such a convolutional neural network may vary according to specific embodiments of the present invention. Since the convolutional layer, the active function, and the pooling layer constituting the neural network are well known in the art, detailed description thereof will be omitted.

일 실시예에서, 상기 제1 내지 제3 딥러닝 알고리즘은 각 딥러닝 알고리즘마다 처리하는 대상과 출력 값이 다르기 때문에 각기 다른 계층들로 구성된다. 예를 들어 전처리부(100)의 제1 딥러닝 알고리즘은 원본 이미지에서 얼굴 영역을 검출하기 위한 알고리즘이며, 검색 공간을 최소화하기 위해 예컨대 이미지 피라미드(image pyramid) 또는 캐스케이드(cascade) 방법을 포함할 수 있다. In one embodiment, the first to third deep learning algorithm is composed of different layers because the target and the output value is different for each deep learning algorithm. For example, the first deep learning algorithm of the preprocessor 100 is an algorithm for detecting a face region in the original image, and may include, for example, an image pyramid or cascade method in order to minimize a search space. have.

포즈 추정부(200)의 제2 딥러닝 알고리즘은 얼굴의 회전, 요의 회전 방향, 및 요의 난이도 등의 복수개의 포즈 정보를 산출해야 하므로, 단일 딥러닝 알고리즘을 기반으로 멀티 태스크(얼굴의 회전, 요의 회전 방향, 및 요의 난이도)를 할 수 있는 네트워크를 구성하여 각 포즈 정보를 산출할 수 있다. 이 때 포즈 정보 중 얼굴의 회전은 회귀(regression)에 관한 문제이고 요의 회전 방향 및 요의 난이도는 분류(classification)에 관한 문제이므로 구하려는 대상의 갑에 따라 손실 함수를 다르게 정의하여 단일 네트워크에서 멀티 태스크를 수행할 수 있도록 구성하는 것이 바람직하다. Since the second deep learning algorithm of the pose estimator 200 needs to calculate a plurality of pose information such as the rotation of the face, the rotation direction of the yaw, and the difficulty of the yaw, the multi-task (the rotation of the face) based on a single deep learning algorithm. , The rotation direction of the yaw, and the difficulty of the yaw) can be configured to calculate each pose information. At this time, the rotation of the face in the pose information is a matter of regression, and the direction of yaw rotation and the difficulty of the yaw is a matter of classification. It is a good idea to configure the task so that it can be performed.

얼굴 인식부(400)의 제3 딥러닝 알고리즘은 포즈 정규화된 이미지에서 얼굴의 특징 벡터를 추출하고 이 추출된 특징 벡터를 데이터베이스(530)에 기저장된 얼굴 이미지들과 비교하여 얼굴을 식별하며, 이를 위한 일 실시예에서, 얼굴의 특징 벡터를 추출하는 특징추출 신경망 및 얼굴 유사도를 측정할 수 있는 기계학습 알고리즘(예를 들어, 인공 신경망, 코사인 유사도(Cosine Similarity), 서포트 벡터 머신(SVM: Support Vector Machine), 최근접 이웃 규칙(Nearest Neighbors) 등)으로 구성될 수 있다. 특징추출 신경망은 예컨대 하나 이상의 컨벌루션 레이어 및 하나 이상의 풀링 레이어를 포함할 수 있고, 컨벌루션 레이어는 하나 이상의 컨벌루션 필터로 이루어져 있으며, 다양한 활성 함수(ReLU, PReLU, Tanh, Sigmoid 등의 함수)를 이용하여 구성할 수 있다. The third deep learning algorithm of the face recognizer 400 extracts a feature vector of the face from the pose normalized image and compares the extracted feature vector with face images previously stored in the database 530 to identify the face. In one embodiment, a feature extraction neural network extracting a feature vector of a face and a machine learning algorithm (eg, artificial neural network, cosine similarity), a support vector machine (SVM) capable of measuring face similarity Machine), nearest neighbor rules (Nearest Neighbors, etc.). The feature extraction neural network may include, for example, one or more convolutional layers and one or more pooling layers, and the convolutional layer is composed of one or more convolutional filters and is constructed using various active functions (functions of ReLU, PReLU, Tanh, Sigmoid, etc.). can do.

이제 상기 얼굴 인식 시스템의 각 단계별 동작을 도4 내지 도9를 참조하여 상술하기로 한다. Each operation of the face recognition system will now be described in detail with reference to FIGS. 4 to 9.

도4는 일 실시예에 따른 전처리부(100)에 의한 전처리 단계(S10)를 나타낸다. 도면을 참조하면, 전처리부(100)는 원본 이미지로부터 얼굴 영역을 검출하고 검출된 이미지를 정규화하는 단계를 실행한다. 일 실시예에서 전처리부(100)는 제1 딥러닝 알고리즘을 이용하여 원본 이미지에서 얼굴 영역을 검출할 수 있다. 제1 딥러닝 알고리즘은 하나 이상의 컨벌루션 레이어, 하나 이상의 활성 함수, 및 하나 이상의 풀링 레이어를 포함하는 컨벌루션 신경망 및 얼굴 영역을 식별하여 검출하고 검출영역 정보를 추출하는 신경망을 포함할 수 있다. 4 illustrates a pretreatment step S10 by the preprocessor 100 according to an embodiment. Referring to the drawing, the preprocessor 100 detects a face region from an original image and normalizes the detected image. In an embodiment, the preprocessor 100 may detect a face region in the original image using the first deep learning algorithm. The first deep learning algorithm may include a convolutional neural network including at least one convolutional layer, at least one active function, and at least one pooling layer, and a neural network for identifying and detecting a face region and extracting detection region information.

일 실시예에서 검출영역 정보는 원본 이미지 내에서의 얼굴 영역의 x 좌표, y 좌표, 폭(width), 및 높이(height) 정보 중 적어도 일부를 포함할 수 있다. 여기서 x 좌표와 y 좌표는 예를 들어 얼굴 영역의 중심점의 좌표일 수도 있고, 대안적 실시예에서, 얼굴 영역의 좌상단의 좌표 또는 좌하단의 좌표 등의 임의의 기준점의 좌표를 의미할 수도 있다. In one embodiment, the detection area information may include at least some of x coordinate, y coordinate, width, and height information of the face area in the original image. Here, the x coordinate and the y coordinate may be, for example, the coordinates of the center point of the face area, and in an alternative embodiment, may refer to the coordinates of any reference point, such as the upper left coordinate or the lower left coordinate.

한편, 실환경에서 촬영된 원본 이미지의 배경 화면이 각기 상이하고 원본 이미지 속의 얼굴 크기도 각기 다르기 때문에 검색 공간의 수가 급속도로 증가하는 문제를 해결하는 것이 바람직하다. 이를 위해, 일 실시예에서, 이미지 피라미드나 캐스케이드, 영역 추천 네트워크(Region Proposal Network: 영상 내에 얼굴이 있을 것 같은 곳을 추천하는 네트워크) 방식 등을 이용하여 검색 공간을 줄일 수 있다. On the other hand, since the background screen of the original image photographed in the real environment is different and the face size in the original image is different, it is desirable to solve the problem of rapidly increasing the number of search spaces. To this end, in one embodiment, the search space may be reduced by using an image pyramid, a cascade, a region recommendation network, or the like.

또한 원본 이미지에서 검출된 얼굴 영역의 크기와 색상이 각기 다르기 때문에, 검출된 얼굴 영역의 크기와 색상분포를 정규화하여 일정한 크기와 색상 분포를 갖도록 처리할 수 있다. In addition, since the size and color of the face region detected in the original image are different, the size and color distribution of the detected face region can be normalized and processed to have a constant size and color distribution.

도5는 일 실시예에 따른 포즈 추정부(200)에 의한 포즈 추정 단계(S20)를 나타낸다. 도면을 참조하면, 단계(S20)에서 포즈 추정부(200)는 전처리된 이미지의 얼굴 영역에서 얼굴 자세(포즈)에 관한 포즈 정보를 산출한다. 일 실시예에서 포즈 추정부(200)는 제2 딥러닝 알고리즘을 이용하여 포즈 정보를 산출할 수 있다. 5 illustrates a pose estimation step S20 by the pose estimator 200, according to an exemplary embodiment. Referring to the drawing, in step S20, the pose estimator 200 calculates pose information regarding a face posture (pose) in the face region of the preprocessed image. In an embodiment, the pose estimator 200 may calculate pose information by using a second deep learning algorithm.

일 실시예에서 포즈 정보는 얼굴의 회전 각도, 요(yaw)의 회전 방향, 및 요의 난이도에 관한 정보를 포함한다. 얼굴의 회전 각도는 이미지 내에서 얼굴이 기울어지지 않고 똑바로 세워진 것을 기준으로 +90도 내지 -90도 사이의 값을 가질 수 있다. 요 방향은 정면을 바라보는 것을 기준으로 좌측, 정면, 우측 중 하나를 나타내는 값(예컨대 각각 0, 1, 2)을 가질 수 있다. In one embodiment, the pose information includes information about a rotation angle of a face, a rotation direction of a yaw, and a difficulty level of the yaw. The rotation angle of the face may have a value between +90 degrees and -90 degrees based on the face not being tilted upright in the image. The yaw direction may have a value indicating one of the left side, the front side, and the right side (for example, 0, 1, and 2, respectively) with respect to the front side.

요 난이도는 얼굴의 요 방향 회전의 정도에 따라 난이도를 분류한 것으로, 예컨대 일 실시예에서, 요 방향 회전 정도에 따라 상, 중, 하로 구분할 수 있다. 이와 관련하여 도6은 얼굴 회전 정도에 따라 요 난이도를 분류하는 예시적 기준을 나타낸다. 도6에 다수의 사진이 나열되어 있는데, 정면을 바라보는 사진부터 왼쪽으로 90도 방향을 바라보는 장면까지 점차 요 방향이 바뀌는 사진들이 나열되어 있다. 일 실시예에서 요 난이도를 상, 중, 하로 분류할 수 있고, 이 때 요 난이도 '하'(Easy)는 도6의 위쪽 3개 얼굴과 같이 양쪽 눈동자가 모두 완전히 보이는 경우이다. 요 난이도 '중'(Middle)은 도6의 중간 2개 얼굴과 같이, 한쪽 눈동자는 완전히 보이고 다른쪽 눈동자는 부분적으로 보이는 경우이고, 요 난이도 '상'(Hard)은 도6의 아래 2개 얼굴과 같이 한쪽 눈동자만 보이고 다른쪽 눈동자는 전혀 보이지 않는 경우를 각각 나타낸다. The degree of difficulty is classified as the degree of difficulty according to the degree of rotation of the yaw direction of the face. For example, in one embodiment, the degree of difficulty may be divided into upper, middle, and lower points according to the degree of yaw rotation. In this regard, Figure 6 shows an exemplary criterion for classifying the degree of difficulty according to the degree of facial rotation. In FIG. 6, a plurality of photographs are listed, and photographs of which yaw directions are gradually changed from a photograph facing the front to a scene facing 90 degrees to the left. In one embodiment, the degree of difficulty may be classified into upper, middle, and lower. In this case, the difficulty of the 'low' (Easy) is a case in which both eyes are completely visible as shown in the upper three faces of FIG. 6. The middle difficulty (middle) is a case where one eye is completely visible and the other eye is partially visible, as in the middle two faces of FIG. 6, and the difficulty level 'hard' is a lower two face of FIG. 6. As shown in this example, only one eye is visible and the other eye is not visible at all.

이와 같이, 일 실시예에서 포즈 추정부(200)의 제2 딥러닝 알고리즘은, 전처리된 이미지에서 얼굴의 특징을 나타내는 특징 벡터를 이용하여 해당 이미지에 대한 요 난이도를 상, 중, 하로 분류할 수 있다. As described above, according to an exemplary embodiment, the second deep learning algorithm of the pose estimator 200 may classify the difficulty of the image into upper, middle, and lower regions by using a feature vector representing a feature of a face in the preprocessed image. have.

한편 포즈 추정부(200)의 제2 딥러닝 알고리즘을 설계할 때 본 발명에 따른 포즈 추정을 효과적으로 하기 위한 학습 데이터를 구성하는 것이 중요하다. 예를 들어 동일 인물에 대한 얼굴의 회전 방향에 따른 얼굴 사진이 많이 없는 경우, 즉 예컨대 도7에 가운데 사진과 같이 특정 요 방향(90도 좌측을 보는 방향)의 얼굴만 있는 경우, 이 사진에 존재하는 얼굴을 기준으로 시계 방향과 반시계 방향으로 랜덤하게 회전시키고 얼굴 영역을 추출함으로써 얼굴의 회전이 상이한 다수의 학습 데이터를 생성할 수 있다. 그리고 이렇게 생성된 학습 데이터들은 처음 원본 사진(도7의 가운데 사진)과 동일한 요의 회전 방향 및 요의 난이도를 갖도록 설정하면 된다. On the other hand, when designing the second deep learning algorithm of the pose estimator 200, it is important to construct training data for effectively performing the pose estimation according to the present invention. For example, if there are not many face pictures according to the direction of rotation of the face with respect to the same person, that is, if there are only faces in a specific yaw direction (viewing direction to the left of 90 degrees, for example) as shown in the center picture in FIG. A plurality of learning data having different rotations of the face may be generated by randomly rotating clockwise and counterclockwise based on the face to be extracted and extracting a face region. The learning data generated in this way may be set to have the same rotation direction and difficulty of the yaw as the original picture (the center picture of FIG. 7).

도8은 일 실시예에 따른 포즈 정규화부(300)에 의한 포즈 정규화 단계(S30)를 나타낸다. 도면을 참조하면, 포즈 정규화부(300)는 상기 얼굴의 회전 각도와 요의 회전 방향 및 상기 검출영역 정보에 기초하여, 원본 이미지로부터 포즈 정규화된 얼굴 이미지를 산출한다. 포즈 정규화 단계의 일 실시예에서, 우선 포즈 추정부(200)에서 산출된 얼굴의 회전 각도를 이용하여, 원본 이미지의 얼굴 영역의 얼굴의 회전 각도가 0도가 되도록 원본 이미지를 회전시킨다. 8 illustrates a pose normalization step S30 by the pose normalization unit 300 according to an exemplary embodiment. Referring to the drawing, the pose normalization unit 300 calculates a pose normalized face image from the original image based on the rotation angle of the face, the rotation direction of the yaw, and the detection region information. In an embodiment of the pose normalization step, the original image is rotated so that the rotation angle of the face of the face region of the original image is 0 degrees using the rotation angle of the face calculated by the pose estimator 200.

그 후 전처리부(100)에서 산출한 검출영역 정보에 기초하여 원본 이미지로부터 얼굴 영역을 추출하고, 포즈 추정부(200)에서 산출한 요 방향에 기초하여 얼굴이 정면이나 왼쪽을 바라보도록 이미지를 반전시킨다. 예컨대 정면을 바라보는 얼굴에 대해서는 이미지 반전을 하지 않고, 오른쪽을 바라보는 얼굴에 대해서는 왼쪽을 바라보도록 이미지를 반전시킬 수 있다. 정면 및 한쪽 측면의 얼굴 영상을 입력영상으로 사용하는 이유는 얼굴의 코를 중심으로 좌-우가 매우 유사한 형태를 가지고 있기 때문에, 얼굴 방향에 따른 변화를 최소화하기 위해서이다. Thereafter, the face region is extracted from the original image based on the detection region information calculated by the preprocessor 100, and the image is inverted so that the face faces the front or the left based on the yaw direction calculated by the pose estimator 200. Let's do it. For example, the image may be inverted so that the face looking to the front is not inverted, and the face looking to the right is inverted to the left. The reason why the front and one side face image is used as an input image is to minimize the change according to the direction of the face since the left-right shape is very similar to the nose of the face.

그 후 포즈 정규화에 의해 회전 및/또는 반전된 얼굴 영역을 기설정된 크기의 이미지로 변환하고 색상분포도 정규화할 수 있다. Then, the pose normalization converts the rotated and / or inverted face area into an image of a preset size and normalizes color distribution.

한편 위의 설명에서 검출영역 정보에 기초하여 원본 이미지에서 얼굴 영역을 추출한 후 요 방향에 따른 반전을 수행하는 것을 설명하였지만, 대안적 실시예에서, 요 방향에 따른 이미지 반전 작업을 먼저 수행한 후 검출영역 정보에 기초하여 얼굴 영역을 추출할 수도 있다. 또한 대안적 실시예에서, 요 방향에 기초한 반전 작업시 얼굴이 정면이나 오른쪽을 바라보도록 필요에 따라 이미지를 반전할 수도 있다. Meanwhile, in the above description, the face region is extracted from the original image based on the detection region information, and then the inversion according to the yaw direction is performed. However, in an alternative embodiment, the image inversion according to the yaw direction is first performed and then detected. The face region may be extracted based on the region information. Also in alternative embodiments, the image may be reversed as needed such that the face faces front or right when inverted based on the yaw direction.

도9는 일 실시예에 따른 얼굴 인식부(400)에 의한 얼굴 인식 단계(S40)를 나타낸다. 도면을 참조하면, 단계(S40)에서 얼굴 인식부(400)는 포즈 정규화된 이미지에서 얼굴의 특징 벡터를 추출하고 이 추출된 특징 벡터를 데이터베이스(530)에 기저장된 얼굴 이미지들과 비교하여 얼굴을 식별할 수 있다. 9 illustrates a face recognition step S40 by the face recognition unit 400 according to an exemplary embodiment. Referring to the drawing, in step S40, the face recognition unit 400 extracts a feature vector of a face from a pose normalized image and compares the extracted feature vector with face images previously stored in the database 530. Can be identified.

일 실시예에서 얼굴 인식부(400)는 제3 딥러닝 알고리즘을 이용한다. 제3 딥러닝 알고리즘은 특징 추출용 딥러닝 알고리즘(410), 완전연결(FC) 레이어(420), 및 얼굴 인식용 알고리즘(430)으로 구성될 수 있다. In one embodiment, the face recognition unit 400 uses a third deep learning algorithm. The third deep learning algorithm may include a deep learning algorithm 410 for feature extraction, a fully connected (FC) layer 420, and an algorithm 430 for face recognition.

특징 추출용 딥러닝 알고리즘은 포즈 정규화된 이미지에서 얼굴의 특징 벡터를 추출하는 알고리즘일 수 있다. 일 실시예에서 특징 추출용 딥러닝 알고리즘은 하나 이상의 컨벌루션 레이어, 하나 이상의 활성 함수, 및 하나 이상의 풀링 레이어를 포함할 수 있다. 여기서 '특징 벡터'는 얼굴의 특징(feature) 값들의 집합이다. 얼굴의 특징은 예를 들어 눈동자의 위치, 눈동자간 거리, 눈의 형태, 코의 위치 및/또는 높이, 입술의 위치, 입술의 길이, 인중의 위치, 귀의 위치, 양쪽 귀의 거리 등과 같이 얼굴을 다른 얼굴과 구별하는 성분들 중에서 선택될 수 있다. The deep learning algorithm for feature extraction may be an algorithm for extracting a feature vector of a face from a pose normalized image. In one embodiment, the deep learning algorithm for feature extraction may include one or more convolutional layers, one or more active functions, and one or more pooling layers. Here, the feature vector is a set of feature values of the face. Features of the face may include different face features such as, for example, the position of the pupil, the distance between the pupils, the shape of the eyes, the position and / or height of the nose, the position of the lips, the length of the lips, the position of the masses, the position of the ears, the distance between the ears It may be selected from the components that distinguish it from the face.

FC 레이어(420)는 특징추출용 딥러닝 알고리즘(410)에서 추출된 특징 벡터에 요 난이도에 따른 서로 다른 가중치를 부가하기 위한 계층(레이어)이다. 도시한 실시예에서 FC 레이어(420)는 요 난이도의 하, 중, 상에 따라 각기 서로 상이한 제1 내지 제3 가중치를 각각 부가하는 제1 FC 레이어(421), 제2 FC 레이어(422), 및 제3 FC 레이어(423)를 포함한다. The FC layer 420 is a layer (layer) for adding different weights according to the degree of difficulty to the feature vector extracted by the feature extraction deep learning algorithm 410. In the illustrated embodiment, the FC layer 420 may include the first FC layer 421, the second FC layer 422, and the first FC layer 421 that respectively add different first to third weights according to the lower, middle, and upper levels of the difficulty. And a third FC layer 423.

이러한 구성에 따라, 예를 들어 포즈 정규화된 이미지의 요 난이도가 '하'인 경우, 특징 추출 알고리즘(410)에서 추출된 특징 벡터는 제1 FC 레이어(421)에 입력된다. 다른 예로서, 포즈 정규화된 이미지의 요 난이도가 '중'인 경우 특징 벡터는 제2 FC 레이어(422)에 입력되고, 요 난이도가 '상'인 경우 특징 벡터가 제3 FC 레이어(423)에 입력됨을 이해할 것이다. According to this configuration, for example, when the degree of difficulty of the pose normalized image is 'low', the feature vector extracted by the feature extraction algorithm 410 is input to the first FC layer 421. As another example, the feature vector is input to the second FC layer 422 when the yaw difficulty of the pose normalized image is 'medium', and the feature vector is input to the third FC layer 423 when the yaw difficulty is 'up'. Will understand the input.

제1 내지 제3 FC 레이어(421,422,423)의 각각은 서로 다른 가중치를 특징 벡터에 부가하도록 구성된다. 바람직한 일 실시예에서, 특징 추출용 알고리즘(410)에서 추출된 특징 벡터의 적어도 하나의 특징 성분에 대해, 이 특징 성분이 제1 내지 제3 FC 레이어(421,422,423)에서 각각 처리되면 요 난이도에 상관없는 소정 벡터 공간의 동일한 특징 값으로 매핑(mapping) 되도록, 제1 내지 제3 가중치가 각각 설정되어 있다. Each of the first to third FC layers 421, 422, 423 is configured to add different weights to the feature vector. In a preferred embodiment, for at least one feature component of the feature vector extracted by the feature extraction algorithm 410, if the feature component is processed in the first to third FC layers 421, 422, 423, respectively, it is irrelevant to the difficulty level. The first to third weights are respectively set so as to map to the same feature value of the predetermined vector space.

이와 같이 본 발명의 일 실시예에 따른 얼굴 인식부(400)의 제3 딥러닝 알고리즘이 요 난이도에 따라 서로 다른 가중치를 특징 벡터에 부가하는 FC 레이어(420)를 포함하고, 이 FC 레이어(420)가 동일한 사람의 요 방향이 서로 상이한 복수의 포즈 정규화된 얼굴에 대해 특징 벡터의 적어도 일부 특징 성분을 요 난이도에 상관없는 소정 벡터 공간의 동일한 특징 값으로 매핑하도록 구성됨으로써, 원본 이미지에서 검출된 얼굴이 다양한 포즈를 가지고 있더라도 FC 레이어(420)를 통과하면서 포즈 변화에 강인한 특징 값을 추출할 수 있게 된다. As described above, the third deep learning algorithm of the face recognition unit 400 according to the embodiment of the present invention includes an FC layer 420 that adds different weights to the feature vector according to the degree of difficulty, and the FC layer 420 ) Is configured to map at least some feature components of the feature vector to the same feature values in a predetermined vector space irrespective of the difficulty, for a plurality of pose normalized faces having different yaw directions from the same person. Even with these various poses, it is possible to extract feature values robust to the pose change while passing through the FC layer 420.

얼굴 인식용 알고리즘(430)은 FC 레이어(420)에서 출력되는 특징 벡터와 데이터베이스(530)에 저장된 데이터를 비교하여 원본 이미지의 얼굴이 누구인지 인식(식별)하는 알고리즘으로, 얼굴 인식을 위한 분류 신경망으로 구성될 수 있다. 일 실시예에서 얼굴 인식용 딥러닝 알고리즘(430)은 일반적인 인공신경망 알고리즘과 동일 또는 유사하게 입력층, 2개 이상의 은닉층, 및 출력층으로 구현될 수 있다. The face recognition algorithm 430 is an algorithm that recognizes (identifies) the face of the original image by comparing the feature vector output from the FC layer 420 with data stored in the database 530. The classification neural network for face recognition is performed. It may be configured as. In one embodiment, the deep learning algorithm 430 for face recognition may be implemented as an input layer, two or more hidden layers, and an output layer in the same or similar manner to a general artificial neural network algorithm.

일 실시예에서 얼굴인식용 알고리즘(430)은 예를 들어 인공 신경망, 코사인 유사도(Cosine Similarity), 서포트 벡터 머신(SVM: Support Vector Machine), 최근접 이웃 규칙(Nearest Neighbors) 등의 기계학습 기반의 유사도 측정 방법들을 이용하여 포즈 변화에 강인한 얼굴 인식을 수행할 수 있다. In one embodiment, the face recognition algorithm 430 is based on machine learning, such as artificial neural networks, cosine similarity, support vector machines (SVMs), nearest neighbors (Nearest Neighbors), and the like. Similarity measurement methods may be used to perform face recognition that is robust to pose changes.

도10은 일 실시예에 따른 얼굴 인식 방법을 수행하는 예시적인 시스템 구성을 설명하기 위한 블록도이다. 도면을 참조하면, 일 실시예에 따른 얼굴 인식 시스템(500)은 도1 내지 도9를 참조하여 설명한 얼굴 인식 방법을 실행할 수 있는 임의의 단말 장치나 서버일 수 있고, 도시한 것처럼 프로세서(510), 메모리(520), 및 데이터베이스(530), 및 저장장치(540)를 포함할 수 있다. 10 is a block diagram illustrating an exemplary system configuration for performing a face recognition method according to an exemplary embodiment. Referring to the drawings, the facial recognition system 500 according to an exemplary embodiment may be any terminal device or a server capable of executing the facial recognition method described with reference to FIGS. 1 to 9, and the processor 510 as illustrated. , Memory 520, and database 530, and storage 540.

데이터베이스(530)는 얼굴 인식을 위해 미리 저장한 얼굴 이미지들에 관한 데이터를 저장할 수 있다. 일 실시예에서 데이터베이스(530)는 각 얼굴 이미지의 특징 벡터에 관한 정보를 저장할 수 있다. The database 530 may store data regarding face images stored in advance for face recognition. In an embodiment, the database 530 may store information about a feature vector of each face image.

저장장치(540)는 하드 디스크 드라이브 또는 플래시 메모리 등과 같이 데이터를 반영구적으로 저장할 수 있는 저장매체로서, 상술한 제1 내지 제3 딥러닝 알고리즘 등의 각종 알고리즘과 데이터들 중 하나 이상을 저장할 수 있다. 예를 들어 저장장치(540)는 전처리부(100)가 전처리 동작을 수행하기 위한 전처리 알고리즘(541), 포즈 추정부(200)가 포즈 추정 동작을 수행하기 위한 포즈 추정 알고리즘(542), 포즈 정규화부(300)가 포즈 정규화 동작을 수행하기 위한 포즈 정규화 알고리즘(543), 및 얼굴 인식부(400)가 얼굴 인식 동작을 수행하기 위한 얼굴 인식 알고리즘(544), 그리고 그 외의 여러 소프트웨어나 프로그램을 저장할 수 있다. 이 때 전처리 알고리즘(541)은 상술한 제1 딥러닝 알고리즘을 포함할 수 있고, 포즈 추정 알고리즘(542)은 상술한 제2 딥러닝 알고리즘을 포함하고, 얼굴 인식 알고리즘(544)은 특징 추출용 딥러닝 알고리즘(410), FC 레이어(420), 및 얼굴 인식용 알고리즘(430)을 포함할 수 있음을 이해할 것이다. The storage device 540 is a storage medium capable of semi-permanently storing data, such as a hard disk drive or a flash memory, and may store one or more of various algorithms and data such as the first to third deep learning algorithms described above. For example, the storage device 540 may include a preprocessing algorithm 541 for the preprocessor 100 to perform a preprocessing operation, a pose estimation algorithm 542 for the pose estimator 200 to perform a pose estimation operation, and pose normalization. The unit 300 stores a pose normalization algorithm 543 for performing a pose normalization operation, a face recognition algorithm 544 for the face recognition unit 400 to perform a face recognition operation, and various other software or programs. Can be. In this case, the preprocessing algorithm 541 may include the first deep learning algorithm described above, the pose estimation algorithm 542 may include the second deep learning algorithm described above, and the face recognition algorithm 544 may include a feature extraction deep. It will be appreciated that the algorithm may include a running algorithm 410, an FC layer 420, and a face recognition algorithm 430.

이 구성에서 이러한 각종 프로그램이나 알고리즘이 저장장치(540)에 저장되어 있다가 프로세서(510)의 제어 하에 메모리(520)에 로딩되어 실행될 수 있다. 대안적으로, 일부 프로그램이나 알고리즘은 얼굴 인식 시스템(500)과는 별도로 존재하는 외부 장치나 서버에 존재할 수 있고, 시스템(500)에서 데이터나 변수를 해당 외부 장치나 서버로 전송하면 이 외부 장치나 서버가 프로그램 또는 알고리즘을 실행한 뒤 그 결과 데이터를 시스템(500)에 전달할 수도 있다. In this configuration, such various programs or algorithms may be stored in the storage device 540 and loaded and executed in the memory 520 under the control of the processor 510. Alternatively, some programs or algorithms may reside on an external device or server that is separate from face recognition system 500, and when the system 500 transmits data or variables to that external device or server, the external device or The server may execute a program or algorithm and then pass the data to system 500.

상기와 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되지 않는다. 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 상술한 기재로부터 다양한 수정 및 변형이 가능함을 이해할 것이다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above embodiments. Those skilled in the art will understand that various modifications and variations are possible from the above description. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

100: 전처리부
200: 포즈 추정부
300: 포즈 정규화부
400: 얼굴 인식부
100: pretreatment unit
200: pose estimator
300: pose normalization unit
400: face recognition unit

Claims (11)

컴퓨터를 이용한 얼굴 인식 방법으로서,
(a) 제1 딥러닝 알고리즘을 이용하여 원본 이미지에서 얼굴 영역을 검출하고 검출된 얼굴 영역의 좌표를 포함하는 검출영역 정보를 산출하는 단계;
(b) 제2 딥러닝 알고리즘을 이용하여, 검출된 얼굴 영역에서 얼굴 포즈에 관한 포즈 정보를 산출하는 단계;
(c) 상기 포즈 정보 중 적어도 일부 및 상기 검출영역 정보에 기초하여, 상기 원본 이미지로부터 포즈 정규화된 얼굴 이미지를 산출하는 단계; 및
(d) 제3 딥러닝 알고리즘을 이용하여, 상기 포즈 정규화된 얼굴 이미지를 데이터베이스에 기저장된 얼굴 이미지와 비교하여 얼굴을 인식하는 단계;를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
As a face recognition method using a computer,
(a) detecting a face region in the original image by using a first deep learning algorithm and calculating detection region information including coordinates of the detected face region;
(b) calculating pose information about a face pose in the detected face region by using a second deep learning algorithm;
(c) calculating a pose normalized face image from the original image based on at least some of the pose information and the detection region information; And
and (d) recognizing a face by comparing the pose normalized face image with a face image pre-stored in a database by using a third deep learning algorithm.
제 1 항에 있어서,
상기 포즈 정보는 검출된 얼굴 포즈의 얼굴의 회전 각도, 요(yaw) 방향, 및 상기 요 방향에 따른 요(yaw) 난이도에 관한 정보를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 1,
And the pose information includes information on a rotation angle of the face of the detected face pose, a yaw direction, and a yaw difficulty according to the yaw direction.
제 2 항에 있어서,
상기 제3 딥러닝 알고리즘은, 상기 요 난이도에 따라 서로 다른 가중치를 상기 포즈 정규화된 얼굴 이미지의 특징 벡터에 부가하는 레이어를 포함으로써, 동일한 사람의 요 방향이 서로 상이한 복수의 포즈 정규화된 얼굴에 대해, 상기 특징 벡터의 적어도 일부 특징 성분을 요 난이도에 상관없는 소정 벡터 공간의 동일한 특징 값으로 매핑(mapping) 하도록 구성된 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 2,
The third deep learning algorithm includes a layer that adds different weights to the feature vector of the pose normalized face image according to the degree of difficulty, thereby providing a plurality of pose normalized faces having different yaw directions of the same person. And mapping at least some feature components of the feature vector to the same feature value in a predetermined vector space irrespective of the degree of difficulty.
제 2 항에 있어서,
상기 얼굴의 회전 각도는 -90도 내지 +90도 범위내의 값을 가지며,
상기 요 방향은 좌측, 정면, 및 우측 중 하나를 나타내는 값을 가지며,
상기 요 난이도는 검출된 얼굴 포즈에서 (i) 양쪽 눈동자가 보이는 경우, (ii) 한쪽 눈동자는 보이고 다른쪽 눈동자가 부분적으로 보이는 경우, 및 (iii) 한쪽 눈동자만 보이는 경우를 각각 난이도 하, 중, 상으로 나타내도록 설정된 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 2,
The rotation angle of the face has a value in the range of -90 degrees to +90 degrees,
The yaw direction has a value indicating one of a left side, a front side, and a right side;
The difficulty level of the detected face pose (i) when both eyes are visible, (ii) one eye and partially visible, and (iii) only one eye, respectively, Face recognition method characterized in that it is set to represent the image.
제 2 항에 있어서,
상기 포즈 정규화된 얼굴 이미지를 산출하는 (c) 단계가, 상기 얼굴의 회전 각도와 요 방향 및 상기 검출영역 정보에 기초하여, 상기 포즈 정규화된 얼굴 이미지를 산출하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 2,
(C) calculating the pose normalized face image comprises calculating the pose normalized face image based on the rotation angle and yaw direction of the face and the detection area information.
제 3 항에 있어서, 상기 제3 딥러닝 알고리즘이,
상기 포즈 정규화된 얼굴 이미지에서 특징 벡터를 추출하는 특징 추출 알고리즘(410);
추출된 상기 특징 벡터에 요 난이도에 따른 서로 다른 가중치를 부가하는 완전연결(FC) 레이어(420); 및
상기 FC 레이어(420)에서 출력된 특징 벡터를 데이터베이스에 기저장된 얼굴 이미지와 비교하여 얼굴을 인식하는 얼굴인식 알고리즘;을 포함하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 3, wherein the third deep learning algorithm,
A feature extraction algorithm for extracting a feature vector from the pose normalized face image;
A fully connected (FC) layer 420 for adding different weights to the extracted feature vectors according to the degree of difficulty; And
And a face recognition algorithm for recognizing a face by comparing the feature vector output from the FC layer (420) with a face image previously stored in a database.
제 6 항에 있어서,
상기 특징 추출 알고리즘(410)은 하나 이상의 컨벌루션 레이어, 하나 이상의 활성 함수, 및 하나 이상의 풀링 레이어를 포함하는 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 6,
The feature extraction algorithm (410) comprises one or more convolutional layers, one or more active functions, and one or more pooling layers.
제 6 항에 있어서, 상기 FC 레이어(420)가, 요 난이도의 하, 중, 상에 따라 각기 서로 상이한 제1 내지 제3 가중치를 각각 부가하는 제1 FC 레이어(421), 제2 FC 레이어(422), 및 제3 FC 레이어(423)를 포함하는 것을 특징으로 하는 얼굴 인식 방법. The first FC layer 421 and the second FC layer of claim 6, wherein the FC layer 420 adds first to third weights different from each other according to the lower, middle, and upper levels of the difficulty level. 422), and a third FC layer (423). 제 8 항에 있어서,
상기 요 난이도가 하인 경우 상기 특징 추출 알고리즘(410)에서 추출된 특징 벡터가 제1 FC 레이어(421)에 입력되고, 요 난이도가 중인 경우 특징 벡터가 제2 FC 레이어(422)에 입력되고, 요 난이도가 상인 경우 특징 벡터가 제3 FC 레이어(423)에 입력되도록 구성된 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 8,
The feature vector extracted by the feature extraction algorithm 410 is input to the first FC layer 421 when the yaw difficulty is lower, and the feature vector is input to the second FC layer 422 when the difficulty is difficult. If the difficulty level is different, the feature vector is configured to be input to the third FC layer (423).
제 9 항에 있어서,
상기 특징 추출 알고리즘에서 추출된 특징 벡터의 적어도 하나의 특징 성분에 대해, 이 특징 성분이 제1 내지 제3 FC 레이어(421,422,423)에서 각각 처리되면 요 난이도에 상관없는 소정 벡터 공간의 동일한 특징 값으로 매핑되도록 상기 제1 내지 제3 가중치가 각각 설정된 것을 특징으로 하는 얼굴 인식 방법.
The method of claim 9,
For at least one feature component of the feature vector extracted by the feature extraction algorithm, if the feature component is processed in each of the first to third FC layers 421, 422, 423, it is mapped to the same feature value in a predetermined vector space regardless of the difficulty level. The first to the third weight is set so that the face recognition method, respectively.
제1항 내지 제10항 중 어느 한 항에 기재된 얼굴 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 읽을 수 있는 기록매체. A computer-readable recording medium having recorded thereon a program for executing the face recognition method according to any one of claims 1 to 10 on a computer.
KR1020180012909A 2018-02-01 2018-02-01 Method and apparatus for pose-invariant face recognition based on deep learning KR102016082B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180012909A KR102016082B1 (en) 2018-02-01 2018-02-01 Method and apparatus for pose-invariant face recognition based on deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180012909A KR102016082B1 (en) 2018-02-01 2018-02-01 Method and apparatus for pose-invariant face recognition based on deep learning

Publications (2)

Publication Number Publication Date
KR20190098858A true KR20190098858A (en) 2019-08-23
KR102016082B1 KR102016082B1 (en) 2019-08-29

Family

ID=67763862

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180012909A KR102016082B1 (en) 2018-02-01 2018-02-01 Method and apparatus for pose-invariant face recognition based on deep learning

Country Status (1)

Country Link
KR (1) KR102016082B1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111209820A (en) * 2019-12-30 2020-05-29 新大陆数字技术股份有限公司 Face living body detection method, system, equipment and readable storage medium
CN112560725A (en) * 2020-12-22 2021-03-26 四川云从天府人工智能科技有限公司 Key point detection model, detection method and device thereof and computer storage medium
CN112633437A (en) * 2020-07-23 2021-04-09 广元量知汇科技有限公司 Supply chain management method based on industrial interconnection
KR20210045552A (en) * 2019-10-16 2021-04-27 임대열 Method and apparatus for obtaining emotion and physical state information of human using machine learning
WO2021167210A1 (en) * 2020-02-21 2021-08-26 삼성전자주식회사 Server, electronic device, and control methods therefor
CN113674161A (en) * 2021-07-01 2021-11-19 清华大学 Face deformity scanning completion method and device based on deep learning
KR20220004327A (en) * 2020-07-03 2022-01-11 한국전력공사 Method for reading qualification in real time of manpower on construction site using facial recognition technology
KR20220056707A (en) * 2020-10-28 2022-05-06 한국전자통신연구원 Method and apparatus for face recognition robust to alignment shape of the face
KR102444907B1 (en) * 2021-12-15 2022-09-19 주식회사 페이스테그 Data access management method using facial feature vectors, data access management apparatus, and computer program therefor
US11475232B1 (en) 2021-10-28 2022-10-18 Suprema Inc. Method and apparatus for processing image

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210071410A (en) 2019-12-06 2021-06-16 삼성전자주식회사 Sensor-specific image recognition device and method
KR20210096841A (en) 2020-01-29 2021-08-06 충북대학교 산학협력단 Selective facial mosaic processing method and apparatus in real time based on deep learning
KR20210129398A (en) 2020-04-20 2021-10-28 주식회사딜루션 Face recognition device using deep learning

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065445A (en) 2013-12-05 2015-06-15 한국전자통신연구원 Apparatus and method for detecting frontal face image using facial pose
KR101589149B1 (en) * 2015-05-27 2016-02-03 수원대학교산학협력단 Face recognition and face tracking method using radial basis function neural networks pattern classifier and object tracking algorithm and system for executing the same
KR101612605B1 (en) * 2014-05-07 2016-04-14 포항공과대학교 산학협력단 Method for extracting face feature and apparatus for perforimg the method
KR20170050465A (en) * 2015-10-30 2017-05-11 에스케이텔레콤 주식회사 Method and Apparatus for Recognizing Face
KR20170053069A (en) 2015-11-05 2017-05-15 수원대학교산학협력단 A robust face recognition method for pose variations based on pose estimation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150065445A (en) 2013-12-05 2015-06-15 한국전자통신연구원 Apparatus and method for detecting frontal face image using facial pose
KR101612605B1 (en) * 2014-05-07 2016-04-14 포항공과대학교 산학협력단 Method for extracting face feature and apparatus for perforimg the method
KR101589149B1 (en) * 2015-05-27 2016-02-03 수원대학교산학협력단 Face recognition and face tracking method using radial basis function neural networks pattern classifier and object tracking algorithm and system for executing the same
KR20170050465A (en) * 2015-10-30 2017-05-11 에스케이텔레콤 주식회사 Method and Apparatus for Recognizing Face
KR20170053069A (en) 2015-11-05 2017-05-15 수원대학교산학협력단 A robust face recognition method for pose variations based on pose estimation

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210045552A (en) * 2019-10-16 2021-04-27 임대열 Method and apparatus for obtaining emotion and physical state information of human using machine learning
CN111209820A (en) * 2019-12-30 2020-05-29 新大陆数字技术股份有限公司 Face living body detection method, system, equipment and readable storage medium
CN111209820B (en) * 2019-12-30 2024-04-23 新大陆数字技术股份有限公司 Face living body detection method, system, equipment and readable storage medium
US12067794B2 (en) 2020-02-21 2024-08-20 Samsung Electronics Co., Ltd. Server, electronic device, and control methods therefor
WO2021167210A1 (en) * 2020-02-21 2021-08-26 삼성전자주식회사 Server, electronic device, and control methods therefor
KR20220004327A (en) * 2020-07-03 2022-01-11 한국전력공사 Method for reading qualification in real time of manpower on construction site using facial recognition technology
CN112633437B (en) * 2020-07-23 2022-06-17 贵州酱酒智造供应链有限公司 Supply chain management method based on industrial interconnection
CN112633437A (en) * 2020-07-23 2021-04-09 广元量知汇科技有限公司 Supply chain management method based on industrial interconnection
KR20220056707A (en) * 2020-10-28 2022-05-06 한국전자통신연구원 Method and apparatus for face recognition robust to alignment shape of the face
US12056909B2 (en) 2020-10-28 2024-08-06 Electronics And Telecommunications Research Institute Method and apparatus for face recognition robust to alignment status of the face
CN112560725A (en) * 2020-12-22 2021-03-26 四川云从天府人工智能科技有限公司 Key point detection model, detection method and device thereof and computer storage medium
CN113674161A (en) * 2021-07-01 2021-11-19 清华大学 Face deformity scanning completion method and device based on deep learning
US11475232B1 (en) 2021-10-28 2022-10-18 Suprema Inc. Method and apparatus for processing image
US11783009B2 (en) 2021-10-28 2023-10-10 Suprema Inc. Method and apparatus for processing image
KR102444907B1 (en) * 2021-12-15 2022-09-19 주식회사 페이스테그 Data access management method using facial feature vectors, data access management apparatus, and computer program therefor

Also Published As

Publication number Publication date
KR102016082B1 (en) 2019-08-29

Similar Documents

Publication Publication Date Title
KR102016082B1 (en) Method and apparatus for pose-invariant face recognition based on deep learning
CN107423690B (en) Face recognition method and device
US9530078B2 (en) Person recognition apparatus and person recognition method
US7912253B2 (en) Object recognition method and apparatus therefor
US6128397A (en) Method for finding all frontal faces in arbitrarily complex visual scenes
US7995805B2 (en) Image matching apparatus, image matching method, computer program and computer-readable storage medium
US7376270B2 (en) Detecting human faces and detecting red eyes
US7925093B2 (en) Image recognition apparatus
EP2704056A2 (en) Image processing apparatus, image processing method
US20190114495A1 (en) Live facial recognition method and system
US11238271B2 (en) Detecting artificial facial images using facial landmarks
JP6351243B2 (en) Image processing apparatus and image processing method
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
US10360441B2 (en) Image processing method and apparatus
US20220012474A1 (en) Evaluating The Security Of A Facial Recognition System Using Light Projections
WO2021084972A1 (en) Object tracking device and object tracking method
CN112784712B (en) Missing child early warning implementation method and device based on real-time monitoring
JP2015197708A (en) Object identification device, object identification method, and program
US20190378290A1 (en) Information processing apparatus and non-transitory computer readable medium storing information processing program
JP4708835B2 (en) Face detection device, face detection method, and face detection program
KR20090115738A (en) Information extracting method, registering device, collating device and program
CN114998743A (en) Method, device, equipment and medium for constructing visual map points
Pang et al. Robust eye center localization through face alignment and invariant isocentric patterns
KR101031369B1 (en) Apparatus for identifying face from image and method thereof
JP7103443B2 (en) Information processing equipment, information processing methods, and programs

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right