KR20220043842A - Edge device for recognizing a face wearing a mask and system for recognizing a face wearing a mask - Google Patents

Edge device for recognizing a face wearing a mask and system for recognizing a face wearing a mask Download PDF

Info

Publication number
KR20220043842A
KR20220043842A KR1020210074188A KR20210074188A KR20220043842A KR 20220043842 A KR20220043842 A KR 20220043842A KR 1020210074188 A KR1020210074188 A KR 1020210074188A KR 20210074188 A KR20210074188 A KR 20210074188A KR 20220043842 A KR20220043842 A KR 20220043842A
Authority
KR
South Korea
Prior art keywords
partial
feature vector
unit
target
mask
Prior art date
Application number
KR1020210074188A
Other languages
Korean (ko)
Inventor
임보영
백지현
김수상
Original Assignee
주식회사 포스코아이씨티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포스코아이씨티 filed Critical 주식회사 포스코아이씨티
Publication of KR20220043842A publication Critical patent/KR20220043842A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

A system for recognizing a face wearing a mask according to one aspect of the present invention comprises: a user face recognition unit for generating a partial feature vector by inputting an input image generated from a user image of a user requested for registration into a partial facial feature model and generating a full feature vector by inputting the input image into a full facial feature model; an array file generation unit for generating an array composed of the partial feature vector, the full feature vector, and user identification information for each user and merging the generated arrays to create an array file; and a face recognition server comprising an interface unit transmitting the partial facial feature model, the full facial feature model, and the generated array file to an edge device. The partial facial feature model extracts a partial facial image including a partial facial region from the input image and generates a first-dimensional partial feature vector based on the extracted partial facial image. The full facial feature model extracts a full facial image including an entire facial region from the input image and generates a second-dimensional full feature vector larger than the first dimension based on the extracted full facial image. Accordingly, the face recognition rate for a person wearing a mask can be improved.

Description

마스크 착용 얼굴인식용 에지 디바이스 및 마스크 착용 얼굴인식 시스템{EDGE DEVICE FOR RECOGNIZING A FACE WEARING A MASK AND SYSTEM FOR RECOGNIZING A FACE WEARING A MASK}EDGE DEVICE FOR RECOGNIZING A FACE WEARING A MASK AND SYSTEM FOR RECOGNIZING A FACE WEARING A MASK}

본 발명은 얼굴을 인식할 수 있는 에지 디바이스 및 얼굴인식 시스템에 관한 것이다.The present invention relates to an edge device capable of recognizing a face and a face recognition system.

얼굴인증(face authentication) 기술이란 생체인식(Biometrics) 분야 중의 하나로써 사람마다 얼굴에 담겨있는 고유한 특징 정보를 이용하여 기계가 자동으로 사람을 식별하고 인증하는 기술을 의미하는 것으로서, 비밀번호 등에 의한 기존의 인증방식에 비해 보안성이 뛰어나 최근 다양한 분야에서 널리 이용되고 있다. Face authentication technology is one of the fields of biometrics, which means a technology in which a machine automatically identifies and authenticates a person using the unique feature information contained in each person's face. It has superior security compared to the authentication method, and has been widely used in various fields recently.

일반적인 얼굴인증 시스템은 출입 게이트 등에 설치된 디바이스에서 촬영된 얼굴이미지를 서버로 전송하고, 서버가 얼굴인식 및 얼굴인식에 따른 사용자 인증을 수행하고 인증결과를 디바이스로 전송함으로써 출입 게이트의 개방여부를 결정한다.A general face authentication system transmits a face image taken from a device installed in an access gate, etc. to the server, and the server performs face recognition and user authentication according to face recognition, and transmits the authentication result to the device to determine whether to open the access gate. .

일반적인 얼굴인증 시스템은 동일인임에도 불구하고 다른 환경에서 얼굴이 촬영되거나 마스크를 착용한 상태에서 얼굴이 촬영되는 경우 동일인임을 구별해 내지 못하는 문제가 있다.Although the general face authentication system is the same person, when a face is photographed in a different environment or a face is photographed while wearing a mask, there is a problem in that it cannot distinguish the same person.

본 발명은 상술한 문제점을 해결하기 위한 것으로서, 마스크를 착용한 상태에서도 정확한 얼굴인식이 가능한 마스크 착용 얼굴인식용 에지 디바이스 및 마스크 착용 얼굴인증 시스템을 제공하는 것을 기술적 과제로 한다.The present invention is to solve the above-mentioned problems, and it is a technical task to provide an edge device for mask-wearing face recognition and a mask-wearing face authentication system capable of accurate face recognition even when wearing a mask.

본 발명의 일 측면에 따른 마스크 착용 얼굴인식시스템은 등록요청된 사용자의 사용자 이미지로부터 생성된 입력 이미지를 부분얼굴특징모델에 입력하여 부분 특징벡터를 생성하고 전체얼굴특징모델에 입력하여 전체 특징벡터를 생성하는 사용자 얼굴 인식부, 각 사용자 별로 상기 부분 특징벡터, 상기 전체 특징벡터 및 사용자 식별정보로 구성된 어레이를 생성하고 생성된 어레이들을 머지하여 어레이 파일을 생성하는 어레이 파일 생성부, 및 상기 부분얼굴특징모델, 상기 전체얼굴특징모델 및 상기 생성된 어레이 파일을 에지 디바이스로 전송하는 인터페이스부를 포함하는 얼굴인식서버를 포함한다. 상기 부분얼굴특징모델은 상기 입력 이미지 상에서 부분 얼굴영역을 포함하는 부분 얼굴이미지를 추출하고 상기 추출된 부분 얼굴이미지를 기초로 제1 차원의 부분 특징벡터를 생성하고, 상기 전체얼굴특징모델은 상기 입력 이미지 상에서 전체 얼굴영역을 포함하는 전체 얼굴이미지를 추출하고 상기 추출된 전체 얼굴이미지를 기초로 상기 제1 차원 보다 큰 제2 차원의 전체 특징벡터를 생성한다.The mask wearing face recognition system according to an aspect of the present invention generates a partial feature vector by inputting an input image generated from a user image of a registered user into a partial facial feature model, and inputs the entire feature vector to the full facial feature model. A user face recognition unit that generates, an array file generation unit that generates an array consisting of the partial feature vector, the entire feature vector, and user identification information for each user and merges the generated arrays to generate an array file, and the partial facial feature and a face recognition server including an interface unit for transmitting a model, the entire facial feature model, and the generated array file to an edge device. The partial facial feature model extracts a partial facial image including a partial facial region from the input image, and generates a first-dimensional partial feature vector based on the extracted partial facial image, and the full facial feature model uses the input image. An entire face image including the entire face region is extracted from the image, and an entire feature vector of a second dimension larger than the first dimension is generated based on the extracted entire face image.

본 발명의 다른 측면에 따른 마스크 착용 얼굴인식용 에지 디바이스는 얼굴인식서버로부터 마스크 탐지 모델, 부분얼굴특징모델, 전체얼굴특징모델, 및 복수의 사용자들 각각의 사용자 부분 특징벡터, 사용자 전체 특징벡터, 사용자 식별정보를 포함하는 어레이 파일을 수신하는 인터페이스부, 인증대상이 되는 타겟 사용자의 촬영 이미지를 획득하는 촬영부, 상기 촬영 이미지로부터 생성된 입력 이미지를 마스크 탐지 모델에 입력하여 마스크 영역을 탐지하고, 상기 마스크 영역이 탐지되면, 상기 입력 이미지를 부분얼굴특징모델에 입력하여 타겟 부분 특징벡터를 생성하고, 상기 마스크 영역이 탐지되지 않으면, 상기 입력 이미지를 전체얼굴특징모델에 입력하여 타겟 전체 특징벡터를 생성하는 타겟 얼굴 인식부, 및 복수의 사용자들의 사용자 부분 특징벡터들 각각과 상기 타겟 부분 특징벡터를 비교하거나, 복수의 사용자들의 사용자 전체 특징벡터들 각각과 상기 타겟 전체 특징벡터를 비교하여 상기 타겟 사용자에 대한 인증여부를 결정하는 인증부를 포함한다.A mask-wearing edge device for face recognition according to another aspect of the present invention includes a mask detection model, a partial facial feature model, a full face feature model, and a user partial feature vector of each of a plurality of users, a user full feature vector, An interface unit for receiving an array file including user identification information, a photographing unit for acquiring a photographed image of a target user to be authenticated, and inputting an input image generated from the photographed image into a mask detection model to detect a mask area, When the mask region is detected, the input image is input to the partial facial feature model to generate a target partial feature vector. If the mask region is not detected, the input image is input to the full facial feature model to obtain a target full feature vector. a target face recognition unit that generates, and compares each of the user partial feature vectors of a plurality of users with the target partial feature vector, or compares each of the user total feature vectors of a plurality of users with the target full feature vector It includes an authentication unit that determines whether to authenticate or not.

본 발명에 따르면, 마스크를 착용한 얼굴이미지를 기초로 부분 얼굴특징 모델을 학습시키고, 마스크를 착용하지 않은 얼굴이미지를 기초로 전체 얼굴특징 모델을 학습시킬 수 있다. 본 발명은 부분 얼굴특징 모델 및 전체 얼굴특징 모델을 이용하여 타겟 사용자를 인증함으로써, 마스크를 착용한 사람에 대한 얼굴인식률을 향상시킬 수 있다.According to the present invention, it is possible to train a partial facial feature model based on a face image wearing a mask, and train a full facial feature model based on a face image without a mask. The present invention can improve the facial recognition rate for a person wearing a mask by authenticating a target user using a partial facial feature model and a full facial feature model.

또한, 본 발명은 하나의 깊이가 깊은 신경망 네트워크를 통해 얼굴 및 마스크를 탐지함으로써, 얼굴 및 마스크 탐지에 따른 연상량을 줄이고, 연산 속도를 향상시킬 수 있다. In addition, the present invention detects a face and a mask through one deep neural network, thereby reducing the amount of association caused by face and mask detection and improving the operation speed.

또한, 본 발명은 서로 다른 레이어의 컨벌루션 연산부에 의하여 생성된 피쳐맵들을 신경망 네트워크를 통해 통합함으로써, 얼굴 이미지를 정확하게 추출할 수 있다. In addition, the present invention can accurately extract a face image by integrating the feature maps generated by the convolution operation units of different layers through a neural network.

도 1은 본 발명의 일 실시예에 따른 마스크 착용 얼굴인증 시스템의 구성을 개략적으로 보여주는 블록도이다.
도 2는 본 발명의 일 실시예에 따른 얼굴인식 서버의 구성을 개략적으로 보여주는 블록도이다.
도 3은 도 2의 전체 얼굴특징 모델을 구성하는 전체 얼굴 이미지 추출부의 구성을 보여주는 블록도이다.
도 4는 도 2의 전체 얼굴특징 모델을 구성하는 전체 특징벡터 추출부 및 부분 얼굴특징 모델을 구성하는 부분 특징벡터 추출부의 구성을 보여주는 블록도이다.
도 5는 도 4의 얼굴이미지 처리부에 포함된 제1 유닛의 구성을 보여주는 블록도이다.
도 6은 도 4의 얼굴이미지 처리부에 포함된 제2 유닛의 구성을 보여주는 블록도이다.
도 7은 도 2의 마스크 탐지 모델의 구성을 보여주는 블록도이다.
도 8은 전체 얼굴영역 좌표, 마스크 영역 좌표, 및 부분 얼굴영역 좌표의 일 예를 보여주는 도면이다.
도 9는 일반적인 얼굴인식모델이 동일인을 인식하지 못하는 예를 보여주는 도면이다.
도 10은 학습이미지들간의 거리에 따라 학습이미지를 벡터공간에 배치할 때 중첩되는 영역이 발생되는 예를 보여주는 도면이다.
도 11은 학습이미지를 2차원 각도 평면 상에 배치한 예를 보여주는 도면이다.
도 12는 2차원 각도 평면 상에서 학습 이미지들간에 마진각도가 부여되어 학습 이미지들이 이격되는 것을 예시적으로 보여주는 도면이다.
도 13은 본 발명의 일 실시예에 따른 에지 디바이스의 구성을 개략적으로 보여주는 블록도이다.
1 is a block diagram schematically showing the configuration of a mask wearing face authentication system according to an embodiment of the present invention.
2 is a block diagram schematically showing the configuration of a face recognition server according to an embodiment of the present invention.
FIG. 3 is a block diagram showing the configuration of an entire face image extractor constituting the entire facial feature model of FIG. 2 .
4 is a block diagram showing the configuration of a full feature vector extractor constituting the entire facial feature model of FIG. 2 and a partial feature vector extractor constituting the partial face feature model of FIG. 2 .
FIG. 5 is a block diagram showing the configuration of a first unit included in the face image processing unit of FIG. 4 .
6 is a block diagram illustrating the configuration of a second unit included in the face image processing unit of FIG. 4 .
7 is a block diagram illustrating the configuration of the mask detection model of FIG. 2 .
8 is a view showing an example of coordinates of a whole face region, a coordinate of a mask region, and coordinates of a partial face region.
9 is a view showing an example in which a general face recognition model does not recognize the same person.
10 is a diagram showing an example in which an overlapping area is generated when a learning image is arranged in a vector space according to a distance between the learning images.
11 is a view showing an example of arranging a learning image on a two-dimensional angular plane.
12 is a diagram exemplarily showing that the training images are spaced apart from each other by providing a margin angle between the training images on a two-dimensional angular plane.
13 is a block diagram schematically showing the configuration of an edge device according to an embodiment of the present invention.

이하, 첨부되는 도면을 참고하여 본 발명의 실시예들에 대해 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

본 명세서에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in this specification should be understood as follows.

단수의 표현은 문맥상 명백하게 다르게 정의하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다.The singular expression is to be understood as including the plural expression unless the context clearly defines otherwise, and the terms "first", "second", etc. are used to distinguish one element from another, The scope of rights should not be limited by these terms.

"포함하다" 또는 "가지다" 등의 용어는 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.It should be understood that terms such as “comprise” or “have” do not preclude the possibility of addition or existence of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

"적어도 하나"의 용어는 하나 이상의 관련 항목으로부터 제시 가능한 모든 조합을 포함하는 것으로 이해되어야 한다. 예를 들어, "제1 항목, 제2 항목 및 제 3항목 중에서 적어도 하나"의 의미는 제1 항목, 제2 항목 또는 제3 항목 각각 뿐만 아니라 제1 항목, 제2 항목 및 제3 항목 중에서 2개 이상으로부터 제시될 수 있는 모든 항목의 조합을 의미한다.The term “at least one” should be understood to include all possible combinations from one or more related items. For example, the meaning of “at least one of the first, second, and third items” means 2 of the first, second, and third items as well as each of the first, second, or third items. It means a combination of all items that can be presented from more than one.

이하, 첨부되는 도면을 참고하여 본 발명의 실시예들에 대해 상세히 설명하도록 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 마스크 착용 얼굴인증 시스템의 구성을 개략적으로 보여주는 블록도이고, 도 2는 본 발명의 일 실시예에 따른 얼굴인식 서버의 구성을 개략적으로 보여주는 블록도이다.1 is a block diagram schematically showing the configuration of a face recognition system wearing a mask according to an embodiment of the present invention, and FIG. 2 is a block diagram schematically showing the configuration of a face recognition server according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 일 실시예에 따른 마스크 착용 얼굴인증 시스템(100)은 얼굴인식 서버(110) 및 복수개의 에지 디바이스(120)들을 포함한다.1 and 2 , the mask wearing face authentication system 100 according to an embodiment of the present invention includes a face recognition server 110 and a plurality of edge devices 120 .

얼굴인식 서버(110)는 얼굴인식모델을 생성하고, 생성된 얼굴인식모델을 이용하여 사용자 단말기(130)로부터 입력되는 사용자의 이미지로부터 특징벡터를 추출한다. 얼굴인식 서버(110)는 특징벡터를 이용하여 타겟 사용자의 인증을 위한 어레이 파일(Array File)을 생성한다. 그리고, 얼굴인식 서버(110)는 생성된 어레이 파일을 에지 디바이스(120)로 전송함으로써 에지 디바이스(120)가 타겟 사용자를 인증할 수 있도록 한다.The face recognition server 110 generates a face recognition model, and extracts a feature vector from the user's image input from the user terminal 130 using the generated face recognition model. The face recognition server 110 generates an array file for authentication of the target user by using the feature vector. Then, the face recognition server 110 transmits the generated array file to the edge device 120 so that the edge device 120 can authenticate the target user.

이를 위해, 얼굴인식 서버(110)는 도 2에 도시된 바와 같이 사용자 등록부(210), 입력 이미지 생성부(215), 사용자 얼굴인식부(220), 얼굴인식모델(225, 230, 240), 어레이 파일 생성부(250), 트레이닝부(280), 및 인터페이스부(270)를 포함한다.To this end, the face recognition server 110 includes a user registration unit 210, an input image generation unit 215, a user face recognition unit 220, face recognition models 225, 230, 240, as shown in FIG. It includes an array file generating unit 250 , a training unit 280 , and an interface unit 270 .

사용자 등록부(210)는 등록을 희망하는 사용자의 사용자 단말기(130)로부터 하나 이상의 사용자 이미지를 수신한다. 사용자 등록부(210)는 사용자 이미지가 수신되면 해당 사용자가 사용자 이미지와 동일인인지 여부를 확인하고, 동일인인 것으로 판단되면 해당 사용자에게 부여되어 있는 출입권한정보를 획득하여 사용자 이미지와 함께 사용자 데이터베이스(212)에 등록한다.The user registration unit 210 receives one or more user images from the user terminal 130 of the user who wishes to register. When the user image is received, the user registration unit 210 checks whether the user is the same person as the user image, and if it is determined that the user is the same person, obtains access permission information granted to the user and the user database 212 together with the user image. register in

일 실시예에 있어서, 사용자 등록부(210)는 사용자 단말기(130)로부터 해당 사용자의 식별정보를 사용자 이미지와 함께 수신할 수 있다. 예컨대, 사용자 등록부(210)는 사용자의 아이디, 성명, 전화번호, 또는 사용자의 직원번호 등과 같은 사용자의 식별정보를 해당 사용자 이미지와 함께 수신할 수 있다. 이러한 실시예에 따르는 경우 사용자 등록부(210)는 사용자의 식별정보 및 사용자의 출입원한정보를 해당 사용자 이미지와 함께 사용자 데이터베이스(212)에 등록할 수 있다.In an embodiment, the user registration unit 210 may receive the user's identification information from the user terminal 130 together with the user image. For example, the user registration unit 210 may receive the user's identification information, such as the user's ID, name, phone number, or the user's employee number, together with the corresponding user image. According to this embodiment, the user registration unit 210 may register the user's identification information and the user's access access information together with the corresponding user image in the user database 212 .

한편, 사용자 등록부(210)는 사용자 단말기(130)로부터 복수개의 사용자 이미지를 입력 받는 경우 서로 다른 사용자 이미지가 입력되도록 유도할 수 있다. 예컨대, 사용자 등록부(210)는 사용자가 사용자 단말기(130)를 통해 다른 환경에서 촬영된 사용자 이미지, 다른 조도에서 촬영된 사용자 이미지 또는 마스크를 착용한 사용자 이미지를 입력하도록 유도할 수 있다. 이와 같이, 사용자 등록부(210)가 한 명의 사용자로부터 서로 다른 환경, 서로 다른 조도 또는 마스크 착용 여부에 따라 촬영된 복수개의 사용자 이미지를 수신함으로써 얼굴인식의 정확도를 향상시킬 수 있게 된다.Meanwhile, when receiving a plurality of user images from the user terminal 130 , the user registration unit 210 may induce different user images to be input. For example, the user registration unit 210 may induce the user to input a user image photographed in a different environment, a user image photographed in a different illuminance, or a user image wearing a mask through the user terminal 130 . In this way, the user registration unit 210 can improve the accuracy of face recognition by receiving a plurality of user images taken according to different environments, different illuminance, or whether a mask is worn from a single user.

입력 이미지 생성부(215)는 사용자 등록부(210)에 의해 입력된 사용자 이미지로부터 얼굴인식에 이용될 입력 이미지를 생성한다. 구체적으로 입력 이미지 생성부(215)는 하나의 사용자 이미지를 미리 정해진 단계까지 다운샘플링하거나 업샘플링함으로써 하나의 사용자 이미지로부터 해상도가 서로 다른 복수개의 사용자 이미지들을 생성한다. 예컨대, 입력 이미지 생성부(215)는 하나의 사용자 이미지를 다운샘플링함으로써 해상도가 서로 다른 복수개의 사용자 이미지를 생성할 수 있다.The input image generating unit 215 generates an input image to be used for face recognition from the user image input by the user registration unit 210 . Specifically, the input image generator 215 generates a plurality of user images having different resolutions from one user image by downsampling or upsampling one user image to a predetermined step. For example, the input image generator 215 may generate a plurality of user images having different resolutions by downsampling one user image.

일 실시예에 있어서, 입력 이미지 생성부(215)는 사용자 이미지에 가우시안 피라미드(Gaussian Pyramid)를 적용함으로써 다운샘플링된 사용자 이미지를 생성하거나, 사용자 이미지에 라플라시안 피라미드(Laplacian Pyramid)를 적용함으로써 업샘플링된 사용자 이미지를 생성할 수 있다.In one embodiment, the input image generator 215 generates a downsampled user image by applying a Gaussian Pyramid to the user image, or upsampled by applying a Laplacian Pyramid to the user image. You can create custom images.

해상도가 서로 다른 복수개의 사용자 이미지가 생성되면, 입력 이미지 생성부(215)는 각각의 사용자 이미지에 대하여, 사용자 이미지 상에서 미리 정해진 픽셀크기의 윈도우를 이동시켜가면서 획득되는 복수개의 이미지를 입력 이미지로 생성한다. 입력 이미지 생성부(215)는 생성된 복수개의 입력 이미지를 사용자 얼굴인식부(220)로 입력한다.When a plurality of user images having different resolutions are generated, the input image generator 215 generates, as input images, a plurality of images obtained by moving a window having a predetermined pixel size on the user image for each user image. do. The input image generating unit 215 inputs the generated plurality of input images to the user face recognition unit 220 .

사용자 얼굴인식부(220)는 트레이닝부(280)에 의해 트레이닝된 얼굴인식모델, 구체적으로, 전체 얼굴특징 모델(230) 및 부분 얼굴특징 모델(240)에 입력 이미지 생성부(215)에 의해 생성된 복수개의 입력 이미지를 입력한다.The user face recognition unit 220 is generated by the input image generator 215 to the face recognition model trained by the training unit 280 , specifically, the full facial feature model 230 and the partial facial feature model 240 . Input a plurality of input images.

사용자 얼굴인식부(220)는 전체 얼굴특징 모델(230)을 통해 전체 얼굴영역에 대한 전체 특징벡터를 획득한다. 또한, 사용자 얼굴인식부(220)는 부분 얼굴특징 모델(240)을 통해 부분 얼굴영역에 대한 부분 특징벡터를 획득한다. The user face recognition unit 220 obtains the entire feature vector for the entire face region through the full facial feature model 230 . Also, the user face recognition unit 220 obtains a partial feature vector for a partial face region through the partial facial feature model 240 .

전체 얼굴특징 모델(230)은 입력 이미지로부터 전체 얼굴이미지를 추출하는 전체 얼굴이미지 추출부(232) 및 전체 얼굴이미지로부터 전체 특징벡터를 추출하는 전체 특징벡터 추출부(234)를 포함할 수 있다. The full facial feature model 230 may include a full face image extractor 232 for extracting a full face image from the input image and a full feature vector extractor 234 for extracting a full feature vector from the full face image.

이하에서는 도 3 내지 도 6을 참조하여 사용자 얼굴인식부(220)가 전체 얼굴특징 모델(230)에 포함된 전체 얼굴이미지 추출부(232) 및 전체 특징벡터 추출부(234)를 이용하여 입력 이미지로부터 전체 얼굴이미지와 전체 특징벡터를 추출하는 내용에 대해 구체적으로 설명한다.Hereinafter, with reference to FIGS. 3 to 6 , the user face recognition unit 220 uses the full face image extractor 232 and the full feature vector extractor 234 included in the full face feature model 230 to obtain an input image. The contents of extracting the entire face image and the entire feature vector from

도 3은 도 2의 전체 얼굴특징 모델을 구성하는 전체 얼굴 이미지 추출부의 구성을 보여주는 블록도이다. FIG. 3 is a block diagram showing the configuration of an entire face image extractor constituting the entire facial feature model of FIG. 2 .

도 3을 참조하면, 전체 얼굴이미지 추출부(232)는 컨벌루션 신경망(Convolutional Neural Network: CNN)을 기반으로 구성되어 입력 이미지로부터 전체 얼굴영역이 포함된 전체 얼굴이미지를 추출한다. 이러한 전체 얼굴이미지 추출부(232)는 n개의 컨벌루션 연산부(310, 320, 330, 340, 350), n-1개의 샘플링부(315, 325, 335, 345) 및 통합 탐지부(360)를 포함한다. Referring to FIG. 3 , the full face image extraction unit 232 is configured based on a convolutional neural network (CNN) and extracts the entire face image including the entire face region from the input image. This whole face image extraction unit 232 includes n convolution operation units 310, 320, 330, 340, 350, n-1 sampling units 315, 325, 335, 345, and an integrated detection unit 360. do.

일 실시예에 있어서, 전체 얼굴이미지 추출부(232)는 5개의 컨벌루션 연산부(310, 320, 330, 340, 350)를 포함할 수 있다. 도 3에서는 설명의 편의를 위해, 전체 얼굴이미지 추출부(232)가 5개의 컨벌루션 연산부(310, 320, 330, 340, 350)를 포함하는 것으로 도시하였으나, 반드시 이에 한정되지는 않는다. 전체 얼굴이미지 추출부(232)는 4개 미만의 컨벌루션 연산부를 포함하거나 6개 이상의 컨벌루션 연산부를 포함할 수도 있다.In an embodiment, the full face image extraction unit 232 may include five convolution operation units 310 , 320 , 330 , 340 , and 350 . In FIG. 3 , for convenience of explanation, the entire face image extraction unit 232 is illustrated as including five convolution operation units 310 , 320 , 330 , 340 , and 350 , but the present invention is not limited thereto. The full face image extraction unit 232 may include less than 4 convolutional operation units or may include 6 or more convolutional operation units.

일 실시예에 있어서, 전체 얼굴이미지 추출부(232)는 4개의 샘플링부(315, 325, 335, 345)를 포함할 수 있다. 도 3에서는 설명의 편의를 위해, 전체 얼굴이미지 추출부(232)가 샘플링부(315, 325, 335, 345)를 포함하는 것으로 도시하였으나, 반드시 이에 한정되지는 않는다. 전체 얼굴이미지 추출부(232)는 3개 미만의 샘플링부를 포함하거나 5개 이상의 샘플링부를 포함할 수도 있다.In one embodiment, the full face image extraction unit 232 may include four sampling units (315, 325, 335, 345). In FIG. 3 , for convenience of explanation, the entire face image extracting unit 232 is illustrated as including the sampling units 315 , 325 , 335 , and 345 , but the present invention is not limited thereto. The entire face image extraction unit 232 may include fewer than three sampling units or may include five or more sampling units.

제1 내지 제5 컨벌루션 연산부(310, 320, 330, 340, 350) 각각은 입력되는 이미지에 컨벌루션 필터를 적용하여 피쳐맵을 생성하고, 생성된 피쳐맵에 활성화함수를 적용함으로써 피쳐맵에 비선형적 특성을 반영한다. 이때, 제1 내지 제5 컨벌루션 연산부(310, 320, 330, 340, 350)에 적용되는 컨벌루션 필터는 서로 상이한 필터일 수 있다.Each of the first to fifth convolution operation units 310 , 320 , 330 , 340 , 350 applies a convolution filter to an input image to generate a feature map, and applies an activation function to the generated feature map, so that the feature map is non-linear. reflect the characteristics. In this case, the convolution filters applied to the first to fifth convolution operation units 310 , 320 , 330 , 340 and 350 may be different filters.

일 실시예에 있어서, 제1 내지 제5 컨벌루션 연산부(310, 320, 330, 340, 350)에서 이용되는 활성화함수는 피쳐맵의 픽셀값들 중 양의 값은 그대로 출력하고 음의 값은 미리 정해진 크기만큼 감소된 값으로 출력하는 활성화함수일 수 있다. 여기서, 활성화함수란 복수의 입력정보에 가중치를 부여하여 결합해 완성된 결과값을 출력하는 함수를 의미한다.In an embodiment, the activation function used in the first to fifth convolution operation units 310 , 320 , 330 , 340 , 350 outputs positive values among pixel values of the feature map as it is, and negative values are predetermined. It may be an activation function that outputs a value reduced by the size. Here, the activation function refers to a function that gives a weight to a plurality of input information and outputs a completed result value by combining them.

제1 내지 제4 샘플링부(315, 325, 335, 345) 각각은 제1 내지 제5 컨벌루션 연산부(310, 320, 330, 340, 350)들 사이에 배치되어 k(k는 1 보다 크고 n보다 작은 정수)번째 컨벌루션 연산부에 의해 생성된 피쳐맵에 샘플링 필터를 적용하여 상기 피쳐맵의 차원을 감소시키고, 차원이 감소된 피쳐맵을 k+1번째 컨벌루션 연산부로 입력한다. Each of the first to fourth sampling units 315 , 325 , 335 , 345 is disposed between the first to fifth convolution operation units 310 , 320 , 330 , 340 , and 350 so that k (k is greater than 1 and greater than n). The dimension of the feature map is reduced by applying a sampling filter to the feature map generated by the small integer)-th convolution operation unit, and the reduced-dimensional feature map is input to the k+1-th convolution operation unit.

구체적으로, 제1 샘플링부(315)는 제1 컨벌루션 연산부(310) 및 제2 컨벌루션 연산부(320) 사이에 배치되어, 제1 컨벌루션 연산부(310)로부터 출력되는 제1 피쳐맵에 샘플링 필터를 적용하여 제1 피쳐맵으로부터 특징값을 추출한다. 일 실시예에 있어서, 제1 샘플링부(315)는 제1 피쳐맵 상에서 샘플링 필터에 상응하는 영역에 포함된 픽셀값들 중 최대값을 제1 피쳐맵의 특징값으로 추출할 수 있다. 이러한 실시예에 따르는 경우 제1 샘플링부(315)는 맥스 풀링(Max Pooling) 레이어로 구현될 수 있고, 맥스 풀링 레이어를 통해 제1 피쳐맵의 차원이 감소될 수 있다. 제1 샘플링부(315)는 차원이 감소된 피쳐맵을 제2 컨벌루션 연산부(320)로 입력한다.Specifically, the first sampling unit 315 is disposed between the first convolution operation unit 310 and the second convolution operation unit 320 , and applies a sampling filter to the first feature map output from the first convolution operation unit 310 . to extract a feature value from the first feature map. In an embodiment, the first sampling unit 315 may extract a maximum value among pixel values included in a region corresponding to the sampling filter on the first feature map as a feature value of the first feature map. According to this embodiment, the first sampling unit 315 may be implemented as a max pooling layer, and the dimension of the first feature map may be reduced through the max pooling layer. The first sampling unit 315 inputs the reduced-dimensional feature map to the second convolution operation unit 320 .

제2 샘플링부(325)는 제2 컨벌루션 연산부(320) 및 제3 컨벌루션 연산부(330) 사이에 배치되어, 제2 컨벌루션 연산부(320)로부터 출력되는 제2 피쳐맵에 샘플링 필터를 적용하여 제2 피쳐맵으로부터 특징값을 추출한다. 일 실시예에 있어서, 제2 샘플링부(325)는 제2 피쳐맵 상에서 샘플링 필터에 상응하는 영역에 포함된 픽셀값들 중 최대값을 제2 피쳐맵의 특징값으로 추출할 수 있다. 이러한 실시예에 따르는 경우 제2 샘플링부(325)는 맥스 풀링(Max Pooling) 레이어로 구현될 수 있고, 맥스 풀링 레이어를 통해 제2 피쳐맵의 차원이 감소될 수 있다. 제2 샘플링부(325)는 차원이 감소된 피쳐맵을 제3 컨벌루션 연산부(330)로 입력한다.The second sampling unit 325 is disposed between the second convolution operation unit 320 and the third convolution operation unit 330 , and applies a sampling filter to the second feature map output from the second convolution operation unit 320 to obtain a second Extract feature values from feature maps. In an embodiment, the second sampling unit 325 may extract a maximum value among pixel values included in a region corresponding to the sampling filter on the second feature map as a feature value of the second feature map. According to this embodiment, the second sampling unit 325 may be implemented as a max pooling layer, and the dimension of the second feature map may be reduced through the max pooling layer. The second sampling unit 325 inputs the reduced-dimensional feature map to the third convolution operation unit 330 .

제3 샘플링부(335)는 제3 컨벌루션 연산부(330) 및 제4 컨벌루션 연산부(340) 사이에 배치되어, 제3 컨벌루션 연산부(330)로부터 출력되는 제3 피쳐맵에 샘플링 필터를 적용하여 제3 피쳐맵으로부터 특징값을 추출한다. 일 실시예에 있어서, 제3 샘플링부(335)는 제3 피쳐맵 상에서 샘플링 필터에 상응하는 영역에 포함된 픽셀값들 중 최대값을 제3 피쳐맵의 특징값으로 추출할 수 있다. 이러한 실시예에 따르는 경우 제3 샘플링부(335)는 맥스 풀링(Max Pooling) 레이어로 구현될 수 있고, 맥스 풀링 레이어를 통해 제3 피쳐맵의 차원이 감소될 수 있다. 제3 샘플링부(335)는 차원이 감소된 피쳐맵을 제4 컨벌루션 연산부(340)로 입력한다.The third sampling unit 335 is disposed between the third convolution operation unit 330 and the fourth convolution operation unit 340 , and applies a sampling filter to the third feature map output from the third convolution operation unit 330 to obtain a third Extract feature values from feature maps. In an embodiment, the third sampling unit 335 may extract a maximum value among pixel values included in a region corresponding to the sampling filter on the third feature map as a feature value of the third feature map. According to this embodiment, the third sampling unit 335 may be implemented as a max pooling layer, and the dimension of the third feature map may be reduced through the max pooling layer. The third sampling unit 335 inputs the reduced-dimensional feature map to the fourth convolution operation unit 340 .

제4 샘플링부(345)는 제4 컨벌루션 연산부(340) 및 제5 컨벌루션 연산부(350) 사이에 배치되어, 제4 컨벌루션 연산부(340)로부터 출력되는 제4 피쳐맵에 샘플링 필터를 적용하여 제4 피쳐맵으로부터 특징값을 추출한다. 일 실시예에 있어서, 제4 샘플링부(345)는 제4 피쳐맵 상에서 샘플링 필터에 상응하는 영역에 포함된 픽셀값들 중 최대값을 제4 피쳐맵의 특징값으로 추출할 수 있다. 이러한 실시예에 따르는 경우 제4 샘플링부(345)는 맥스 풀링(Max Pooling) 레이어로 구현될 수 있고, 맥스 풀링 레이어를 통해 제4 피쳐맵의 차원이 감소될 수 있다. 제4 샘플링부(345)는 차원이 감소된 피쳐맵을 제5 컨벌루션 연산부(350)로 입력한다.The fourth sampling unit 345 is disposed between the fourth convolution operation unit 340 and the fifth convolution operation unit 350 , and applies a sampling filter to the fourth feature map output from the fourth convolution operation unit 340 to obtain a fourth Extract feature values from feature maps. In an embodiment, the fourth sampling unit 345 may extract a maximum value among pixel values included in a region corresponding to the sampling filter on the fourth feature map as a feature value of the fourth feature map. According to this embodiment, the fourth sampling unit 345 may be implemented as a max pooling layer, and the dimension of the fourth feature map may be reduced through the max pooling layer. The fourth sampling unit 345 inputs the reduced-dimensional feature map to the fifth convolution operation unit 350 .

통합 탐지부(360)는 n개의 컨벌루션 연산부(310, 320, 330, 340, 350)들 중 적어도 둘 이상의 컨벌루션 연산부(310, 320, 330, 340, 350)들 각각에 의해 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합한다. 예컨대, 통합 탐지부(360)는 도 3에 도시된 바와 같이 제1 컨벌루션 연산부(310)에 의해 생성된 제1 피쳐맵, 제3 컨벌루션 연산부(330)에 의해 생성된 제3 피쳐맵 및 제5 컨벌루션 연산부(350)에 의해 생성된 제5 피쳐맵을 신경망 네트워크를 이용하여 통합할 수 있다. 이때, 제1 컨벌루션 연산부(310)에 의해 생성된 제1 피쳐맵, 제3 컨벌루션 연산부(330)에 의해 생성된 제3 피쳐맵 및 제5 컨벌루션 연산부(350)에 의해 생성된 제5 피쳐맵는 신경망 네트워크에서의 레이어(layer)가 서로 상이할 수 있다. 제1 컨벌루션 연산부(310)에 의해 생성된 제1 피쳐맵은 가장 낮은 레이어에 해당하고, 제3 컨벌루션 연산부(330)에 의해 생성된 제3 피쳐맵는 중간 레이어에 해당하며, 제5 컨벌루션 연산부(350)에 의해 생성된 제5 피쳐맵은 가장 높은 레이어에 해당할 수 있다. 즉, 통합 탐지부(360)는 서로 다른 레이어에서 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합할 수 있다. The integrated detection unit 360 performs a neural network using the feature maps generated by each of the at least two convolution operation units 310, 320, 330, 340, and 350 among the n convolution operation units 310, 320, 330, 340, and 350. Integrate using the network. For example, as shown in FIG. 3 , the integrated detection unit 360 includes a first feature map generated by the first convolution operation unit 310 , a third feature map generated by the third convolution operation unit 330 , and a fifth The fifth feature map generated by the convolution operation unit 350 may be integrated using a neural network. At this time, the first feature map generated by the first convolution operation unit 310 , the third feature map generated by the third convolution operation unit 330 , and the fifth feature map generated by the fifth convolution operation unit 350 are neural networks Layers in the network may be different from each other. The first feature map generated by the first convolution operation unit 310 corresponds to the lowest layer, the third feature map generated by the third convolution operation unit 330 corresponds to the middle layer, and the fifth convolution operation unit 350 ) may correspond to the highest layer. That is, the integrated detector 360 may integrate feature maps generated in different layers using a neural network.

통합 탐지부(360)는 신경망 네트워크를 이용하여 통합된 피쳐맵에 제1 차원감소 필터를 적용함으로써, 차원을 감소시킨다. 일 실시예에 있어서, 제1 차원감소 필터는 피쳐맵을 2차원으로 감소시킬 수 있는 필터로 설정될 수 있다.The integrated detector 360 reduces the dimension by applying the first dimension reduction filter to the integrated feature map using the neural network. In an embodiment, the first dimensionality reduction filter may be set as a filter capable of reducing the feature map in two dimensions.

통합 탐지부(360)는 2차원의 출력 데이터에 미리 정해진 분류함수를 적용함으로써, 해당 입력 이미지에 전체 얼굴영역이 포함되어 있는지 여부에 대한 제1 확률값을 계산한다. 일 실시예에 있어서, 통합 탐지부(360)는 산출된 제1 확률값이 제1 문턱값 이상이면, 해당 입력 이미지에 전체 얼굴영역이 포함된 것으로 판단할 수 있다. The integrated detector 360 calculates a first probability value of whether the entire face region is included in the corresponding input image by applying a predetermined classification function to the two-dimensional output data. In an embodiment, when the calculated first probability value is equal to or greater than the first threshold value, the integrated detector 360 may determine that the entire face region is included in the corresponding input image.

통합 탐지부(360)는 제1 확률값이 제1 문턱값 이상인 경우, 신경망 네트워크를 이용하여 통합된 피쳐맵에 제2 차원감소 필터를 적용함으로써, 차원을 감소시킨다. 일 실시예에 있어서, 제2 차원감소 필터는 피쳐맵을 4차원으로 감소시킬 수 있는 필터로 설정될 수 있고, 4차원으로 출력되는 4개의 값을 해당 입력 이미지 상에서 전체 얼굴영역 좌표로 결정할 수 있다. 이때, 전체 얼굴영역의 좌표는 도 8(a)에 도시된 바와 같이 전체 얼굴이 포함된 영역을 사각형 형태의 바운딩 박스(Bounding Box)로 표시하였을 때 좌측 상단 꼭지점의 좌표와 우측 하단 꼭지점의 좌표로 정의되거나, 우측 상단 꼭지점의 좌표와 좌측 하단 꼭지점의 좌표로 정의될 수 있다. When the first probability value is equal to or greater than the first threshold, the integrated detector 360 reduces the dimension by applying the second dimension reduction filter to the integrated feature map using the neural network. In one embodiment, the second dimension reduction filter may be set as a filter capable of reducing the feature map in four dimensions, and four values output in four dimensions may be determined as coordinates of the entire face region on the corresponding input image. . At this time, the coordinates of the entire face area are the coordinates of the upper left vertex and the lower right vertex when the area including the entire face is displayed as a rectangular bounding box as shown in Fig. 8(a). It may be defined or it may be defined by the coordinates of the upper right vertex and the coordinates of the lower left vertex.

통합 탐지부(360)는 산출된 전체 얼굴영역 좌표를 이용하여 전체 얼굴영역이 포함된 것으로 판단된 입력 이미지 상에서 전체 얼굴이미지를 추출한다. The integrated detector 360 extracts the entire face image from the input image determined to include the entire face region by using the calculated coordinates of the entire face region.

한편, 통합 탐지부(360)는 신경망 네트워크를 이용하여 통합된 피쳐맵에 제3 차원감소 필터를 적용함으로써, 차원을 감소시킨다. 일 실시예에 있어서, 제3 차원 감소 필터는 10차원으로 감소시킬 수 있는 필터로 설정될 수 있고, 10차원으로 출력되는 10개의 값을 해당 입력 이미지 상에서의 랜드마크 좌표로 결정할 수 있다. 이때, 랜드마크 좌표는 입력 이미지 상에서 2개의 눈의 좌표, 코의 좌표, 2개의 입의 좌표를 의미할 수 있다. 2개의 입의 좌표는 입의 좌측 꼬리에 대한 좌표 및 입의 우측 꼬리에 대한 좌표를 의미할 수 있다.Meanwhile, the integrated detector 360 reduces the dimension by applying the third dimension reduction filter to the integrated feature map using the neural network. In an embodiment, the 3D reduction filter may be set as a filter capable of reducing in 10 dimensions, and 10 values output in 10 dimensions may be determined as landmark coordinates on a corresponding input image. In this case, the landmark coordinates may mean coordinates of two eyes, coordinates of a nose, and coordinates of two mouths on the input image. The two coordinates of the mouth may mean coordinates for the left tail of the mouth and coordinates for the right tail of the mouth.

상술한 바와 같은 본 발명에 따른 전체 얼굴 이미지 추출부(232)는 하나의 얼굴 탐지부의 신경망 네트워크가 실행될 수 있다. 전체 얼굴 이미지 추출부(232)는 서로 다른 레이어의 컨벌루션 연산부에 의하여 생성된 피쳐맵들을 다시 한번 신경망 네트워크를 통해 통합할 수 있다. 예컨대, 전체 얼굴 이미지 추출부(232)는 낮은 레이어의 제1 컨벌루션 연산부(310)에 의하여 생성된 제1 피쳐맵, 중간 레이어의 제3 컨벌루션 연산부(330)에 의하여 생성된 제2 피쳐맵, 및 높은 레이어의 제5 컨벌루션 연산부(350)에 의하여 생성된 제5 피쳐맵을 신경망 네트워크를 통해 통합할 수 있다. As described above, the entire face image extracting unit 232 according to the present invention may implement a neural network of one face detection unit. The full face image extraction unit 232 may integrate the feature maps generated by the convolution operation units of different layers once again through the neural network. For example, the full face image extraction unit 232 includes a first feature map generated by the first convolution operation unit 310 of the lower layer, a second feature map generated by the third convolution operation unit 330 of the middle layer, and The fifth feature map generated by the fifth convolution operation unit 350 of the high layer may be integrated through the neural network.

그리고, 전체 얼굴 이미지 추출부(232)는 통합된 피쳐맵을 가지고, 전체 얼굴영역의 유무, 전체 얼굴영역의 좌표, 및 전체 얼굴의 랜드마크 좌표를 결정할 수 있다. 전체 얼굴 이미지 추출부(232)는 전체 얼굴영역의 좌표를 이용하여 전체 얼굴 이미지를 추출할 수 있다. In addition, the full face image extractor 232 may determine the presence or absence of the entire face region, coordinates of the entire face region, and landmark coordinates of the entire face using the integrated feature map. The full face image extractor 232 may extract the full face image by using the coordinates of the entire face region.

본 발명에 따른 전체 얼굴 이미지 추출부(232)는 신경망 네트워크를 실행하는 얼굴 탐지부가 복수개로 이루어져 있지 않으며, 하나의 깊이가 깊은 네트워크로 구성된 얼굴 탐지부로 구현될 수 있다. 이에 따라, 본 발명에 따른 전체 얼굴 이미지 추출부(232)는 연산량이 적어 연산 속도가 빨라질 수 있다. 한편, 본 발명에 따른 전체 얼굴 이미지 추출부(232)는 서로 다른 레이어의 컨벌루션 연산부에 의하여 생성된 피쳐맵들을 다시 한번 신경망 네트워크를 통해 통합함으로써, 깊이가 서로 다른 복수개의 얼굴 탐지부를 사용하는 것과 유사한 정확도를 유지할 수 있다. The full face image extraction unit 232 according to the present invention does not consist of a plurality of face detection units executing a neural network, but may be implemented as a face detection unit composed of a single deep network. Accordingly, the total face image extractor 232 according to the present invention has a small amount of computation, so that the computation speed can be increased. On the other hand, the full face image extraction unit 232 according to the present invention integrates the feature maps generated by the convolution operation units of different layers once again through a neural network, similar to using a plurality of face detection units having different depths. accuracy can be maintained.

도 3에는 도시하고 있지 않으나, 전체 얼굴 이미지 추출부(232)는 전체 얼굴 이미지 정렬부(미도시)를 더 포함할 수 있다. 전체 얼굴 이미지 정렬부는 통합 탐지부(360)에서 출력된 랜드마크 좌표를 이용하여 전체 얼굴이미지를 정렬할 수 있다. 구체적으로, 전체 얼굴 이미지 정렬부는 추출된 전체 얼굴이미지에 대한 랜드마크 좌표를 이용하여 전체 얼굴이미지에 대해 회전, 평행이동, 확대 및 축소 중 적어도 하나를 수행하여 전체 얼굴이미지를 정렬할 수 있다. 전체 얼굴 이미지 정렬부를 이용하여 얼굴이미지를 정렬하는 이유는 전체 특징벡터 추출부(234)에 입력으로 제공될 전체 얼굴이미지에 일관성을 부여함으로써 얼굴인식 성능을 향상시키기 위함이다.Although not shown in FIG. 3 , the full face image extractor 232 may further include an all face image aligner (not shown). The entire face image aligning unit may align the entire face image by using the landmark coordinates output from the integrated detection unit 360 . Specifically, the entire face image aligning unit may align the entire face image by performing at least one of rotation, translation, enlargement, and reduction on the entire face image by using the landmark coordinates for the extracted entire face image. The reason for aligning the face images using the full face image alignment unit is to improve the face recognition performance by imparting consistency to the entire face image to be provided as an input to the full feature vector extraction unit 234 .

일 실시예에 있어서, 전체 얼굴 이미지 정렬부는 통합 탐지부(360)에 의해 추출된 전체 얼굴이미지를 전체 특징벡터 추출부(234)에서 이용되는 전체 얼굴이미지와 동일한 해상도로 리사이징(Resizing)할 수 있다. 그리고, 전체 얼굴 이미지 정렬부는 전체 특징벡터 추출부(234)에서 이용되는 해상도의 전체 얼굴이미지에 대한 기준 랜드마크 좌표를 기준으로 통합 탐지부(360)에 의해 산출된 랜드마크 좌표를 이동시킴으로써 전체 얼굴이미지를 회전, 평행이동, 확대 또는 축소시킬 수 있다.In an embodiment, the full face image aligner may resize the entire face image extracted by the integrated detection unit 360 to the same resolution as the full face image used in the full feature vector extractor 234 . . Then, the full face image alignment unit moves the landmark coordinates calculated by the integrated detection unit 360 based on the reference landmark coordinates for the full face image of the resolution used in the full feature vector extraction unit 234 to move the entire face Images can be rotated, translated, enlarged or reduced.

다시 도 2를 참조하면, 전체 특징벡터 추출부(234)는 전체 얼굴이미지 추출부(232)로부터 전체 얼굴이미지가 입력되면, 해당 전체 얼굴이미지에 포함된 전체 얼굴로부터 전체 특징벡터를 추출한다. 이하, 도 4 내지 도 6을 참조하여 본 발명에 따른 전체 특징벡터 추출부(234)에 대해 보다 구체적으로 설명한다.Referring back to FIG. 2 , when the full face image is input from the full face image extracting unit 232 , the full feature vector extraction unit 234 extracts the entire feature vector from the entire face included in the corresponding full face image. Hereinafter, the entire feature vector extractor 234 according to the present invention will be described in more detail with reference to FIGS. 4 to 6 .

도 4는 도 2의 전체 얼굴특징 모델을 구성하는 전체 특징벡터 추출부 및 부분 얼굴특징 모델을 구성하는 부분 특징벡터 추출부의 구성을 보여주는 블록도이고, 도 5는 도 4의 얼굴이미지 처리부에 포함된 제1 유닛의 구성을 보여주는 블록도이며, 도 6은 도 4의 얼굴이미지 처리부에 포함된 제2 유닛의 구성을 보여주는 블록도이다.4 is a block diagram showing the configuration of the full feature vector extraction unit constituting the full facial feature model of FIG. 2 and the partial feature vector extraction unit constituting the partial facial feature model of FIG. It is a block diagram showing the configuration of the first unit, and FIG. 6 is a block diagram showing the configuration of the second unit included in the face image processing unit of FIG. 4 .

도 4 내지 도 6을 참조하면, 전체 특징벡터 추출부(234)는 복수개의 얼굴이미지 처리부(410a~410n) 및 특징벡터 생성부(420)를 포함한다.4 to 6 , the entire feature vector extracting unit 234 includes a plurality of face image processing units 410a to 410n and a feature vector generating unit 420 .

복수개의 얼굴이미지 처리부(410a~410n)는 입력 데이터를 영상 처리하여 출력 데이터를 생성한다. 이때, 복수개의 얼굴이미지 처리부(410a~410n) 중 1 번째 얼굴이미지 처리부(410a)에는 입력 이미지로써 전체 얼굴이미지 추출부(232)로부터 출력되는 전체 얼굴이미지가 입력되고, n+1번째 얼굴이미지 처리부(410n+1)에는 입력 이미지로써 n번재 얼굴이미지 처리부(410n)의 출력 데이터가 입력된다.The plurality of face image processing units 410a to 410n generate output data by image processing the input data. At this time, the first face image processing unit 410a among the plurality of face image processing units 410a to 410n receives the entire face image output from the full face image extraction unit 232 as an input image, and the n+1th face image processing unit Output data of the n-th face image processing unit 410n is input to (410n+1) as an input image.

예컨대, 1번째 얼굴이미지 처리부(410a)는 전체 얼굴이미지를 영상처리하여 출력 데이터를 생성하고, 생성된 출력 데이터를 2번?? 얼굴이미지 처리부(410b)로 입력할 수 있다. 1번째 얼굴이미지 처리부(410b)는 1번째 얼굴이미지 처리부(410a)에서 출력되는 출력 데이터를 영상처리하여 새로운 출력 데이터를 생성하고, 생성된 새로운 출력 데이터를 3번?? 얼굴이미지 처리부(410c)로 입력할 수 있다. For example, the first face image processing unit 410a image-processes the entire face image to generate output data, and uses the generated output data twice. It may be input to the face image processing unit 410b. The first face image processing unit 410b image-processes the output data output from the first face image processing unit 410a to generate new output data, and repeats the generated new output data three times. It may be input to the face image processing unit 410c.

도 4에 도시된 복수개의 얼굴이미지 처리부(410a~410n)의 기능 및 세부구성은 동일하므로 이하에서는 복수개의 얼굴이미지 처리부(410a~410n)들 중 제1 얼굴이미지 처리부(410a)에 대해 예시적으로 설명한다. 이하에서는 설명의 편의를 위해 제1 얼굴이미지 처리부(410a)를 얼굴이미지 처리부(410)로 표기하기로 한다.Since the functions and detailed configurations of the plurality of face image processing units 410a to 410n shown in FIG. 4 are the same, the first face image processing unit 410a among the plurality of face image processing units 410a to 410n will be exemplarily described below. Explain. Hereinafter, for convenience of description, the first face image processing unit 410a will be referred to as the face image processing unit 410 .

얼굴이미지 처리부(410)는 도 4에 도시된 바와 같이 입력 데이터(얼굴이미지 또는 이전 얼굴이미지 처리부의 출력 데이터임)에 대해 컨벌루션 연산을 수행하여 피쳐맵을 생성하는 제1 유닛(412), 제1 유닛(412)에 의해 생성된 피쳐맵에 가중치를 부여하는 제2 유닛(414), 및 연산부(416)으로 구성된다.As shown in FIG. 4 , the face image processing unit 410 performs a convolution operation on input data (either a face image or output data of a previous face image processing unit) to generate a feature map. It is composed of a second unit 414 that gives weight to the feature map generated by the unit 412 , and an operation unit 416 .

제1 유닛(412)은 도 5에 도시된 바와 같이 정규화부(510), 제1 컨벌루션 연산부(520), 및 비선형화부(530)를 포함한다.The first unit 412 includes a normalization unit 510 , a first convolution operation unit 520 , and a non-linearization unit 530 as shown in FIG. 5 .

정규화부(510)는 전체 얼굴이미지 추출부(232)로부터 입력되는 전체 얼굴이미지들을 배치(Batch)단위로 정규화한다. 배치란 한번에 처리할 전체 얼굴이미지들의 개수단위를 의미한다. 정규화부(510)가 배치단위로 정규화를 수행하는 이유는 배치 단위로 정규화를 수행하게 되면 각 얼굴 이미지에 대한 평균 및 분산이 배치 전체에 대한 평균 및 분산과 다를 수 있는데 이러한 특징이 일종의 노이즈로 작용하게 되어 전체적인 성능이 향상될 수 있기 때문이다. The normalization unit 510 normalizes the entire face images input from the full face image extraction unit 232 in batch units. Batch means the unit of number of all face images to be processed at once. The reason that the normalization unit 510 performs normalization in batches is that when normalization is performed in batches, the mean and variance for each face image may be different from the mean and variance for the entire batch. This characteristic acts as a kind of noise. This is because overall performance can be improved.

또한, 배치 정규화를 통해 네트워크의 각 층마다 입력의 분포(Distribution)가 일관성 없이 바뀌는 내부 공분산 이동(Internal Covariance Shift) 현상에 의해 학습의 복잡성이 증가하고 그라디언트 소멸 또는 폭발(Gradient Vanishing or Exploding)이 일어나는 것을 방지할 수 있게 되기 때문이다. In addition, through batch normalization, the learning complexity increases and gradient vanishing or exploding occurs due to the internal covariance shift phenomenon, in which the distribution of inputs for each layer of the network changes inconsistently. because it can be prevented.

제1 컨벌루션 연산부(520)는 정규화부(510)에 의해 정규화된 전체 얼굴이미지에 대해 제1 컨벌루션 필터를 적용하여 제1 피쳐맵을 생성한다. 일 실시예에 있어서, 제1 컨벌루션 연산부(520)는 3*3 픽셀크기를 갖고 스트라이드(Stride)의 값이 1인 제1 컨벌루션 필터를 얼굴이미지에 적용하여 제1 피쳐맵을 생성할 수 있다. 이와 같이, 본 발명에 따른 제1 컨벌루션 연산부(520)는 3*3 픽셀크기를 갖고 스트라이드 값이 1인 제1 컨벌루션 필터를 얼굴이미지에 적용하기 때문에 제1 피쳐맵의 해상도를 높게 보존할 수 있게 된다.The first convolution operation unit 520 generates a first feature map by applying a first convolution filter to the entire face image normalized by the normalization unit 510 . In an embodiment, the first convolution operation unit 520 may generate a first feature map by applying a first convolution filter having a size of 3*3 pixels and a stride value of 1 to the face image. As such, the first convolution operation unit 520 according to the present invention applies the first convolution filter having a size of 3*3 pixels and a stride value of 1 to the face image, so that the resolution of the first feature map can be maintained high. do.

비선형화부(530)는 제1 피쳐맵에 활성화함수를 적용함으로써 제1 피쳐맵에 비선형적 특성을 부여한다. 일 실시예에 있어서, 비선형화부(530)는 제1 피쳐맵의 픽셀값들 중 양의 픽셀값을 동일하게 출력하고 음의 픽셀값은 그 크기를 감소시켜 출력하는 활성화함수를 제1 피쳐맵에 적용함으로써 제1 피쳐맵에 비선형적 특성을 부여할 수 있다. The non-linearity unit 530 applies the activation function to the first feature map to impart a non-linear characteristic to the first feature map. In an embodiment, the non-linearization unit 530 outputs an activation function to the first feature map by outputting the same positive pixel value among the pixel values of the first feature map and reducing the size of the negative pixel value to the first feature map. By applying it, a non-linear characteristic can be imparted to the first feature map.

도 5에서는 비선형화부(530)가 제1 컨벌루션 연산부(520)에 의해 생성된 제1 피쳐맵에 비선형적 특성을 부여하는 것으로 설명하였다. 하지만, 변형된 실시예에 있어서 정규화부(510)는 제1 컨벌루션 연산부(520)에 의해 생성된 제1 피쳐맵들을 배치단위로 추가로 정규화할 수도 있다. 이러한 실시예에 따르는 경우 정규화부(510)는 정규화된 제1 피쳐맵을 비선형화부(530)로 제공하고, 비선형화부(530)는 정규화된 제1 피쳐맵에 활성화함수를 적용함으로써 정규화된 제1 피쳐맵에 비선형적 특성을 부여할 수 있다.In FIG. 5 , it has been described that the non-linearization unit 530 imparts a non-linear characteristic to the first feature map generated by the first convolution operation unit 520 . However, in a modified embodiment, the normalization unit 510 may additionally normalize the first feature maps generated by the first convolution operation unit 520 in units of batches. According to this embodiment, the normalization unit 510 provides the normalized first feature map to the non-linearization unit 530, and the non-linearization unit 530 applies an activation function to the normalized first feature map to obtain the normalized first feature map. Non-linear characteristics can be given to the feature map.

한편, 상술한 실시예에 있어서 제1 유닛(412)은 제1 컨벌루션 연산부(520)만을 포함하는 것으로 설명하였다. 하지만, 변형된 실시예에 있어서 제1 유닛(412)은 도 5에 도시된 바와 같이 제2 컨벌루션 연산부(540)를 더 포함할 수 있다.Meanwhile, in the above-described embodiment, it has been described that the first unit 412 includes only the first convolution operation unit 520 . However, in a modified embodiment, the first unit 412 may further include a second convolution operation unit 540 as shown in FIG. 5 .

구체적으로, 제2 컨벌루션 연산부(540)는 비선형화부(530)에 의해 비선형적 특성이 부여된 제1 피쳐맵에 제2 컨벌루션 필터를 적용하여 제2 피쳐맵을 생성한다. 일 실시예에 있어서, 제2 컨벌루션 필터는 제1 컨벌루션 필터와 다른 필터일 수 있다. 제2 컨벌루션 필터는 제1 컨벌루션 필터의 크기는 동일하지만 다른 스트라이드 값을 갖는 필터일 수 있다. 일 예로, 제2 컨벌루션 필터는 3*3 픽셀크기를 갖고 스트라이드(Stride)의 값이 2인 필터일 수 있다.Specifically, the second convolution operation unit 540 generates a second feature map by applying a second convolution filter to the first feature map to which the nonlinear characteristic is given by the nonlinearity unit 530 . In an embodiment, the second convolutional filter may be a different filter from the first convolutional filter. The second convolutional filter may be a filter having the same size as the first convolutional filter but different stride values. As an example, the second convolutional filter may be a filter having a size of 3*3 pixels and having a stride value of 2.

이러한 실시예에 따르는 경우 정규화부(510)는 제2 컨벌루션 연산부(540)에 의해 생성된 제2 피쳐맵들을 배치단위로 추가로 정규화할 수도 있을 것이다. According to this embodiment, the normalization unit 510 may additionally normalize the second feature maps generated by the second convolution operation unit 540 in units of batches.

한편, 도 5에 도시하지는 않았지만 제1 유닛(412)은 사전 정규화부를 더 포함할 수 있다. 사전 정규화부는 전체 얼굴이미지 추출부(232)로부터 입력되는 얼굴이미지에 포함된 각 픽셀들의 픽셀값을 정규화할 수 있다. 일 예로, 사전 정규화부는 얼굴이미지의 각 픽셀값에서 127.5를 감산한 후, 감산 결과값을 128로 제산함으로써 얼굴이미지를 정규화할 수 있다. 사전 정규화부는 사전 정규화된 입력 얼굴이미지를 정규화부(510)로 제공할 수 있다.Meanwhile, although not shown in FIG. 5 , the first unit 412 may further include a pre-normalization unit. The pre-normalizer may normalize the pixel value of each pixel included in the face image input from the entire face image extractor 232 . For example, the pre-normalizer may normalize the face image by subtracting 127.5 from each pixel value of the face image and then dividing the subtraction result by 128. The pre-normalizer may provide the pre-normalized input face image to the normalizer 510 .

다시 도 4를 참조하면, 제2 유닛(414)은 제1 유닛(412)에 의해 생성된 제2 피쳐맵에 가중치를 부여한다. 본 발명에서 제2 유닛(414)을 통해 제2 피쳐맵에 가중치를 부여하는 이유는 컨벌루션 연산의 경우 입력 이미지의 모든 채널을 컨벌루션 필터와 곱한 후 합산하는 과정에서 중요한 채널과 중요하지 않은 채널들이 모두 얽히게 되므로 데이터의 민감도(Sensitivity)가 저하되므로, 제2 피쳐맵에 각 채널 별로 그 중요도에 따라 가중치를 부여하기 위한 것이다.Referring back to FIG. 4 , the second unit 414 gives weights to the second feature map generated by the first unit 412 . In the present invention, the reason for weighting the second feature map through the second unit 414 is that in the case of convolution operation, all channels of the input image are multiplied by the convolution filter and then summed, both important and non-important channels. Since the data is entangled, the sensitivity (Sensitivity) of the data is lowered. This is to assign a weight to the second feature map according to its importance for each channel.

제2 유닛(414)은 도 4에 도시된 바와 같이 샘플링부(610), 가중치 반영부(620), 및 업스케일링부(630)를 포함한다.The second unit 414 includes a sampling unit 610 , a weight reflecting unit 620 , and an upscaling unit 630 as shown in FIG. 4 .

먼저, 샘플링부(610)는 제1 유닛(412)으로부터 입력되는 제2 피쳐맵을 서브 샘플링하여 차원을 감소시킨다. 일 실시예에 있어서, 샘플링부(610)는 제2 피쳐맵에 글로벌 풀링(Global Pooling) 필터를 적용함으로써 제2 피쳐맵의 차원을 감소시킬 수 있다. 일 예로, 제2 피쳐맵의 차원이 H*W*C인 경우 샘플링부(610)는 제2 피쳐맵의 서브 샘플링을 통해 제2 피쳐맵의 차원을 1*1*C로 감소시킬 수 있다.First, the sampling unit 610 reduces the dimension by subsampling the second feature map input from the first unit 412 . In an embodiment, the sampling unit 610 may reduce the dimension of the second feature map by applying a global pooling filter to the second feature map. For example, when the dimension of the second feature map is H*W*C, the sampling unit 610 may reduce the dimension of the second feature map to 1*1*C through subsampling of the second feature map.

가중치 반영부(620)는 샘플링부(610)에 의해 차원이 감소된 제2 피쳐맵에 가중치를 부여한다. 이를 위해, 도 6에 도시된 바와 같이 가중치 반영부(620)는 차원 감소부(622), 제1 비선형화부(624), 차원 증가부(626), 및 제2 비선형화부(628)를 포함할 수 있다.The weight reflection unit 620 gives a weight to the second feature map whose dimension has been reduced by the sampling unit 610 . To this end, as shown in FIG. 6 , the weight reflection unit 620 may include a dimension reduction unit 622 , a first non-linearization unit 624 , a dimension increase unit 626 , and a second non-linearization unit 628 . can

차원 감소부(622)는 서브 샘플링된 제2 피쳐맵을 하나의 레이어로 연결함으로써 서브 샘플링된 제2 피쳐맵의 차원을 감소시킨다. 일 예로, 샘플링부(610)로부터 출력되는 제2 피쳐맵의 차원이 1*1*C인 경우 차원 감소부(622)는 제2 피쳐맵의 차원을 1*1*C/r로 감소시킨다. 여기서, r은 감소율을 의미하는 것으로서, 추출하기 원하는 특징벡터의 개수에 따라 결정될 수 있다.The dimension reduction unit 622 reduces the dimension of the sub-sampled second feature map by connecting the sub-sampled second feature map to one layer. For example, when the dimension of the second feature map output from the sampling unit 610 is 1*1*C, the dimension reduction unit 622 reduces the dimension of the second feature map to 1*1*C/r. Here, r denotes a reduction rate, and may be determined according to the number of feature vectors desired to be extracted.

제1 비선형화부(624)는 차원 감소부(622)에 의해 차원이 감소된 제2 피쳐맵에 제1 활성화함수를 적용함으로써 차원이 감소된 제2 피쳐맵에 비선형적 특성을 부여한다. 일 실시예에 있어서, 제1 비선형화부(624)는 제2 피쳐맵의 픽셀값들 중 양의 픽셀값은 그대로 출력하고 음의 픽셀값은 0으로 출력하는 제1 활성화함수를 적용함으로써 차원이 감소된 제2 피쳐맵에 비선형적 특성을 부여할 수 있다.The first non-linearization unit 624 applies a first activation function to the second feature map, the dimension of which has been reduced by the dimension reduction unit 622 , to impart a non-linear characteristic to the second feature map with the reduced dimension. In an embodiment, the first non-linearization unit 624 reduces the dimension by applying a first activation function that outputs a positive pixel value as it is and outputs a negative pixel value as 0 among pixel values of the second feature map. A non-linear characteristic may be imparted to the second feature map.

차원 증가부(626)는 제1 비선형화부(624)에 의해 비선형적 특성이 부여된 제2 피쳐맵의 차원을 증가시킨다. 일 예로, 비선형적 특성이 부여된 제2 피쳐맵의 차원이 1*1*c/r인 경우 차원 증가부(626)는 제2 피쳐맵의 차원을 다시 1*1*C로 증가시킨다.The dimension increase unit 626 increases the dimension of the second feature map to which the non-linear characteristic is given by the first non-linearization unit 624 . For example, when the dimension of the second feature map to which the non-linear characteristic is given is 1*1*c/r, the dimension increasing unit 626 increases the dimension of the second feature map back to 1*1*C.

제2 비선형화부(628)는 차원 증가부(626)에 의해 차원이 증가된 제2 피쳐맵에 제2 활성화함수를 적용함으로써 차원이 증가된 제2 피쳐맵에 비선형적 특성을 다시 부여한다. 일 실시예에 있어서, 제2 활성화함수는 제1 활성화함수와 다른 함수일 수 있다. 예컨대, 제2 비선형화부(628)는 차원이 증가된 제2 피쳐맵의 픽셀값들 중 양의 픽셀값은 미리 정해진 값으로 수렴하도록 하고 음의 픽셀값은 0으로 출력하는 제2 활성화함수를 적용함으로써 차원이 증가된 제2 피쳐맵에 비선형적 특성을 부여할 수 있다.The second non-linearization unit 628 applies a second activation function to the second feature map whose dimension has been increased by the dimension increase unit 626, thereby re-applying a non-linear characteristic to the second feature map with an increased dimension. In one embodiment, the second activation function may be a different function from the first activation function. For example, the second non-linearization unit 628 applies a second activation function that causes positive pixel values among pixel values of the second feature map with increased dimensions to converge to a predetermined value and outputs negative pixel values to 0. By doing so, a non-linear characteristic can be imparted to the second feature map having an increased dimension.

이와 같은 가중치 반영부(620)는 차원감소부(622), 제1 비선형화부(624), 차원증가부(626), 및 제2 비선형화부(628)를 통해 제2 피쳐맵에 가중치를 부여하고, 차원감소부(622)와 차원증가부(626)를 통해 병목구간을 만들어 게이팅 메커니즘을 한정함으로써 모델 복잡도를 제한하고 일반화를 지원할 수 있게 된다.The weight reflection unit 620 applies a weight to the second feature map through the dimension reduction unit 622, the first non-linearization unit 624, the dimension increase unit 626, and the second non-linearization unit 628, and , it is possible to limit model complexity and support generalization by limiting the gating mechanism by creating a bottleneck section through the dimension reduction unit 622 and the dimension increase unit 626 .

업스케일링부(630)는 가중치 반영부(620)에 의해 가중치가 부여된 제2 피쳐맵을 제2 유닛(414)에 입력된 얼굴이미지와 동일한 차원으로 업스케일링한다. 일 실시예에 있어서, 제2 유닛(414)에 입력된 얼굴이미지의 차원이 H*W*C인 경우 업스케일링부(620)는 가중치가 부여된 제2 피쳐맵의 차원을 H*W*C로 업스케일링한다.The upscaling unit 630 upscales the second feature map weighted by the weight reflecting unit 620 to the same dimension as the face image input to the second unit 414 . In an embodiment, when the dimension of the face image input to the second unit 414 is H*W*C, the upscaling unit 620 sets the dimension of the second feature map to which the weight is assigned to H*W*C upscaling to

다시 도 4를 참조하면, 연산부(416)는 제2 유닛(414)을 통해 출력되는 업스케일링된 제2 피쳐맵을 제1 유닛(412)에 입력된 얼굴이미지와 합산한다. 본 발명에서 연산부(416)를 통해 제2 유닛(414)에서 출력된 업스케일링된 제2 피쳐맵을 제1 유닛(412)에 입력된 얼굴이미지와 합산하는 이유는 컨벌루션 신경망에서 깊이가 깊어지는 경우 특징이 흐려지는 문제(Vanish Problem)를 방지하기 위한 것이다.Referring back to FIG. 4 , the operation unit 416 adds the upscaled second feature map output through the second unit 414 with the face image input to the first unit 412 . In the present invention, the reason for adding the upscaled second feature map output from the second unit 414 to the face image input to the first unit 412 through the operation unit 416 in the present invention is when the depth increases in the convolutional neural network. This is to avoid the Vanish Problem.

특징벡터 생성부(420)는 복수개의 얼굴이미지 처리부(410a~410n)들 중 마지막 얼굴 이미지 처리부(410n)로부터 출력되는 피쳐맵을 하나의 레이어로 병합하여 차원을 감소시킴으로써 미리 정해진 개수의 특징벡터를 생성한다. 일 실시예에 있어서, 특징벡터 생성부(420)는 얼굴이미지 처리부(410n)로부터 출력되는 피쳐맵으로부터 128개 이상의 특징벡터를 출력할 수 있다. 예컨대, 전체 특징벡터 추출부(234)에 포함된 특징벡터 생성부(420)는 얼굴 이미지 처리부(410n)로부터 출력되는 피쳐맵으로부터 512개의 전체 특징벡터를 출력할 수 있다.The feature vector generation unit 420 merges the feature map output from the last face image processing unit 410n among the plurality of face image processing units 410a to 410n into one layer to reduce the dimension to generate a predetermined number of feature vectors. create In an embodiment, the feature vector generator 420 may output 128 or more feature vectors from the feature map output from the face image processor 410n. For example, the feature vector generator 420 included in the total feature vector extractor 234 may output 512 total feature vectors from the feature map output from the face image processor 410n.

다시 도 2를 참조하면, 부분 얼굴특징 모델(240)은 입력 이미지에서 전체얼굴이미지를 추출하는 전체 얼굴이미지 추출부(242), 전체 얼굴이미지로부터 부분 얼굴이미지를 추출하는 부분 얼굴이미지 추출부(244) 및 부분 얼굴이미지로부터 부분 특징벤터를 추출하는 부분 특징벡터 추출부(245)를 포함할 수 있다.Referring back to FIG. 2 , the partial facial feature model 240 includes a full face image extractor 242 that extracts a full face image from an input image, and a partial face image extractor 244 that extracts a partial face image from the full face image. ) and a partial feature vector extraction unit 245 for extracting a partial feature event from the partial face image.

일 실시예에 있어서, 부분 얼굴특징 모델(240)은 전체 얼굴이미지 추출부(242)를 통해 추출된 전체 얼굴이미지로부터 전체 특징벡터를 추출하는 전체 특징벡터 추출부(243) 및 전체 특징벡터와 부분 특징벡터를 기초로 최종 부분 특징벡터를 결정하는 부분 특징벡터 결정부(246)을 더 포함할 수 있다.In an embodiment, the partial facial feature model 240 includes a full feature vector extractor 243 that extracts a full feature vector from the full face image extracted through the full face image extractor 242, and a full feature vector and part A partial feature vector determiner 246 for determining a final partial feature vector based on the feature vector may be further included.

전체 얼굴이미지 추출부(242) 및 전체 특징벡터 추출부(243)는 전체 얼굴특징 모델(230)에 포함된 전체 얼굴이미지 추출부(232) 및 전체 특징벡터 추출부(234)과 실질적으로 동일하므로, 이에 대한 구체적인 설명은 생략하도록 한다.Since the full face image extractor 242 and the full feature vector extractor 243 are substantially the same as the full face image extractor 232 and the full feature vector extractor 234 included in the full face feature model 230 , , a detailed description thereof will be omitted.

부분 얼굴이미지 추출부(244)는 전체 얼굴이미지로부터 부분 얼굴영역이 포함된 부분 얼굴이미지를 추출한다. The partial face image extraction unit 244 extracts a partial face image including a partial face region from the entire face image.

일 실시예에 있어서, 부분 얼굴이미지 추출부(244)는 전체 얼굴 이미지에서 눈의 좌표를 포함하는 부분 얼굴영역을 부분 얼굴이미지로 추출할 수 있다. 일 예로, 부분 얼굴이미지 추출부(244)는 전체 얼굴 이미지에 상단에 배치된 이미지를 부분 얼굴이미지로 추출할 수 있다. 부분 얼굴이미지 추출부(244)는 전체 얼굴이미지 추출부(242)에 의하여 탐지된 전체 얼굴영역 내에서 미리 정한 범위 내에 배치된 이미지를 부분 얼굴이미지로 추출할 수 있다.In an embodiment, the partial face image extraction unit 244 may extract a partial face region including eye coordinates from the entire face image as a partial face image. For example, the partial face image extraction unit 244 may extract an image disposed at the top of the entire face image as a partial face image. The partial face image extracting unit 244 may extract an image arranged within a predetermined range within the entire face region detected by the full face image extracting unit 242 as a partial face image.

다른 일 실시예에 있어서, 부분 얼굴이미지 추출부(244)는 마스크 탐지 모델(225)에 의하여 탐지된 마스크 영역을 기초로 부분 얼굴이미지를 추출할 수 있다. 일 예로, 부분 얼굴이미지 추출부(244)는 전체 얼굴 이미지에서 마스크 영역을 제외한 이미지를 부분 얼굴이미지로 추출할 수 있다. 다른 예로, 부분 얼굴이미지 추출부(244)는 전체 얼굴 이미지에서 마스크 영역의 상단에 배치된 이미지를 부분 얼굴이미지로 추출할 수 있다. 부분 얼굴이미지 추출부(244)는 마스크 탐지 모델(225)에 의하여 탐지된 마스크 영역의 좌표로부터 미리 정한 범위 내에 배치된 이미지를 부분 얼굴이미지로 추출할 수 있다. 부분 얼굴이미지 추출부(244)는 도 8(c)에 도시된 바와 같이 마스크가 포함된 영역으로부터 상단에 배치되고 소정의 크기를 가진 사각형 형태의 바운딩 박스 내에 배치된 이미지를 부분 얼굴이미지로 추출할 수 있다.In another embodiment, the partial face image extractor 244 may extract a partial face image based on the mask area detected by the mask detection model 225 . For example, the partial face image extraction unit 244 may extract an image excluding a mask area from the entire face image as a partial face image. As another example, the partial face image extraction unit 244 may extract an image disposed at the top of the mask area from the full face image as a partial face image. The partial face image extraction unit 244 may extract an image arranged within a predetermined range from the coordinates of the mask area detected by the mask detection model 225 as a partial face image. As shown in Fig. 8(c), the partial face image extraction unit 244 extracts an image arranged in a rectangular bounding box having a predetermined size and disposed at the top from the area including the mask as a partial face image. can

한편, 부분 얼굴이미지 추출부(244)는 부분 얼굴이미지 상에서 2개의 눈의 좌표, 코의 좌표를 포함하는 랜드마크 좌표를 결정할 수 있다. Meanwhile, the partial face image extraction unit 244 may determine landmark coordinates including coordinates of two eyes and a coordinate of a nose on the partial face image.

도면에 도시하고 있지 않으나, 부분 얼굴이미지 추출부(244)는 부분 얼굴 이미지 정렬부(미도시)를 더 포함할 수 있다. 부분 얼굴 이미지 정렬부는 부분 얼굴 이미지에 대한 랜드마크 좌표를 이용하여 부분 얼굴이미지를 정렬할 수 있다. 구체적으로, 부분 얼굴 이미지 정렬부는 추출된 부분 얼굴이미지에 대한 랜드마크 좌표를 이용하여 부분 얼굴이미지에 대해 회전, 평행이동, 확대 및 축소 중 적어도 하나를 수행하여 부분 얼굴이미지를 정렬할 수 있다. 부분 얼굴 이미지 정렬부를 이용하여 얼굴이미지를 정렬하는 이유는 부분 특징벡터 추출부(245)에 입력으로 제공될 전체 얼굴이미지에 일관성을 부여함으로써 얼굴인식 성능을 향상시키기 위함이다.Although not shown in the drawings, the partial face image extraction unit 244 may further include a partial face image alignment unit (not shown). The partial face image aligning unit may align the partial face image by using landmark coordinates for the partial face image. Specifically, the partial face image aligning unit may align the partial face image by performing at least one of rotation, translation, enlargement, and reduction on the partial face image using the landmark coordinates of the extracted partial face image. The reason for aligning the face images by using the partial face image alignment unit is to improve the face recognition performance by imparting consistency to the entire face image to be provided as an input to the partial feature vector extraction unit 245 .

일 실시예에 있어서, 부분 얼굴 이미지 정렬부는 부분 얼굴이미지 추출부(244)에 의해 추출된 부분 얼굴이미지를 부분 특징벡터 추출부(245)에서 이용되는 부분 얼굴이미지와 동일한 해상도로 리사이징(Resizing)할 수 있다. 그리고, 부분 얼굴 이미지 정렬부는 부분 특징벡터 추출부(245)에서 이용되는 해상도의 부분 얼굴이미지에 대한 기준 랜드마크 좌표를 기준으로 부분 얼굴이미지 추출부(244)에 의해 산출된 랜드마크 좌표를 이동시킴으로써 부분 얼굴이미지를 회전, 평행이동, 확대 또는 축소시킬 수 있다.In one embodiment, the partial face image alignment unit resizes the partial face image extracted by the partial face image extraction unit 244 to the same resolution as the partial face image used in the partial feature vector extraction unit 245. can Then, the partial face image alignment unit moves the landmark coordinates calculated by the partial face image extraction unit 244 based on the reference landmark coordinates for the partial face image of the resolution used in the partial feature vector extraction unit 245 by moving the Partial face image can be rotated, translated, enlarged or reduced.

부분 특징벡터 추출부(245)는 부분 얼굴이미지 추출부(244)로부터 부분 얼굴이미지가 입력되면, 해당 부분 얼굴이미지에 포함된 부분 얼굴로부터 제1 부분 특징벡터를 추출한다. When a partial face image is input from the partial face image extraction unit 244 , the partial feature vector extractor 245 extracts a first partial feature vector from the partial face included in the partial face image.

부분 특징벡터 추출부(245)는 전체 얼굴특징 모델(230)에 포함된 전체 특징벡터 추출부(234)와 기능 및 세부 동작이 유사하므로, 이에 대한 구체적인 설명은 생략하도록 한다. 다만, 전체 특징벡터 추출부(234)는 앞서 설명한 바와 같이 눈, 코, 입을 포함하는 전체 얼굴이미지가 입력되어 512개의 전체 특징벡터를 출력하는 반면, 부분 특징벡터 추출부(245)는 일반적으로 입을 제외한 눈, 코가 포함된 부분 얼굴이미지가 입력되어 512개 보다 적은 256개의 제1 부분 특징벡터를 출력할 수 있다. Since the partial feature vector extractor 245 has similar functions and detailed operations to the full feature vector extractor 234 included in the full facial feature model 230, a detailed description thereof will be omitted. However, as described above, the full feature vector extractor 234 outputs 512 full feature vectors after receiving the entire face image including the eyes, nose, and mouth, whereas the partial feature vector extractor 245 generally uses the mouth Partial face images including eyes and nose are inputted, and 256 first partial feature vectors, which are less than 512, may be output.

일 실시예에 있어서, 부분 특징벡터 추출부(245)는 제1 부분 특징벡터를 입력 이미지에 대한 부분 특징벡터로 결정할 수 있다. 그러나, 반드시 이에 한정되지는 않는다.In an embodiment, the partial feature vector extractor 245 may determine the first partial feature vector as a partial feature vector for the input image. However, it is not necessarily limited thereto.

본 발명에 따른 부분 얼굴특징 모델(240)은 부분 특징벡터에 대한 신뢰도를 높이기 위하여 부분 특징벡터 결정부(246)를 추가 구성할 수도 있다. 부분 특징벡터 결정부(246)는 부분 얼굴이미지로부터 추출된 제1 부분 특징벡터 및 전체 얼굴이미지로부터 추출된 전체 특징벡터를 기초로 제2 부분 특징벡터를 산출할 수 있다. 부분 특징벡터 결정부(246)는 산출된 제2 부분 특징벡터를 입력 이미지에 대한 부분 특징벡터로 결정할 수 있다.In the partial facial feature model 240 according to the present invention, the partial feature vector determiner 246 may be additionally configured to increase the reliability of the partial feature vector. The partial feature vector determiner 246 may calculate a second partial feature vector based on the first partial feature vector extracted from the partial face image and the full feature vector extracted from the full face image. The partial feature vector determiner 246 may determine the calculated second partial feature vector as a partial feature vector for the input image.

구체적으로, 부분 특징벡터 결정부(246)는 부분 얼굴이미지로부터 추출된 제1 부분 특징벡터에 제1 가중치를 부여할 수 있다. 이때, 제1 가중치는 0.5 보다 크고 1 보다 작은 값을 가질 수 있다. 일 예로, 제1 가중치는 0.6을 가질 수 있다.Specifically, the partial feature vector determiner 246 may assign a first weight to the first partial feature vector extracted from the partial face image. In this case, the first weight may have a value greater than 0.5 and less than 1. As an example, the first weight may have 0.6.

또한, 부분 특징벡터 결정부(246)는 전체 얼굴이미지로부터 추출된 전체 특징벡터의 차원을 감소시키고, 차원이 감소된 전체 특징벡터에 제2 가중치를 부여할 수 있다. Also, the partial feature vector determiner 246 may reduce the dimension of the entire feature vector extracted from the entire face image, and may assign a second weight to the reduced dimension of the entire feature vector.

부분 얼굴이미지로부터 추출된 제1 부분 특징벡터는 제1 차원의 벡터들을 포함하고, 전체 얼굴이미지로부터 추출된 전체 특징벡터는 제1 차원 보다 큰 제2 차원의 벡터들을 포함할 수 있다. 예컨대, 부분 얼굴이미지로부터 추출된 제1 부분 특징벡터는 256개의 벡터들을 포함하고, 전체 얼굴이미지로부터 추출된 전체 특징벡터는 512개의 벡터들을 포함할 수 있다.The first partial feature vector extracted from the partial face image may include vectors of a first dimension, and the full feature vector extracted from the full face image may include vectors of a second dimension larger than the first dimension. For example, the first partial feature vector extracted from the partial face image may include 256 vectors, and the full feature vector extracted from the full face image may include 512 vectors.

부분 특징벡터 결정부(246)는 전체 얼굴이미지로부터 추출된 전체 특징벡터를 제2 차원에서 제1 차원으로 감소시킴으로써, 부분 얼굴이미지로부터 추출된 제1 부분 특징벡터와 동일한 차원을 가질 수 있도록 할 수 있다.The partial feature vector determiner 246 may reduce the total feature vector extracted from the full face image from the second dimension to the first dimension so that it has the same dimension as the first partial feature vector extracted from the partial face image. there is.

일 예로, 부분 특징벡터 결정부(246)는 512차원의 전체 특징벡터들을 차원을 1/2감소시켜, 256차원의 전체 특징벡터들로 변환할 수 있다.As an example, the partial feature vector determiner 246 may reduce the dimensions of all 512-dimensional feature vectors by 1/2, and convert them into 256-dimensional total feature vectors.

그리고, 부분 특징벡터 결정부(246)는 차원이 감소된 전체 특징벡터에 제2 가중치를 부여한다. 이때, 제2 가중치는 제1 가중치 보다 작으며, 제1 가중치와의 합이 1이 될 수 있다. 일 예로, 제1 가중치는 0.6을 가질 수 있고, 제2 가중치는 0.4를 가질 수 있다. Then, the partial feature vector determiner 246 assigns a second weight to the entire feature vector with a reduced dimension. In this case, the second weight may be smaller than the first weight, and the sum of the first weight and the first weight may be 1. As an example, the first weight may have 0.6, and the second weight may have 0.4.

부분 특징벡터 결정부(246)는 제1 가중치가 부여된 제1 부분 특징벡터와 제2 가중치가 부여된 전체 특징벡터를 합산하여 제2 부분 특징벡터를 산출할 수 있다. 부분 특징벡터 결정부(246)는 산출된 제2 부분 특징벡터를 입력 이미지에 대한 부분 특징벡터로 결정할 수 있다.The partial feature vector determiner 246 may calculate the second partial feature vector by summing the first partial feature vector to which the first weight is given and the entire feature vector to which the second weight is assigned. The partial feature vector determiner 246 may determine the calculated second partial feature vector as a partial feature vector for the input image.

다음, 마스크 탐지 모델(225)은 입력 이미지로부터 마스크 영역을 탐지한다. 이하, 마스크 탐지 모델(225)의 구성을 도 7을 참조하여 보다 구체적으로 설명한다. Next, the mask detection model 225 detects a mask region from the input image. Hereinafter, the configuration of the mask detection model 225 will be described in more detail with reference to FIG. 7 .

도 7은 도 2의 마스크 탐지 모델의 구성을 보여주는 블록도이다.7 is a block diagram illustrating the configuration of the mask detection model of FIG. 2 .

도 7을 참조하면, 마스크 탐지 모델(225)은 컨벌루션 신경망(Convolutional Neural Network: CNN)을 기반으로 구성되어 입력 이미지로부터 마스크 영역을 탐지한다. 이러한 마스크 탐지 모델(225)은 m개의 컨벌루션 연산부(710, 720, 730, 740, 750), m-1개의 샘플링부(715, 725, 735, 745) 및 통합 탐지부(760)를 포함한다. Referring to FIG. 7 , the mask detection model 225 is configured based on a convolutional neural network (CNN) to detect a mask region from an input image. The mask detection model 225 includes m convolution operation units 710 , 720 , 730 , 740 , 750 , m-1 sampling units 715 , 725 , 735 , 745 , and an integrated detection unit 760 .

일 실시예에 있어서, 마스크 탐지 모델(225)은 5개의 컨벌루션 연산부(710, 720, 730, 740, 750)를 포함할 수 있다. 도 7에서는 설명의 편의를 위해, 마스크 탐지 모델(225)이 5개의 컨벌루션 연산부(710, 720, 730, 740, 750)를 포함하는 것으로 도시하였으나, 반드시 이에 한정되지는 않는다. 마스크 탐지 모델(225)은 4개 미만의 컨벌루션 연산부를 포함하거나 6개 이상의 컨벌루션 연산부를 포함할 수도 있다.In an embodiment, the mask detection model 225 may include five convolution operation units 710 , 720 , 730 , 740 , and 750 . In FIG. 7 , for convenience of explanation, the mask detection model 225 is illustrated as including five convolution operation units 710 , 720 , 730 , 740 , and 750 , but is not limited thereto. The mask detection model 225 may include less than 4 convolutional operation units or may include 6 or more convolutional operation units.

일 실시예에 있어서, 마스크 탐지 모델(225)은 4개의 샘플링부(715, 725, 735, 745)를 포함할 수 있다. 도 7에서는 설명의 편의를 위해, 마스크 탐지 모델(225)이 샘플링부(715, 725, 735, 745)를 포함하는 것으로 도시하였으나, 반드시 이에 한정되지는 않는다. 마스크 탐지 모델(225)은 3개 미만의 샘플링부를 포함하거나 5개 이상의 샘플링부를 포함할 수도 있다.In an embodiment, the mask detection model 225 may include four sampling units 715 , 725 , 735 , and 745 . In FIG. 7 , for convenience of explanation, the mask detection model 225 is illustrated as including the sampling units 715 , 725 , 735 , and 745 , but is not limited thereto. The mask detection model 225 may include less than 3 sampling units or may include 5 or more sampling units.

제1 내지 제5 컨벌루션 연산부(710, 720, 730, 740, 750) 각각은 입력되는 이미지에 컨벌루션 필터를 적용하여 피쳐맵을 생성하고, 생성된 피쳐맵에 활성화함수를 적용함으로써 피쳐맵에 비선형적 특성을 반영한다. 이때, 제1 내지 제5 컨벌루션 연산부(710, 720, 730, 740, 750)에 적용되는 컨벌루션 필터는 서로 상이한 필터일 수 있다.Each of the first to fifth convolution operation units 710 , 720 , 730 , 740 , and 750 applies a convolution filter to an input image to generate a feature map, and applies an activation function to the generated feature map, so that the feature map is non-linear. reflect the characteristics. In this case, the convolution filters applied to the first to fifth convolution operation units 710 , 720 , 730 , 740 and 750 may be different filters.

일 실시예에 있어서, 제1 내지 제5 컨벌루션 연산부(710, 720, 730, 740, 750)에서 이용되는 활성화함수는 피쳐맵의 픽셀값들 중 양의 값은 그대로 출력하고 음의 값은 미리 정해진 크기만큼 감소된 값으로 출력하는 활성화함수일 수 있다. 여기서, 활성화함수란 복수의 입력정보에 가중치를 부여하여 결합해 완성된 결과값을 출력하는 함수를 의미한다.In an embodiment, the activation function used in the first to fifth convolution operation units 710 , 720 , 730 , 740 , 750 outputs positive values among pixel values of the feature map as it is, and negative values are predetermined. It may be an activation function that outputs a value reduced by the size. Here, the activation function refers to a function that gives a weight to a plurality of input information and outputs a completed result value by combining them.

제1 내지 제4 샘플링부(715, 725, 735, 745) 각각은 제1 내지 제5 컨벌루션 연산부(710, 720, 730, 740, 750)들 사이에 배치되어 k(k는 1 보다 크고 n보다 작은 정수)번째 컨벌루션 연산부에 의해 생성된 피쳐맵에 샘플링 필터를 적용하여 상기 피쳐맵의 차원을 감소시키고, 차원이 감소된 피쳐맵을 k+1번째 컨벌루션 연산부로 입력한다. 도 7에 도시된 제1 내지 제4 샘플링부(715, 725, 735, 745)의 기능 및 세부동작은 도 3에 도시된 제1 내지 제4 샘플링부(315, 325, 335, 345)과 실질적으로 동일하므로, 이에 대한 구체적인 설명은 생략하도록 한다.Each of the first to fourth sampling units 715 , 725 , 735 , and 745 is disposed between the first to fifth convolution operation units 710 , 720 , 730 , 740 , and 750 , so that k (k is greater than 1 and greater than n). The dimension of the feature map is reduced by applying a sampling filter to the feature map generated by the small integer)-th convolution operation unit, and the reduced-dimensional feature map is input to the k+1-th convolution operation unit. The functions and detailed operations of the first to fourth sampling units 715 , 725 , 735 , and 745 shown in FIG. 7 are substantially the same as those of the first to fourth sampling units 315 , 325 , 335 and 345 shown in FIG. 3 . , so a detailed description thereof will be omitted.

통합 탐지부(760)는 m개의 컨벌루션 연산부(710, 720, 730, 740, 750350)들 중 적어도 둘 이상의 컨벌루션 연산부(710, 720, 730, 740, 750)들 각각에 의해 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합한다. 예컨대, 통합 탐지부(760)는 도 7에 도시된 바와 같이 제1 컨벌루션 연산부(710)에 의해 생성된 제1 피쳐맵, 제3 컨벌루션 연산부(730)에 의해 생성된 제3 피쳐맵 및 제5 컨벌루션 연산부(750)에 의해 생성된 제5 피쳐맵을 신경망 네트워크를 이용하여 통합할 수 있다. 이때, 제1 컨벌루션 연산부(710)에 의해 생성된 제1 피쳐맵, 제3 컨벌루션 연산부(730)에 의해 생성된 제3 피쳐맵 및 제5 컨벌루션 연산부(750)에 의해 생성된 제5 피쳐맵는 신경망 네트워크에서의 레이어(layer)가 서로 상이할 수 있다. 제1 컨벌루션 연산부(710)에 의해 생성된 제1 피쳐맵은 가장 낮은 레이어에 해당하고, 제3 컨벌루션 연산부(730)에 의해 생성된 제3 피쳐맵는 중간 레이어에 해당하며, 제5 컨벌루션 연산부(750)에 의해 생성된 제5 피쳐맵은 가장 높은 레이어에 해당할 수 있다. 즉, 통합 탐지부(760)는 서로 다른 레이어에서 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합할 수 있다. The integrated detection unit 760 uses the feature maps generated by each of the at least two convolution operation units 710, 720, 730, 740, and 750 among the m convolution operation units 710, 720, 730, 740, and 750350 through a neural network. Integrate using the network. For example, as shown in FIG. 7 , the integrated detection unit 760 includes a first feature map generated by the first convolution operation unit 710 , a third feature map generated by the third convolution operation unit 730 , and a fifth The fifth feature map generated by the convolution operation unit 750 may be integrated using a neural network. At this time, the first feature map generated by the first convolution operation unit 710 , the third feature map generated by the third convolution operation unit 730 , and the fifth feature map generated by the fifth convolution operation unit 750 are neural networks Layers in the network may be different from each other. The first feature map generated by the first convolution operation unit 710 corresponds to the lowest layer, the third feature map generated by the third convolution operation unit 730 corresponds to the middle layer, and the fifth convolution operation unit 750 ) may correspond to the highest layer. That is, the integrated detector 760 may integrate feature maps generated in different layers using a neural network.

통합 탐지부(760)는 신경망 네트워크를 이용하여 통합된 피쳐맵에 제1 차원감소 필터를 적용함으로써, 차원을 감소시킨다. 일 실시예에 있어서, 제1 차원감소 필터는 피쳐맵을 2차원으로 감소시킬 수 있는 필터로 설정될 수 있다.The integrated detector 760 reduces the dimension by applying the first dimension reduction filter to the integrated feature map using the neural network. In an embodiment, the first dimensionality reduction filter may be set as a filter capable of reducing the feature map in two dimensions.

통합 탐지부(760)는 2차원의 출력 데이터에 미리 정해진 분류함수를 적용함으로써, 해당 입력 이미지에 마스크 영역이 포함되어 있는지 여부에 대한 제2 확률값을 계산한다. 일 실시예에 있어서, 통합 탐지부(760)는 산출된 제2 확률값이 제2 문턱값 이상이면, 해당 입력 이미지에 마스크 영역이 포함된 것으로 판단할 수 있다. The integrated detector 760 calculates a second probability value of whether a mask region is included in the corresponding input image by applying a predetermined classification function to the two-dimensional output data. In an embodiment, when the calculated second probability value is equal to or greater than the second threshold value, the integrated detector 760 may determine that the mask region is included in the corresponding input image.

통합 탐지부(760)는 제2 확률값이 제2 문턱값 이상인 경우, 신경망 네트워크를 이용하여 통합된 피쳐맵에 제2 차원감소 필터를 적용함으로써, 차원을 감소시킨다. 일 실시예에 있어서, 제2 차원감소 필터는 피쳐맵을 4차원으로 감소시킬 수 있는 필터로 설정될 수 있고, 4차원으로 출력되는 4개의 값을 해당 입력 이미지 상에서 마스크 영역의 좌표로 결정할 수 있다. 이때, 마스크 영역의 좌표는 도 8(b)에 도시된 바와 같이 마스크가 포함된 영역을 사각형 형태의 바운딩 박스(Bounding Box)로 표시하였을 때 좌측 상단 꼭지점의 좌표와 우측 하단 꼭지점의 좌표로 정의되거나, 우측 상단 꼭지점의 좌표와 좌측 하단 꼭지점의 좌표로 정의될 수 있다. When the second probability value is equal to or greater than the second threshold, the integrated detector 760 reduces the dimension by applying the second dimension reduction filter to the integrated feature map using the neural network. In an embodiment, the second dimension reduction filter may be set as a filter capable of reducing the feature map in four dimensions, and four values output in four dimensions may be determined as coordinates of a mask region on a corresponding input image. . In this case, the coordinates of the mask area are defined as the coordinates of the upper left vertex and the coordinates of the lower right vertex when the area including the mask is displayed as a rectangular bounding box as shown in FIG. 8(b). , may be defined as the coordinates of the upper right vertex and the coordinates of the lower left vertex.

다시 도 2를 참조하면, 어레이 파일 생성부(250)는 사용자 얼굴인식부(220)에 의하여 복수의 사용자들 각각의 전체 얼굴이미지로부터 추출된 전체 특징벡터들 및 복수의 사용자들 각각의 부분 얼굴이미지로부터 추출된 부분 특징벡터들을 이용하여 각 사용자 별로 어레이(Array)를 생성하고, 생성된 어레이들을 하나의 파일로 머지하여 어레이 파일을 생성한다. Referring back to FIG. 2 , the array file generating unit 250 includes the full feature vectors extracted from the full face images of each of the plurality of users by the user face recognition unit 220 and the partial face images of each of the plurality of users. An array is created for each user by using partial feature vectors extracted from , and the generated arrays are merged into one file to create an array file.

어레이 파일 생성부(250)는 생성된 어레이 파일을 어레이 파일 데이터베이스(미도시)에 저장할 수 있다. The array file generator 250 may store the generated array file in an array file database (not shown).

일 실시예에 있어서, 어레이 파일 생성부(250)에 의해 생성되는 어레이는 각 사용자의 전체 얼굴이미지로부터 추출된 전체 특징벡터들, 각 사용자의 부분 얼굴이미지로부터 추출된 부분 특징벡터들과 각 사용자의 키(Key)값으로 구성될 수 있다. 이때, 사용자의 키 값은 각 사용자의 식별정보 및 각 사용자의 출입권한정보를 포함한다. 각 사용자의 식별정보는 상술한 바와 같이 각 사용자의 아이다, 성명, 전화번호, 또는 직원번호 등으로 정의될 수 있고, 각 사용자의 출입권한정보는 각 사용자가 출입할 수 있는 각 층에 대한 정보를 포함할 수 있다.In an embodiment, the array generated by the array file generating unit 250 includes full feature vectors extracted from each user's full face image, partial feature vectors extracted from each user's partial face image, and each user's It may be composed of a key value. In this case, the user's key value includes each user's identification information and each user's access right information. As described above, each user's identification information may be defined as each user's ID, name, phone number, or employee number, etc., and each user's access right information includes information on each floor to which each user can access. may include

일 실시예에 있어서, 어레이 파일 생성부(250)는 에지 디바이스(120)가 설치되어 있는 각 장소 별로 어레이 파일을 생성할 수 있다. 예컨대, 제1 어레이 파일은 제1 층에 대한 출입권한이 부여된 사용자들의 어레이들로 구성될 수 있고, 제2 어레이 파일은 제2 층에 대한 출입원한이 부여된 사용자들의 어레이들로 구성될 수 있다. 이를 위해, 어레이 파일 생성부(230)는 각 사용자의 어레이들 또한 각 사용자가 출입할 수 있는 지역 별로 구분하여 생성할 수 있다. 예컨대, 제1 사용자가 제1 층과 제3 층에 출입 가능한 권한을 가진 경우, 어레이 파일 생성부(230)는 제1 사용자에 대해 제1 층에 대한 출입권한정보가 포함된 제1 어레이와 제3 층에 대한 출입권한정보가 포함된 제2 어레이를 별도로 생성할 수 있다.In an embodiment, the array file generator 250 may generate an array file for each location where the edge device 120 is installed. For example, the first array file may be composed of arrays of users granted access to the first floor, and the second array file may be composed of arrays of users granted access to the second floor. there is. To this end, the array file generating unit 230 may generate each user's arrays by dividing them by regions to which each user can access. For example, when the first user has permission to access the first floor and the third floor, the array file generator 230 generates a first array including access permission information for the first floor for the first user and a second A second array including access permission information for the third floor can be separately created.

본 발명에 따른 어레이 파일 생성부(250)가 에지 디바이스(120)가 설치된 각 장소 별로 어레이 파일을 생성하는 이유는 사용자의 얼굴을 인증하는 에지 디바이스(120)가 각 장소 별로 설치되는 경우, 특정 장소에 설치된 에지 디바이스(120)로 해당 장소에 대한 출입권한정보가 포함된 어레이 파일만을 전송하면 되므로 어레이 파일의 전송 및 에지 디바이스(120)에서의 어레이 파일 관리가 용이해지기 때문이다.The reason that the array file generating unit 250 according to the present invention generates an array file for each place where the edge device 120 is installed is that when the edge device 120 that authenticates the user's face is installed for each place, a specific place This is because only the array file including the access permission information for the corresponding place needs to be transmitted to the edge device 120 installed in the .

상술한 실시예에 있어서는 어레이 파일 생성부(250)가 각 장소 별로 어레이 파일을 생성하는 것으로 기재하였지만, 변형된 실시예에 있어서 어레이 파일 생성부(250)는 에지 디바이스(120)가 설치된 모든 장소에 대한 권한정보가 포함된 하나의 어레이 파일을 생성하고, 생성된 어레이 파일을 모든 에지 디바이스(120)로 전송할 수도 있다.In the above-described embodiment, it has been described that the array file generating unit 250 generates an array file for each location, but in a modified embodiment, the array file generating unit 250 is installed in all places where the edge device 120 is installed. It is also possible to generate one array file including permission information for the data and transmit the generated array file to all edge devices 120 .

에지 디바이스 등록부(260)는 각 장소에 설치되어 있는 복수개의 에지 디바이스(120)들의 정보를 에지 디바이스 데이터베이스(262)에 등록한다. 일 실시예에 있어서, 에지 디바이스 등록부(260)는 각 에지 디바이스(120)의 식별정보를 각 에지 디바이스가 설치된 장소와 매핑시켜 에지 디바이스 데이터베이스(262)에 저장할 수 있다. 여기서, 에지 디바이스(120)의 식별정보는 에지 디바이스(120)의 제조사 및 시리얼 번호 등을 포함할 수 있다.The edge device registration unit 260 registers information on a plurality of edge devices 120 installed in each location in the edge device database 262 . According to an embodiment, the edge device registration unit 260 may store identification information of each edge device 120 in the edge device database 262 by mapping the identification information of each edge device to a place where each edge device is installed. Here, the identification information of the edge device 120 may include a manufacturer and serial number of the edge device 120 .

한편, 에지 디바이스 등록부(260)는 인터페이스부(270)를 통해 미리 정해진 기간 마다 에지 디바이스(120)로부터 인증기록을 수신하고, 수신된 출입기록을 에지 디바이스 데이터베이스(262)에 저장할 수 있다.On the other hand, the edge device registration unit 260 may receive the authentication record from the edge device 120 through the interface unit 270 every predetermined period, and store the received access record in the edge device database 262 .

출입권한정보 관리부(255)는 각 사용자 별로 부여되어 있는 출입권한정보를 변경하거나 새로운 출입권한정보를 추가한다. 일 실시예에 있어서, 출입권한 정보 관리부(255)는 각 사용자 별로 출입권한정보를 별개로 부여하거나 각 사용자가 속한 조직 단위로 출입권한정보를 부여할 수 있다.The access authority information management unit 255 changes access authority information assigned to each user or adds new access authority information. In an embodiment, the access right information management unit 255 may separately grant access right information to each user or grant access right information to an organizational unit to which each user belongs.

한편, 본 발명의 일 실시예에 따른 얼굴인식서버(110)는 스케쥴러(265)를 더 포함할 수 있다. 스케쥴러(265)는 미리 정해진 기간이 도래하거나 미리 정해진 이벤트가 발생할 때마다 일괄적으로 신규 사용자를 등록하는 기능을 수행한다. 예컨대, 사용자 등록부(210)가 사용자로부터 등록요청이 발생하는 경우 신규 사용자의 등록절차를 수행하는 것으로 설명하였지만, 얼굴인식서버(110)가 스케쥴러(265)를 포함하는 경우 미리 정해진 시간 단위로 또는 미리 정해진 이벤트가 발생하면 스케쥴러(265)가 사용자 등록부(210), 입력 이미지 생성부(215), 및 사용자 얼굴인식부(220)의 동작을 개시시킴으로써 신규 사용자 등록절차가 자동으로 수행되도록 할 수 있다.Meanwhile, the face recognition server 110 according to an embodiment of the present invention may further include a scheduler 265 . The scheduler 265 performs a function of collectively registering new users whenever a predetermined period arrives or a predetermined event occurs. For example, although it has been described that the user registration unit 210 performs a registration procedure for a new user when a registration request occurs from a user, when the face recognition server 110 includes the scheduler 265, at a predetermined time unit or in advance When a predetermined event occurs, the scheduler 265 initiates the operations of the user registration unit 210 , the input image generation unit 215 , and the user face recognition unit 220 so that a new user registration procedure is automatically performed.

인터페이스부(270)는 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240), 마스크 탐지 모델(225) 및 어레이 파일을 미리 정해진 방식으로 암호화하여 각 에지 디바이스(120)로 전송한다. 일 실시예에 있어서, 인터페이스부(270)는 공개키 기반의 암호화 알고리즘을 이용하여 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240), 마스크 탐지 모델(225) 및 어레이 파일을 암호화하여 각 에지 디바이스(120)로 전송할 수 있다.The interface unit 270 encrypts the full facial feature model 230 , the partial facial feature model 240 , the mask detection model 225 , and the array file in a predetermined manner and transmits it to each edge device 120 . In one embodiment, the interface unit 270 encrypts the full facial feature model 230, the partial facial feature model 240, the mask detection model 225, and the array file using a public key-based encryption algorithm to each It can be transmitted to the edge device 120 .

한편, 인터페이스부(270)는 암호화된 어레이 파일을 에지 디바이스(120)와 약속된 프로토콜에 따라 에지 디바이스(120)로 전송할 수 있다. 또한, 인터페이스부(270)는 각 에지 디바이스(120)로부터 미리 정해진 기간 마다 인증기록을 수신하여 에지 디바이스(120)로 제공할 수 있다.Meanwhile, the interface unit 270 may transmit the encrypted array file to the edge device 120 according to a protocol agreed with the edge device 120 . In addition, the interface unit 270 may receive an authentication record from each edge device 120 every predetermined period and provide it to the edge device 120 .

얼굴인식모델 트레이닝부(280)는 컨벌루션 신경망을 기초로 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240) 및 마스크 탐지 모델(225)을 생성하고, 생성된 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240) 및 마스크 탐지 모델(225)을 트레이닝시킨다. 구체적으로, 얼굴인식모델 트레이닝부(280)는 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240) 및 마스크 탐지 모델(225)을 구성하는 컨벌루션 신경망을 지속적으로 트레이닝시킴으로써 최적의 얼굴인식모델을 생성한다.The facial recognition model training unit 280 generates a full facial feature model 230, a partial facial feature model 240, and a mask detection model 225 based on the convolutional neural network, and the generated full facial feature model 230, A partial facial feature model 240 and a mask detection model 225 are trained. Specifically, the face recognition model training unit 280 continuously trains the convolutional neural network constituting the full face feature model 230 , the partial face feature model 240 , and the mask detection model 225 to obtain an optimal face recognition model. create

이를 위해, 얼굴인식모델 트레이닝부(280)는 전체 얼굴이미지 추출부(232)를 트레이닝시키는 전체 얼굴이미지 추출 트레이닝부(282), 전체 특징벡터 추출부(234)를 트레이닝시키는 전체 특징벡터 추출 트레이닝부(284), 마스크 탐지 모델(225)을 트레이닝시키는 마스크 탐지 트레이닝부(286) 및 부분 특징벡터 추출부(245)를 트레이닝시키는 부분 특징벡터 추출 트레이닝부(288) 및 특징벡터 추출부(234, 245)의 오차를 감소시키는 오차감소부(290)를 포함한다.To this end, the face recognition model training unit 280 includes a full face image extraction training unit 282 that trains the entire face image extraction unit 232, and a full feature vector extraction training unit that trains the entire feature vector extraction unit 234. (284), a mask detection training unit 286 for training the mask detection model 225 and a partial feature vector extraction training unit 288 for training the partial feature vector extraction unit 245 and feature vector extraction units 234 and 245 ) includes an error reducing unit 290 for reducing the error.

전체 얼굴이미지 추출 트레이닝부(282)는 전체 얼굴이미지 추출부(232)를 제1 학습 이미지를 이용하여 트레이닝시킨다. 상기 제1 학습 이미지는 마스크를 착용하지 않은 얼굴이미지를 포함할 수 있다.The whole face image extraction training unit 282 trains the entire face image extraction unit 232 using the first learning image. The first learning image may include a face image that does not wear a mask.

전체 얼굴이미지 추출 트레이닝부(282)는 미리 정해진 크기를 갖는 복수개의 제1 학습 이미지를 입력하여 제1 학습 이미지에서 얼굴영역이 포함될 제1 확률값 및 얼굴영역 좌표를 산출한다. 전체 얼굴이미지 추출 트레이닝부(282)는 산출된 제1 확률값 및 얼굴영역 좌표를 역전파(Back Propagation) 알고리즘에 따라 전체 얼굴이미지 추출부(232)에 피드백함으로써 전체 얼굴이미지 추출부(232)에 적용된 컨벌루션 필터들의 필터계수 및 가중치를 갱신한다.The entire face image extraction training unit 282 inputs a plurality of first training images having a predetermined size, and calculates a first probability value and facial region coordinates to include a face region in the first training image. The full face image extraction training unit 282 feeds back the calculated first probability value and the facial region coordinates to the full face image extraction unit 232 according to a Back Propagation algorithm applied to the entire face image extraction unit 232. The filter coefficients and weights of convolutional filters are updated.

일 실시예에 있어서, 전체 얼굴이미지 추출 트레이닝부(282)는 전체 얼굴이미지 추출부(232)의 트레이닝시 랜드마크 죄표를 추가로 산출하고, 산출된 랜드마크 좌표를 제1 확률값 및 얼굴영역 좌표와 함께 역전파 알고리즘을 통해 전체 얼굴이미지 추출부(232)에 피드백함으로써 전체 얼굴이미지 추출부(232)에 적용된 컨벌루션 필터들의 필터계수 및 가중치를 갱신할 수도 있다.In one embodiment, the full face image extraction training unit 282 additionally calculates landmark coordinates during training of the full face image extraction unit 232, and combines the calculated landmark coordinates with a first probability value and face region coordinates. The filter coefficients and weights of the convolutional filters applied to the full face image extractor 232 may be updated by feeding back the full face image extractor 232 together through the backpropagation algorithm.

전체 특징벡터 추출 트레이닝부(284)는 전체 특징벡터 추출부(234)를 제1 학습 이미지를 이용하여 트레이닝시킨다. 구체적으로, 전체 특징벡터 추출 트레이닝부(284)는 전체 특징벡터 추출부(234)에 복수개의 제1 학습 이미지를 미리 정해진 배치단위로 입력함으로써 각 제1 학습 이미지로부터 전체 특징벡터를 추출한다.The entire feature vector extraction training unit 284 trains the entire feature vector extraction unit 234 using the first learning image. Specifically, the entire feature vector extraction training unit 284 extracts the entire feature vector from each first training image by inputting a plurality of first training images to the entire feature vector extraction unit 234 in a predetermined batch unit.

전체 특징벡터 추출 트레이닝부(284)는 추출된 전체 특징벡터들을 미리 정해진 분류함수에 적용함으로써 해당 제1 학습 이미지가 특정 클래스에 포함될 확률값을 예측하고, 예측된 확률값(이하, '예측값'이라 함)과 실제값간의 오차를 연산하여 그 결과를 역전파 알고리즘을 이용하여 전체 특징벡터 추출부(234)에 피드백함으로써 전체 특징벡터 추출부(234)에 적용된 컨벌루션 필터들의 필터계수 및 가중치를 갱신한다.The total feature vector extraction training unit 284 predicts a probability value that the corresponding first learning image will be included in a specific class by applying all the extracted feature vectors to a predetermined classification function, and predicts the predicted probability value (hereinafter referred to as 'prediction value') The filter coefficients and weights of the convolutional filters applied to the entire feature vector extractor 234 are updated by calculating the error between the and the actual value and feeding the result back to the full feature vector extractor 234 using a backpropagation algorithm.

마스크 탐지 트레이닝부(286)는 마스크 탐지 모델(225)을 제2 학습 이미지를 이용하여 트레이닝시킨다. 상기 제2 학습 이미지는 마스크를 착용한 얼굴이미지를 포함할 수 있다.The mask detection training unit 286 trains the mask detection model 225 using the second training image. The second learning image may include a face image wearing a mask.

마스크 탐지 트레이닝부(286)는 미리 정해진 크기를 갖는 복수개의 제2 학습 이미지를 입력하여 제2 학습 이미지에서 마스크 영역이 포함될 제2 확률값 및 마스크 영역 좌표를 산출한다. 마스크 탐지 트레이닝부(286)는 산출된 제2 확률값 및 마스크 영역 좌표를 역전파(Back Propagation) 알고리즘에 따라 마스크 탐지 모델(225)에 피드백함으로써 마스크 탐지 모델(225)에 적용된 컨벌루션 필터들의 필터계수 및 가중치를 갱신한다.The mask detection training unit 286 inputs a plurality of second training images having a predetermined size, and calculates a second probability value to include a mask region in the second training image and mask region coordinates. The mask detection training unit 286 feeds back the calculated second probability value and the mask region coordinates to the mask detection model 225 according to a back propagation algorithm, so that the filter coefficients of the convolution filters applied to the mask detection model 225 and update the weights.

부분 특징벡터 추출 트레이닝부(288)는 부분 특징벡터 추출부(245)를 제2 학습 이미지를 이용하여 트레이닝시킨다. 구체적으로, 부분 특징벡터 추출 트레이닝부(288)는 부분 특징벡터 추출부(245)에 복수개의 제2 학습 이미지를 미리 정해진 배치단위로 입력함으로써 각 제2 학습 이미지로부터 부분 특징벡터를 추출한다.The partial feature vector extraction training unit 288 trains the partial feature vector extraction unit 245 using the second learning image. Specifically, the partial feature vector extraction training unit 288 extracts a partial feature vector from each second training image by inputting a plurality of second training images to the partial feature vector extraction unit 245 in a predetermined batch unit.

부분 특징벡터 추출 트레이닝부(288)는 추출된 부분 특징벡터들을 미리 정해진 분류함수에 적용함으로써 해당 제2 학습 이미지가 특정 클래스에 포함될 확률값을 예측하고, 예측된 확률값(이하, '예측값'이라 함)과 실제값간의 오차를 연산하여 그 결과를 역전파 알고리즘을 이용하여 부분 특징벡터 추출부(245)에 피드백함으로써 부분 특징벡터 추출부(245)에 적용된 컨벌루션 필터들의 필터계수 및 가중치를 갱신한다.The partial feature vector extraction training unit 288 predicts a probability value that the corresponding second learning image will be included in a specific class by applying the extracted partial feature vectors to a predetermined classification function, and predicts a predicted probability value (hereinafter referred to as a 'prediction value') The filter coefficients and weights of the convolutional filters applied to the partial feature vector extractor 245 are updated by calculating the error between the and the actual value and feeding the result back to the partial feature vector extractor 245 using a backpropagation algorithm.

한편, 본 발명에 따른 얼굴인식모델 트레이닝부(280)는 오차감소부(290)를 통해 전체 특징벡터 또는 부분 특징벡터 추출시 발생되는 오차를 더욱 감소시킴으로써 전체 특징벡터 추출부(234) 및 부분 특징벡터 추출부(245)의 성능을 더욱 향상시킬 수 있다.On the other hand, the face recognition model training unit 280 according to the present invention further reduces the error generated when extracting the entire feature vector or the partial feature vector through the error reducing unit 290, thereby further reducing the full feature vector extracting unit 234 and the partial features. The performance of the vector extractor 245 may be further improved.

오차감소부(290)는 전체 특징벡터 추출 트레이닝부(284)가 전체 특징벡터 추출부(234)를 트레이닝시키는 과정에서 전체 특징벡터 추출부(234)를 통해 추출된 전체 특징벡터들에 기초한 예측값과 실제값간의 오차를 감소시킨다. The error reduction unit 290 includes a predicted value based on the entire feature vectors extracted through the entire feature vector extraction unit 234 in the process where the entire feature vector extraction training unit 284 trains the entire feature vector extraction unit 234 and It reduces the error between the actual values.

구체적으로, 오차감소부(290)는 전체 특징벡터 추출부(234)가 제1 학습 이미지로부터 추출한 전체 특징벡터들을 기초로 예측값과 실제값간의 오차를 계산한다. 오차감소부(290)는 오차가 감소될 수 있도록 각 제1 학습 이미지를 2차원 각도 평면상에 배치하고 배치결과에 따른 확률값을 이용하여 전체 특징벡터 추출 트레이닝부(284)가 전체 특징벡터 추출부(234)를 트레이닝시킬 수 있도록 한다.Specifically, the error reduction unit 290 calculates an error between the predicted value and the actual value based on the total feature vectors extracted from the first training image by the total feature vector extraction unit 234 . The error reduction unit 290 arranges each first training image on a two-dimensional angular plane so that the error can be reduced, and the entire feature vector extraction training unit 284 uses a probability value according to the arrangement result to convert the entire feature vector extraction unit (234) to be able to train.

또한, 오차감소부(290)는 부분 특징벡터 추출 트레이닝부(288)가 부분 특징벡터 추출부(245)를 트레이닝시키는 과정에서 부분 특징벡터 추출부(245)를 통해 추출된 부분 특징벡터들에 기초한 예측값과 실제값간의 오차를 감소시킨다.In addition, the error reduction unit 290 is based on the partial feature vectors extracted through the partial feature vector extraction unit 245 in the process where the partial feature vector extraction training unit 288 trains the partial feature vector extraction unit 245 . It reduces the error between the predicted value and the actual value.

구체적으로, 오차감소부(290)는 부분 특징벡터 추출부(245)가 제2 학습 이미지로부터 추출한 부분 특징벡터들을 기초로 예측값과 실제값간의 오차를 계산한다. 오차감소부(290)는 오차가 감소될 수 있도록 각 제2 학습 이미지를 2차원 각도 평면상에 배치하고 배치결과에 따른 확률값을 이용하여 부분 특징벡터 추출 트레이닝부(288)가 부분 특징벡터 추출부(245)를 트레이닝시킬 수 있도록 한다.Specifically, the error reduction unit 290 calculates an error between the predicted value and the actual value based on the partial feature vectors extracted from the second training image by the partial feature vector extraction unit 245 . The error reduction unit 290 arranges each second training image on a two-dimensional angular plane so that the error can be reduced, and the partial feature vector extraction training unit 288 uses the probability value according to the arrangement result. (245) to be able to train.

본 발명에 따른 얼굴인식모델 트레이닝부(280)가 오차감소부(290)를 통해 오차감소가 되도록 전체 특징벡터 추출부(234) 및 부분 특징벡터 추출부(245)를 학습시키는 이유는 도 9에 도시된 바와 같이 동일인임에도 불구하고 얼굴이 촬영된 조명이나 환경이 변화하는 경우 동일인임을 구분해 내지 못하는 것과 같은 오차가 발생하기 때문에, 이러한 오차감소부(290)를 통해 얼굴인식의 오차가 감소될 수 있는 특징벡터가 추출되도록 전체 특징벡터 추출부(234) 및 부분 특징벡터 추출부(245)를 트레이닝 시키기 위한 것이다.The reason why the face recognition model training unit 280 according to the present invention trains the entire feature vector extractor 234 and the partial feature vector extractor 245 to reduce errors through the error reduction unit 290 is shown in FIG. As shown in the figure, since an error such as not being able to distinguish that the face is the same person when the lighting or environment in which the face is photographed changes even though it is the same person occurs, the error of face recognition can be reduced through this error reduction unit 290. This is to train the entire feature vector extracting unit 234 and the partial feature vector extracting unit 245 to extract the feature vectors that are present.

본 발명의 일 실시예에 따른 오차감소부(290)는 얼굴이미지 배치부(292) 및 확률산출부(294)를 포함한다.The error reduction unit 290 according to an embodiment of the present invention includes a face image arrangement unit 292 and a probability calculation unit 294 .

얼굴이미지 배치부(292)는 학습 이미지(제1 학습 이미지 또는 제2 학습 이미지를 포함)에 대해 전체 또는 부분 특징벡터 추출부(234, 245)가 추출한 복수개의 특징벡터들(전체 특징벡터 또는 부분 특징벡터를 포함)을 기초로 각 학습 이미지들을 2차원 각도 평면 상에 배치한다. 구체적으로, 얼굴이미지 배치부(292)는 서로 다른 클래스에 포함되는 학습 이미지들간의 코사인 유사도를 산출하고, 코사인 유사도에 따라 각 학습 이미지들 간의 이격각도인 기준각도를 산출함으로써 학습 이미지들을 2차원 각도 평면상에 배치하게 된다.The face image arrangement unit 292 includes a plurality of feature vectors (full feature vectors or partials) extracted by the full or partial feature vector extraction units 234 and 245 for the training image (including the first training image or the second training image). Each training image is arranged on a two-dimensional angular plane based on the feature vector). Specifically, the face image arrangement unit 292 calculates the cosine similarity between training images included in different classes, and calculates a reference angle that is a separation angle between each training image according to the cosine similarity, thereby dividing the training images into two-dimensional angles. placed on a flat surface.

얼굴이미지 배치부(292)는 제2 학습 이미지에 대해 부분 특징벡터 추출부(245)가 추출한 복수개의 부분 특징벡터들을 기초로 각 제2 학습 이미지들을 2차원 각도 평면 상에 배치한다. 이때, 얼굴이미지 배치부(292)는 부분 특징벡터들에 미리 설정된 제1 가중치를 부여할 수 있다. 제1 가중치는 0.5 보다 크고 1 보다 작을 수 있다. 예컨대, 부분 특징벡터 추출부(245)는 256개의 부분 특징벡터들을 추출할 수 있으며, 이러한 경우, 얼굴이미지 배치부(292)는 256차원의 부분 특징벡터에 제1 가중치, 예컨대, 0.6을 부여할 수 있다.The face image arrangement unit 292 arranges each of the second training images on a two-dimensional angular plane based on the plurality of partial feature vectors extracted by the partial feature vector extraction unit 245 for the second training image. In this case, the face image arrangement unit 292 may assign a preset first weight to the partial feature vectors. The first weight may be greater than 0.5 and less than 1. For example, the partial feature vector extraction unit 245 may extract 256 partial feature vectors. In this case, the face image arrangement unit 292 applies a first weight, for example, 0.6, to the 256-dimensional partial feature vector. can

얼굴이미지 배치부(292)는 제1 학습 이미지에 대해 전체 특징벡터 추출부(234)가 추출한 복수개의 전체 특징벡터들을 기초로 각 제1 학습 이미지들을 2차원 각도 평면 상에 배치한다. 이때, 얼굴이미지 배치부(292)는 전체 특징벡터들의 차원을 1/2로 줄이고, 미리 설정된 제2 가중치를 부여할 수 있다. 제2 가중치는 제1 가중치 보다 작을 수 있다. 즉, 제1 가중치가 제2 가중치 보다 클 수 있다. 예컨대, 전체 특징벡터 추출부(234)는 512개의 전체 특징벡터들을 추출할 수 있으며, 이러한 경우, 얼굴이미지 배치부(292)는 512차원의 전체 특징벡터들을 1/2인 256차원의 전체 특징벡터들로 변환하고, 변환된 256차원의 전체 특징벡터에 제2 가중치, 예컨대, 0.4를 부여할 수 있다.The face image arrangement unit 292 arranges each of the first training images on a two-dimensional angular plane based on the plurality of total feature vectors extracted by the full feature vector extraction unit 234 for the first training image. In this case, the face image arrangement unit 292 may reduce the dimension of all the feature vectors to 1/2 and give a preset second weight. The second weight may be smaller than the first weight. That is, the first weight may be greater than the second weight. For example, the total feature vector extraction unit 234 may extract 512 total feature vectors. In this case, the face image arrangement unit 292 converts the 512-dimensional total feature vectors to 1/2 of the 256-dimensional total feature vectors. , and a second weight, for example, 0.4, may be given to the transformed 256-dimensional entire feature vector.

한편, 본 발명에서 얼굴이미지 배치부(292)가 각 학습 이미지들의 특징벡터를 기초로 산출되는 각 학습 이미지들 간의 거리에 따라 학습 이미지를 벡터공간에 배치하게 되면 도 10에 도시된 바와 같이 각 학습 이미지들 간에 중첩되는 영역(1000)이 발생할 수 밖에 없어, 학습시 동일인과 타인을 명확하게 구분하기가 어렵다는 한계가 있다.On the other hand, in the present invention, when the face image arrangement unit 292 arranges the learning images in the vector space according to the distance between the respective learning images calculated based on the feature vectors of the respective learning images, each learning image is arranged in the vector space as shown in FIG. There is a limit in that it is difficult to clearly distinguish the same person from another person during learning because an overlapping area 1000 between the images is bound to occur.

따라서, 본 발명에서는 얼굴이미지 배치부(292)가 서로 다른 클래스에 포함되는 학습 이미지들 사이의 각도를 코사인 유사도를 통해 산출하고, 산출된 각도를 기초로 각 학습 이미지를 2차원 각도 평면상에 배치하는 것이다.Therefore, in the present invention, the face image arrangement unit 292 calculates the angle between the learning images included in different classes through the cosine similarity, and arranges each learning image on a two-dimensional angular plane based on the calculated angle. will do

확률 산출부(294)는, 2차원 각도 평면 상에서 얼굴이미지 배치부(292)에 의해 산출된 기준각도에 가산될 마진각도를 가변시키고, 가변되는 마진각도 별로 각 학습 이미지들이 해당 클래스에 포함될 확률을 산출한다.The probability calculation unit 294 varies the margin angle to be added to the reference angle calculated by the face image arrangement unit 292 on the two-dimensional angular plane, and determines the probability that each learning image is included in the corresponding class for each variable margin angle. Calculate.

구체적으로, 확률 산출부(294)는 도 11에 도시된 바와 같이 각 학습 이미지 간의 기준각도(θ1, θ2)에 가산되는 마진각도(P1, P2)를 가변시키면서 서로 중첩되는 특성을 갖는 학습 이미지들이 2차원 각도 평면 상에서 이격되도록 한다. 일 실시예에 있어서, 마진각도(P1, P2)는 0보다 크고 90도 보다 작은 범위 내에서 학습률(Learning Rate)에 따라 결정될 수 있다.Specifically, as shown in FIG. 11 , the probability calculating unit 294 changes the margin angles P1 and P2 added to the reference angles θ1 and θ2 between the respective training images while varying the learning images having overlapping characteristics. to be spaced apart on a two-dimensional angular plane. In an embodiment, the margin angles P1 and P2 may be determined according to a learning rate within a range greater than 0 and less than 90 degrees.

예컨대, 학습률이 증가하면 마진각도도 그에 따라 증가하고 학습률이 감소하면 마진각도도 그에 따라 감소하도록 설정될 수 있다. 이때, 확률 산출부(294)는 마진각도를 미리 정해진 기준 단위만큼 가변시킬 수 있다.For example, when the learning rate increases, the margin angle increases accordingly, and when the learning rate decreases, the margin angle may be set to decrease accordingly. In this case, the probability calculator 294 may vary the margin angle by a predetermined reference unit.

확률산출부(294)에 의해 마진각도가 기준각도에 가산되면 도 12에 도시된바와 같이 벡터공간 내에서 서로 중첩되는 특징을 가졌던 학습 이미지들이 서로 이격되도록 배치된다는 것을 알 수 있다.When the margin angle is added to the reference angle by the probability calculator 294, it can be seen that the training images having overlapping features in the vector space are arranged to be spaced apart from each other as shown in FIG. 12 .

확률산출부(294)는 기준각도에 가산되는 마진각도 별로 각 학습 이미지들이 해당 클래스에 포함될 확률을 산출한다. 확률산출부(294)는 산출된 확률값을 전체 또는 부분 특징벡터 추출 트레이닝부(284, 288)로 제공함으로써 전체 또는 부분 특징벡터 추출 트레이닝부(284, 288)가 확률산출부(294)에 의해 산출된 확률값을 기초로 전체 또는 부분 특징벡터 추출부(234, 245)를 학습시킬 수 있도록 한다. 즉, 전체 또는 부분 특징벡터 추출 트레이닝부(284, 288)는 확률산출부(294)에 의해 산출된 확률값을 기초로 전체 또는 부분 특징벡터 추출부(234, 245)에 적용된 컨벌루션 필터들의 계수 및 가중치 중 적어도 하나를 갱신함으로써 전체 또는 부분 특징벡터 추출부(234, 245)를 학습시키게 된다.The probability calculator 294 calculates a probability that each training image is included in a corresponding class for each margin angle added to the reference angle. The probability calculating unit 294 provides the calculated probability value to the full or partial feature vector extraction training units 284 and 288, so that the total or partial feature vector extraction training units 284 and 288 are calculated by the probability calculating unit 294. It enables the whole or partial feature vector extracting units 234 and 245 to be trained on the basis of the obtained probability value. That is, the total or partial feature vector extraction training units 284 and 288 calculate the coefficients and weights of the convolution filters applied to the full or partial feature vector extraction units 234 and 245 based on the probability value calculated by the probability calculator 294 . By updating at least one of the full or partial feature vector extraction units 234 and 245 are learned.

일 실시예에 있어서, 확률 산출부(294)는 아래의 수학식 1을 이용하여 각 마진각도별로 각 학습 이미지들이 해당 클래스에 포함될 확률을 산출할 수 있다.In an embodiment, the probability calculator 294 may calculate a probability that each training image is included in a corresponding class for each margin angle using Equation 1 below.

Figure pat00001
Figure pat00001

수학식 1에서 x는 기준각도를 나타내고 p는 상기 마진각도를 나타내며, n은 클래스의 개수를 나타낸다.In Equation 1, x denotes a reference angle, p denotes the margin angle, and n denotes the number of classes.

일 실시예에 있어서, 확률 산출부(294)는 확률값을 기초로 전체 또는 부분특징벡터 추출 트레이닝부(284, 288)에 의해 트레이닝된 전체 또는 부분 특징벡터 추출부(234, 245)에 미리 정해진 테스트 얼굴이미지를 적용했을 때 예측값과 실제값간의 오차가 기준치 이하가 될 때까지 마진각도를 계속하여 가변시킬 수 있다.In one embodiment, the probability calculation unit 294 performs a predetermined test in the full or partial feature vector extraction units 234 and 245 trained by the full or partial feature vector extraction training units 284 and 288 based on the probability value. When a face image is applied, the margin angle can be continuously varied until the error between the predicted value and the actual value is less than or equal to the reference value.

즉, 확률 산출부(294)는 트레이닝된 전체 또는 부분 특징벡터 추출부(234, 245)에 미리 정해진 테스트 얼굴이미지를 적용했을 때 산출되는 예측값과 실제값간의 오차가 기준치 이하가 되는 시점의 마진각도를 최종 마진각도로 결정한다. 이때, 예측값과 실제값간의 오차는 크로스 엔트로피(Cross Entropy) 함수를 이용하여 산출할 수 있다.That is, the probability calculating unit 294 is a margin angle at a point in time when the error between the predicted value and the actual value calculated when a predetermined test face image is applied to the trained full or partial feature vector extracting units 234 and 245 becomes less than or equal to the reference value. is determined as the final margin angle. In this case, the error between the predicted value and the actual value may be calculated using a cross entropy function.

상술한 바와 같은 오차감소부(290)를 통해 오차감소가 수행되면 환경, 조명 또는 마스크 착용 여부가 다르게 촬영된 경우라 하더라도 동일인을 정확하게 분류해 낼 수 있게 된다. When the error reduction is performed through the error reduction unit 290 as described above, the same person can be accurately classified even if the photograph is taken in different environments, lighting, or wearing a mask.

상술한 실시예에 있어서, 얼굴인식모델 트레이닝부(280)는 알고리즘 형태의 소프트웨어로 구현되어 얼굴인식서버(110)에 탑재될 수 있다.In the above-described embodiment, the face recognition model training unit 280 may be implemented as software in the form of an algorithm and mounted on the face recognition server 110 .

다시 도 1을 참조하면, 에지 디바이스(120)는 특정 장소 마다 배치되어 얼굴인식서버(110)에 의해 배포되는 전체 얼굴특징 모델(230), 부분 얼굴특징 모델(240) 및 마스크 탐지 모델(225)을 이용하여 해당 장소로의 출입을 희망하는 타겟 사용자의 얼굴을 인식하고, 인식결과를 기초로 타겟 사용자의 출입을 인증하는 기능을 수행한다.Referring back to FIG. 1 , the edge device 120 is disposed at a specific place and distributed by the face recognition server 110 with a full facial feature model 230 , a partial facial feature model 240 , and a mask detection model 225 . Recognizes the face of the target user who wants to enter the place using

본 발명에서, 얼굴인식서버(110)가 타겟 사용자의 얼굴인식 및 인증을 수행하지 않고 에지 디바이스(120)가 타겟 사용자의 얼굴인식 및 인증을 수행하도록 한 이유는 타겟 사용자의 얼굴인식 및 인증을 얼굴인식서버(110)에서 수행하는 경우 얼굴인식서버(110) 또는 네트워크에서 장애가 발생되면 얼굴인식 및 인증이 수행될 수 없을 뿐만 아니라 사용자의 수가 증가함에 따라 고가의 얼굴인식서버(110)의 증설이 요구되기 때문이다.In the present invention, the reason that the edge device 120 performs face recognition and authentication of the target user without the face recognition server 110 performing face recognition and authentication of the target user is that the face recognition and authentication of the target user are performed. In the case of performing in the recognition server 110, when a failure occurs in the face recognition server 110 or the network, not only face recognition and authentication cannot be performed, but also, as the number of users increases, the expansion of the expensive face recognition server 110 is required. because it becomes

이에 따라 본 발명은 에지 컴퓨팅(Edge Computing) 방식을 적용하여 에지 디바이스(120)에서 타겟 사용자의 얼굴인식 및 인증을 수행하도록 함으로써 안면인식서버(110) 또는 네트워크에 장애가 발생하더라도 정상적으로 얼굴인식 서비스를 제공할 수 있어 서비스 제공 신뢰도를 향상시킬 수 있고, 사용자의 수가 증가하더라도 고가의 얼굴인식서버(110)를 증설할 필요가 없어 얼굴인식시스템(100) 구축비용을 절감할 수 있게 된다.Accordingly, the present invention applies an edge computing method to perform face recognition and authentication of a target user in the edge device 120, thereby providing a face recognition service normally even if a failure occurs in the face recognition server 110 or the network It is possible to improve the reliability of service provision, and even if the number of users increases, there is no need to expand the expensive face recognition server 110, thereby reducing the cost of constructing the face recognition system 100.

이하, 본 발명에 따른 에지 디바이스(120)의 구성을 도 13을 참조하여 보다 구체적으로 설명한다.Hereinafter, the configuration of the edge device 120 according to the present invention will be described in more detail with reference to FIG. 13 .

도 13은 본 발명의 일 실시예에 따른 에지 디바이스의 구성을 개략적으로 보여주는 블록도이다. 13 is a block diagram schematically showing the configuration of an edge device according to an embodiment of the present invention.

도 13을 참조하면, 본 발명의 일 실시예에 따른 에지 디바이스(120)는 촬영부(1310), 입력 이미지 생성부(1320), 타겟 얼굴인식부(1330), 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342), 전체 얼굴특징 모델(1345), 인증부(1350), 인터페이스부(1360), 어레이 파일 업데이트부(1370) 및 메모리(1380)를 포함한다.Referring to FIG. 13 , the edge device 120 according to an embodiment of the present invention includes a photographing unit 1310 , an input image generation unit 1320 , a target face recognition unit 1330 , a mask detection model 1340 , and a part It includes a facial feature model 1342 , a full facial feature model 1345 , an authentication unit 1350 , an interface unit 1360 , an array file update unit 1370 , and a memory 1380 .

촬영부(1310)는 인증대상이 되는 타겟 사용자가 접근하면, 타겟 사용자를 촬영하여 촬영 이미지를 생성한다. 촬영부(1310)는 생성된 촬영이미지를 입력 이미지 생성부(1320)로 전송한다.The photographing unit 1310 generates a photographed image by photographing the target user when the target user to be authenticated approaches. The photographing unit 1310 transmits the generated photographed image to the input image generation unit 1320 .

입력 이미지 생성부(1320)는 촬영부(1310)로부터 전송된 타겟 사용자의 촬영 이미지로부터 얼굴인식에 이용될 입력 이미지를 생성한다. 구체적으로 입력 이미지 생성부(1320)는 하나의 타겟 사용자의 촬영이미지를 미리 정해진 단계까지 다운샘플링하거나 업샘플링함으로써 하나의 타겟 사용자의 촬영이미지로부터 해상도가 서로 다른 복수개의 타겟 사용자의 이미지들을 생성할 수 있다.The input image generation unit 1320 generates an input image to be used for face recognition from the target user's photographed image transmitted from the photographing unit 1310 . Specifically, the input image generating unit 1320 down-sampling or up-sampling the captured image of one target user to a predetermined stage to generate a plurality of images of the target user having different resolutions from the captured image of one target user. there is.

해상도가 서로 다른 복수개의 타겟 사용자 이미지가 생성되면, 입력 이미지 생성부(1320)는 각각의 타겟 사용자 이미지에 대해, 타겟 사용자 이미지 상에서 미리 정해진 픽셀크기의 윈도우를 이동시켜가면서 획득되는 복수개의 이미지를 입력 이미지로 생성한다. 입력 이미지 생성부(1320)는 생성된 입력 이미지를 타겟 얼굴인식부(1330)로 입력한다.When a plurality of target user images having different resolutions are generated, the input image generator 1320 inputs a plurality of images obtained by moving a window having a predetermined pixel size on the target user image for each target user image. create as an image The input image generating unit 1320 inputs the generated input image to the target face recognition unit 1330 .

타겟 얼굴인식부(1330)는 입력 이미지 생성부(1320)로부터 타겟 사용자의 입력 이미지가 수신되면 수신된 타겟 사용자의 입력 이미지를 얼굴인식서버(110)로부터 배포된 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)를 이용하여 타겟 특징벡터를 추출한다.When the target user's input image is received from the input image generating unit 1320, the target face recognition unit 1330 converts the received target user's input image into the mask detection model 1340 distributed from the face recognition server 110, partial face A target feature vector is extracted using the feature model 1342 and the full facial feature model 1345 .

이를 위하여, 타겟 얼굴인식부(1330)는 마스크 탐지부(1332), 부분 얼굴 인식부(1334) 및 전체 얼굴 인식부(1336)를 포함한다. To this end, the target face recognition unit 1330 includes a mask detection unit 1332 , a partial face recognition unit 1334 , and a full face recognition unit 1336 .

마스크 탐지부(1332)는 입력 이미지 생성부(1320)로부터 입력된 입력 이미지를 마스크 탐지 모델(1340)에 입력하여 마스크 영역의 유무 및 마스크 영역의 위치를 판단한다. The mask detector 1332 inputs the input image input from the input image generator 1320 to the mask detection model 1340 to determine the presence or absence of a mask region and the location of the mask region.

부분 얼굴 인식부(1334)는 마스크 탐지부(1332)에 의하여 입력 이미지에 마스크 영역이 포함된 것으로 판단되면, 부분 얼굴특징 모델(1342)을 통해 타겟 사용자에 대한 타겟 부분 특징벡터를 획득한다.When it is determined by the mask detector 1332 that the mask region is included in the input image, the partial face recognition unit 1334 obtains a target partial feature vector for the target user through the partial facial feature model 1342 .

구체적으로, 부분 얼굴 인식부(1334)는 마스크 영역 좌표를 이용하여 입력 이미지 상에서 타겟 부분 얼굴이미지를 추출한다. Specifically, the partial face recognition unit 1334 extracts the target partial face image from the input image by using the mask area coordinates.

일 실시예에 있어서, 부분 얼굴 인식부(1334)는 입력 이미지에서 마스크 영역을 제외한 이미지를 타겟 부분 얼굴이미지로 추출할 수 있다.In an embodiment, the partial face recognition unit 1334 may extract an image excluding the mask area from the input image as the target partial face image.

다른 실시예에 있어서, 부분 얼굴 인식부(1334)는 입력 이미지에서 마스크 영역의 상단에 배치된 이미지를 타겟 부분 얼굴이미지로 추출할 수 있다. 부분 얼굴 인식부(1334)는 마스크 탐지부(1332)에 의하여 탐지된 마스크 영역의 좌표로부터 미리 정한 범위 내에 배치된 이미지를 타겟 부분 얼굴이미지로 추출할 수 있다. 예컨대, 부분 얼굴 인식부(1334)는 마스크가 포함된 영역으로부터 상단에 배치되고 소정의 크기를 가진 사각형 형태의 바운딩 박스 내에 배치된 이미지를 타겟 부분 얼굴이미지로 추출할 수 있다.In another embodiment, the partial face recognition unit 1334 may extract an image disposed at the top of the mask area from the input image as the target partial face image. The partial face recognition unit 1334 may extract an image disposed within a predetermined range from the coordinates of the mask area detected by the mask detection unit 1332 as the target partial face image. For example, the partial face recognition unit 1334 may extract, as a target partial face image, an image disposed at the top of the region including the mask and disposed in a rectangular bounding box having a predetermined size.

또한, 부분 얼굴 인식부(1334)는 부분 얼굴이미지 상에서 2개의 눈의 좌표, 코의 좌표를 포함하는 랜드마크 좌표를 결정할 수 있다. Also, the partial face recognition unit 1334 may determine landmark coordinates including coordinates of two eyes and a coordinate of a nose on the partial face image.

부분 얼굴 인식부(1334)는 부분 얼굴특징 모델(1342)을 통해 추출된 타겟 부분 얼굴이미지로부터 제1 타겟 부분 특징벡터들을 생성한다. 이때, 부분 얼굴 인식부(1334)는 부분 얼굴특징 모델(1342)을 통해 추출된 타겟 부분 얼굴이미지로부터 제1 차원의 제1 타겟 부분 특징벡터들을 생성한다. 일 실시예에 있어서, 부분 얼굴 인식부(1334)는 부분 얼굴특징 모델(1342)을 통해 256차원의 제1 타겟 부분 특징벡터를 생성할 수 있다.The partial face recognition unit 1334 generates first target partial feature vectors from the target partial face image extracted through the partial facial feature model 1342 . In this case, the partial face recognition unit 1334 generates first-dimensional first target partial feature vectors from the target partial facial image extracted through the partial facial feature model 1342 . In an embodiment, the partial face recognition unit 1334 may generate a 256-dimensional first target partial feature vector through the partial facial feature model 1342 .

일 실시예에 있어서, 부분 얼굴 인식부(1334)는 제1 타겟 부분 특징벡터를 타겟 사용자에 대한 타겟 부분 특징벡터로 결정할 수 있다.In an embodiment, the partial face recognition unit 1334 may determine the first target partial feature vector as the target partial feature vector for the target user.

다른 실시예에 있어서, 부분 얼굴 인식부(1334)는 입력 이미지 상에서 타겟 전체 얼굴이미지를 더 추출하고, 타겟 전체 얼굴이미지로부터 추출된 타겟 전체 특징벡터 및 제1 타겟 부분 특징벡터를 이용하여 타겟 부분 특징벡터를 결정할 수도 있다. In another embodiment, the partial face recognition unit 1334 further extracts a target full face image from the input image, and uses the target full feature vector and the first target partial feature vector extracted from the target full face image to perform the target partial feature It is also possible to determine a vector.

구체적으로, 부분 얼굴 인식부(1334)는 입력 이미지 생성부(1320)로부터 입력된 입력 이미지를 부분 얼굴특징 모델(1342)에 입력하여 얼굴영역의 유무, 얼굴영역의 좌표 및 랜드마크 좌표를 판단하고, 얼굴영역의 좌표를 이용하여 타겟 전체 얼굴이미지를 추출할 수 있다. 이때, 타겟 전체 얼굴이미지는 마스크 영역을 포함한 전체 얼굴영역의 이미지에 해당할 수 있다.Specifically, the partial face recognition unit 1334 inputs the input image input from the input image generation unit 1320 into the partial facial feature model 1342 to determine the presence or absence of a face region, coordinates of the face region, and landmark coordinates, , it is possible to extract the entire target face image using the coordinates of the face region. In this case, the target full face image may correspond to an image of the entire face area including the mask area.

부분 얼굴 인식부(1334)는 부분 얼굴특징 모델(1342)을 통해 추출된 타겟 전체 얼굴이미지로부터 타겟 전체 특징벡터들을 생성할 수 있다. 이때, 부분 얼굴 인식부(1334)는 타겟 전체 얼굴이미지로부터 제2 차원의 타겟 전체 특징벡터들을 생성할 수 있다. 이때, 제2 차원은 상기 제1 차원 보다 클 수 있다. 일 실시예에 있어서, 부분 얼굴 인식부(1334)는 512차원의 타겟 전체 특징벡터를 생성할 수 있다.The partial face recognition unit 1334 may generate target full feature vectors from the target full face image extracted through the partial facial feature model 1342 . In this case, the partial face recognition unit 1334 may generate second-dimensional target full feature vectors from the target full face image. In this case, the second dimension may be larger than the first dimension. In an embodiment, the partial face recognition unit 1334 may generate a 512-dimensional target full feature vector.

부분 얼굴 인식부(1334)는 제1 타겟 부분 특징벡터에 제1 가중치를 부여할 수 있다. 이때, 제1 가중치는 0.5 보다 크고 1 보다 작은 값을 가질 수 있다. 일 예로, 제1 가중치는 0.6을 가질 수 있다.The partial face recognition unit 1334 may assign a first weight to the first target partial feature vector. In this case, the first weight may have a value greater than 0.5 and less than 1. As an example, the first weight may have 0.6.

또한, 부분 얼굴 인식부(1334)는 타겟 전체 특징벡터의 차원을 감소시키고, 차원이 감소된 타겟 전체 특징벡터에 제2 가중치를 부여할 수 있다. 이때, 제2 가중치는 제1 가중치 보다 작으며, 제1 가중치와의 합이 1이 될 수 있다. 일 예로, 제1 가중치는 0.6을 가질 수 있고, 제2 가중치는 0.4를 가질 수 있다. Also, the partial face recognition unit 1334 may reduce the dimension of the entire target feature vector, and may assign a second weight to the reduced dimension of the entire target feature vector. In this case, the second weight may be smaller than the first weight, and the sum of the first weight and the first weight may be 1. As an example, the first weight may have 0.6, and the second weight may have 0.4.

부분 얼굴 인식부(1334)는 제1 가중치가 부여된 제1 타겟 부분 특징벡터와 제2 가중치가 부여된 타겟 전체 특징벡터를 합산하여 제2 타겟 부분 특징벡터를 산출할 수 있다. 부분 얼굴 인식부(1334)는 제2 타겟 부분 특징벡터를 타겟 사용자에 대한 타겟 부분 특징벡터로 결정할 수 있다.The partial face recognition unit 1334 may calculate the second target partial feature vector by summing the first target partial feature vector to which the first weight is assigned and the entire target feature vector to which the second weight is assigned. The partial face recognition unit 1334 may determine the second target partial feature vector as the target partial feature vector for the target user.

한편, 부분 얼굴 인식부(1334)는 마스크 탐지부(1332)에 의하여 입력 이미지에 마스크 영역이 포함되지 않는 것으로 판단되면, 동작하지 않는다. On the other hand, when it is determined by the mask detector 1332 that the mask region is not included in the input image, the partial face recognition unit 1334 does not operate.

전체 얼굴 인식부(1336)는 전체 얼굴특징 모델(1345)를 통해 타겟 사용자에 대한 타겟 전체 특징벡터를 획득한다.The full face recognition unit 1336 obtains a target full feature vector for the target user through the full face feature model 1345 .

구체적으로, 전체 얼굴 인식부(1336)는 입력 이미지 생성부(1320)로부터 입력된 입력 이미지를 전체 얼굴특징 모델(1345)에 입력하여 얼굴영역의 유무, 얼굴영역의 좌표 및 랜드마크 좌표를 판단하고, 얼굴영역의 좌표를 이용하여 타겟 전체 얼굴이미지를 추출한다.Specifically, the full face recognition unit 1336 inputs the input image input from the input image generation unit 1320 into the full face feature model 1345 to determine the presence or absence of a face region, coordinates of the face region, and landmark coordinates, , extracts the entire target face image using the coordinates of the face region.

전체 얼굴 인식부(1336)는 전체 얼굴특징 모델(1345)을 통해 추출된 타겟 전체 얼굴이미지로부터 타겟 전체 특징벡터들을 생성한다. 이때, 전체 얼굴 인식부(1336)는 전체 얼굴특징 모델(1345)을 통해 추출된 타겟 전체 얼굴이미지로부터 제2 차원의 타겟 전체 특징벡터들을 생성한다. 제2 차원은 상기 제1 차원 보다 클 수 있다. The full face recognition unit 1336 generates target full feature vectors from the target full face image extracted through the full face feature model 1345 . In this case, the full face recognition unit 1336 generates second-dimensional target full feature vectors from the target full face image extracted through the full face feature model 1345 . The second dimension may be larger than the first dimension.

일 실시예에 있어서, 전체 얼굴 인식부(1336)는 전체 얼굴특징 모델(1345)을 통해 512차원의 타겟 전체 특징벡터를 생성할 수 있다. 전체 얼굴 인식부(1336)는 512차원의 타겟 전체 특징벡터를 타겟 사용자에 대한 타겟 전체 특징벡터로 결정할 수 있다.In an embodiment, the full face recognition unit 1336 may generate a 512-dimensional target full feature vector through the full face feature model 1345 . The full face recognition unit 1336 may determine the 512-dimensional target full feature vector as the target total feature vector for the target user.

인증부(1350)는 타겟 얼굴인식부(1330)에 의해 획득된 타겟 특징벡터를 얼굴인식서버(110)로부터 수신된 어레이 파일과 비교하여 타겟 사용자를 인증한다. The authenticator 1350 authenticates the target user by comparing the target feature vector obtained by the target face recognition unit 1330 with the array file received from the face recognition server 110 .

구체적으로, 인증부(1350)는 타겟 특징벡터를 복수의 사용자들 각각의 사용자 부분 특징벡터들, 사용자 전체 특징벡터들, 및 각 사용자의 식별정보를 갖는 복수개의 어레이로 구성된 어레이 파일과 비교하여 타겟 사용자를 인증할 수 있다.Specifically, the authenticator 1350 compares the target feature vector with an array file composed of a plurality of arrays having user partial feature vectors of each of a plurality of users, total user feature vectors, and identification information of each user to target the target feature vector. You can authenticate users.

이를 위하여, 인증부(1350)는 부분 특징벡터 비교부(1352), 전체 특징벡터 비교부(1354) 및 인증 결정부(1356)을 포함한다.To this end, the authentication unit 1350 includes a partial feature vector comparison unit 1352 , a full feature vector comparison unit 1354 , and an authentication decision unit 1356 .

부분 특징벡터 비교부(1352)는 부분 얼굴 인식부(1334)에 의하여 타겟 부분 특징벡터가 추출되면, 추출된 타겟 부분 특징벡터를 복수의 사용자들 각각의 사용자 부분 특징벡터들과 비교한다. When the target partial feature vector is extracted by the partial face recognition unit 1334 , the partial feature vector comparison unit 1352 compares the extracted target partial feature vector with user partial feature vectors of each of the plurality of users.

구체적으로, 부분 특징벡터 비교부(1352)는 사용자 부분 특징벡터들 각각과 타겟 부분 특징벡터 간에 유사도(이하, '부분 유사도'라 함)를 산출할 수 있다. 부분 특징벡터 비교부(1352)는 타겟 부분 특징벡터와 사용자 부분 특징벡터들 간의 유클리드 거리(Euclidean distance) 또는 코사인 거리(Cosine distance)를 통해 부분 유사도를 산출할 수 있다. Specifically, the partial feature vector comparison unit 1352 may calculate a degree of similarity (hereinafter, referred to as 'partial similarity') between each of the user partial feature vectors and the target partial feature vector. The partial feature vector comparison unit 1352 may calculate the partial similarity through a Euclidean distance or a cosine distance between the target partial feature vector and the user partial feature vectors.

전체 특징벡터 비교부(1354)는 전체 얼굴 인식부(1336)에 의하여 추출된 타겟 전체 특징벡터를 복수의 사용자들 각각의 사용자 전체 특징벡터들과 비교한다.The total feature vector comparison unit 1354 compares the entire target feature vector extracted by the entire face recognition unit 1336 with the total user feature vectors of each of the plurality of users.

구체적으로, 전체 특징벡터 비교부(1354)는 사용자 전체 특징벡터들 각각과 타겟 전체 특징벡터 간에 유사도(이하, '전체 유사도'라 함)를 산출할 수 있다. 전체 특징벡터 비교부(1354)는 타겟 전체 특징벡터와 사용자 전체특징벡터들 간의 유클리드 거리(Euclidean distance) 또는 코사인 거리(Cosine distance)를 통해 부분 유사도를 산출할 수 있다. Specifically, the total feature vector comparison unit 1354 may calculate a similarity (hereinafter, referred to as 'total similarity') between each of the user total feature vectors and the target total feature vector. The total feature vector comparison unit 1354 may calculate the partial similarity through a Euclidean distance or a cosine distance between the total target feature vector and the user total feature vectors.

인증 결정부(1356)는 부분 유사도 및 전체 유사도 중 적어도 하나를 기초로 타겟 사용자에 대한 인증여부를 결정할 수 있다.The authentication determining unit 1356 may determine whether to authenticate the target user based on at least one of a partial similarity and an overall similarity.

인증 결정부(1356)는 타겟 사용자가 마스크를 착용한 경우 부분 유사도를 이용하여 마스크 착용 타겟 사용자에 대한 인증여부를 결정할 수 있다. When the target user wears a mask, the authentication determiner 1356 may determine whether to authenticate the mask wearing target user by using the partial similarity.

일 실시예에 있어서, 인증 결정부(1356)는 타겟 부분 특징벡터와의 부분 유사도가 가장 큰 어레이에 매핑되어 있는 사용자가 타겟 사용자와 가장 유사한 유사 사용자인 것으로 결정할 수 있다. 이때, 인증 결정부(1356)는 유사 사용자와의 부분 유사도가 제1 임계값 이상이면 타겟 사용자가 정당한 권한을 가진 사용자로 인증하게 되고, 이에 따라 타겟 사용자가 해당 장소의 출입이 허가될 수 있다. 반면, 인증 결정부(1356)는 해당 부분 유사도가 제1 임계값 보다 작으면, 타겟 사용자에 대한 인증을 거절하고, 타겟 사용자의 얼굴을 재촬영하고 다시 인증과정을 반복할 수 있다.In an embodiment, the authentication determiner 1356 may determine that the user mapped to the array having the greatest partial similarity with the target partial feature vector is the similar user most similar to the target user. In this case, if the degree of partial similarity with the similar user is equal to or greater than the first threshold value, the authentication determination unit 1356 authenticates the target user as a user with legitimate authority, and accordingly, the target user may be permitted to enter the corresponding place. On the other hand, if the partial similarity is less than the first threshold, the authentication determiner 1356 may reject the authentication of the target user, re-photograph the face of the target user, and repeat the authentication process again.

일 실시예에 있어서, 인증 결정부(1356)는 마스크 착용 타겟 사용자에 대한 인증 신뢰도를 높이기 위하여, 사용자 전체 특징벡터들과 타겟 전체 특징벡터 간의 전체 유사도를 이용하여 마스크 착용 타겟 사용자에 대한 인증여부를 결정할 수 있다.In one embodiment, the authentication determining unit 1356 determines whether to authenticate the mask wearing target user by using the overall similarity between the entire user feature vectors and the target total feature vectors in order to increase the authentication reliability for the mask wearing target user. can decide

구체적으로, 타겟 얼굴인식부(1330)는 인증부(1350)에 마스크 착용 타겟 사용자에 대한 타겟 부분 특징벡터 및 타겟 전체 특징벡터를 함께 제공할 수 있다. 이러한 경우, 인증부(1350)는 부분 특징벡터 비교부(1352)를 통해 사용자 부분 특징벡터들 각각과 마스크 착용 타겟 사용자의 타겟 부분 특징벡터 간에 부분 유사도를 산출하고, 전체 특징벡터 비교부(1354)를 통해 사용자 전체 특징벡터들 각각과 마스크 착용 타겟 사용자의 타겟 전체 특징벡터 간에 전체 유사도를 산출할 수 있다.Specifically, the target face recognition unit 1330 may provide the authentication unit 1350 with the target partial feature vector and the entire target feature vector for the mask-wearing target user. In this case, the authenticator 1350 calculates a partial similarity between each of the user partial feature vectors and the target partial feature vector of the mask wearing target user through the partial feature vector comparison unit 1352 , and the overall feature vector comparison unit 1354 ) It is possible to calculate an overall similarity between each of the user overall feature vectors and the mask wearing target user's target overall feature vectors.

인증 결정부(1356)는 타겟 부분 특징벡터와의 부분 유사도가 가장 큰 어레이에 매핑되어 있는 제1 사용자를 추출할 수 있다. 또한, 인증 결정부(1356)는 타겟 전체 특징벡터와의 전체 유사도가 높은 어레이에 매핑되어 있는 적어도 둘 이상의 제2 사용자들을 추출할 수 있다. 예컨대, 인증 결정부(1356)는 1명의 제1 사용자와 3명의 제2 사용자들을 추출할 수 있다.The authentication determiner 1356 may extract the first user mapped to the array having the greatest partial similarity with the target partial feature vector. Also, the authentication determiner 1356 may extract at least two or more second users mapped to an array having a high overall similarity with the target overall feature vectors. For example, the authentication determiner 1356 may extract one first user and three second users.

인증 결정부(1356)는 적어도 둘 이상의 제2 사용자들 중 제1 사용자와 동일인이 존재하는지 확인하고, 존재하면, 해당 사용자가 타겟 사용자와 가장 유사한 유사 사용자인 것으로 결정할 수 있다.The authentication determining unit 1356 may determine whether the same person as the first user exists among at least two or more second users, and if there is, determine that the corresponding user is a similar user most similar to the target user.

이때, 인증 결정부(1356)는 유사 사용자와의 부분 유사도가 제1 임계값 이상이면 타겟 사용자가 정당한 권한을 가진 사용자로 인증하게 되고, 이에 따라 타겟 사용자가 해당 장소의 출입이 허가될 수 있다. 반면, 인증 결정부(1356)는 해당 부분 유사도가 제1 임계값 보다 작으면, 타겟 사용자에 대한 인증을 거절하고, 타겟 사용자의 얼굴을 재촬영하고 다시 인증과정을 반복할 수 있다.In this case, if the degree of partial similarity with the similar user is equal to or greater than the first threshold value, the authentication determination unit 1356 authenticates the target user as a user with legitimate authority, and accordingly, the target user may be permitted to enter the corresponding place. On the other hand, if the partial similarity is less than the first threshold, the authentication determiner 1356 may reject the authentication of the target user, re-photograph the face of the target user, and repeat the authentication process again.

한편, 인증 결정부(1356)는 타겟 사용자가 마스크를 착용하지 않은 경우 전체 유사도를 이용하여 일반 타겟 사용자에 대한 인증여부를 결정할 수 있다. Meanwhile, when the target user does not wear a mask, the authentication determiner 1356 may determine whether to authenticate the general target user using the overall similarity.

일 실시예에 있어서, 인증 결정부(1356)는 타겟 전체 특징벡터와의 전체 유사도가 가장 큰 어레이에 매핑되어 있는 사용자가 타겟 사용자와 가장 유사한 유사 사용자인 것으로 결정할 수 있다. 이때, 인증 결정부(1356)는 유사 사용자와의 전체 유사도가 제2 임계값 이상이면 타겟 사용자가 정당한 권한을 가진 사용자로 인증하게 되고, 이에 따라 타겟 사용자가 해당 장소의 출입이 허가될 수 있다. 반면, 인증 결정부(1356)는 해당 전체 유사도가 제1 임계값 보다 작으면, 타겟 사용자에 대한 인증을 거절하고, 타겟 사용자의 얼굴을 재촬영하고 다시 인증과정을 반복할 수 있다. 한편, 상기 제2 임계값은 제1 임계값과 상이할 수 있으며, 제1 임계값 보다 클 수 있다.In an embodiment, the authentication determiner 1356 may determine that the user mapped to the array having the greatest overall similarity with the target overall feature vectors is the similar user most similar to the target user. In this case, if the total similarity with the similar user is equal to or greater than the second threshold, the authentication determination unit 1356 authenticates the target user as a user having a legitimate authority, and accordingly, the target user may be permitted to enter the corresponding place. On the other hand, if the overall similarity is less than the first threshold, the authentication determiner 1356 may reject authentication of the target user, re-photograph the face of the target user, and repeat the authentication process again. Meanwhile, the second threshold value may be different from the first threshold value and may be greater than the first threshold value.

마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)은 얼굴인식서버(110)에 의해 생성되어 배포된 것으로서, 미리 정해진 주기마다 업데이트될 수 있다. 일 예로, 에지 디바이스(120)는 얼굴인식서버(110)에 의해 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)이 업데이트될 때마다 얼굴인식서버(110)로부터 새로운 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)을 배포받음으로써 기 배포된 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)을 새로운 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)로 업데이트할 수 있다.The mask detection model 1340 , the partial facial feature model 1342 , and the full facial feature model 1345 are generated and distributed by the face recognition server 110 , and may be updated at predetermined intervals. For example, the edge device 120 is the face recognition server 110 whenever the mask detection model 1340, the partial facial feature model 1342, and the full facial feature model 1345 are updated by the face recognition server 110. A new mask detection model 1340, partial facial feature model 1342, and full facial feature model 1345 are distributed from the mask detection model 1340, partial facial feature model 1342, and full facial feature model 1345 may be updated with a new mask detection model 1340 , a partial facial feature model 1342 , and a full facial feature model 1345 .

어레이 파일 업데이트부(1370)는 미리 정해진 업데이트 주기마다 최적 기준이미지로부터 추출된 특징벡터들을 포함하는 복수개의 어레이로 구성된 신규 어레이 파일을 얼굴인식서버(110)로부터 수신하고, 기존 어레이 파일을 신규 어레이 파일로 변경한다.The array file update unit 1370 receives, from the face recognition server 110, a new array file composed of a plurality of arrays including feature vectors extracted from the optimal reference image at each predetermined update cycle, and converts the existing array file into a new array file. change to

어레이 파일 업데이트부(1370)는 인터페이스부(1350)를 통해 얼굴인식서버(110)로부터 어레이 파일이 수신되면 이를 제1 메모리(1382)에 업로드하여 인증부(1350)가 이를 이용하여 타겟 사용자를 인증할 수 있도록 한다. 특히, 본 발명에 따른 어레이 파일 업데이트부(1370)는 어레이 파일을 동적으로 로딩할 수 있다.When the array file update unit 1370 receives the array file from the face recognition server 110 through the interface unit 1350, it uploads it to the first memory 1382, and the authentication unit 1350 uses it to authenticate the target user. make it possible In particular, the array file update unit 1370 according to the present invention may dynamically load the array file.

구체적으로, 어레이 파일 업데이트부(1370)는 제1 메모리(1382)에 어레이 파일이 로딩되어 있을 때, 얼굴인식서버(110)로부터 신규 어레이 파일이 수신되는 경우 신규 어레이 파일을 제2 메모리(1384)에 로딩하고, 제2 메모리(1384)에 신규 레이 파일의 로딩이 완료되면 제1 메모리(1382)에 로딩되어 있는 어레이 파일을 제2 메모리(1384)에 로딩되어 있는 신규 어레이 파일로 대체한다.Specifically, when the array file is loaded in the first memory 1382 and the array file update unit 1370 receives the new array file from the face recognition server 110, the array file update unit 1370 transfers the new array file to the second memory 1384. and, when the loading of the new ray file in the second memory 1384 is completed, the array file loaded in the first memory 1382 is replaced with the new array file loaded in the second memory 1384 .

어레이 파일 업데이트부(1370)가 상술한 바와 같이 어레이 파일을 동적 로딩하는 이유는 인증부(1350)가 타겟 사용자에 대한 인증처리를 수행함과 동시에 어레이 파일 업데이트부(1370)가 신규 어레이 파일을 업데이트할 수 있도록 함으로써 에지 디바이스(120)가 새롭게 업데이트된 어레이 파일을 기초로 실시간으로 얼굴인식이 수행될 수 있도록 하기 위함이다.The reason why the array file update unit 1370 dynamically loads the array file as described above is that the array file update unit 1370 updates the new array file while the authentication unit 1350 performs authentication processing for the target user. This is to enable the edge device 120 to perform face recognition in real time based on the newly updated array file.

제1 메모리(1382)에는 인증부(1350)에 의해 이용되는 어레이 파일이 로딩되고, 제2 메모리(1384)에는 새롭게 수신된 신규 어레이 파일이 로딩된다. 제2 메모리(1384)에 신규 어레이 파일의 로딩이 완료되면 어레이 파일 업데이트부(1370)에 의해 제1 메모리(1382)에 기록된 어레이 파일이 신규 어레이 파일로 대체되게 된다.An array file used by the authenticator 1350 is loaded into the first memory 1382 , and a newly received array file is loaded into the second memory 1384 . When the loading of the new array file into the second memory 1384 is completed, the array file written in the first memory 1382 by the array file update unit 1370 is replaced with the new array file.

인터페이스부(1360)는 에지 디바이스(120)와 얼굴인식서버(110)간의 데이터 송수신을 매개한다. 구체적으로, 인터페이스부(1360)는 얼굴인식서버(110)로부터 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)을 수신한다. 인터페이스부(1360)는 얼굴인식서버(110)로부터 어레이 파일을 수신하여 어레이 파일 업데이트부(1370)를 통해 제1 메모리(1382) 또는 제2 메모리(1384)에 로딩한다. 또한, 인터페이스부(1360)는 인증부(1350)에 의한 인증기록을 얼굴인식서버(110)로 주기적으로 전송한다. The interface unit 1360 mediates data transmission/reception between the edge device 120 and the face recognition server 110 . Specifically, the interface unit 1360 receives the mask detection model 1340 , the partial facial feature model 1342 , and the full facial feature model 1345 from the face recognition server 110 . The interface unit 1360 receives the array file from the face recognition server 110 and loads it into the first memory 1382 or the second memory 1384 through the array file update unit 1370 . In addition, the interface unit 1360 periodically transmits the authentication record by the authentication unit 1350 to the face recognition server 110 .

일 실시예에 있어서, 어레이 파일, 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345)는 인터페이스부(1360)를 통해 미리 정해진 주기마다 업데이트될 수 있다.In an embodiment, the array file, the mask detection model 1340 , the partial facial feature model 1342 , and the full facial feature model 1345 may be updated at predetermined intervals through the interface unit 1360 .

상술한 바와 같이, 본 발명에 따르면 에지 디바이스(120)에는 얼굴인식을 위한 마스크 탐지 모델(1340), 부분 얼굴특징 모델(1342) 및 전체 얼굴특징 모델(1345), 어레이 파일만 저장될 뿐 사용자의 얼굴이미지나 개인정보가 저장되지 않기 때문에 에지 디바이스(120)가 해킹되더라도 사용자의 개인정보가 유출될 염려가 없어 보안이 강화된다.As described above, according to the present invention, only the mask detection model 1340 for face recognition, the partial facial feature model 1342 and the full facial feature model 1345, and the array file are stored in the edge device 120 according to the present invention. Because no face image or personal information is stored, even if the edge device 120 is hacked, there is no fear of leakage of the user's personal information, thereby enhancing security.

다시 도 1을 참조하면, 사용자 단말기(130)는 사용자를 신규 등록하기 위한 사용자 이미지를 사용자의 식별정보와 함께 얼굴인식서버(110)로 전송한다. 일 실시예에 있어서, 사용자 단말기(130)에는 얼굴인식서버(110)와 연동할 수 있는 얼굴등록 에이전트(미도시)가 탑재되어 있고, 사용자는 사용자 단말기(130) 상에서 얼굴등록 에이전트를 실행시킴으로써 사용자의 얼굴을 촬영한 이미지나 기 촬영된 이미지를 사용자 식별정보와 함께 얼굴인식서버(110)로 전송할 수 있다.Referring back to FIG. 1 , the user terminal 130 transmits a user image for newly registering a user to the face recognition server 110 together with the user's identification information. In an embodiment, the user terminal 130 is equipped with a face registration agent (not shown) capable of interworking with the face recognition server 110 , and the user executes the face registration agent on the user terminal 130 . It is possible to transmit an image or a pre-photographed image of the face of the user to the face recognition server 110 together with user identification information.

일 실시예에 있어서, 사용자 단말기(130)는 각 사용자 별로 복수개의 사용자 이미지를 등록하도록 요청할 수 있다. 이때, 각 사용자 별로 등록 요청되는 복수개의 이미지는 서로 다른 환경에서 촬영된 사진이거나 서로 다른 조명하에서 촬영된 사진일 수 있다.In an embodiment, the user terminal 130 may request to register a plurality of user images for each user. In this case, the plurality of images requested for registration by each user may be pictures taken in different environments or pictures taken under different lighting conditions.

사용자 단말기(130)는 얼굴인식서버(110)로 사용자 이미지를 전송하여 사용자 등록을 요청할 수 있는 것이라면 그 종류에 제한 없이 어떤 것이든 이용 가능하다. 예컨대, 사용자 단말기(130)는 스마트폰, 노트북, 데스크탑 또는 테플릿 PC등으로 구현될 수 있다.The user terminal 130 may use any type without limitation as long as it can request user registration by transmitting a user image to the face recognition server 110 . For example, the user terminal 130 may be implemented as a smart phone, a laptop computer, a desktop computer, or a tablet PC.

본 발명의 일 실시예에 따른 마스크 착용 얼굴인증 시스템(100)은 입력된 이미지에서 마스크 착용 여부를 판단하고, 마스크 착용시 부분 얼굴 이미지 및 전체 얼굴 이미지를 이용하여 학습된 얼굴인식모델을 이용하여 타겟 사용자 인증을 수행한다. 이를 통해, 본 발명의 일 실시예에 따른 마스크 착용 얼굴인증 시스템(100)은 마스크를 착용한 사람에 대한 얼굴인식률을 향상시킬 수 있다. The mask wearing face authentication system 100 according to an embodiment of the present invention determines whether a mask is worn from an input image, and when wearing a mask, a target using a face recognition model learned using a partial face image and a full face image Perform user authentication. Through this, the mask wearing face authentication system 100 according to an embodiment of the present invention can improve the face recognition rate for a person wearing a mask.

본 발명이 속하는 기술분야의 당업자는 상술한 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.Those skilled in the art to which the present invention pertains will understand that the above-described present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof.

예컨대, 도 2에 도시된 얼굴인식서버의 구성 및 도 13에 도시된 에지 디바이스의 구성은 프로그램 형태로 구현될 수도 있을 것이다. 본 발명에 따른 얼굴인식서버의 구성 및 에지 디바이스의 구성이 프로그램으로 구현되는 경우, 도 2 및 도 13에 도시된 각 구성들이 코드로 구현되고, 특정 기능을 구현하기 위한 코드들이 하나의 프로그램으로 구현되거나, 복수개의 프로그램을 분할되어 구현될 수도 있을 것이다.For example, the configuration of the face recognition server shown in FIG. 2 and the configuration of the edge device shown in FIG. 13 may be implemented in the form of a program. When the configuration of the face recognition server and the configuration of the edge device according to the present invention are implemented as a program, each configuration shown in FIGS. 2 and 13 is implemented as a code, and codes for implementing a specific function are implemented as a single program Alternatively, a plurality of programs may be divided and implemented.

본 명이 속하는 기술분야의 당업자는 상술한 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.Those skilled in the art to which the present invention pertains will be able to understand that the above-described present invention may be embodied in other specific forms without changing the technical spirit or essential characteristics thereof.

그러므로, 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

100: 얼굴인식 시스템 110: 얼굴인식서버
120: 에지 디바이스 130: 사용자 단말기
210: 사용자 등록부 215: 입력 이미지 생성부
220: 사용자 얼굴인식부 225: 마스크 탐지 모델
230: 전체 얼굴특징 모델 240: 부분 얼굴특징 모델
250: 어레이 파일 생성부 280: 얼굴인식모델 트레이닝부
100: face recognition system 110: face recognition server
120: edge device 130: user terminal
210: user register 215: input image generator
220: user face recognition unit 225: mask detection model
230: full facial feature model 240: partial facial feature model
250: array file generation unit 280: face recognition model training unit

Claims (18)

등록요청된 사용자의 사용자 이미지로부터 생성된 입력 이미지를 부분얼굴특징모델에 입력하여 부분 특징벡터를 생성하고, 전체얼굴특징모델에 입력하여 전체 특징벡터를 생성하는 사용자 얼굴 인식부;
각 사용자 별로 상기 부분 특징벡터, 상기 전체 특징벡터 및 사용자 식별정보로 구성된 어레이를 생성하고, 생성된 어레이들을 머지하여 어레이 파일을 생성하는 어레이 파일 생성부; 및
상기 부분얼굴특징모델, 상기 전체얼굴특징모델 및 상기 생성된 어레이 파일을 에지 디바이스로 전송하는 인터페이스부를 포함하는 얼굴인식서버를 포함하고,
상기 부분얼굴특징모델은, 상기 입력 이미지 상에서 부분 얼굴영역을 포함하는 부분 얼굴이미지를 추출하고, 상기 추출된 부분 얼굴이미지를 기초로 제1 차원의 부분 특징벡터를 생성하고,
상기 전체얼굴특징모델은, 상기 입력 이미지 상에서 전체 얼굴영역을 포함하는 전체 얼굴이미지를 추출하고, 상기 추출된 전체 얼굴이미지를 기초로 상기 제1 차원 보다 큰 제2 차원의 전체 특징벡터를 생성하는 마스크 착용 얼굴인식시스템.
a user face recognition unit generating a partial feature vector by inputting an input image generated from the user image of the user requested for registration into the partial facial feature model, and inputting the input image into the full facial feature model to generate a full feature vector;
an array file generator for generating an array composed of the partial feature vector, the entire feature vector, and user identification information for each user, and merging the generated arrays to generate an array file; and
and a face recognition server including an interface unit for transmitting the partial facial feature model, the full facial feature model, and the generated array file to an edge device,
The partial facial feature model extracts a partial facial image including a partial facial region from the input image, and generates a first-dimensional partial feature vector based on the extracted partial facial image,
The full facial feature model extracts a full face image including the entire face region from the input image, and a mask for generating a full feature vector of a second dimension larger than the first dimension based on the extracted full face image Wearable face recognition system.
제1항에 있어서, 상기 부분얼굴특징모델은,
상기 입력 이미지 상에서 눈의 좌표, 코의 좌표 및 입의 좌표를 포함하는 전체 얼굴영역을 전체 얼굴이미지로 추출하는 전체 얼굴이미지 추출부; 및
상기 전체 얼굴이미지로부터 눈의 좌표를 포함하는 부분 얼굴영역을 부분 얼굴이미지로 추출하는 부분 얼굴이미지 추출부를 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
According to claim 1, wherein the partial facial feature model,
a full face image extraction unit for extracting an entire face region including eye coordinates, nose coordinates, and mouth coordinates from the input image as a full face image; and
and a partial face image extraction unit for extracting a partial face region including eye coordinates from the full face image as a partial face image.
제2항에 있어서, 상기 부분얼굴특징모델은,
상기 부분 얼굴이미지로부터 제1 부분 특징벡터를 추출하는 부분 특징벡터 추출부;
상기 전체 얼굴이미지로부터 전체 특징벡터를 추출하는 전체 특징벡터 추출부; 및
상기 부분 특징벡터 추출부에 의하여 추출된 제1 부분 특징벡터 및 상기 전체 특징벡터 추출부에 의하여 추출된 전체 특징벡터를 기초로 제2 부분 특징벡터를 산출하고, 산출된 제2 부분 특징벡터를 상기 입력 이미지에 대한 부분 특징벡터로 결정하는 부분 특징벡터 결정부를 더 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
According to claim 2, wherein the partial facial feature model,
a partial feature vector extraction unit for extracting a first partial feature vector from the partial face image;
a full feature vector extractor for extracting all feature vectors from the entire face image; and
A second partial feature vector is calculated based on the first partial feature vector extracted by the partial feature vector extracting unit and the entire feature vector extracted by the full feature vector extraction unit, and the calculated second partial feature vector is used in the Mask wearing face recognition system, characterized in that it further comprises a partial feature vector determiner to determine the partial feature vector for the input image.
제3항에 있어서, 상기 부분 특징벡터 결정부는,
상기 제1 부분 특징벡터에 제1 가중치를 부여하고, 상기 전체 특징벡터를 상기 제2 차원에서 상기 제1 차원으로 감소시키고 상기 제1 차원으로 감소된 전체 특징벡터에 제2 가중치를 부여하며, 상기 제1 가중치가 부여된 제1 부분 특징벡터 및 상기 제2 가중치가 부여된 전체 특징벡터를 합산하여 제2 부분 특징벡터를 산출하는 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
The method of claim 3, wherein the partial feature vector determiner comprises:
assigning a first weight to the first partial feature vector, reducing the entire feature vector from the second dimension to the first dimension, and assigning a second weight to the total feature vector reduced in the first dimension; A mask wearing face recognition system, characterized in that the first partial feature vector to which the first weight is assigned and the total feature vector to which the second weight is assigned are summed to calculate a second partial feature vector.
제4항에 있어서,
상기 제1 가중치는 상기 제2 가중치 보다 큰 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
5. The method of claim 4,
The first weight is greater than the second weight, the mask wearing face recognition system characterized in that.
제2항에 있어서, 상기 전체 얼굴이미지 추출부는,
순차적으로 배치되어 상기 입력 이미지들에 컨벌루션 필터를 적용하여 피쳐맵을 생성하고, 상기 생성된 피쳐맵에 활성화함수를 적용하여 상기 피쳐맵에 비선형적 특성을 부여하는 n개(n은 3이상의 정수)의 컨벌루션 연산부들; 및
상기 n개의 컨벌루션 연산부들 중 적어도 둘 이상의 컨벌루션 연산부들 각각에 의해 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합하고, 통합된 피쳐맵을 기초로 전체 얼굴영역의 유무, 전체 얼굴영역의 좌표, 및 전체 얼굴의 눈의 좌표, 코의 좌표, 입의 좌표를 결정하는 통합 탐지부를 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
The method of claim 2, wherein the full face image extraction unit,
n pieces (n is an integer greater than or equal to 3) that are sequentially arranged to generate a feature map by applying a convolution filter to the input images, and apply an activation function to the generated feature map to give a non-linear characteristic to the feature map convolution operators of ; and
Feature maps generated by each of at least two or more convolution operation units among the n convolution operation units are integrated using a neural network, and based on the integrated feature map, the presence or absence of the entire face region, the coordinates of the entire face region, and the total A face recognition system for wearing a mask, comprising an integrated detector that determines the coordinates of the eyes, the nose, and the mouth of the face.
제1항에 있어서,
상기 제1 차원은 256 차원이고, 상기 제2 차원은 512차원인 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
According to claim 1,
The first dimension is 256 dimensions, and the second dimension is a mask wearing face recognition system, characterized in that 512 dimensions.
제1항에 있어서,
상기 입력 이미지로부터 마스크 영역의 유무 및 상기 마스크 영역의 위치를 탐지하는 마스크 탐지 모델을 더 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식시스템.
According to claim 1,
Mask wearing face recognition system, characterized in that it further comprises a mask detection model for detecting the presence or absence of the mask region and the position of the mask region from the input image.
얼굴인식서버로부터 마스크 탐지 모델, 부분얼굴특징모델, 전체얼굴특징모델, 및 복수의 사용자들 각각의 사용자 부분 특징벡터, 사용자 전체 특징벡터, 사용자 식별정보를 포함하는 어레이 파일을 수신하는 인터페이스부;
인증대상이 되는 타겟 사용자의 촬영 이미지를 획득하는 촬영부;
상기 촬영 이미지로부터 생성된 입력 이미지를 마스크 탐지 모델에 입력하여 마스크 영역을 탐지하고, 상기 마스크 영역이 탐지되면, 상기 입력 이미지를 부분얼굴특징모델에 입력하여 타겟 부분 특징벡터를 생성하고, 상기 마스크 영역이 탐지되지 않으면, 상기 입력 이미지를 전체얼굴특징모델에 입력하여 타겟 전체 특징벡터를 생성하는 타겟 얼굴 인식부; 및
복수의 사용자들의 사용자 부분 특징벡터들 각각과 상기 타겟 부분 특징벡터를 비교하거나, 복수의 사용자들의 사용자 전체 특징벡터들 각각과 상기 타겟 전체 특징벡터를 비교하여 상기 타겟 사용자에 대한 인증여부를 결정하는 인증부를 포함하는 마스크 착용 얼굴인식용 에지 디바이스.
an interface unit for receiving a mask detection model, a partial facial feature model, a full facial feature model, and an array file including a partial user feature vector, a full user feature vector, and user identification information of each of a plurality of users from the face recognition server;
a photographing unit that acquires a photographed image of a target user to be authenticated;
A mask region is detected by inputting an input image generated from the photographed image into a mask detection model, and when the mask region is detected, the input image is input to a partial facial feature model to generate a target partial feature vector, and the mask region a target face recognition unit for generating a target full feature vector by inputting the input image into a full facial feature model if this is not detected; and
Authentication for determining whether to authenticate the target user by comparing each of the user partial feature vectors of a plurality of users with the target partial feature vector, or comparing each of the user total feature vectors of a plurality of users with the target overall feature vector Edge device for mask-wearing face recognition comprising a part.
제9항에 있어서, 상기 타겟 얼굴 인식부는,
상기 입력 이미지들을 상기 마스크 탐지 모델에 입력하여 마스크 영역의 유무 및 상기 마스크 영역의 위치를 판단하는 마스크 탐지부;
상기 마스크 탐지부에 의하여 마스크가 탐지되면, 상기 부분얼굴특징모델을 통해 상기 입력 이미지로부터 타겟 부분 얼굴이미지를 추출하고, 상기 추출된 타겟 부분 얼굴이미지에 대한 타겟 부분 특징벡터를 결정하는 부분 얼굴 인식부; 및
상기 마스크 탐지부에 의하여 마스크가 탐지되지 않으면, 상기 전체얼굴특징모델을 통해 상기 입력 이미지로부터 타겟 전체 얼굴이미지를 추출하고, 상기 추출된 타겟 전체 얼굴이미지에 대한 타겟 전체 특징벡터를 결정하는 전체 얼굴 인식부를 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
The method of claim 9, wherein the target face recognition unit,
a mask detection unit inputting the input images into the mask detection model to determine the presence or absence of a mask area and a position of the mask area;
When the mask is detected by the mask detector, a partial face recognition unit that extracts a target partial face image from the input image through the partial facial feature model, and determines a target partial feature vector for the extracted target partial face image ; and
If the mask is not detected by the mask detector, extracting a target full face image from the input image through the full face feature model, and full face recognition for determining a target full feature vector for the extracted target full face image Edge device for face recognition wearing a mask, characterized in that it comprises a part.
제10항에 있어서,
상기 부분 얼굴 인식부는 상기 입력 이미지에서 전체 얼굴영역이 포함된 타겟 전체 얼굴이미지를 추출하고, 상기 타겟 전체 얼굴이미지에서 상기 탐지된 마스크 영역을 제외한 부분 얼굴영역이 포함된 타겟 부분 얼굴이미지를 추출하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
11. The method of claim 10,
The partial face recognition unit extracts a target full face image including a full face area from the input image, and extracts a target partial face image including a partial face area except for the detected mask area from the target full face image. An edge device for mask-wearing face recognition.
제11항에 있어서,
상기 부분 얼굴 인식부는 상기 타겟 부분 얼굴이미지로부터 제1 타겟 부분 특징벡터를 추출하고, 상기 타겟 전체 얼굴이미지로부터 전체 특징벡터를 추출하며, 상기 제1 타겟 부분 특징벡터 및 상기 전체 특징벡터를 기초로 상기 타겟 사용자에 대한 타겟 부분 특징벡터를 결정하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
12. The method of claim 11,
The partial face recognition unit extracts a first target partial feature vector from the target partial face image, extracts a full feature vector from the target full face image, and based on the first target partial feature vector and the full feature vector, Edge device for face recognition wearing a mask, characterized in that determining the target partial feature vector for the target user.
제12항에 있어서,
상기 부분 얼굴 인식부는 제1 가중치가 부여된 제1 타겟 부분 특징벡터 및 상기 제1 가중치 보다 작은 제2 가중치가 부여된 전체 특징벡터를 합산한 값을 상기 타겟 사용자에 대한 타겟 부분 특징벡터로 결정하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
13. The method of claim 12,
The partial face recognition unit determines a value obtained by adding a first target partial feature vector to which a first weight is assigned and a total feature vector to which a second weight smaller than the first weight is assigned as a target partial feature vector for the target user. Edge device for face recognition wearing a mask, characterized in that.
제10항에 있어서, 상기 마스크 탐지 모델은,
순차적으로 배치되어 상기 입력 이미지들에 컨벌루션 필터를 적용하여 피쳐맵을 생성하고, 상기 생성된 피쳐맵에 활성화함수를 적용하여 상기 피쳐맵에 비선형적 특성을 부여하는 n개(n은 3이상의 정수)의 컨벌루션 연산부들; 및
상기 n개의 컨벌루션 연산부들 중 적어도 둘 이상의 컨벌루션 연산부들 각각에 의해 생성된 피쳐맵들을 신경망 네트워크를 이용하여 통합하고, 통합된 피쳐맵을 기초로 상기 마스크 영역의 유무 및 상기 마스크 영역의 위치를 결정하는 통합 탐지부를 포함하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
11. The method of claim 10, wherein the mask detection model,
n pieces (n is an integer greater than or equal to 3) that are sequentially arranged to generate a feature map by applying a convolution filter to the input images, and apply an activation function to the generated feature map to give a non-linear characteristic to the feature map convolution operators of ; and
Feature maps generated by each of at least two or more convolution operation units among the n convolution operation units are integrated using a neural network, and the presence or absence of the mask area and the location of the mask area are determined based on the integrated feature map Edge device for face recognition wearing a mask, characterized in that it comprises an integrated detection unit.
제9항에 있어서,
상기 사용자 부분 특징벡터 및 상기 타겟 부분 특징벡터는 256 차원이고, 상기 사용자 전체 특징벡터 및 상기 타겟 전체 특징벡터는 512차원인 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
10. The method of claim 9,
The edge device for face recognition wearing a mask, characterized in that the user partial feature vector and the target partial feature vector are 256 dimensions, and the user overall feature vector and the target total feature vector are 512 dimensions.
제9항에 있어서,
상기 타겟 얼굴 인식부에 의하여 타겟 부분 특징벡터가 생성되면, 상기 타겟 부분 특징벡터와 복수의 사용자들의 사용자 부분 특징벡터들 각각과 상기 타겟 부분 특징벡터 간에 부분 유사도를 산출하는 부분 특징벡터 비교부;
상기 타겟 얼굴 인식부에 의하여 타겟 전체 특징벡터가 생성되면, 복수의 사용자들의 사용자 전체 특징벡터들 각각과 상기 타겟 전체 특징벡터 간에 전체 유사도를 산출하는 전체 특징벡터 비교부; 및
상기 부분 유사도 및 상기 전체 유사도 중 적어도 하나를 기초로 상기 타겟 사용자에 대한 인증여부를 결정하는 인증 결정부를 포함하는 마스크 착용 얼굴인식용 에지 디바이스.
10. The method of claim 9,
a partial feature vector comparator for calculating a partial similarity between the target partial feature vector, each of the user partial feature vectors of a plurality of users, and the target partial feature vector when the target partial feature vector is generated by the target face recognition unit;
a total feature vector comparison unit for calculating a total similarity between each of the user total feature vectors of a plurality of users and the total target feature vector when the target full feature vector is generated by the target face recognition unit; and
and an authentication determiner configured to determine whether to authenticate the target user based on at least one of the partial similarity and the overall similarity.
제16항에 있어서,
상기 타겟 얼굴 인식부는, 상기 입력 이미지에서 마스크 영역이 탐지되면, 마스크 착용 타겟 사용자에 대한 타겟 부분 특징벡터 및 타겟 전체 특징벡터를 생성하고,
상기 인증 결정부는, 상기 타겟 부분 특징벡터와의 부분 유사도 및 상기 타겟 전체 특징벡터와의 전체 유사도를 기초로 상기 마스크 착용 타겟 사용자에 대한 인증여부를 결정하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
17. The method of claim 16,
The target face recognition unit, when a mask region is detected in the input image, generates a target partial feature vector and a target full feature vector for a target user wearing a mask,
The authentication determining unit, edge device for face recognition wearing a mask, characterized in that it determines whether to authenticate the mask wearing target user based on the partial similarity with the target partial feature vector and the total similarity with the entire target feature vector .
제17항에 있어서,
상기 인증 결정부는 상기 부분 유사도가 가장 큰 제1 사용자를 추출하고, 상기 전체 유사도가 높은 순서로 적어도 둘 이상의 제2 사용자들을 추출하며, 상기 적어도 둘 이상의 제2 사용자들 중 상기 제1 사용자와 동일인이 존재하고 상기 제1 사용자의 부분 유사도가 제1 임계값 이상이면, 상기 마스크 착용 타겟 사용자를 정당 사용자로 인증하는 것을 특징으로 하는 마스크 착용 얼굴인식용 에지 디바이스.
18. The method of claim 17,
The authentication determining unit extracts a first user having the highest partial similarity, extracts at least two or more second users in an order of increasing the overall similarity, and selects the same person as the first user from among the at least two or more second users. The edge device for face recognition wearing a mask, characterized in that if the presence and the partial similarity of the first user is greater than or equal to a first threshold, authenticating the mask wearing target user as a legitimate user.
KR1020210074188A 2020-09-29 2021-06-08 Edge device for recognizing a face wearing a mask and system for recognizing a face wearing a mask KR20220043842A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200127338 2020-09-29
KR1020200127338 2020-09-29

Publications (1)

Publication Number Publication Date
KR20220043842A true KR20220043842A (en) 2022-04-05

Family

ID=81181902

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210074188A KR20220043842A (en) 2020-09-29 2021-06-08 Edge device for recognizing a face wearing a mask and system for recognizing a face wearing a mask

Country Status (1)

Country Link
KR (1) KR20220043842A (en)

Similar Documents

Publication Publication Date Title
KR102137329B1 (en) Face Recognition System for Extracting Feature Vector Using Face Recognition Model Based on Deep Learning
JP7142778B2 (en) Identity verification method and its apparatus, computer program and computer equipment
KR102294574B1 (en) Face Recognition System For Real Image Judgment Using Face Recognition Model Based on Deep Learning
KR102161359B1 (en) Apparatus for Extracting Face Image Based on Deep Learning
KR101956071B1 (en) Method and apparatus for verifying a user
KR102184490B1 (en) Edge Device for Face Recognition
Impedovo et al. Automatic signature verification in the mobile cloud scenario: survey and way ahead
US20230245492A1 (en) Method and apparatus with fingerprint verification
US11869272B2 (en) Liveness test method and apparatus and biometric authentication method and apparatus
CN106030654A (en) Face authentication system
WO2022033220A1 (en) Face liveness detection method, system and apparatus, computer device, and storage medium
KR102308122B1 (en) Server And System for Face Recognition Using The Certification Result
WO2021047482A1 (en) Method and system for performing steganographic technique
KR102184493B1 (en) System for Face Recognition Based On AI
US10445546B2 (en) Authentication method and authentication apparatus using synthesized code for iris
US20210173910A1 (en) Thermally enriched multi-modal and multi-channel biometric authentication
KR102546327B1 (en) Edge device comparing face images using clustering technique and face authentication system having the same
KR20220043905A (en) Face recognition system for training face recognition model using frequency components
KR102312152B1 (en) Face Recognition Server For Reflecting Space-Time Environment and Face Recognition System Having The Same
US20240037995A1 (en) Detecting wrapped attacks on face recognition
KR20220043842A (en) Edge device for recognizing a face wearing a mask and system for recognizing a face wearing a mask
EP3958170B1 (en) Method and apparatus with liveness detection
US20220383663A1 (en) Method for obtaining data from an image of an object of a user that has a biometric characteristic of the user
KR102137328B1 (en) Face Recognition Service Providing System for Training Face Recognition Model Using Error Reduction Algorithm
Tyutyunnik et al. Contactless access control system for critical objects based on deep learning neural networks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application