KR102325251B1 - Face Recognition System and Method for Activating Attendance Menu - Google Patents

Face Recognition System and Method for Activating Attendance Menu Download PDF

Info

Publication number
KR102325251B1
KR102325251B1 KR1020200022471A KR20200022471A KR102325251B1 KR 102325251 B1 KR102325251 B1 KR 102325251B1 KR 1020200022471 A KR1020200022471 A KR 1020200022471A KR 20200022471 A KR20200022471 A KR 20200022471A KR 102325251 B1 KR102325251 B1 KR 102325251B1
Authority
KR
South Korea
Prior art keywords
face
template
authentication
unit
user
Prior art date
Application number
KR1020200022471A
Other languages
Korean (ko)
Other versions
KR20210107452A (en
Inventor
채장진
Original Assignee
씨엠아이텍주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 씨엠아이텍주식회사 filed Critical 씨엠아이텍주식회사
Priority to KR1020200022471A priority Critical patent/KR102325251B1/en
Publication of KR20210107452A publication Critical patent/KR20210107452A/en
Application granted granted Critical
Publication of KR102325251B1 publication Critical patent/KR102325251B1/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • G06K9/00221
    • G06K9/42
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/10Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00571Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by interacting with a central unit
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/20Individual registration on entry or exit involving the use of a pass
    • G07C9/22Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
    • G07C9/25Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
    • G07C9/257Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Collating Specific Patterns (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 근태 메뉴의 활성화가 가능한 얼굴 인식 시스템 및 방법에 관한 것으로, 본 발명에 따른 얼굴 인식 시스템은 얼굴 인식부로부터 등록된 사용자라는 결정이 입력되면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부에 표시하고, 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되지 않으면 디폴트 근태 항목 영역에 인증 시간을 저장하고, 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목 영역에 상기 인증 시간을 저장하는 제어부를 포함함으로써, 근태 관리가 필요한 상황에서도 얼굴 인식 기술의 장점을 극대화하면서 근태 관리의 오류를 감소시킬 수 있다.The present invention relates to a face recognition system and method capable of activating a time and attendance menu, wherein the face recognition system according to the present invention stores the work time and attendance management DB according to the authentication time when a determination that the registered user is a registered user is inputted from the face recognition unit. The stored user's T&A items are analyzed to display the default T&A items on the display unit, and if any one of the T&A items is not input through the user input unit, the authentication time is stored in the default T&A item area, and the T&A items are displayed through the user input unit. By including a control unit for storing the authentication time in the time and attendance item area input by the user when any one of them is input, it is possible to reduce errors in time and attendance management while maximizing the advantages of the face recognition technology even in a situation where time and attendance management is required.

Figure R1020200022471
Figure R1020200022471

Description

근태 메뉴의 활성화가 가능한 얼굴 인식 시스템 및 방법{Face Recognition System and Method for Activating Attendance Menu} {Face Recognition System and Method for Activating Attendance Menu}

본 발명은 근태 메뉴의 활성화가 가능한 얼굴 인식 시스템 및 방법에 관한 것으로, 특히 얼굴 인증시 일과 시간에 따라 디스플레이부에 인증자의 디폴트 근태 항목을 표시하여 얼굴 인식 기술의 장점을 극대화하면서 근태 관리의 오류를 감소시킬 수 있는 얼굴 인식 시스템 및 방법에 관한 것이다.The present invention relates to a face recognition system and method capable of activating a time and attendance menu. In particular, during face authentication, the default time and attendance item of the authenticator is displayed on a display unit according to the day and time, thereby maximizing the advantages of face recognition technology and preventing errors in time and attendance management. A face recognition system and method capable of reducing

얼굴 인식 기술은 얼굴을 포함하는 영상에 대해 얼굴 영역의 자동적인 검출 및 분석을 통해 해당 얼굴이 어떤 인물인지 판별해 내는 기술로 패턴 인식 및 컴퓨터 비전 분야에서 오랫동안 연구되어 온 분야이다. 많은 연구 결과로부터 최근에는 감시 시스템, 출입국 관리 또는 생체 인식 등과 같은 실제 환경에 적용되고 있다.Face recognition technology is a technology that determines what kind of person a corresponding face is through automatic detection and analysis of the face region in an image including a face, and has been studied for a long time in the field of pattern recognition and computer vision. From the results of many studies, it has recently been applied to real environments such as surveillance systems, immigration control, or biometrics.

이러한 얼굴 인식 기술은 다른 생체 인식 기술과 대비하여 상대적으로 얼굴 인식 디바이스에 가까이 접근하지 않아도 얼굴 인식이 가능하여 출입의 관리가 필요한 구역에 많이 사용되고 있다. 이 경우 현재의 근태 관리는 인증을 받고자 하는 자가 얼굴 인식 디바이스에 접근하여 출근 등 메뉴 항목을 선택하고 이어서 얼굴이 인증되면 메뉴 항목과 함께 시간이 저장되는 방법이다. Compared to other biometric recognition technologies, the face recognition technology can recognize a face even without a relatively close approach to the face recognition device, so it is widely used in areas where access management is required. In this case, the current time and attendance management is a method in which a person who wants to be authenticated approaches a face recognition device, selects a menu item such as going to work, and then, when the face is authenticated, time is stored together with the menu item.

하지만, 근태 관리를 위해 메뉴 항목을 선택하고 활성화된 메뉴 항목에 얼굴을 인증하는 방법은 최초 인증자와 그 후 사용자의 근태 항목이 다를 경우 근태 관리에 있어서 사용자의 근태 관리에 오류가 발생할 수 있다.However, in the method of selecting a menu item for time and attendance management and authenticating a face to an activated menu item, if the first authenticator and the subsequent user's time and attendance items are different, an error may occur in the time and attendance management of the user.

상술한 문제점을 해결하기 위해, 본 발명은 얼굴 인증시 일과 시간에 따라 디스플레이부에 인증자의 디폴트 근태 항목을 표시하여 얼굴 인식 기술의 장점을 극대화하면서 근태 관리의 오류를 감소시킬 수 있는 얼굴 인식 시스템 및 방법을 제공하는 것을 목적으로 한다.In order to solve the above problems, the present invention provides a face recognition system capable of reducing errors in time and attendance management while maximizing the advantages of face recognition technology by displaying the authenticator's default time and attendance items on the display unit according to the day and time during face authentication, and The purpose is to provide a method.

또한, 본 발명은 사용자의 얼굴이 인증되면, 근태 메뉴가 디스플레이부에 활성화되어 표시되되, 근태 메뉴는 디스플레이부에 표시되는 사용자의 얼굴에 얼굴 추적 기능이 중첩되는 동안에만 활성화되어 표시됨으로써 근태 관리의 오류를 감소시킬 수 있는 얼굴 인식 시스템 및 방법을 제공하는 것을 목적으로 한다.Also, according to the present invention, when the user's face is authenticated, the T&A menu is activated and displayed on the display unit. An object of the present invention is to provide a face recognition system and method capable of reducing errors.

상술한 목적을 달성하기 위해, 본 발명의 일실시예에 따른 얼굴 인식 시스템은, 얼굴을 포함하는 영상을 촬영을 하는 카메라부; 상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 얼굴 검출부; 상기 얼굴 이미지에서 특징점 정보를 추출하는 특징 추출부; 상기 특징점 정보를 이용하여 얼굴 이미지를 정규화처리함으로써 정렬된 얼굴 템플릿을 생성하는 정규화 처리부; 상기 정규화 처리부로부터 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 얼굴 인식부; 및 상기 얼굴 인식부로부터 등록된 사용자라는 결정이 입력되면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부에 표시하고, 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되지 않으면 상기 디폴트 근태 항목 영역에 상기 인증 시간을 저장하고, 상기 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목 영역에 상기 인증 시간을 저장하는 제어부를 제공한다.In order to achieve the above object, a face recognition system according to an embodiment of the present invention includes a camera unit for capturing an image including a face; a face detection unit for detecting a face image from the image captured by the camera unit; a feature extracting unit for extracting feature point information from the face image; a normalization processing unit for generating an aligned face template by normalizing the face image using the feature point information; a face recognition unit that compares the face template input from the normalization processing unit with the registered face template stored in the registration template DB to determine whether the input face template is a registered user; and when a determination that the registered user is a registered user is inputted from the face recognition unit, a default time and attendance item is displayed on the display unit by analyzing the work time according to the authentication time and the user's time and attendance items stored in the T&A management DB, and the T&A item through the user input unit If any one of these is not input, the authentication time is stored in the default T&A item area, and when any one of the T&A items is input through the user input unit, the authentication time is stored in the T&A item area input by the user. control unit is provided.

상기 얼굴 검출부는 상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하되, 상기 카메라부에서 촬영된 영상에 다수의 얼굴이 포함되어 있으면, 가장 큰 얼굴에 대해서만 얼굴 이미지를 검출하여 출력할 수 있고, 상기 얼굴 인식 시스템은 상기 얼굴 검출부에서 입력된 상기 얼굴 이미지의 영역 정보를 이용하여 상기 디스플레이부에 표시되는 촬영 영상에 얼굴 영역을 중첩하여 얼굴 추적을 표시하는 얼굴 추적부를 더 포함할 수 있다.The face detection unit detects a face image from the image photographed by the camera unit, and if a plurality of faces are included in the image photographed by the camera unit, the face image can be detected and output only for the largest face, The face recognition system may further include a face tracker configured to display a face tracking by superimposing a face region on the captured image displayed on the display unit using region information of the face image input from the face detection unit.

상기 디스플레이부에 상기 디폴트 근태 항목을 표시하는 방법은 상기 디폴트 근태 항목만을 표시하거나, 다른 근태 항목과는 다르게 표시하여 사용자가 쉽게 확인할 수 있도록 할 수 있다.The method of displaying the default time and attendance item on the display unit may display only the default time and attendance item or display it differently from other time and attendance items so that the user can easily check it.

상기 근태 관리 DB에 저장되는 상기 근태 항목들은 출근, 외출, 복귀 및 퇴근을 포함할 수 있다.The time and attendance items stored in the time and attendance management DB may include going to work, going out, returning, and leaving the office.

상기 제어부는 사용자의 얼굴 인증에 따라 인증 템플릿 DB에 인증 얼굴 템플릿을 저장하고, 소정의 기간이 경과한 후 상기 인증 템플릿 DB에 저장된 복수의 인증 얼굴 템플릿들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 유사도를 구하고, 이들 유사도의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 유사도의 값을 구하고, 상기 평균 유사도의 값들 중에서 평균 유사도의 값이 가장 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하고, 상기 사용자 입력부를 통해 상기 디스플레이부에 표시된 인증 얼굴 템플릿들 중 어느 하나를 선택하는 입력이 없으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하여 상기 등록 템플릿 DB에 저장함으로써 상기 등록 얼굴 템플릿을 갱신할 수 있다.The controller stores the authentication face template in the authentication template DB according to the user's face authentication, and after a predetermined period elapses, using the plurality of authentication face templates stored in the authentication template DB, the authentication face template is applied to each of the plurality of authentication face templates. to obtain a similarity to each other, and to obtain an average similarity value for each of the plurality of authentication face templates using these similarity values, and to obtain a predetermined number of authentication faces in the order of the largest average similarity value among the average similarity values. Templates are displayed on the display unit, and if there is no input for selecting any one of the authentication face templates displayed on the display unit through the user input unit, the authentication face template having the largest average similarity value is selected as a new registered face template. The registered face template can be updated by storing it in the registration template DB.

상기 제어부는 신경망(Neural Network)을 통해 상기 인증 얼굴 템플릿으로부터 얻어진 템플릿 값을 저장할 수 있고, 상기 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하는 것은, 상기 인증 템플릿 DB에 저장된 복수의 인증 얼굴 템플릿의 값들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 거리를 구하고, 이들 거리의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 거리의 값을 구하고, 상기 평균 거리의 값들 중에서 평균 거리의 값이 가장 작은 순서대로 소정 개수의 인증 얼굴 템플릿의 값들을 상기 디스플레이부에 표시하는 것을 포함할 수 있다.The control unit may store a template value obtained from the authentication face template through a neural network, and displaying the predetermined number of authentication face templates on the display unit includes a plurality of authentication face templates stored in the authentication template DB. A distance is obtained for each of the plurality of authentication face templates using values of and displaying the values of a predetermined number of authentication face templates on the display unit in the order of the smallest average distance value.

본 발명의 또 하나의 실시예에 따른 근태 정보를 저장하기 위한 근태 관리 DB를 포함하는 얼굴 인식 시스템에 의한 얼굴 인식 방법은, 카메라부에서 얼굴을 포함하는 영상을 촬영을 하는 단계; 상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 단계; 상기 얼굴 이미지에서 특징점 정보를 추출하는 단계; 상기 특징점 정보를 이용하여 얼굴 이미지를 정규화처리함으로써 정렬된 얼굴 템플릿을 생성하는 단계; 상기 생성하는 단계에서 생성되어 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 단계; 상기 결정하는 단계에서 등록된 사용자라고 결정되면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부에 표시하는 단계; 및 사용자 입력부를 통해 상기 근태 항목들 중 어느 하나가 입력되지 않으면 상기 디폴트 근태 항목 영역에 상기 인증 시간을 저장하고, 상기 사용자 입력부를 통해 상기 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목 영역에 상기 인증 시간을 저장하는 단계를 제공함으로써 상술한 목적을 달성할 수 있다.According to another embodiment of the present invention, there is provided a face recognition method using a face recognition system including a time and attendance management DB for storing time and attendance information, the method comprising: photographing an image including a face in a camera unit; detecting a face image from the image taken by the camera unit; extracting feature point information from the face image; generating an aligned face template by normalizing the face image using the feature point information; determining whether the input face template is a registered user by comparing the input face template generated in the generating step with the registered face template stored in the registration template DB; when it is determined that the user is a registered user in the determining step, analyzing the work and time according to the authentication time and the user's attendance items stored in a time and attendance management DB and displaying a default time and attendance item on the display unit; and if any one of the T&A items is not input through the user input unit, the authentication time is stored in the default T&A item area. The above object can be achieved by providing the step of storing the authentication time in an item area.

본 발명의 다른 또 하나의 실시예에 따른 얼굴 인식 시스템은 얼굴을 포함하는 영상을 촬영을 하는 카메라부; 상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 얼굴검출부; 상기 얼굴 검출부에서 입력된 상기 얼굴 이미지의 영역 정보를 이용하여 디스플레이부에 표시되는 촬영 영상에 얼굴 영역을 중첩하여 얼굴 추적을 표시하는 얼굴 추적부; 상기 얼굴 이미지에서 특징점 정보를 추출하는 특징 추출부; 상기 특징점 정보를 이용하여 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 얼굴 인식부; 및 상기 얼굴 인식부로부터 등록된 사용자라는 결정이 입력되면, 즉시 근태 메뉴를 활성화시켜 상기 디스플레이부의 소정 영역에 표시하는 제어부를 포함하고, 상기 근태 메뉴는 상기 디스플레이부에 인증자의 얼굴이 상기 얼굴 추적부에 표시되는 동안에만 표시됨으로써, 상술한 목적을 달성할 수 있다.A face recognition system according to another embodiment of the present invention includes: a camera unit for capturing an image including a face; a face detection unit for detecting a face image from the image taken by the camera unit; a face tracking unit displaying face tracking by superimposing the face area on the captured image displayed on the display unit using area information of the face image input from the face detecting unit; a feature extracting unit for extracting feature point information from the face image; a face recognition unit that compares an input face template using the feature point information with a registered face template stored in a registration template DB to determine whether the input face template is a registered user; and a control unit for activating a time and attendance menu immediately upon input of a determination that the user is a registered user from the face recognition unit and displaying the time and attendance menu on a predetermined area of the display unit, wherein the time and attendance menu includes the face of the authenticator on the display unit and the face tracking unit By being displayed only while displayed in , the above object can be achieved.

상술한 구성에 의해, 본 발명은 근태 관리가 필요한 상황에서도 얼굴 인식 기술의 장점을 극대화하면서 근태 관리의 오류를 감소시킬 수 있다.With the above configuration, the present invention can reduce errors in time and attendance management while maximizing the advantages of face recognition technology even in a situation where time and attendance management is required.

또한, 본 발명은 얼굴 추적 기능이 동작 중인 인증자에 대해서만 근태 관리가 되고 있음을 명확히 함으로써 사용자의 잘못된 인증 인식에 따른 근태 관리의 오류를 감소시킬 수 있다.In addition, the present invention can reduce errors in time and attendance management due to user's erroneous authentication recognition by clarifying that attendance management is performed only for an authenticator whose face tracking function is operating.

본 발명은, 또한 인증된 얼굴 영상들 중에서 평균에 가까운 얼굴 영상을 표시하고 이들 영상 중에서 새로 등록될 얼굴 영상을 선택하게 함으로써, 사용자의 얼굴을 인증하는 속도를 향상시킬 수 있고, 또한 인증 실패를 감소시킬 수 있다. The present invention can also improve the speed of authenticating the user's face and reduce authentication failures by displaying an average face image among the authenticated face images and selecting a face image to be newly registered from among these images. can do it

도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 블록도를 도시하는 도면이다.
도 2는 도 1에 도시된 근태 관리 DB)의 테이블의 예시를 도시하는 도면이다.
도 3은 도 1에 도시된 인증 템플릿 DB의 테이블의 예시를 도시하는 도면이다.
도 4는 도 3에 도시된 템플릿 값 영역에 저장된 템플릿 값들을 좌표축의 형태로 도시한 도면이다.
도 5는 본 발명의 다른 실시예에 따른 얼굴 인식 방법의 흐름도를 도시하는 도면이다.
1 is a diagram illustrating a block diagram of a face recognition system according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a table of the attendance management DB shown in FIG. 1 .
FIG. 3 is a diagram illustrating an example of a table of the authentication template DB shown in FIG. 1 .
FIG. 4 is a diagram illustrating template values stored in the template value area shown in FIG. 3 in the form of coordinate axes.
5 is a diagram illustrating a flowchart of a face recognition method according to another embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 등록 얼굴 템플릿의 갱신이 가능한 얼굴 인식 시스템 및 방법의 바람직한 실시예를 설명한다. 참고로, 아래에서 본 발명을 설명함에 있어서, 본 발명의 구성요소를 지칭하는 용어들은 각각의 구성 요소들의 기능을 고려하여 명명된 것이므로, 본 발명의 기술적 구성요소를 한정하는 의미로 이해되어서는 안 될 것이다. Hereinafter, preferred embodiments of a face recognition system and method capable of updating a registered face template according to the present invention will be described with reference to the accompanying drawings. For reference, in describing the present invention below, terms referring to the components of the present invention are named in consideration of the function of each component, so it should not be construed as limiting the technical components of the present invention. will be

도 1은 본 발명의 일 실시예에 따른 얼굴 인식 시스템의 블록도를 도시하는 도면이고, 도 2는 도 1에 도시된 근태 관리 DB)의 테이블의 예시를 도시하는 도면이고, 도 3은 도 1에 도시된 인증 템플릿 DB의 테이블의 예시를 도시하는 도면이고, 도 4는 도 3에 도시된 템플릿 값 영역에 저장된 템플릿 값들을 좌표축의 형태로 도시한 도면이다.1 is a diagram showing a block diagram of a face recognition system according to an embodiment of the present invention, FIG. 2 is a diagram showing an example of a table of the attendance management DB shown in FIG. 1), and FIG. 3 is FIG. It is a view showing an example of a table of the authentication template DB shown in Fig. 4 is a view showing the template values stored in the template value area shown in Fig. 3 in the form of a coordinate axis.

도 1에 도시된 바와 같이, 얼굴 인식 시스템은 템플릿 저장부(110), 카메라부(120), 얼굴 검출부(130), 얼굴 추적부(132), 특징 추출부(140), 정규화 처리부(150), 얼굴 인식부(160), 디스플레이부(170), 메뉴 생성부(172), 사용자 입력부(180), 및 제어부(190)를 포함한다. 얼굴 인식 시스템은 구체적으로 얼굴 처리 디바이스(미도시됨) 및 관리 서버(미도시됨)로 구분되어 동작될 수 있다. 예를 들어, 도 1에서는 템플릿 저장부(110)에 근태 관리 DB(112), 등록 템플릿 DB(114), 및 인증 템플릿 DB(116)이 포함되어 있으나, 근태 관리 DB(112)는 관리 서버에 구현되고, 등록 템플릿 DB(114), 및 인증 템플릿 DB(116)은 얼굴 처리 디바이스에 구현될 수 있다.1 , the face recognition system includes a template storage unit 110 , a camera unit 120 , a face detection unit 130 , a face tracking unit 132 , a feature extraction unit 140 , and a normalization processing unit 150 . , a face recognition unit 160 , a display unit 170 , a menu generation unit 172 , a user input unit 180 , and a control unit 190 . The face recognition system may be specifically divided into a face processing device (not shown) and a management server (not shown) and operated. For example, in FIG. 1 , the template storage unit 110 includes the attendance management DB 112 , the registration template DB 114 , and the authentication template DB 116 , but the time and attendance management DB 112 is stored in the management server. implemented, and the registration template DB 114 and the authentication template DB 116 may be implemented in the face processing device.

템플릿 저장부(110)는 근태 정보 및 템플릿을 저장하기 위한 저장 공간으로, 근태 관리 DB(112), 등록 템플릿 DB(114), 및 인증 템플릿 DB(116)를 포함한다. 근태 관리 DB(112)에는 근태 관리에 필요한 항목들, 예를 들어 출근, 외출, 복귀 및 퇴근 등의 정보가 저장될 수 있다. 근태 관리 DB(112)의 테이블의 예시가 도 2에 도시되어 있다. 등록 템플릿 DB(114)에는 등록용으로 저장한 등록 얼굴 템플릿들, 그들의 정규화된 특징점 정보들, 그들의 템플릿 값들 및 그들이 저장되는 시간 정보 등이 저장될 수 있다. 인증 템플릿 DB(116)에는 사용자의 얼굴 인증에 따른 인증 얼굴 템플릿들, 그들의 정규화된 특징점 정보들, 그들의 템플릿 값들, 그들이 저장되는 시간 정보, 및 얼굴 검출부(130)에서 검출된 얼굴과 관련된 크기 정보 등이 저장될 수 있다. 인증 템플릿 DB(116)의 테이블의 예시가 도 3에 도시되어 있다.The template storage unit 110 is a storage space for storing time and attendance information and templates, and includes a time and attendance management DB 112 , a registration template DB 114 , and an authentication template DB 116 . The time and attendance management DB 112 may store items necessary for time and attendance management, for example, information such as going to work, going out, returning and leaving work. An example of a table of the attendance management DB 112 is shown in FIG. 2 . The registration template DB 114 may store registered face templates stored for registration, their normalized feature point information, their template values, and time information at which they are stored. The authentication template DB 116 includes authentication face templates according to the user's face authentication, their normalized feature point information, their template values, time information at which they are stored, and size information related to the face detected by the face detection unit 130 , etc. This can be saved. An example of a table of the authentication template DB 116 is shown in FIG. 3 .

카메라부(120)는 출입문 부근에 설치되어 얼굴을 포함하는 영상을 촬영한다.The camera unit 120 is installed near the door to take an image including a face.

얼굴 검출부(130)는 기본적으로 카메라부(120)로부터 촬영된 영상 내에 존재하는 얼굴 이미지를 검출한다. 여기서 카메라부(120)로부터 촬영된 영상은 얼굴을 포함하는 하나의 이미지이다. 얼굴 검출부(130)는 유사 하르 특징(Haar-like feature) 알고리즘을 사용하여 카메라부(120)로부터 입력된 영상으로부터 얼굴 이미지를 검출할 수 있다. 이 경우 얼굴의 부분(머리, 눈, 코, 입 그리고 수염)을 개별적으로 검출하여 최종 얼굴로 결정할 수 있다. 얼굴 검출부(130)는 이 얼굴 이미지를 미세하게 튜닝함으로써 최종 얼굴 검출 결과를 높일 수 있다. 얼굴 검출부(130)는 카메라부(120)의 촬영 영상에 다수의 얼굴이 포함되어 있는 경우 가장 큰 얼굴에 대해서만 얼굴 이미지를 검출하여 출력한다. The face detection unit 130 basically detects a face image existing in the image captured by the camera unit 120 . Here, the image captured by the camera unit 120 is one image including a face. The face detection unit 130 may detect a face image from an image input from the camera unit 120 using a Haar-like feature algorithm. In this case, the face parts (head, eyes, nose, mouth, and beard) can be individually detected and determined as the final face. The face detection unit 130 may improve the final face detection result by finely tuning the face image. When a plurality of faces are included in the image captured by the camera unit 120 , the face detection unit 130 detects and outputs a face image only for the largest face.

얼굴 추적부(132)는 얼굴 검출부(130)에서 입력된 얼굴 영역의 정보를 이용하여 디스플레이부(170)에 표시되는 카메라부(120)의 촬영 영상에 얼굴 영역을 중첩함으로써 얼굴 추적을 표시할 수 있다. 얼굴 추적부(132)는 카메라부(120)의 촬영 영상에 중첩되는 얼굴 영역을 얼굴 형태에 맞춰 타원형으로 표시할 수 있다.The face tracking unit 132 may display the face tracking by superimposing the face region on the captured image of the camera unit 120 displayed on the display unit 170 using the information of the face region input from the face detection unit 130 . have. The face tracking unit 132 may display the face region overlapping the captured image of the camera unit 120 in an oval shape according to the face shape.

특징 추출부(140)는 사용자의 얼굴 이미지에서 특징점 정보를 추출한다. 특징 추출부(140)는 예를 들어, 사전에 학습된 3D 얼굴 기하 모델을 이용하여 얼굴 이미지에서 68개의 특징점, 즉 랜드마크를 추출할 수 있다. The feature extraction unit 140 extracts feature point information from the user's face image. The feature extractor 140 may extract 68 feature points, ie, landmarks, from the face image using, for example, a 3D face geometric model learned in advance.

특징 추출부(140)는 얼굴 이미지에서 눈썹, 눈, 코, 입 영역 및 그 주변의 특징점을 찾아 얼굴 이미지에 매핑한다. 물론, 특징점이 위의 나열된 특정 부분에 한정되는 것은 아니다. 특징 추출부(140)는 구체적으로 SVM(Support Vector Machine)과 같은 패턴 분류기(Pattern Classifier)로 구현될 수 있다. 특징 추출부(140)는 얼굴의 좌우 기울임 정도를 두 눈의 위치를 기반으로 인식할 수 있다.The feature extraction unit 140 finds eyebrows, eyes, nose, mouth regions and surrounding feature points in the face image and maps them to the face image. Of course, the feature points are not limited to the specific parts listed above. The feature extractor 140 may be specifically implemented as a pattern classifier such as a support vector machine (SVM). The feature extractor 140 may recognize the degree of left and right tilt of the face based on the positions of the two eyes.

특징 추출부(140)는 또한, 랜드마크 정보로부터 특징 벡터를 추출하고, 특징 벡터를 이용하여 사용자의 얼굴 표정이 어떤 표정인지 그리고 사용자의 현재 감정 상태를 인식하는 구성을 포함할 수 있다. 이 경우, 특징 추출부(140)는 랜드마크 정보로부터, 랜드마크 상호 간의 각도, 거리 비율 정보를 이용하여 특징 벡터를 추출할 수 있다. 특히, 특징 벡터를 추출하는 경우에는 특징 벡터의 차원을 최소화하는 것을 통하여 연산량을 감소시키는 것이 중요하다. 이에 의해, 기존의 얼굴 인식 기술에 비하여 사용자의 얼굴 표정을 인식하는 속도를 향상시킬 수 있다.The feature extraction unit 140 may also include a configuration for extracting a feature vector from the landmark information, and recognizing the user's facial expression and the current emotional state of the user by using the feature vector. In this case, the feature extraction unit 140 may extract a feature vector from the landmark information by using angle and distance ratio information between the landmarks. In particular, when extracting a feature vector, it is important to reduce the amount of computation by minimizing the dimension of the feature vector. Accordingly, the speed of recognizing the user's facial expression can be improved compared to the existing facial recognition technology.

특징 추출부(140)는 또한, 예를 들어, 얼굴 이미지의 질감 특징, 얼굴 이미지 전체의 형태적인 특징, 신체 부위(눈, 코, 입 등)의 형태적 특징 등을 이용하여 얼굴 이미지를 표현하는 특징 벡터들을 생성할 수 있다. 특징 추출부(140)는 또한, 상기 얼굴 이미지를 RGB 이미지에서 밝기-색차(Y/C) 이미지로 변환하고, 변환된 이미지로부터 특징 벡터를 생성할 수 있다. 여기서, 색차 이미지는 밝기 값을 배제하고 순수한 색상 정보만을 이용하여 색상 간의 차이를 표현한 이미지를 의미한다. 특징 추출부(140)는 조명에 의한 영향을 줄이기 위해 밝기 이미지를 제외하고 색차 이미지만을 이용하여 특징 벡터를 생성할 수 있다.The feature extraction unit 140 is also configured to express a face image using, for example, the texture features of the face image, the morphological features of the entire face image, and the morphological features of body parts (eyes, nose, mouth, etc.). You can create feature vectors. The feature extractor 140 may also convert the face image from an RGB image to a brightness-chrominance (Y/C) image, and generate a feature vector from the converted image. Here, the color difference image refers to an image in which a difference between colors is expressed by excluding a brightness value and using only pure color information. The feature extractor 140 may generate a feature vector using only the color difference image excluding the brightness image in order to reduce the effect of lighting.

정규화 처리부(150)는 얼굴 이미지에서 추출된 특징점 정보를 이용하여 얼굴 이미지를 정규화 처리함으로써 정렬된 얼굴 이미지를 생성한다. 정규화 처리부(150)는 특징점 정보를 이용하여 얼굴 이미지를 어파인(affine) 변환, 즉 2차원 어파인 변환 또는 3차원 어파인 변환함으로써 얼굴 정렬 및 광도 보정과 같은 영상의 정규화 처리를 수행할 수 있다. 이 경우, 눈 중심과 입 중심이 수직이 되도록 얼굴 이미지를 회전시켜 보정하고, 또한 눈 중심과 입 중심 간 거리가 40 픽셀이 되도록 얼굴 이미지의 크기를 보정할 수 있다. 이에 의해, 검출된 얼굴 이미지가 정면이 아닌 옆모습이라도, 이 이미지를 변환하여 정면의 얼굴 이미지를 생성할 수 있다. The normalization processing unit 150 generates an aligned face image by normalizing the face image using feature point information extracted from the face image. The normalization processing unit 150 performs affine transformation of the face image using feature point information, that is, a two-dimensional affine transformation or a three-dimensional affine transformation to perform image normalization processing, such as face alignment and luminance correction. . In this case, the face image may be rotated so that the center of the eye and the center of the mouth are vertical, and the size of the face image may be corrected so that the distance between the center of the eye and the center of the mouth is 40 pixels. Accordingly, even if the detected face image is a side view instead of a front view, it is possible to convert this image to generate a front face image.

정규화 처리부(150)에서 정렬된 얼굴 이미지를 얼굴 템플릿으로 템플릿 저장부(110)에 저장될 수 있다. 이 경우 정렬된 얼굴 이미지로부터 얻은 정규화된 특징점 정보가 템플릿 저장부(110)에 얼굴 템플릿 대신에 또는 얼굴 템플릿과 함께 별도의 영역에 저장될 수 있다. 정규화 처리부(150)는 정규화된 특징점 정보로 얼굴 이미지를 다수의 블록으로 구분한 후 각 블록의 정규화된 특징 벡터를 생성하고, 제어부(190)는 각 블록의 정규화된 특징 벡터를 템플릿 저장부(110)의 정규화된 특징점 정보 영역에 저장할 수 있다. 본 실시예에서는 얼굴 템플릿과 정렬된 얼굴 이미지로부터 얻은 정규화된 특징점 정보를 구분하고 있으나, 정렬된 얼굴 이미지로부터 얻은 정규화된 특징점 정보 역시 정렬된 얼굴 이미지로부터 도출되는 것인바, 얼굴 템플릿에 포함되는 것임에 유의해야 한다.The face image aligned by the normalization processing unit 150 may be stored in the template storage unit 110 as a face template. In this case, normalized feature point information obtained from the aligned face image may be stored in the template storage unit 110 in a separate area instead of or together with the face template. The normalization processing unit 150 divides the face image into a plurality of blocks with the normalized characteristic point information, and then generates a normalized characteristic vector of each block, and the control unit 190 stores the normalized characteristic vector of each block into the template storage unit 110 . ) can be stored in the normalized feature point information area. In this embodiment, the normalized feature point information obtained from the face template and the aligned face image is distinguished, but the normalized feature point information obtained from the aligned face image is also derived from the aligned face image, so it is included in the face template. Be careful.

얼굴 인식부(160)는 카메라부(120)로부터 입력된 영상의 얼굴 템플릿과 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿을 비교하여 입력된 영상의 얼굴 템플릿이 등록된 사용자인지를 결정한다. 얼굴 인식부(160)는 심층 신경망(DNN, Deep Neural Network), 컨볼루션 신경망(CNN, Convolutional Neural Network), 순환 신경망(RNN, Recurrent Neural Network), 제한 볼츠만 머신(RBM, Restricted Boltzmann Machine), 심층 신뢰 신경망(DBN, Deep Belief Network), 심층 Q-네트워크(Deep QNetworks)와 같은 다양한 딥 러닝 기술들을 이용할 수 있으며, 이에 한정하지 않는다. 본 실시예에서, 얼굴 인식부(160)는 여러 개의 층으로 구성된 컨볼루션(convolution) 신경망으로 구성될 수 있다. 이때, 얼굴 영역 내의 지역적인 특징을 효과적으로 추출하기 위하여 국소 연결(locally connected) 컨볼루션 층을 사용할 수 있다. The face recognition unit 160 compares the face template of the image input from the camera unit 120 with the registered face template stored in the registration template DB 114 to determine whether the face template of the input image is a registered user. The face recognition unit 160 includes a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a Restricted Boltzmann Machine (RBM), a deep Various deep learning techniques such as, but not limited to, Deep Belief Networks (DBNs) and Deep QNetworks may be used. In the present embodiment, the face recognition unit 160 may be configured as a convolutional neural network composed of several layers. In this case, a locally connected convolution layer may be used to effectively extract local features in the face region.

얼굴 인식부(160)는 얼굴 템플릿의 특징점 정보를 이용하여 얼굴의 유사도 결정을 수행할 수 있다. 이때, 얼굴 인식부(160)는 입력된 영상의 얼굴 템플릿을 저장된 등록 얼굴 템플릿들 모두에 대해 유사도 결정을 수행하고, 각각의 유사도 결과를 이용하여 등록된 사용자인지를 결정할 수 있다. 예컨대, 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿이 4개이며, 각각에 대해 얼굴 유사도가 97%, 85%, 80% 및 75%로 결정된 경우, 최대값인 97%를 기준으로 등록된 사용자인지를 결정할 수 있다. 만약, 등록된 사용자인지를 결정하기 위한 기준 값이 95%인 경우에는, 유사도의 최대값이 97%이므로 등록 사용자로 결정할 수 있다.The face recognition unit 160 may determine the similarity of the face by using feature point information of the face template. In this case, the face recognition unit 160 may determine the similarity of all registered face templates stored in the face template of the input image, and determine whether the user is a registered user by using each similarity result. For example, if there are four registered face templates stored in the registration template DB 114, and the face similarity is determined to be 97%, 85%, 80%, and 75% for each, the registered user based on the maximum value of 97% cognition can be determined. If the reference value for determining whether the user is a registered user is 95%, since the maximum value of the similarity is 97%, the registered user may be determined.

얼굴 인식부(160)는 구체적으로 정규화 처리부(150)에서 처리된 얼굴 템플릿과 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿을 불러와서 컨볼루션 신경망에 블록 단위로 데이터를 제공하고 각 블록마다 블록 템플릿 값을 구해 각 블록마다 유사도를 구하고 모두 합산하여 전체 유사도를 구할 수 있다. 이 경우 등록 템플릿 DB(114)에 저장된 각 블록의 정규화된 특징 벡터, 또는 템플릿 값을 사용하여 유사도를 산출할 수 있다.The face recognition unit 160 specifically calls the face template processed by the normalization processing unit 150 and the registered face template stored in the registration template DB 114 to provide data in block units to the convolutional neural network, and block template for each block. The similarity can be obtained for each block by calculating the value, and the total similarity can be obtained by summing them all up. In this case, the similarity may be calculated using the normalized feature vector or template value of each block stored in the registration template DB 114 .

한편, 얼굴 인식부(160)는 트레이닝과 관련하여 얼굴 검증을 수행할 수 있다. 얼굴 검증(face verification)은 동일한 인물에 대한 2개의 얼굴 템플릿들이 동일 인물이라는 것을 검증하는 것이다. 이를 통해, 영상 내 얼굴 인식 과정에서 발생되는 오인식 비율을 줄일 수 있다.Meanwhile, the face recognition unit 160 may perform face verification in relation to training. Face verification verifies that two face templates for the same person are the same person. Through this, it is possible to reduce the rate of misrecognition generated in the face recognition process in the image.

트레이닝은 복수의 학습 모델을 이용하여 얼굴 특징 포인트를 트레이닝할 수 있다. 복수의 학습 모델은 사용자의 얼굴 학습 모델, 타인의 얼굴 학습 모델, 조명 학습 모델 및 포즈 학습 모델 중 적어도 어느 하나 이상을 포함할 수 있다. 예를 들어, 트레이닝은 복수의 학습 모델에 대한 학습 데이터로부터 검출된 얼굴의 특징 포인트를 기준으로 학습 데이터를 적어도 하나 이상의 영역으로 분할하여 얼굴 특징 포인트를 트레이닝할 수 있다.The training may train the facial feature points using a plurality of learning models. The plurality of learning models may include at least one of a user's face learning model, another's face learning model, a lighting learning model, and a pose learning model. For example, the training may train the facial feature points by dividing the learning data into at least one region based on the feature points of the face detected from the learning data for the plurality of learning models.

트레이닝은 학습 데이터에 이용된 얼굴 특징 포인트의 개수만큼 버퍼에 각 얼굴 특징 포인트에 대한 대표 특징 벡터를 저장할 수 있다. 예를 들어, 얼굴의 특성상 동일 인물의 경우, 얼굴 특징 포인트의 데이터가 특정 벡터를 중심으로 형성되므로, 중심이 되는 대표 특징 벡터를 별도의 버퍼에 저장하여 이를 학습의 구심점이 되도록 할 수 있다.Training may store a representative feature vector for each facial feature point in a buffer as many as the number of facial feature points used in the training data. For example, in the case of the same person due to the characteristics of the face, since the data of the facial feature point is formed around a specific vector, the representative feature vector serving as the center may be stored in a separate buffer to make it the central point of learning.

트레이닝은 동일 사용자의 다른 이미지를 정해진 입력 개수에 따라 학습 데이터로 입력하여, 얼굴 특징 포인트, 조명 변화에 대한 얼굴 특징 포인트, 포즈 변화에 대한 얼굴 특징 포인트에 대한 출력값을 획득할 수 있다.In training, different images of the same user are input as learning data according to a predetermined number of inputs, and output values for facial feature points, facial feature points for lighting changes, and facial feature points for pose changes can be obtained.

디스플레이부(170)에는 카메라부(120)의 촬영 영상에 얼굴 추적부(132)의 얼굴 영역이 중첩되어 표시되는데 이로 인해 마치 얼굴을 추적하는 것처럼 보인다. 디스플레이부(170)에는 아울러, 메뉴 생성부(172)에서 출력된 메뉴 항목이 표시될 수 있다. On the display unit 170 , the face region of the face tracking unit 132 is superimposed on the captured image of the camera unit 120 , and thus it appears as if the face is tracked. In addition, the menu item output from the menu generating unit 172 may be displayed on the display unit 170 .

메뉴 생성부(172)는 근태 항목들인 출근, 외출, 복귀, 퇴근을 생성하여 디스플레이부(170)에 제공한다. 이 경우 메뉴 생성부(172)는 디스플레이부(170)에 디폴트 근태 항목만 제공할 수도 있고, 또한 해당 근태 항목을 점멸시킴으로써 현재 사용자의 근태 상태를 더 잘 확인할 수 있도록 할 수 있다. 또한, 터치 패드를 구비한 경우에는 근태 항목 모두를 다 표시하되 디폴트 근태 항목만 크고 진하게 표시할 수 있다. The menu generating unit 172 generates attendance, outing, returning, and leaving the attendance items, and provides it to the display unit 170 . In this case, the menu generating unit 172 may provide only the default T&A item to the display unit 170 , and may also make it possible to better check the current user's T&A status by blinking the corresponding T&A item. In addition, when a touch pad is provided, all of the T&A items may be displayed, but only the default T&A items may be displayed in large and bold colors.

사용자 입력부(180)는 근태 항목들, 예컨대 출근, 외출, 복귀, 퇴근을 입력할 수 있다. 사용자는 메뉴 생성부(172)에 생성되어 디스플레이부(170)에 표시된 디폴트 근태 항목이 잘못 표시된 경우에는 사용자 입력부(180)를 통해, 올바른 근태 항목을 입력할 수 있다. 사용자 입력부(180)는 디스플레이부(170) 외부에 배치된 버튼들뿐만 아니라 디스플레이부(170) 내부에 배치된 터치 패드를 포함한다.The user input unit 180 may input T&A items, for example, going to work, going out, returning, leaving work. When the default time and attendance item generated by the menu generator 172 and displayed on the display 170 is erroneously displayed, the user may input the correct time and attendance item through the user input unit 180 . The user input unit 180 includes not only buttons disposed outside the display unit 170 , but also a touch pad disposed inside the display unit 170 .

제어부(190)는 등록 모드이면 정규화 처리부(150)에서 처리되어 생성된 등록 얼굴 템플릿을 등록 템플릿 DB(114)에 저장한다. 그리고 제어부(190)는 트레이닝 모드이면 얼굴 인식부(160)를 제어하여 동일한 사용자의 정규화 처리부(150)에서 처리되어 생성된 검증 얼굴 템플릿을 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿과 비교하는 딥 러닝 트레이닝을 수행하게 하고, 트레이닝에 따른 얼굴 검증의 값들을 컨볼루션(convolution) 신경망에 설정할 수 있다.In the registration mode, the control unit 190 stores the generated registration face template processed by the normalization processing unit 150 in the registration template DB 114 . And in the training mode, the controller 190 controls the face recognition unit 160 to compare the verification face template generated by processing in the normalization processing unit 150 of the same user with the registered face template stored in the registration template DB 114. Running training may be performed, and values of face verification according to the training may be set in a convolutional neural network.

제어부(190)는 인증 모드이면 얼굴 인식부(160)를 제어하여 정규화 처리부(150)에서 처리되어 생성된 얼굴 템플릿을 등록 템플릿 DB(114)에 등록된 얼굴 템플릿들 모두와 비교하여 입력된 영상의 얼굴 템플릿이 등록된 사용자인지를 결정하게 한다.In the authentication mode, the control unit 190 controls the face recognition unit 160 to compare the generated face template processed by the normalization processing unit 150 with all of the face templates registered in the registration template DB 114 to obtain the input image. Let the face template determine if it is a registered user.

제어부(190)는 입력된 영상의 얼굴 템플릿이 등록된 사용자이면, 인증 시간에 따른 일과 시간 및 근태 관리 DB(112)에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부(170)에 표시한다. 예를 들어 출근 시간이 9시까지이면, 10시까지는 근태 관리 DB(112)의 출근 항목에 출근 시간이 없으면, 디폴트 근태 항목으로 '출근'을 생성하여 표시하도록 메뉴 생성부(172)를 제어할 수 있다. 10시부터 17시까지는 근태 관리 DB(112)의 외출 항목에 외출 시간이 있으면 디폴트 근태 항목으로 '복귀'를 생성하여 표시하도록 메뉴 생성부(172)를 제어할 수 있다. 17시부터는 입력된 영상의 얼굴 템플릿이 등록된 사용자이면, 디폴트 근태 항목으로 '퇴근'을 생성하여 표시하도록 메뉴 생성부(172)를 제어할 수 있다. 다만, 이 경우에는 사용자의 얼굴이 계속 입력되면 퇴근 시간을 갱신하여 하루 중 제일 마지막에 얼굴이 인증된 시간을 퇴근 시간으로 한다. When the face template of the input image is a registered user, the control unit 190 analyzes the user's time and attendance items stored in the work and attendance management DB 112 according to the authentication time and displays the default time and attendance item on the display unit 170 . do. For example, if the attendance time is until 9 o'clock, if there is no attendance time in the attendance item of the attendance management DB 112 by 10 o'clock, the menu generator 172 may be controlled to generate and display 'go to work' as the default attendance item. can If there is an outing time in the outing item of the attendance management DB 112 from 10:00 to 17:00, the menu generating unit 172 may be controlled to generate and display 'return' as the default time and attendance item. From 17:00, if the face template of the input image is a registered user, the menu generating unit 172 may be controlled to generate and display 'leave work' as the default time and attendance item. However, in this case, if the user's face is continuously input, the leave time is updated, and the time at which the face is authenticated at the end of the day is set as the leave time.

제어부(190)는 근태 항목을 디스플레이부(170)의 소정 영역에 표시하되, 근태 항목을 인증자의 얼굴이 얼굴 추적부(132)에 의해 표시되는 동안에만 표시되도록 메뉴 생성부(172)를 제어한다. 이에 의해, 현재 인증자만 근태 관리가 되고 있음을 명확히 할 수 있다.The controller 190 displays the T&A item on a predetermined area of the display unit 170 , but controls the menu generator 172 to display the T&A item only while the face of the authenticator is displayed by the face tracking unit 132 . . Accordingly, it can be clarified that only the current authenticator is in attendance management.

제어부(190)는 사용자 입력부(180)를 통해 근태 항목들 중 어느 하나가 입력되지 않으면 디폴트 근태 항목 영역에 인증 시간을 저장하고, 사용자 입력부(180)를 통해 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목에 인증 시간을 저장할 수 있다.If any one of the T&A items is not input through the user input unit 180 , the controller 190 stores the authentication time in the default T&A item area, and when any one of the T&A items is input through the user input unit 180 , the user The authentication time can be stored in the T&A item entered by .

제어부(190)는 입력된 영상의 얼굴 템플릿이 등록된 사용자이면, 또한 입력된 영상의 얼굴 템플릿 및/또는 정규화된 특징점 정보를 인증 템플릿 DB(116)의 얼굴 템플릿 영역 및/또는 특징점 정보 영역에 저장하고, 얼굴 인식부(160)에서 컨볼루션 신경망을 통해 계산된 템플릿 값을 템플릿 값 영역에 저장하고, 아울러 시간 정보 영역에 저장 시간을 저장할 수 있다. 또한, 제어부(190)는 얼굴 검출부(130)에서 검출된 얼굴과 관련된 크기 정보를 인증 템플릿 DB(116)의 크기 정보 영역에 저장할 수 있다. 이 경우 크기 정보는 얼굴 이미지의 가로 및/또는 세로의 최대 크기이거나 얼굴 이미지 내의 화소수들일 수 있다.When the face template of the input image is a registered user, the controller 190 stores the face template and/or normalized feature point information of the input image in the face template area and/or feature point information area of the authentication template DB 116 . Then, the template value calculated through the convolutional neural network in the face recognition unit 160 may be stored in the template value area, and the storage time may be stored in the time information area. Also, the controller 190 may store size information related to the face detected by the face detector 130 in the size information area of the authentication template DB 116 . In this case, the size information may be the maximum horizontal and/or vertical size of the face image or the number of pixels in the face image.

제어부(190)는 소정의 기간, 예를 들어 1개월이 지나면 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿을 갱신할 수 있다. 제어부(190)는 인증 템플릿 DB(116)에 저장된 해당 사용자, 예를 들어 ID1의 템플릿 값들을 불러온다. 도 3에 도시된 템플릿 값 영역에 저장된 템플릿 값들을 좌표축의 형태로 도시한 표시가 도 4에 도시되어 있다. 여기서, 청색은 현재 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿의 템플릿 값이며, 나머지 색들은 모두 인증 템플릿 DB(116)에 저장된 얼굴 템플릿들의 템플릿 값들이다. The controller 190 may update the registered face template stored in the registration template DB 114 after a predetermined period, for example, one month has elapsed. The control unit 190 calls the template values of the corresponding user, for example ID1, stored in the authentication template DB 116 . A display showing the template values stored in the template value area shown in FIG. 3 in the form of a coordinate axis is shown in FIG. 4 . Here, blue is the template value of the registered face template currently stored in the registration template DB 114 , and all other colors are template values of the face templates stored in the authentication template DB 116 .

제어부(190)는 소정의 기간 동안 얻어진 템플릿 값들 중에서 서로 유사도를 구하고, 이들 유사도의 값을 이용하여 복수의 인증 얼굴 템플릿들 각각에 대한 평균 유사도의 값을 구하고, 이들 평균 유사도의 값들 중에서 평균 유사도의 값이 가장 큰 템플릿 값(녹색)을 가진 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정한다. 제어부(190)는 이 경우에 평균 유사도의 값이 가장 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 디스플레이부(170)에 표시하고, 사용자 입력부(180)를 통해 디스플레이부(170)에 표시된 인증 얼굴 템플릿들 중 어느 하나가 입력되지 않으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하여 등록 템플릿 DB에 저장함으로써 등록 얼굴 템플릿을 갱신할 수 있다. The controller 190 obtains a similarity to each other among template values obtained for a predetermined period, obtains an average similarity value for each of a plurality of authentication face templates using the similarity values, and obtains an average similarity value from among the average similarity values. The face template with the largest template value (green) is selected as the new registered face template. In this case, the controller 190 displays a predetermined number of authentication face templates on the display unit 170 in the order of the largest average similarity value, and the authentication face templates displayed on the display unit 170 through the user input unit 180 . If any one of these is not input, the registered face template may be updated by selecting the authentication face template having the largest average similarity value as a new registered face template and storing it in the registration template DB.

여기서, 평균 유사도의 값이란 예를 들어 인증 얼굴 템플릿들이 3개인 경우에, 제1 인증 얼굴 템플릿과 제2 인증 얼굴 템플릿의 유사도가 82이고, 제2 인증 얼굴 템플릿과 제3 인증 얼굴 템플릿의 유사도가 90이고, 제1 인증 얼굴 템플릿과 제3 인증 얼굴 템플릿의 유사가 86이면, 제1 인증 얼굴 템플릿의 평균 유사도는 (82+86)/2 = 84이고, 제2 인증 얼굴 템플릿의 평균 유사도는 (82+90)/2 = 86이고, 제3 인증 얼굴 템플릿의 평균 유사도는 (90+86)/2 = 88이다. 따라 이들 중에서 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿은 제3 인증 얼굴 템플릿이 된다.Here, the average similarity value is, for example, when there are three authentication face templates, the similarity between the first authentication face template and the second authentication face template is 82, and the similarity between the second authentication face template and the third authentication face template is 90, and if the similarity between the first authentication face template and the third authentication face template is 86, the average similarity of the first authentication face template is (82+86)/2 = 84, and the average similarity of the second authentication face template is ( 82+90)/2 = 86, and the average similarity of the third authentication face template is (90+86)/2 = 88. Accordingly, the authentication face template having the largest average similarity value among them becomes the third authentication face template.

제어부(190)는 이어서 등록 얼굴 템플릿으로 선정된 얼굴 템플릿에 대한 모든 정보를 등록 템플릿 DB(114)에 저장한다. 이 경우 제어부(190)는 종전에 저장된 등록 얼굴 템플릿의 정보들을 그대로 유지할 수 있다. 이에 의해, 제어부(190)는 먼저 등록 템플릿 DB(114)에 새롭게 갱신된 얼굴 템플릿을 이용하여 얼굴 인식을 처리하고, 유사도가 낮은 경우에는 등록 템플릿 DB(114)에 기존에 저장된 등록 얼굴 템플릿을 더 이용하여 얼굴 인식을 처리할 수 있다.The controller 190 then stores all information on the face template selected as the registered face template in the registration template DB 114 . In this case, the controller 190 may maintain previously stored information of the registered face template as it is. Accordingly, the controller 190 first processes the face recognition using the newly updated face template in the registration template DB 114, and when the similarity is low, the registered face template previously stored in the registration template DB 114 is further added. can be used for facial recognition.

제어부(190)는 평균 유사도의 값이 가장 큰 템플릿 값(녹색)을 구하기 위해 구체적으로 템플릿 값들을 이용하여 서로 거리를 구하고 이들 거리의 값을 이용하여 복수의 인증 얼굴 템플릿들 각각에 대한 평균 거리의 값을 구하고, 상기 평균 거리의 값들 중에서 평균 거리의 값이 가장 작은 템플릿을 가진 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정할 수 있다. 이 경우, 제어부(190)는 서로 거리를 구한 평균값이 일정한 임계값 이상인 것들은 등록 얼굴 템플릿 후보에 미리 제외할 수 있다. 즉, 인증 템플릿 DB(116)에 저장된 얼굴 템플릿들의 템플릿 값들의 전체 분포에서 소정의 편차를 벗어나는 것은 등록 얼굴 템플릿 후보에 제외할 수 있다. 도 4에 도시된 바와 같이, 왼쪽 2개의 템플릿 값들은 오른쪽에 위치한 템플릿 값들에 비해 등록 얼굴 템플릿 값에 거리가 더 가깝지만 인증 템플릿 DB(116)에 저장된 전체 템플릿 값들에서는 멀리 떨어져 있다. 이에 의해, 새로운 등록 얼굴 템플릿으로 선정된 얼굴 템플릿은 노화나 계절의 변화에 따른 얼굴 이미지의 변화를 더 반영할 수 있다.In order to obtain a template value (green) having the largest average similarity value, the controller 190 obtains a distance from each other using the template values in detail, and the average distance for each of the plurality of authentication face templates using the value of these distances. The value may be obtained, and a face template having a template having the smallest average distance value among the average distance values may be selected as a new registered face template. In this case, the controller 190 may exclude from the registered face template candidates in advance, those whose average values obtained from each other are equal to or greater than a certain threshold. That is, those outside a predetermined deviation from the overall distribution of template values of the face templates stored in the authentication template DB 116 may be excluded from the registered face template candidates. As shown in FIG. 4 , the two template values on the left are closer to the registered face template value than the template values located on the right, but farther from all template values stored in the authentication template DB 116 . Accordingly, the face template selected as the new registered face template may further reflect changes in the face image according to aging or changes in seasons.

제어부(190)는 또한, 얼굴 검출부(130)에서 검출한 얼굴 이미지의 크기 정보를 이용하여 크기 정보가 소정의 임계값보다 작은 경우에도 등록 얼굴 템플릿 후보에서 미리 제외할 수 있다. 이에 의해 정규화 처리에 따른 오류를 제거할 수 있다.The controller 190 may also use the size information of the face image detected by the face detection unit 130 to exclude from the registered face template candidates in advance even when the size information is smaller than a predetermined threshold value. Thereby, it is possible to remove an error due to the normalization process.

제어부(190)는 또한, 얼굴 템플릿이 저장된 시간 정보를 이용하여 소정의 시간 구간마다 등록 얼굴 템플릿을 구할 수 있다. 이에 의해, 하루 일과 중 시간에 따른 얼굴의 변화와 밤과 낮의 구간 동안 발생하는 조명의 변화 등을 반영할 수 있다.The controller 190 may also obtain a registered face template for each predetermined time interval using time information in which the face template is stored. Accordingly, it is possible to reflect the change of the face according to time during the day and the change of illumination that occurs during the night and day section.

도 5는 본 발명의 다른 실시예에 따른 얼굴 인식 방법의 흐름도를 도시하는 도면이다.5 is a diagram illustrating a flowchart of a face recognition method according to another embodiment of the present invention.

제어부(190)는 등록 모드이면 등록 템플릿 DB(114)에 정규화 처리부(150)에서 처리되어 생성된 등록 얼굴 템플릿을 저장한다(S502). In the registration mode, the control unit 190 stores the generated registration face template processed by the normalization processing unit 150 in the registration template DB 114 (S502).

제어부(190)는 트레이닝 모드이면 트레이닝 모드로 얼굴 인식부(160)를 제어하므로, 얼굴 인식부(160)는 동일한 사용자의 정규화 처리부(150)에서 처리되어 생성된 검증 얼굴 템플릿을 등록 템플릿 DB(114)에 저장된 등록 얼굴 템플릿과 비교하는 딥 러닝 트레이닝을 수행한다(S504).Since the control unit 190 controls the face recognition unit 160 in the training mode in the training mode, the face recognition unit 160 registers the verification face template generated by processing in the normalization processing unit 150 of the same user to the registration template DB 114 . ) performs deep learning training compared with the registered face template stored in (S504).

제어부(190)는 인증 모드이면 인증 모드로 얼굴 인식부(160)를 제어하므로, 얼굴 인식부(160)는 정규화 처리부(150)에서 처리되어 생성된 얼굴 템플릿을 등록 템플릿 DB(114)에 등록된 얼굴 템플릿들 모두와 비교하여 입력된 영상의 얼굴 템플릿이 등록된 사용자인지를 결정한다(S506). Since the controller 190 controls the face recognition unit 160 in the authentication mode in the authentication mode, the face recognition unit 160 registers the face template generated by processing in the normalization processing unit 150 in the registration template DB 114 . It is determined whether the face template of the input image is a registered user by comparing all of the face templates (S506).

제어부(190)는 입력된 영상의 얼굴 템플릿이 등록된 사용자이면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부(170)에 표시한다(S508). 이 경우, 얼굴 추적부(132)는 얼굴 검출부(130)에서 입력된 얼굴 영역의 정보를 이용하여 디스플레이부(170)에 표시되는 카메라부(120)의 촬영 영상에 얼굴 영역을 중첩함으로써 얼굴 추적을 표시할 수 있다. 제어부(190)는 사용자 입력부(180)를 통해 근태 항목들 중 어느 하나가 입력되지 않으면 디폴트 근태 항목 영역에 인증 시간을 저장하고, 사용자 입력부(180)를 통해 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목에 인증 시간을 저장할 수 있다.If the face template of the input image is a registered user, the control unit 190 analyzes the work hours according to the authentication time and the user's attendance items stored in the attendance management DB and displays the default time and attendance items on the display unit 170 (S508) ). In this case, the face tracking unit 132 performs face tracking by superimposing the face region on the captured image of the camera unit 120 displayed on the display unit 170 using the face region information input from the face detection unit 130 . can be displayed If any one of the T&A items is not input through the user input unit 180 , the controller 190 stores the authentication time in the default T&A item area, and when any one of the T&A items is input through the user input unit 180 , the user The authentication time can be stored in the T&A item entered by .

제어부(190)는 또한, 인증 템플릿 DB(116)의 얼굴 템플릿 영역에 입력된 영상의 얼굴 템플릿을 인증 얼굴 템플릿으로 저장한다(S510). 이 경우 제어부(190)는 인증 템플릿 DB(116)의 특징점 정보 영역에 정규화된 특징점 정보를 저장하고, 템플릿 값 영역에 얼굴 인식부(160)에서 컨볼루션 신경망을 통해 얻은 템플릿 값을 저장하고, 아울러 시간 정보 영역에 저장 시간을 저장할 수 있다. 또한, 제어부(190)는 얼굴 검출부(130)에서 검출된 얼굴과 관련된 크기 정보를 인증 템플릿 DB(116)의 크기 정보 영역에 저장할 수 있다.The controller 190 also stores the face template of the image input to the face template area of the authentication template DB 116 as an authentication face template (S510). In this case, the controller 190 stores the normalized feature point information in the feature point information area of the authentication template DB 116, stores the template value obtained through the convolutional neural network in the face recognition unit 160 in the template value area, and also The storage time can be stored in the time information area. Also, the controller 190 may store size information related to the face detected by the face detector 130 in the size information area of the authentication template DB 116 .

제어부(190)는 소정의 기간, 예를 들어 1개월이 경과하였는지를 결정한다(S512). 제어부(190)는 소정의 기간이 경과하였으면, 인증 템플릿 DB(116)에 저장된 복수의 인증 얼굴 템플릿들을 독출한다(S514). The controller 190 determines whether a predetermined period, for example, one month has elapsed (S512). When a predetermined period has elapsed, the controller 190 reads a plurality of authentication face templates stored in the authentication template DB 116 ( S514 ).

제어부(190)는 복수의 인증 얼굴 템플릿들 각각에 대해 서로 거리를 구하고 평균 거리값이 소정의 평균 거리값 이하인 인증 얼굴 템플릿의 값들만을 등록 템플릿 후보들로 결정한다(S516). 이때, 제어부(190)는 인증 템플릿 DB의 크기 정보 영역에 저장된 크기 정보가 소정의 크기 값 이상인 인증 얼굴 템플릿의 값들만을 등록 템플릿 후보들로 더 결정할 수 있다.The controller 190 calculates a distance from each of the plurality of authentication face templates, and determines only values of the authentication face templates whose average distance value is equal to or less than a predetermined average distance value as registration template candidates (S516). In this case, the controller 190 may further determine, as registration template candidates, only values of the authentication face template whose size information stored in the size information area of the authentication template DB is equal to or greater than a predetermined size value.

제어부(190)는 인증 템플릿 DB(116)에 저장된 복수의 인증 얼굴 템플릿들 중에서 결정된 등록 템플릿 후보들 각각에 대해 서로 유사도를 구하고 평균 유사도의 값이 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 디스플레이부(170)에 표시한다(S518). The controller 190 obtains a degree of similarity for each of the registered template candidates determined from among the plurality of authentication face templates stored in the authentication template DB 116, and displays a predetermined number of authentication face templates in the order of increasing the average similarity value to the display unit 170 ) is displayed (S518).

제어부(190)는 사용자 입력부(180)를 통해 디스플레이부(170)에 표시된 인증 얼굴 템플릿들 중 어느 하나가 입력되지 않으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하고, 사용자 입력부(180)를 통해 디스플레이부(170)에 표시된 인증 얼굴 템플릿들 중 어느 하나가 입력되면 입력된 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정한다(S520). 제어부(190)는 새로운 등록 얼굴 템플릿을 선정하기 위해, 구체적으로 인증 템플릿 DB(116)에 저장된 복수의 인증 얼굴 템플릿의 값들 중에서 선정된 등록 템플릿 후보들의 인증 얼굴 템플릿의 값들 각각에 대해 서로 거리를 구하고 평균 거리값이 가장 작은 템플릿 값을 가진 얼굴 템플릿을 상기 새로운 등록 얼굴 템플릿으로 선정할 수 있다.If any one of the authentication face templates displayed on the display unit 170 is not input through the user input unit 180, the controller 190 selects the authentication face template having the largest average similarity value as a new registered face template, and the user When any one of the authentication face templates displayed on the display unit 170 is input through the input unit 180, the input authentication face template is selected as a new registered face template (S520). In order to select a new registered face template, the controller 190 obtains a distance from each of the values of the authentication face template of the registered template candidates selected from among the values of the plurality of authentication face templates stored in the authentication template DB 116 in detail, A face template having a template value having the smallest average distance value may be selected as the new registered face template.

제어부(190)는 선정된 새로운 등록 얼굴 템플릿을 등록 템플릿 DB(114)에 저장함으로써 등록 얼굴 템플릿을 갱신한다(S522). The controller 190 updates the registered face template by storing the selected new registered face template in the registration template DB 114 (S522).

이상에서 설명된 본 발명의 실시예들은 본 발명의 기술 사상을 예시적으로 보여준 것에 불과하며, 본 발명의 보호 범위는 이하 특허청구범위에 의하여 해석되어야 마땅할 것이다. 또한, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형할 수 있을 것인 바, 본 발명과 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The embodiments of the present invention described above are merely illustrative of the technical idea of the present invention, and the protection scope of the present invention should be interpreted by the following claims. In addition, a person of ordinary skill in the art to which the present invention belongs will be able to various modifications and variations without departing from the essential characteristics of the present invention, all technical ideas within the scope equivalent to the present invention are should be construed as being included in the scope of the rights of

110: 템플릿 저장부 112: 근태 관리 DB
114: 등록 템플릿 DB 116: 인증 템플릿 DB
120: 카메라부 130: 얼굴 검출부
132: 얼굴 추적부 140: 특징 추출부
150: 정규화 처리부 160: 얼굴 인식부
170: 디스플레이부 172: 메뉴 생성부
180: 사용자 입력부 190: 제어부
110: template storage unit 112: time and attendance management DB
114: registration template DB 116: authentication template DB
120: camera unit 130: face detection unit
132: face tracking unit 140: feature extraction unit
150: normalization processing unit 160: face recognition unit
170: display unit 172: menu generation unit
180: user input unit 190: control unit

Claims (11)

얼굴을 포함하는 영상을 촬영을 하는 카메라부;
상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 얼굴 검출부;
상기 얼굴 이미지에서 특징점 정보를 추출하는 특징 추출부;
상기 특징점 정보를 이용하여 얼굴 이미지를 정규화처리함으로써 정렬된 얼굴 템플릿을 생성하는 정규화 처리부;
상기 정규화 처리부로부터 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 얼굴 인식부; 및
상기 얼굴 인식부로부터 등록된 사용자라는 결정이 입력되면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부에 표시하고, 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되지 않으면 상기 디폴트 근태 항목 영역에 상기 인증 시간을 저장하고, 상기 사용자 입력부를 통해 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목 영역에 상기 인증 시간을 저장하는 제어부를 포함하고,

상기 제어부는,
사용자의 얼굴 인증에 따라 인증 템플릿 DB에 인증 얼굴 템플릿을 저장하고, 소정의 기간이 경과한 후 상기 인증 템플릿 DB에 저장된 복수의 인증 얼굴 템플릿들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 유사도를 구하고, 이들 유사도의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 유사도의 값을 구하고, 상기 평균 유사도의 값들 중에서 평균 유사도의 값이 가장 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하고, 상기 사용자 입력부를 통해 상기 디스플레이부에 표시된 인증 얼굴 템플릿들 중 어느 하나를 선택하는 입력이 없으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하여 상기 등록 템플릿 DB에 저장함으로써 상기 등록 얼굴 템플릿을 갱신하는 것을 특징으로 하는, 얼굴 인식 시스템.
a camera unit for capturing an image including a face;
a face detection unit for detecting a face image from the image captured by the camera unit;
a feature extracting unit for extracting feature point information from the face image;
a normalization processing unit generating an aligned face template by normalizing the face image using the feature point information;
a face recognition unit that compares the face template input from the normalization processing unit with the registered face template stored in the registration template DB to determine whether the input face template is a registered user; and
When a determination that the user is a registered user is inputted from the face recognition unit, a default time and attendance item is displayed on the display unit by analyzing the work time according to the authentication time and the user's attendance items stored in the T&A management DB, and the time and attendance items are selected through the user input unit A control unit configured to store the authentication time in the default T&A item area if any one is not input, and to store the authentication time in the T&A item area input by the user when any one of the T&A items is input through the user input unit including,

The control unit is
The authentication face template is stored in the authentication template DB according to the user's face authentication, and after a predetermined period has elapsed, the plurality of authentication face templates are respectively similar to each other using the plurality of authentication face templates stored in the authentication template DB. , obtains an average similarity value for each of the plurality of authentication face templates using these similarity values, and selects a predetermined number of authentication face templates in the order of the largest average similarity value among the average similarity values. If there is no input for selecting any one of the authentication face templates displayed on the display unit through the user input unit, the authentication face template having the largest average similarity value is selected as the new registration face template. and updating the registered face template by storing it in a DB.
삭제delete 삭제delete 삭제delete 삭제delete 제1항에 있어서,
상기 제어부는 신경망(Neural Network)을 통해 상기 인증 얼굴 템플릿으로부터 얻어진 템플릿 값을 저장하고,
상기 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하는 것은, 상기 인증 템플릿 DB에 저장된 상기 복수의 인증 얼굴 템플릿의 값들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 거리를 구하고, 이들 거리의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 거리의 값을 구하고, 상기 평균 거리의 값들 중에서 평균 거리의 값이 가장 작은 순서대로 소정 개수의 인증 얼굴 템플릿의 값들을 상기 디스플레이부에 표시하는 것을 포함하는 것을 특징으로 하는 얼굴 인식 시스템.
According to claim 1,
The control unit stores the template value obtained from the authentication face template through a neural network,
Displaying the predetermined number of authentication face templates on the display unit is to obtain a distance from each of the plurality of authentication face templates using values of the plurality of authentication face templates stored in the authentication template DB, and the distances An average distance value for each of the plurality of authentication face templates is obtained using a value of A face recognition system comprising displaying.
근태 정보를 저장하기 위한 근태 관리 DB를 포함하는 얼굴 인식 시스템에 의한 얼굴 인식 방법에 있어서,
카메라부에서 얼굴을 포함하는 영상을 촬영을 하는 단계;
상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 단계;
상기 얼굴 이미지에서 특징점 정보를 추출하는 단계;
상기 특징점 정보를 이용하여 얼굴 이미지를 정규화처리함으로써 정렬된 얼굴 템플릿을 생성하는 단계;
상기 생성하는 단계에서 생성되어 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 단계;
상기 결정하는 단계에서 등록된 사용자라고 결정되면, 인증 시간에 따른 일과 시간 및 근태 관리 DB에 저장된 사용자의 근태 항목들을 분석하여 디폴트 근태 항목을 디스플레이부에 표시하는 단계; 및
사용자 입력부를 통해 상기 근태 항목들 중 어느 하나가 입력되지 않으면 상기 디폴트 근태 항목 영역에 상기 인증 시간을 저장하고, 상기 사용자 입력부를 통해 상기 근태 항목들 중 어느 하나가 입력되면 사용자에 의해 입력된 근태 항목 영역에 상기 인증 시간을 저장하는 단계를 포함하는 얼굴 인식 방법으로서,

사용자의 얼굴 인증에 따라 인증 템플릿 DB에 인증 얼굴 템플릿을 저장하는 것;
소정의 기간이 경과한 후 상기 인증 템플릿 DB에 저장된 복수의 인증 얼굴 템플릿들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 유사도를 구하는 것;
구해진 유사도의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 유사도의 값을 구하는 것;
구해진 상기 평균 유사도의 값들 중에서 평균 유사도의 값이 가장 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하는 것; 및
상기 사용자 입력부를 통해 상기 디스플레이부에 표시된 인증 얼굴 템플릿들 중 어느 하나를 선택하는 입력이 없으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하여 상기 등록 템플릿 DB에 저장하는 것을 포함하는, 상기 등록 얼굴 템플릿을 갱신하는 단계를 더 포함하는, 얼굴 인식 방법.
A face recognition method by a face recognition system including a time and attendance management DB for storing time and attendance information, the method comprising:
photographing an image including a face by a camera unit;
detecting a face image from the image taken by the camera unit;
extracting feature point information from the face image;
generating an aligned face template by normalizing the face image using the feature point information;
determining whether the input face template is a registered user by comparing the input face template generated in the generating step with the registered face template stored in the registration template DB;
when it is determined that the user is a registered user in the determining step, analyzing the work and time according to the authentication time and the user's time and attendance items stored in a time and attendance management DB and displaying a default time and attendance item on the display unit; and
If any one of the T&A items is not input through the user input unit, the authentication time is stored in the default T&A item area. A face recognition method comprising the step of storing the authentication time in an area,

storing the authentication face template in the authentication template DB according to the user's face authentication;
obtaining a degree of similarity for each of the plurality of authentication face templates by using the plurality of authentication face templates stored in the authentication template DB after a predetermined period has elapsed;
obtaining an average similarity value for each of the plurality of authentication face templates by using the obtained similarity value;
displaying a predetermined number of authentication face templates on the display unit in the order of the largest average similarity value among the obtained average similarity values; and
If there is no input for selecting any one of the authentication face templates displayed on the display unit through the user input unit, selecting the authentication face template having the largest average similarity value as a new registered face template and storing the selected face template in the registration template DB and updating the registered face template.
삭제delete 얼굴을 포함하는 영상을 촬영을 하는 카메라부;
상기 카메라부에 의해 촬영된 영상에서 얼굴 이미지를 검출하는 얼굴검출부;
상기 얼굴 검출부에서 입력된 상기 얼굴 이미지의 영역 정보를 이용하여 디스플레이부에 표시되는 촬영 영상에 얼굴 영역을 중첩하여 얼굴 추적을 표시하는 얼굴 추적부;
상기 얼굴 이미지에서 특징점 정보를 추출하는 특징 추출부;
상기 특징점 정보를 이용하여 입력된 얼굴 템플릿과 등록 템플릿 DB에 저장된 등록 얼굴 템플릿을 비교하여 상기 입력된 얼굴 템플릿이 등록된 사용자인지를 결정하는 얼굴 인식부;
상기 얼굴 인식부로부터 등록된 사용자라는 결정이 입력되면, 즉시 근태 메뉴를 활성화시켜 상기 디스플레이부의 소정 영역에 표시하는 제어부를 포함하고,
상기 근태 메뉴는 상기 디스플레이부에 인증자의 얼굴이 상기 얼굴 추적부에 표시되는 동안에만 표시되고,

상기 제어부는,
사용자의 얼굴 인증에 따라 인증 템플릿 DB에 인증 얼굴 템플릿을 저장하고, 소정의 기간이 경과한 후 상기 인증 템플릿 DB에 저장된 복수의 인증 얼굴 템플릿들을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대해 서로 유사도를 구하고, 이들 유사도의 값을 이용하여 상기 복수의 인증 얼굴 템플릿들 각각에 대한 평균 유사도의 값을 구하고, 상기 평균 유사도의 값들 중에서 평균 유사도의 값이 가장 큰 순서대로 소정 개수의 인증 얼굴 템플릿들을 상기 디스플레이부에 표시하고, 상기 사용자 입력부를 통해 상기 디스플레이부에 표시된 인증 얼굴 템플릿들 중 어느 하나를 선택하는 입력이 없으면 평균 유사도의 값이 가장 큰 인증 얼굴 템플릿을 새로운 등록 얼굴 템플릿으로 선정하여 상기 등록 템플릿 DB에 저장함으로써 상기 등록 얼굴 템플릿을 갱신하는 것을 특징으로하는 얼굴 인식 시스템.
a camera unit for capturing an image including a face;
a face detection unit for detecting a face image from the image taken by the camera unit;
a face tracking unit displaying face tracking by superimposing the face area on the captured image displayed on the display unit using area information of the face image input from the face detecting unit;
a feature extracting unit for extracting feature point information from the face image;
a face recognition unit that compares an input face template using the feature point information with a registered face template stored in a registration template DB to determine whether the input face template is a registered user;
and a control unit for activating a time and attendance menu immediately upon input of a determination that the user is a registered user from the face recognition unit and displaying it on a predetermined area of the display unit;
The time and attendance menu is displayed only while the face of the authenticator is displayed on the face tracking unit on the display unit,

The control unit is
The authentication face template is stored in the authentication template DB according to the user's face authentication, and after a predetermined period has elapsed, the plurality of authentication face templates are respectively similar to each other using the plurality of authentication face templates stored in the authentication template DB. , obtains an average similarity value for each of the plurality of authentication face templates using these similarity values, and selects a predetermined number of authentication face templates in the order of the largest average similarity value among the average similarity values. If there is no input for selecting any one of the authentication face templates displayed on the display unit through the user input unit, the authentication face template having the largest average similarity value is selected as the new registration face template. and updating the registered face template by storing it in a DB.
삭제delete 삭제delete
KR1020200022471A 2020-02-24 2020-02-24 Face Recognition System and Method for Activating Attendance Menu KR102325251B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200022471A KR102325251B1 (en) 2020-02-24 2020-02-24 Face Recognition System and Method for Activating Attendance Menu

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200022471A KR102325251B1 (en) 2020-02-24 2020-02-24 Face Recognition System and Method for Activating Attendance Menu

Publications (2)

Publication Number Publication Date
KR20210107452A KR20210107452A (en) 2021-09-01
KR102325251B1 true KR102325251B1 (en) 2021-11-11

Family

ID=77780038

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200022471A KR102325251B1 (en) 2020-02-24 2020-02-24 Face Recognition System and Method for Activating Attendance Menu

Country Status (1)

Country Link
KR (1) KR102325251B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178051A (en) * 2002-11-25 2004-06-24 Aruze Corp Attendance management method and attendance management system
KR101421952B1 (en) * 2013-05-03 2014-07-23 주식회사 슈프리마 Apparatus and method for face recognition

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110006062A (en) * 2009-07-13 2011-01-20 주식회사 미래인식 System and method for face recognition
KR20120045667A (en) * 2010-10-29 2012-05-09 삼성전자주식회사 Apparatus and method for generating screen for transmitting call using collage

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178051A (en) * 2002-11-25 2004-06-24 Aruze Corp Attendance management method and attendance management system
KR101421952B1 (en) * 2013-05-03 2014-07-23 주식회사 슈프리마 Apparatus and method for face recognition

Also Published As

Publication number Publication date
KR20210107452A (en) 2021-09-01

Similar Documents

Publication Publication Date Title
US11861937B2 (en) Facial verification method and apparatus
US9864756B2 (en) Method, apparatus for providing a notification on a face recognition environment, and computer-readable recording medium for executing the method
US20220318369A1 (en) Face recognition system and method capable of updating registered face templates
CN104794465B (en) A kind of biopsy method based on posture information
JP7334292B2 (en) Face biometric detection method, device, electronic device and storage medium
CN104933344A (en) Mobile terminal user identity authentication device and method based on multiple biological feature modals
JP6234762B2 (en) Eye detection device, method, and program
US11210498B2 (en) Facial authentication device, facial authentication method, and program recording medium
US10922399B2 (en) Authentication verification using soft biometric traits
CN111344703A (en) User authentication device and method based on iris recognition
US20210056291A1 (en) Method for analysis of an intrinsic facial feature of a face
US20210256244A1 (en) Method for authentication or identification of an individual
CN106156739B (en) A kind of certificate photo ear detection and extracting method based on face mask analysis
Zhang et al. A novel efficient method for abnormal face detection in ATM
KR102325251B1 (en) Face Recognition System and Method for Activating Attendance Menu
KR102380426B1 (en) Method and apparatus for verifying face
KR101509934B1 (en) Device of a front head pose guidance, and method thereof
US20230410562A1 (en) Method and electronic device for determining user's hand in video
JP2001331804A (en) Device and method for detecting image area
WO2023175939A1 (en) Information processing device, information processing method, and recording medium
KR20230105986A (en) Liveness test method and liveness test apparatus
CN117593629A (en) Brush palm recognition method, device, equipment and storage medium
KR20230114686A (en) Electronic device and method for user's hands determination in the video
Gu et al. Integrating two-dimensional morphing and pose estima tion for face recognition with pose variations
Chen et al. An eye location based head posture recognition method and its application in mouse operation

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right