KR102435581B1 - Attendance check system using face recognition and attendance check method using same - Google Patents

Attendance check system using face recognition and attendance check method using same Download PDF

Info

Publication number
KR102435581B1
KR102435581B1 KR1020200099777A KR20200099777A KR102435581B1 KR 102435581 B1 KR102435581 B1 KR 102435581B1 KR 1020200099777 A KR1020200099777 A KR 1020200099777A KR 20200099777 A KR20200099777 A KR 20200099777A KR 102435581 B1 KR102435581 B1 KR 102435581B1
Authority
KR
South Korea
Prior art keywords
image
attendance
face
face image
input
Prior art date
Application number
KR1020200099777A
Other languages
Korean (ko)
Other versions
KR20220019403A (en
KR102435581B9 (en
Inventor
김명호
김영국
임채현
손민지
Original Assignee
숭실대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숭실대학교 산학협력단 filed Critical 숭실대학교 산학협력단
Priority to KR1020200099777A priority Critical patent/KR102435581B1/en
Publication of KR20220019403A publication Critical patent/KR20220019403A/en
Application granted granted Critical
Publication of KR102435581B1 publication Critical patent/KR102435581B1/en
Publication of KR102435581B9 publication Critical patent/KR102435581B9/en

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00563Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/00174Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
    • G07C9/00571Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys operated by interacting with a central unit
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/32Individual registration on entry or exit not involving the use of a pass in combination with an identity check
    • G07C9/37Individual registration on entry or exit not involving the use of a pass in combination with an identity check using biometric data, e.g. fingerprints, iris scans or voice recognition
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C9/00Individual registration on entry or exit
    • G07C9/30Individual registration on entry or exit not involving the use of a pass
    • G07C9/38Individual registration on entry or exit not involving the use of a pass with central registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명은, 데이터베이스부와, 데이터베이스부로부터 학생의 출석얼굴이미지와, 입력얼굴이미지를 각각 검출하는 이미지검출부와, 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하는 이미지생성부와, 출결분석부를 포함하여 구성됨을 특징으로 하는 얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법을 제공할 수 있다. 상기한 바에 따르면 마스크를 착용한 사람에 대한 얼굴인식 정확도를 높일 수 있다.The present invention includes a database unit, an image detection unit that detects a student's attendance face image and an input face image from the database unit, an image generation unit that generates a face image assuming a mask is worn, and an attendance analysis unit It is possible to provide an attendance check system using face recognition, characterized in that it is configured to include, and an attendance check method using the same. According to the above description, it is possible to increase the accuracy of face recognition for a person wearing a mask.

Description

얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법 {Attendance check system using face recognition and attendance check method using same}Attendance check system using face recognition and attendance check method using same}

본 발명은 얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법에 관한 것으로서, 보다 상세하게는 마스크를 착용하지 않은 상태뿐만 아니라 마스크를 착용한 경우도 얼굴인식의 정확도를 향상시킬 수 있는 얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법에 관한 것이다. The present invention relates to an attendance check system using face recognition and a method for checking attendance using the same, and more particularly, face recognition that can improve the accuracy of face recognition even when wearing a mask as well as not wearing a mask. It relates to an attendance check system using the same and an attendance check method using the same.

일반적으로 얼굴 인식 기술은, 홍채 인식 또는 정맥 등의 기타 생체 인식 기술들에 비해서, 사용자로 하여금 인식 절차가 간편하고 자연스러운 장점이 있어, 주요 연구 대상으로 각광받고 있다.In general, face recognition technology has the advantage of being simple and natural for a user to recognize, compared to other biometric recognition technologies such as iris recognition or vein recognition, and thus has been spotlighted as a major research subject.

이러한 얼굴 인식 기술에 대한 예로 대한민국 등록특허공보 제10-2020-0029659호는, 식별하고자 하는 대상자의 얼굴이 촬영된 영상 이미지를 수신하는 단계; 영상 이미지를 정규화하는 단계; 복수의 얼굴 특징점들을 추출하도록 학습된 컨볼루셔널 신경망(CNN, Convolutional Neural Network)에 영상 이미지를 입력하여, 영상 이미지 내 얼굴 특징점들을 포함하는 특징맵(Feature map)을 도출하는 단계; 특징맵에 글로벌 평균 풀링(GAP, Global Average Pooling)을 적용하여, 영상 이미지 내 대상자의 얼굴 전역에 대한 외형 특징을 표현하는 글로벌 외형 특징을 출력하는 단계; 쌍 관계 네트워크(PRN, Pairwise Related Network)에 특징맵을 입력하고, 복수의 로컬 외형 특징들을 추출하여 관계쌍을 형성하는 단계; 및 관계쌍에 신원 식별 특징을 임베딩(Embeding)하여 관계형 로컬 특징을 추출하는 단계를 포함하는, 얼굴 인식 방법이 개시된 바 있다. As an example of such a face recognition technology, Republic of Korea Patent Publication No. 10-2020-0029659 discloses the steps of: receiving a video image of a subject's face to be identified; normalizing the video image; inputting a video image to a convolutional neural network (CNN) trained to extract a plurality of facial feature points, and deriving a feature map including facial feature points in the video image; applying global average pooling (GAP) to the feature map, and outputting global appearance features expressing the appearance features of the entire face of the subject in the video image; inputting a feature map to a pairwise related network (PRN) and extracting a plurality of local appearance features to form a relational pair; and extracting a relational local feature by embedding an identity identification feature in a relational pair.

한편, 최근에는 딥 러닝(Deep Learning)의 발전으로 얼굴 인식 기반의 자동 출석체크 시스템이 연구되고 있다. 하지만, 이러한 얼굴 인식 기술은 촬영 이미지 또는 영상 이미지로부터 얼굴 영역을 검출하여, 검출된 얼굴의 대상자를 식별하는 기술이기에, 대상자의 얼굴이 조명, 포즈 및 표정의 변화 또는 가려짐 등에 의해 쉽게 변형 가능한 만큼 촬영 이미지 또는 영상 이미지로부터 추출된 얼굴 영역을 바탕으로 사전 등록된 사용자와 대상자가 동일인임을 판별하기는 어렵다. On the other hand, recently, with the development of deep learning, an automatic attendance check system based on face recognition is being studied. However, since this face recognition technology is a technology for identifying a subject of a detected face by detecting a face region from a photographed image or a video image, the subject's face can be easily deformed by changes or occlusion of lighting, pose, and expression. It is difficult to determine that the pre-registered user and the subject are the same person based on the face region extracted from the photographed image or the video image.

더욱이, 최근에는 코로나 등으로 인해 많은 사람들이 마스크를 착용하고 있어, 이러한 경우 얼굴의 하단부가 가려지는 폐색 문제가 빈번하게 발생하기 때문에 얼굴 인식 기반의 자동 출석체크의 어려움이 있었다.Moreover, recently, many people are wearing masks due to corona, etc., and in this case, there is a difficulty in automatic attendance check based on face recognition because the problem of occlusion of the lower part of the face occurs frequently.

대한민국 등록특허공보 제10-2020-0029659호Republic of Korea Patent Publication No. 10-2020-0029659

본 발명은, 마스크를 착용한 사람에 대한 얼굴인식 정확도를 높일 수 있을 뿐만 아니라, 마스크착용으로 인한 폐색 문제를 해결할 수 있는 얼굴인식을 이용한 출석체크 시스템 및 이를 이용한 출석체크 방법을 제공하는 것을 목적으로 한다. An object of the present invention is to provide an attendance check system using face recognition that can not only increase the accuracy of face recognition for a person wearing a mask, but also solve the occlusion problem caused by wearing a mask, and an attendance check method using the same do.

본 발명의 일 측면에 의하면, 본 발명은, 강의에 대한 출석부이미지와, 강의실을 촬영한 강의실영상들이 저장된 데이터베이스부와; 데이터베이스로부터 해당 강의에 대한 출석부이미지로부터 얼굴을 추출하여 출석얼굴이미지들을 검출하고, 강의실영상으로부터 얼굴을 추출하여 입력얼굴이미지들을 검출하는 이미지검출부와; 이미지검출부에 의하여 검출된 출석얼굴이미지와 입력얼굴이미지에서 코를 기준으로 수평선상의 기준선을 설정하고, 기준선에 대하여 출석얼굴이미지 또는 입력얼굴이미지를 부분 처리하여 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하는 이미지생성부와; 출석얼굴이미지와 이미지생성부에 의하여 생성된 얼굴이미지를 매칭하여 출석여부를 체크하는 출결분석부;를 포함하여 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 제공할 수 있다.According to one aspect of the present invention, the present invention, the attendance book image for the lecture, and a database unit in which the classroom images taken of the lecture are stored; an image detection unit for extracting faces from the attendance book image for the corresponding lecture from the database to detect attendance face images, and extracting faces from the lecture room images to detect input face images; In the presence face image and input face image detected by the image detection unit, a baseline is set on the horizontal line based on the nose, and the face image assuming that the mask is worn by partially processing the attendance face image or input face image with respect to the reference line. an image generating unit to generate; It is possible to provide an attendance check system through face recognition, characterized in that it comprises a; attendance analysis unit to check the attendance by matching the face image generated by the attendance face image and the image generator.

여기서, 이미지검출부는, Retinaface 모델을 이용하여 출석얼굴이미지와 입력얼굴이미지를 검출하도록 구성될 수 있다.Here, the image detection unit may be configured to detect an attendance face image and an input face image using the Retinaface model.

또한, 이미지생성부는, 출석얼굴이미지와 입력얼굴이미지 각각을 부분 처리하여 얼굴이미지를 생성하도록 구성될 수 있다.In addition, the image generating unit may be configured to generate a face image by partially processing each of the attendance face image and the input face image.

나아가, 이미지생성부는, 기준선에 대하여 상부영역의 얼굴 상부의 얼굴이미지만을 추출한 상부얼굴이미지와, 기준선에 대하여 하부영역을 이미지 처리한 처리얼굴이미지를 각각 생성하도록 구성될 수 있다.Furthermore, the image generator may be configured to generate an upper face image obtained by extracting only a face image of an upper portion of the face with respect to the reference line, and a processed face image obtained by image-processing the lower area with respect to the reference line, respectively.

한편, 이미지생성부는, ArcFace모델을 통하여 상부얼굴이미지와, 처리얼굴이미지를 생성하도록 구성될 수 있다.Meanwhile, the image generator may be configured to generate an upper face image and a processed face image through the ArcFace model.

출결분석부는, 출석얼굴이미지와, 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 입력얼굴이미지와, 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지를 각각 R512의 목표공간으로 임베딩하여 생성된 벡터 간 거리를 계산하고, 계산된 거리를 조합 및 매칭하여 출석 여부를 체크하도록 구성될 수 있다. The attendance analysis unit converts the attendance face image, the upper face image and processed face image generated from the attendance face image, the input face image, the upper face image and the processed face image generated from the input face image into the target space of R 512 , respectively. It may be configured to calculate the distance between vectors generated by embedding, and check the presence or absence of the calculated distance by combining and matching.

세부적으로, 출결분석부는, 임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 짧은 거리를 기준으로 매칭하여 출석 여부를 체크하도록 구성될 수 있다.In detail, the attendance analysis unit may be configured to calculate the cosine distance (Angular/cosine Distance) between the vectors generated by embedding and to check attendance by matching based on the shortest distance.

본 발명의 다른 측면에 의하면, 본 발명은, 강의에 대한 출석부이미지와, 강의실을 촬영한 강의실영상들을 데이터베이스에 저장하는 이미지저장단계와; 이미지검출부가 해당 강의에 대하여 상기 데이터베이스의 출석부이미지로부터 얼굴을 추출하여 출석얼굴이미지들을 검출하고, 강의실영상으로부터 얼굴을 추출하여 입력얼굴이미지들을 검출하는 얼굴검출단계와; 이미지생성부가 이미지검출부에 의하여 검출된 출석얼굴이미지와 입력얼굴이미지에서 코를 기준으로 수평선상의 기준선을 설정하고, 기준선에 대하여 입력얼굴이미지 또는 출석얼굴이미지를 부분 처리하여, 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하는 이미지생성단계와; 출결분석부가 출석얼굴이미지와 이미지생성부에 의하여 생성된 얼굴이미지를 매칭하여 출석여부를 체크하는 출결체크단계;를 포함하여 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 이용한 얼굴인식 방법을 제공할 수 있다. According to another aspect of the present invention, the present invention, an image storage step of storing the attendance book image for the lecture, and the classroom images taken of the lecture in a database; a face detection step in which an image detection unit extracts a face from the attendance list image of the database for the corresponding lecture to detect attendance face images, and extracts the face from the lecture room image to detect input face images; It is assumed that the image generator sets a baseline on the horizontal line based on the nose in the presence face image and input face image detected by the image detection unit, and partially processes the input face image or attendance face image with respect to the reference line, and wears a mask. an image generating step of generating one face image; Attendance check step of checking attendance by matching the attendance face image and the face image generated by the image generator by the attendance analysis unit; provides a face recognition method using an attendance check system through face recognition, characterized in that it comprises a can do.

여기서, 얼굴검출단계는, 이미지검출부가 Retinaface 모델을 이용하여 출석얼굴이미지와 입력얼굴이미지를 검출할 수 있다.Here, in the face detection step, the image detection unit may detect an attendance face image and an input face image using the Retinaface model.

또한, 이미지생성단계는, 이미지생성부가 출석얼굴이미지와 입력얼굴이미지 각각을 부분 처리하여 얼굴이미지를 생성하도록 구성될 수 있다. In addition, the image generating step, the image generating unit may be configured to generate a face image by partially processing each of the attendance face image and the input face image.

또한, 이미지생성단계는, 이미지생성부가 기준선에 대하여 상부영역의 얼굴 상부의 얼굴이미지만을 추출한 상부얼굴이미지와, 기준선에 대하여 하부영역을 이미지처리한 처리얼굴이미지를 각각 생성할 수 있다.Also, in the image generating step, the image generating unit may generate an upper face image obtained by extracting only the upper face image of the upper region with respect to the reference line and a processed face image obtained by image processing the lower region with respect to the reference line, respectively.

나아가, 이미지생성단계는, 이미지생성부가 ArcFace모델을 통하여 상부얼굴이미지와, 처리얼굴이미지를 생성할 수 있다. Furthermore, in the image generating step, the image generating unit may generate an upper face image and a processed face image through the ArcFace model.

한편, 출결체크단계는, 출결분석부가 출석얼굴이미지와, 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 입력얼굴이미지와, 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지를 각각 R512의 목표공간으로 임베딩하여 생성된 벡터 간 거리를 계산하고, 계산된 거리를 조합 및 매칭하여 출석 여부를 체크할 수 있다.On the other hand, in the attendance check step, the attendance analysis unit separates the attendance face image, the upper face image and the processed face image generated from the attendance face image, the input face image, the upper face image and the processed face image generated from the input face image, respectively. It is possible to calculate the distance between vectors generated by embedding into the target space of R 512 , and check the attendance by combining and matching the calculated distance.

여기서, 출결체크단계는, 출결분석부가 임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 짧은 거리를 기준으로 매칭하여 출석 여부를 체크할 수 있다. Here, in the attendance check step, the attendance analysis unit can check the attendance by calculating the cosine distance (Angular/cosine Distance) between the vectors generated by embedding and matching based on the shortest distance.

도 1은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템
도 1은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템의 구성을 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템에서 강의실로 들어오는 학생들의 얼굴을 인식하는 경우의 출석체크장치의 실시예를 나타내는 도면이다.
도 3은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템에서 강의실의 학생들 얼굴을 인식하는 경우의 출석체크장치의 실시예를 나타내는 도면이다.
도 4는 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템에서 이미지생성부가 출석얼굴이미지 또는 입력이미지에서 얼굴이미지를 생성했을 경우를 나타내는 도면이다.
도 5는 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템에서 이미지생성부가 처리얼굴이미지를 생성했을 경우를 나타내는 도면이다.
도 6은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템에서 이미지생성부가 상부얼굴이미지를 생성했을 경우를 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템을 이용한 출석체크 방법 과정을 설명하기 위한 도면이다.
도 8은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템을 이용한 출석체크 방법에서 입력얼굴이미지가 마스크를 착용한 상태를 나타내는 이미지인 경우 출석체크 방법을 나타내는 절차도이다.
도 9는 도 8은 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템을 이용한 출석체크 방법을 실제 강의실 환경에서 실험한 사진을 나타낸다.
1 is an attendance check system through face recognition according to an embodiment of the present invention;
1 is a block diagram showing the configuration of an attendance check system through face recognition according to an embodiment of the present invention.
2 is a view showing an embodiment of the attendance check device in the case of recognizing the faces of students entering the classroom in the attendance check system through face recognition according to an embodiment of the present invention.
3 is a view showing an embodiment of an attendance check device in the case of recognizing the faces of students in a classroom in the attendance check system through face recognition according to an embodiment of the present invention.
4 is a diagram illustrating a case in which the image generator generates a face image from an attendance face image or an input image in the attendance check system through face recognition according to an embodiment of the present invention.
5 is a diagram illustrating a case in which the image generation unit generates a processed face image in the attendance check system through face recognition according to an embodiment of the present invention.
6 is a diagram illustrating a case in which the image generator generates an upper face image in the attendance check system through face recognition according to an embodiment of the present invention.
7 is a view for explaining a process of an attendance check method using the attendance check system through face recognition according to an embodiment of the present invention.
8 is a flowchart illustrating an attendance check method when an input face image is an image representing a state wearing a mask in the attendance check method using the attendance check system through face recognition according to an embodiment of the present invention.
9 shows a photo of an experiment in a classroom environment using the attendance check method using the attendance check system through face recognition according to an embodiment of the present invention.

이하, 본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈", "수단" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. Hereinafter, the terms used in the present invention have been selected as widely used general terms as possible while considering the functions in the present invention, which may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term. In the entire specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated. In addition, terms such as "unit", "module", and "means" described in the specification mean a unit that processes at least one function or operation, which is implemented in hardware or software, or is a combination of hardware and software. can be implemented.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였으며, 본 명세서 전체에 걸쳐 사용되는 동일한 참조번호는 동일한 구성요소를 나타낸다. 그리고 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, similar reference numerals are attached to similar parts throughout the specification, and the same reference numbers used throughout the present specification refer to the same components. indicates. And, in the description of the present invention, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하에서는 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

우선, 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템(500,이하 '출석체크 시스템'이라 한다)은, 대학 등에서 강의를 받는 학생들의 출석체크를 비롯하여, 개인의 출입관리가 요구되는 업체 등에서의 근태관리 등 다양한 방면으로 활용 가능하다. 이하에서는, 대학 등에서 강의를 받는 학생들의 출석체크의 목적으로 활용되는 것을 실시예로 하여 본 발명의 출석체크 시스템(500)을 살펴보기로 한다. First, the attendance check system (500, hereinafter referred to as the 'attendance check system') through face recognition according to an embodiment of the present invention is a company that requires individual access management, including the attendance check of students receiving lectures at universities, etc. It can be used in various fields such as time and attendance management, etc. Hereinafter, the attendance check system 500 of the present invention will be looked at as an embodiment that is used for the purpose of checking the attendance of students receiving lectures at universities, etc.

도 1을 참조하면, 본 발명의 실시예에 따른 출석체크 시스템(500)은, 데이터베이스부(100)와, 이미지검출부(200)와, 이미지생성부(300)와, 출결분석부(400)를 포함하여 구성될 수 있다.Referring to FIG. 1 , the attendance check system 500 according to an embodiment of the present invention includes a database unit 100 , an image detection unit 200 , an image generation unit 300 , and an attendance analysis unit 400 . may be included.

먼저, 데이터베이스부(100)는, 출석부이미지와, 강의실영상들을 포함하여 저장된다. 여기서, 출석부이미지는, 교내 네트워크 서버 등으로부터 입력되며 강의를 받는 학생들의 얼굴사진들을 포함하며, 미리 저장된 이미지로서 해당 강의를 듣는 학생들의 얼굴이미지들로 구성되며, 이때의 학생 개개인의 얼굴은 과거 마스크를 착용하지 않은 상태를 나타낸다.First, the database unit 100 is stored, including the attendance book image, and classroom images. Here, the attendance book image is input from a campus network server, etc., and includes face photos of students receiving a lecture, and is a pre-stored image composed of face images of students who listen to the lecture, and each student's face at this time is a mask from the past Indicates a state not to wear.

다음으로 강의실영상은, 출석체크장치(20)에 의하여 강의실 내 또는 강의실을 출입하는 학생들을 촬영하여 획득될 수 있다. Next, the classroom image may be obtained by photographing students entering or leaving the classroom by the attendance check device 20 .

여기서, 출석체크장치(20)는, CCTV나 촬영카메라를 포함하는 이미지촬영부(10)와, 이미지촬영부(10)에 의하여 촬영된 영상을 출석체크 시스템(500)으로 전송하는 통신모듈(미도시) 등을 포함하여 구성될 수 있다. Here, the attendance check device 20 is a communication module (not shown) that transmits the image captured by the image capturing unit 10 including a CCTV or a photographing camera and the image capturing unit 10 to the attendance check system 500 . city) and the like.

한편, 출석체크장치(20)는, 다양한 실시예로 강의실영상을 획득할 수 있다. On the other hand, the attendance check device 20 may obtain a classroom image in various embodiments.

도 2를 참조하면, 출석체크장치(20)는 강의실 입구에 설치되어 강의실로 들어오는 학생들을 촬영하고, 이렇게 촬영하여 획득된 영상을 출석체크 시스템(500)으로 전송하도록 구성될 수 있다.Referring to FIG. 2 , the attendance check device 20 may be installed at the entrance of the classroom to photograph students entering the classroom, and may be configured to transmit an image obtained by shooting to the attendance check system 500 .

이와는 다른 실시예로 도 3을 참조하면, 출석체크장치(20)는 강의실 내에 설치되어 강의실에서 강의를 받고 있는 학생들을 촬영하고, 이렇게 촬영된 강의실 영상을 출석체크 시스템(500)으로 전송하도록 구성될 수 있다.Referring to FIG. 3 as another embodiment, the attendance check device 20 is installed in a lecture room to photograph students receiving a lecture in the lecture room, and to transmit the captured lecture room image to the attendance check system 500. can

즉, 출석체크장치(20)는, 강의실 입구 또는 강의실에 설치된 이미지촬영부(10)를 통하여 학생 및 강의실을 촬영하고, 이를 통해 강의실연상을 획득할 수 있다. That is, the attendance check device 20 may photograph students and the classroom through the image capturing unit 10 installed at the entrance to the lecture room or the lecture room, and through this, it is possible to obtain a lecture room association image.

이미지검출부(200)는, 데이터베이스부(100)로부터 해당 강의에 대한 영상 및 이미지로부터 얼굴을 검출하는 역할을 한다. The image detection unit 200 serves to detect a face from an image and an image for a corresponding lecture from the database unit 100 .

구체적으로, 이미지검출부(200)는, 데이터베이스부(100)의 출석부이미지로부터 출석얼굴이미지들을 검출하고, 강의실영상으로부터 입력얼굴이미지들을 검출할 수 있다. 이때, 이미지검출부(200)는, 각 해당 학생의 코의 위치도 함께 검출한다.Specifically, the image detection unit 200 may detect attendance face images from the attendance list image of the database unit 100 and detect input face images from the classroom image. At this time, the image detection unit 200 also detects the position of the nose of each corresponding student.

한편, 이미지검출부(200)는, 출석부이미지와 강의실영상에서 출석얼굴이미지와 입력얼굴이미지를 검출하기 위하여 다양한 모델을 적용할 수 있는데, 검출(detection) 수행능력이 좋은 Retinaface 모델을 이용하는 것이 바람직하나 이에 한정하지는 않는다.On the other hand, the image detection unit 200 can apply various models to detect the attendance face image and the input face image from the attendance book image and the lecture room image. It is preferable to use a Retinaface model with good detection performance, but do not limit

이미지생성부(300)는, 출석여부를 판단하기 위하여 매칭되는 이미지를 생성하는 역할을 하며, 세부적으로는 대상인이 마스크를 착용했을 경우를 고려한 이미지를 생성하도록 구성될 수 있다. The image generating unit 300 serves to generate a matching image to determine attendance, and in detail, may be configured to generate an image in consideration of a case in which a target person wears a mask.

이에, 이미지생성부(300)는 이미지검출부(200)에 의하여 검출된 출석얼굴이미지 또는 입력얼굴이미지에서 코를 기준으로 수평선상의 기준선을 설정하고, 기준선에 대하여 출석얼굴이미지 또는 입력얼굴이미지를 부분 처리함으로써 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하도록 구성될 수 있다. Accordingly, the image generating unit 300 sets a baseline on the horizontal line based on the nose in the presence face image or input face image detected by the image detection unit 200, and partially processes the attendance face image or input face image with respect to the reference line. By doing so, it may be configured to generate a face image assuming that a mask is worn.

구체적으로, 이미지생성부(300)는, 기준선에 대하여 얼굴 상부의 이미지만을 추출한 상부얼굴이미지와, 기준선에 대하여 하부영역을 흰색 등으로 이미지 처리한 처리얼굴이미지를 각각 생성하도록 구성될 수 있다. Specifically, the image generating unit 300 may be configured to generate an upper face image in which only an image of the upper face is extracted with respect to a reference line, and a processed face image in which an image of a lower region is image-processed with white or the like with respect to the reference line, respectively.

도 4 내지 도 6은 이미지생성부(300)에 의하여 생성되는 이미지를 설명하기 위한 도면이다. 먼저 도 4는 이미지생성부(300)의 대상이미지인 출석얼굴이미지 또는 입력얼굴이미지를 나타낸다. 도 5는 도 4의 이미지에서 기준선에 대하여 하부영역을 이미지처리한 처리얼굴이미지를 나타낸다. 그리고 도 6은 도 4의 이미지에서 기준선에 대하여 상부의 얼굴이미지만을 추출한 상부얼굴이미지를 나타낸다. 4 to 6 are diagrams for explaining an image generated by the image generating unit 300 . First, FIG. 4 shows an attendance face image or an input face image, which is a target image of the image generating unit 300 . FIG. 5 shows a processed face image obtained by image-processing a lower region with respect to a reference line in the image of FIG. 4 . And FIG. 6 shows an upper face image obtained by extracting only the upper face image from the image of FIG. 4 with respect to the reference line.

한편, 이미지생성부(300)는, 출석얼굴이미지와 입력얼굴이미지 중 적어도 어느 하나를 대상으로 부분 처리하여 처리얼굴이미지와 상부얼굴이미지를 포함하는 얼굴이미지를 생성할 수 있다. Meanwhile, the image generating unit 300 may partially process at least one of an attendance face image and an input face image to generate a face image including a processed face image and an upper face image.

구체적으로, 이미지생성부(300)는, 미리 저장된 출석얼굴이미지와 최근의 활동이미지로 강의실에서 획득한 입력얼굴이미지 모두를 부분 처리하여 새로운 얼굴이미지를 생성하도록 구성되는 것이 바람직하다. Specifically, the image generating unit 300 is preferably configured to generate a new face image by partially processing both the pre-stored attendance face image and the input face image acquired in the classroom with the recent activity image.

즉, 이미지생성부(300)는, 출석얼굴이미지에서 처리얼굴이미지와 상부얼굴이미지를 생성하고, 입력얼굴이미지에서 처리얼굴이미지와 상부얼굴이미지를 각각 생성하여, 결과적으로 출석얼굴이미지와, 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 입력얼굴이미지와, 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지 총 6개의 이미지를 생성할 수 있다. That is, the image generating unit 300 generates a processed face image and an upper face image from the attendance face image, and generates a processed face image and an upper face image from the input face image, respectively, as a result, an attendance face image and an attendance face A total of six images may be generated: an upper face image and a processed face image generated from the image, an input face image, and an upper face image and a processed face image generated from the input face image.

한편, 이때 만약 강의실에서 획득한 입력얼굴이미지가 마스크를 쓴 상태이거나 이미지처리에 문제가 될 수 있을 정도의 해상도가 낮은 경우 이미지검출부(200)는, 데이터베이스부(100)에서 업데이트된 최신의 입력얼굴이미지 또는 이전의 다른 입력얼굴이미지들 중 마스크를 착용하지 않은 상태의 입력얼굴이미지를 검색하여 출석얼굴이미지들을 검출할 수 있으며, 이렇게 검출된 이미지들을 토대로 이미지생성부(300)는, 이미지검출부(200)에서 검출된 입력얼굴이미지에서 처리얼굴이미지와 상부얼굴이미지를 생성할 수 있다. On the other hand, at this time, if the input face image acquired in the classroom is in a state of wearing a mask or the resolution is low enough to cause a problem in image processing, the image detection unit 200, the latest input face updated in the database unit 100 Attendance face images can be detected by searching for an input face image in a state not wearing a mask among images or other previously input face images. ), a processed face image and an upper face image can be generated from the input face image detected in .

이미지생성부(300)는, 전술한 입력얼굴이미지, 처리얼굴이미지 및 상부얼굴이미지를 생성하기 위하여 이미지생성부(300)는, ArcFace모델을 통하여 이미지를 생성할 수 있다. 여기서, ArcFace모델은 얼굴인식 모델로서 명확한 기하학적 해설이 가능한 모델이며, 이는 공지의 모델로서 이에 대한 상세한 설명은 생략하기로 한다. The image generating unit 300 may generate an image through the ArcFace model in order to generate the above-described input face image, processed face image, and upper face image. Here, the ArcFace model is a face recognition model and a model capable of clear geometrical explanation, which is a well-known model and a detailed description thereof will be omitted.

출결분석부(400)는, 출석얼굴이미지와 이미지생성부(300)에 의하여 생성된 얼굴이미지들을 매칭하여 출석여부를 체크하는 역할을 한다. The attendance analysis unit 400 serves to check the attendance by matching the attendance face image and the face images generated by the image generating unit 300 .

구체적으로, 출결분석부(400)는, 이미지생성부(300)에서 생성된 출석얼굴이미지와, 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 입력얼굴이미지와, 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지를 포함하는 6개의 얼굴이미지를 각각 R512의 목표공간으로 임베딩하여 생성된 벡터 간 거리를 계산하고, 계산된 거리를 기준으로 매칭하여 출석여부를 체크하도록 구성될 수 있다. Specifically, the attendance analysis unit 400 is generated from the attendance face image generated by the image generation unit 300, the upper face image and the processed face image generated from the attendance face image, the input face image, and the input face image. It can be configured to calculate the distance between vectors generated by embedding six face images including the processed upper face image and processed face image into the target space of R 512 , and check attendance by matching based on the calculated distance. have.

세부적으로, 출결분석부(400)는, 출석얼굴이미지와 입력얼굴이미지 사이의 벡터간 거리를 계산하여 제1거리를 계산하고, 출석얼굴이미지와 입력얼굴이미지에서 생성된 상부얼굴이미지 사이의 벡터간 거리를 계산하여 제2거리를 계산하고, 출석얼굴이미지와 입력얼굴이미지에서 생성된 처리얼굴이미지 사이의 벡터간 거리를 계산하여 제3거리를 계산하며, 이렇게 구한 제1거리와, 제2거리와, 제3거리를 조합하여 이를 기준으로 매칭하도록 구성될 수 있다. 여기서, 제1거리, 제2거리 및 제3거리의 조합 및 매칭에 대한 세부설명은 후술되는 세부 실시예에서 살펴보기로 한다.In detail, the attendance analysis unit 400 calculates the first distance by calculating the distance between the vectors between the attendance face image and the input face image, and between the vectors between the attendance face image and the upper face image generated from the input face image. The second distance is calculated by calculating the distance, and the third distance is calculated by calculating the distance between the vectors between the attendance face image and the processed face image generated from the input face image. , it may be configured to match the third distance based on this combination. Here, a detailed description of the combination and matching of the first distance, the second distance, and the third distance will be described in a detailed embodiment to be described later.

이때, 출결분석부(400)는, 매칭 기준으로 임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 짧은 거리를 기준으로 매칭하여 출석 여부를 체크하도록 구성될 수 있다. 여기서, 벡터 간의 코사인 거리가 가장 짧다는 것은 유사도가 가능 높다는 것을 의미할 수 있으며, 이렇게 가장 유사한 이미지를 기준으로 매칭하여 출석체크 한다. At this time, the attendance analysis unit 400, by calculating the cosine distance (Angular/cosine Distance) between vectors generated by embedding as a matching criterion, matching based on the shortest distance may be configured to check attendance. Here, the shortest cosine distance between vectors may mean that the degree of similarity is as high as possible, and attendance is checked by matching based on the most similar image.

상기한 바에 따르면, 본 발명의 출석체크 시스템(500)은, 마스크를 착용하지 않은 상태의 얼굴뿐만 아니라 마스크를 착용한 상태의 얼굴도 고려하여 출석얼굴이미지, 처리얼굴이미지 및 상부얼굴이미지를 포함하는 얼굴이미지들을 이용하고, 이들 이미지에 대하여 목표공간으로 임베딩하여 생성된 벡터간 거리를 기준으로 매칭하여 출석체크를 하기 때문에, 결과적으로 마스크를 착용하지 않은 경우뿐만 아니라 마스크를 착용한 경우에 대해서도 그 매칭 정확도를 향상시킬 수 있으며 기존의 마스크를 착용했을 때 발생되었던 폐색문제도 해결할 수 있다. According to the above, the attendance check system 500 of the present invention includes an attendance face image, a processed face image and an upper face image in consideration of not only the face in a state not wearing a mask, but also a face in a state wearing a mask. Since attendance is checked by matching based on the distance between vectors generated by using face images and embedding these images into the target space, as a result, the matching is performed not only when the mask is not worn but also when the mask is worn. Accuracy can be improved and the occlusion problem that occurred when wearing a conventional mask can be solved.

이하에서는, 본 발명의 실시예에 따른 얼굴인식을 통한 출석체크 시스템을 이용한 출석체크 방법(이하 '출석체크 방법'이라 한다)에 대하여 살펴보기로 한다. 우선, 본 발명의 출석체크 방법은 전술한 출석체크 시스템(500)을 이용하므로 출석체크 시스템(500)의 구성에 대한 상세한 설명은 생략하기로 하며, 이하에서는 출석체크 방법에 대하여 중점적으로 살펴보기로 한다. Hereinafter, an attendance check method (hereinafter referred to as 'attendance check method') using the attendance check system through face recognition according to an embodiment of the present invention will be described. First, since the attendance check method of the present invention uses the above-described attendance check system 500, a detailed description of the configuration of the attendance check system 500 will be omitted. do.

먼저, 도 7을 참조하면, 본 발명의 실시예에 따른 출석체크 방법은, 데이터베이스부(100)에 저장된 출석부이미지와 강의실영상에서 이미지검출부(200)를 통하여 얼굴을 추출하여 출석얼굴이미지와 입력얼굴이미지를 각각 검출하고, 검출된 출석얼굴이미지와 입력얼굴이미지에서 기준선을 중심으로 마스크처리를 하여 상부얼굴이미지와 처리얼굴이미지를 각각 생성한다. 그런 다음, 출석얼굴이미지와 입력얼굴이미지와, 각각으로부터 생성된 상부얼굴이미지와 처리얼굴이미지들을 목표 공간으로 임베딩하여 생성된 벡터간 거리(angular cosine distance)를 계산하고, 벡터간거리가 가장 짧은 것을 기준으로 매칭하여 출석체크를 한다. First, referring to FIG. 7 , the attendance check method according to an embodiment of the present invention extracts a face from the attendance book image and the lecture room image stored in the database unit 100 through the image detection unit 200 to obtain an attendance face image and an input face. Each image is detected, and an upper face image and a processed face image are respectively generated by masking the detected attendance face image and input face image based on the reference line. Then, the angular cosine distance is calculated by embedding the attendance face image, the input face image, the upper face image and the processed face image generated from each into the target space, and the distance between the vectors is the shortest. Match attendance to check attendance.

한편, 전술한 바와 같이 강의실영상에서 대상 학생이 마스크를 착용한 경우와, 착용하지 않은 경우에 따라 이미지생성 대상 파일을 다르게 설정할 수 있으며, 이에 따른 출석체크 방법에 대하여 살펴보기로 한다.On the other hand, as described above, the image creation target file can be set differently depending on the case in which the target student wears or does not wear a mask in the lecture room image.

도 8을 참조하여 본 발명의 실시예에 따른 출석체크 방법에 대하여 살펴보면, 출석체크 방법은, 이미지저장단계(S110)와, 얼굴검출단계(S120)와, 이미지생성단계(S130)와, 출결체크단계(S140)를 포함하여 구성될 수 있다. Referring to the attendance check method according to the embodiment of the present invention with reference to FIG. 8, the attendance check method includes an image storage step (S110), a face detection step (S120), an image generation step (S130), and an attendance check It may be configured to include step (S140).

먼저, 이미지저장단계(S110)에서는, 강의에 대한 출석부이미지와, 강의가 진행되는 강의실을 촬영한 강의실영상들을 데이터베이스에 저장하여 구성될 수 있다. First, in the image storage step (S110), it may be configured by storing the attendance book image for the lecture and the classroom images photographed in the classroom in which the lecture is held in the database.

여기서, 이미지저장은, 교내 서버 등으로부터 출석부이미지와 강의실영상들을 전송받아 저장되거나, 또는 교내 서버 내에 데이터베이스가 구성되어 입력되는 출석부이미지와 촬영된 강의실영상들이 전송 및 업데이트되도록 구성될 수 있다. 그리고 데이터베이스는, 저장되는 출석부이미지들과 강의실영상들을 각 강의별로 분류하여 설정 코드별로 저장될 수 있다. Here, the image storage may be configured such that the attendance book image and classroom images are received and stored from an on-campus server or the like, or the attendance book image and the photographed classroom images are transmitted and updated when a database is configured in the campus server and input. In addition, the database may classify the stored attendance book images and classroom images for each lecture, and may be stored for each setting code.

얼굴검출단계(S120)는, 이미지검출부(200)가 해당 강의에 대하여 데이터베이스의 출석부이미지로부터 얼굴을 추출하여 출석얼굴이미지들을 검출하고, 강의실영상으로부터 얼굴을 추출하여 입력얼굴이미지들을 각각 검출하여 구성될 수 있다. 이때, 얼굴검출단계(S120)에서 이미지검출부(200)는, 각 해당 학생의 코의 위치도 함께 검출할 수 있다. In the face detection step (S120), the image detection unit 200 detects the attendance face images by extracting the face from the attendance list image of the database for the lecture, and extracting the face from the lecture room image to detect the input face images respectively. can In this case, in the face detection step ( S120 ), the image detection unit 200 may also detect the position of the nose of each corresponding student.

나아가, 얼굴검출단계(S120)는, 전술한 바와 같이 이미지검출부(200)가 Retinaface 모델을 이용하여 출석얼굴이미지와 입력얼굴이미지를 검출할 수 있다. Furthermore, in the face detection step (S120), as described above, the image detection unit 200 may detect an attendance face image and an input face image using the Retinaface model.

한편, 이러한 얼굴검출은, 데이터베이스에 저장된 모든 강의에 대한 출석부이미지들과 강의실영상들로부터 출석얼굴이미지와 입력얼굴이미지를 검출하는 대신, 처리 속도 등을 고려하여 강의별 분류 코드를 통하여 해당 강의에 대한 출석부이미지와 강의실영상들로부터 출석얼굴이미지와 입력얼굴이미지를 검출할 수 있다.On the other hand, such face detection does not detect attendance face images and input face images from attendance list images and classroom images for all lectures stored in the database, but considers processing speed, etc. Attendance face image and input face image can be detected from attendance book images and classroom images.

이미지생성단계(S130)에서는, 이미지검출부(200)에 의하여 검출된 출석얼굴이미지와 입력얼굴이미지에서 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하며, 코를 기준으로 수평선상의 기준선을 설정하고, 기준선에 대하여 입력얼굴이미지를 부분 처리하여 얼굴이미지를 생성한다. 여기서, 기준선은 코에서 마스크가 착용되는 지점을 기준으로 설정될 수 있으며, 도시된 바와 같이 기준점은 코 전체 길이에 대하여 하단로부터 1/3 지점 또는 1/2지점 등에 설정될 수 있으나 이에 한정하지는 않는다. In the image generation step (S130), a face image is generated assuming that a mask is worn from the presence face image detected by the image detection unit 200 and the input face image, and a reference line on the horizontal line is set based on the nose, A face image is generated by partially processing the input face image with respect to the reference line. Here, the reference line may be set based on the point at which the mask is worn on the nose, and as shown, the reference point may be set at 1/3 point or 1/2 point from the bottom for the entire length of the nose, but is not limited thereto. .

한편, 이미지생성단계(S130)는, 기준선에 대하여 상부영역의 얼굴 상부의 얼굴이미지만을 추출한 상부얼굴이미지와, 기준선에 대하여 하부영역을 이미지처리한 처리얼굴이미지를 각각 생성할 수 있으며, 이미지생성부(300)가 ArcFace모델을 이용하여 생성할 수 있다. On the other hand, in the image generating step ( S130 ), an upper face image obtained by extracting only the upper face image of the upper region with respect to the reference line and a processed face image obtained by image processing the lower region with respect to the reference line may be generated, respectively, and the image generating unit (300) can be generated using the ArcFace model.

세부적으로 이미지생성단계(S130)에서는, 출석얼굴이미지에서 처리얼굴이미지와 상부얼굴이미지를 생성하고, 입력얼굴이미지에서 처리얼굴이미지와 상부얼굴이미지를 각각 생성하여, 결과적으로 출석얼굴이미지와, 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 입력얼굴이미지와, 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지 총 6개의 이미지를 생성할 수 있다. In detail, in the image generation step (S130), a processed face image and an upper face image are generated from the attendance face image, and a processed face image and an upper face image are generated from the input face image, respectively, as a result, the attendance face image and the attendance face A total of six images may be generated: an upper face image and a processed face image generated from the image, an input face image, and an upper face image and a processed face image generated from the input face image.

출결체크단계(S140)는, 출결분석부(400)가 상기 출석얼굴이미지와 상기 이미지생성부(300)에 의하여 생성된 얼굴이미지를 매칭하여 출석여부를 체크하여 구성될 수 있다.The attendance check step (S140) may be configured by the attendance analysis unit 400 matching the attendance face image with the face image generated by the image generating unit 300 to check attendance.

구체적으로, 출결체크단계(S140)에서는, 이미지지생성부(300)에서 생성된 이미지들을 각각 R512의 목표공간으로 임베딩하고(S141), 이렇게 임베딩하여 생성된 벡터 간 거리를 계산하여 계산된 거리를 기준으로 매칭하여 출석 여부를 체크(S142)할 수 있다. 이때, 출석여부 체크는, 임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 작은 값의 거리가 매칭되도록 하여 출석여부를 체크할 수 있다. Specifically, in the attendance check step (S140), the images generated by the image generation unit 300 are respectively embedded into the target space of R 512 (S141), and the distance calculated by calculating the distance between the vectors generated by embedding in this way It is possible to check the attendance by matching based on (S142). At this time, the attendance check can check the attendance by calculating the cosine distance (Angular/cosine Distance) between the vectors generated by embedding so that the distance of the smallest value is matched.

세부적으로, 전술한 바와 같이 출결체크단계(S140)에서, 전술한 바와 같이 출석얼굴이미지와 입력얼굴이미지 사이의 벡터간 거리를 계산하여 제1거리를 계산하고, 출석얼굴이미지와 입력얼굴이미지에서 생성된 상부얼굴이미지 사이의 벡터간 거리를 계산하여 제2거리를 계산하고, 출석얼굴이미지와 입력얼굴이미지에서 생성된 처리얼굴이미지 사이의 벡터간 거리를 계산하여 제3거리를 계산하며, 이렇게 구한 제1거리와, 제2거리와, 제3거리를 조합하여 이를 기준으로 매칭하도록 구성될 수 있다. In detail, as described above, in the attendance check step (S140), the first distance is calculated by calculating the distance between the vectors between the attendance face image and the input face image as described above, and generated from the attendance face image and the input face image The second distance is calculated by calculating the distance between vectors between The first distance, the second distance, and the third distance may be combined and configured to match based on this.

이하에서는, 본 발명의 얼굴인식을 통한 출석체크 시스템의 세부 실시예에 대하여 살펴보기로 한다.Hereinafter, a detailed embodiment of the attendance check system through face recognition of the present invention will be described.

본 발명은 마스크를 착용한 얼굴을 인식하는 방법을 제시하고, 강의실의 CCTV를 통해 얻은 영상에서 얼굴을 탐지하고 기존 데이터베이스에 등록된 얼굴과 비교하여 자동으로 출석을 체크하는 딥 러닝 시스템을 설계하도록 구성될 수 있다.The present invention proposes a method for recognizing a face wearing a mask, and is configured to design a deep learning system that detects a face from an image obtained through CCTV in a classroom and automatically checks attendance by comparing it with a face registered in an existing database can be

1.1 얼굴 검출1.1 Face Detection

딥 러닝을 사용한 물체 검출 방법은 CNN 기반의 One-stage, Two-stage 탐지 방법으로 구분한다. 물체를 검출하는 방법은 크게 물체의 위치를 찾는 Localization과 물체를 구별하는 Classification으로 이루어진다. One-stage 탐지 방법은 두 가지를 동시에 수행하고, Two-stage 탐지 방법은 순차적으로 수행한다. One-stage 방법은 Two-stage 방법에 비해 정확도가 부족하지만, 속도가 빠르다는 특징이 있다.Object detection methods using deep learning are classified into CNN-based one-stage and two-stage detection methods. The method of detecting an object is largely composed of localization that finds the location of an object and classification that distinguishes the object. One-stage detection method performs two things simultaneously, and two-stage detection method performs sequentially. The one-stage method lacks accuracy compared to the two-stage method, but is characterized by high speed.

얼굴 검출에서는 One-stage 방법으로도 충분한 정확도를 보이기 때문에 RetinaFace 라는 One-stage 기반의 Multi-Task Learning 전략을 사용하는 모델을 사용한다. RetinaFace에서 Multi-Task Learning 전략은 얼굴을 검출하는 바운딩 박스(bounding box)를 탐색하는 것뿐만 아니라 신뢰도, 얼굴의 눈, 코,입의 양 끝을 표시하는 5개의 랜드마크(landmark), 3D 위치 및 대응관계를 동시에 예측하는 전략이다. WIDER FACE 데이터셋 등 여러 얼굴 검출 데이터셋에서 최첨단 성능을 달성할 수 있다.In face detection, a model using a one-stage based multi-task learning strategy called RetinaFace is used because the one-stage method shows sufficient accuracy. In RetinaFace, the Multi-Task Learning strategy not only explores the bounding box to detect a face, but also provides reliability, 5 landmarks marking both ends of the face's eyes, nose, and mouth, 3D location and It is a strategy that simultaneously predicts the corresponding relationship. State-of-the-art performance can be achieved with multiple face detection datasets, such as the WIDER FACE dataset.

1.2 얼굴 인식1.2 Face Recognition

얼굴 인식을 위해 CNN으로 얼굴을 표현하는 임베딩을 학습하여 같은 사람의 얼굴을 임베딩한 벡터 간의 거리는 짧고, 다른 사람의 얼굴을 임베딩한 벡터 간 거리는 멀도록 학습한다. ArcFace는 기존의 Cosine Loss, Triplet Loss 등 Loss함수를 개선하는 Additive Angular Margin Loss를 도입하여 Hypershpere의 Geodesic Distance Margin을 최적화한다. 이런 특징으로 ArcFace는 대규모 영상 데이터셋을 포함한 여러 얼굴 인식 벤치마크들에서 최첨단 성능을 달성할 수 있다.By learning embeddings that express faces with CNN for face recognition, the distance between vectors embedding the same person's face is short, and the distance between vectors embedding other people's faces is long. ArcFace optimizes Hypershpere's Geodesic Distance Margin by introducing Additive Angular Margin Loss, which improves the existing Loss functions such as Cosine Loss and Triplet Loss. These features enable ArcFace to achieve state-of-the-art performance in several face recognition benchmarks, including large image datasets.

2. The Proposed Scheme2. The Proposed Scheme

본 발명은 얼굴 탐지 및 인식 모델을 통한 자동 출석체크 시스템을 제공할 수 있다. The present invention can provide an automatic attendance check system through a face detection and recognition model.

이러한 본 발명의 구조는 도 7에 도시된 바와 같으며, 이에 대하여 살펴보면 먼저 영상에서 RetinaFace를 통해 얼굴을 탐지하고, 기존 데이터베이스 즉 출석부의 얼굴 사진 및 탐지한 얼굴을 ArcFace를 통해  R512의 목표 공간으로 임베딩한다. 임베딩하여 생성된 두 벡터 사이의 거리를 Angular Cosine Distance로 측정하여 가장 가까운 두 사진을 서로 매칭한다. 두 벡터 사이의 Angular Cosine Distace는 수학식 1에 의하여 측정할 수 있다. The structure of the present invention is as shown in FIG. 7, and looking at this, first, a face is detected in the image through RetinaFace, and the face photo and detected face in the existing database, that is, the attendance list, are transferred to the target space of R 512 through ArcFace. embed By measuring the distance between two vectors generated by embedding as Angular Cosine Distance, the two closest photos are matched with each other. The Angular Cosine Distance between two vectors can be measured by Equation (1).

수학식 1Equation 1

Figure 112020083671685-pat00001
Figure 112020083671685-pat00001

또한, 매칭 알고리즘은 표 1과 같다.Also, the matching algorithm is shown in Table 1.

표 1Table 1

Figure 112020083671685-pat00002
Figure 112020083671685-pat00002

알고리즘의 입력은 임베딩된 이미지들의 집합으로, 각각의

Figure 112020083671685-pat00003
는 크기(1,512)의 벡터이다. 출력은 중복값이 제거된 출석 정보를 담은 리스트 S로, 크기는 1×m이다. 먼저 임베딩 벡터들 사이의 유사도를 구해 m×m 크기의 행렬 F를 생성한다. 이 행렬은 모든 경우의 출석을 비교하기 위해 사용된다. 알고리즘은
Figure 112020083671685-pat00004
과 같은 중복값이 발생하지 않을 때까지 모든 행(rows)을 반복하며, 중복값이 발생할 경우 해당 행(row)에 예외처리를 한다.The input to the algorithm is a set of embedded images, each
Figure 112020083671685-pat00003
is a vector of size (1,512). The output is a list S containing attendance information with duplicate values removed, and the size is 1×m. First, the similarity between embedding vectors is calculated to generate a matrix F of size m×m. This matrix is used to compare attendance in all cases. Algorithm is
Figure 112020083671685-pat00004
Repeats all rows until no duplicate values such as .

검출된 얼굴이 마스크를 착용한 경우 얼굴의 하단부가 가려지는 폐색 문제가 발생한다. 이 경우 출석부의 사진과 탐지된 얼굴의 동일성을 판단하기 어렵다. 이를 해결하려는 방법으로 Arcface의 입력으로 사용할 2가지 이미지 생성 방식을 제안한다. 첫 번째 방식은 RetinaFace를 통해 검출된 바운딩 박스에서 코를 지나는 수평선 하단부를 모두 흰색으로 바꾸어 새로운 이미지를 생성한다. 하단부에 서는 동일한 특성을 추출하고, 상단부만 다른 특성을 추출하여 상단부 위주의 거리를 측정한다. 두 번째 방식은 바운딩 박스에서 코를 지나는 수평선 하단부를 잘라내고 상단부만 남긴 이미지를 생성한다. 폐색이 일어난 것으로 예측되는 부분을 제외한 상단부만의 특징을 추출하여 거리를 측정한다. 폐색이 일어나지 않은 부분의 특징에 가중치를 주기 위해 각각 거리를 측정하여 기존 바운딩 박스의 거리와 결합한다When the detected face wears a mask, an occlusion problem occurs in which the lower part of the face is covered. In this case, it is difficult to determine the identity between the photo of the attendance book and the detected face. As a way to solve this problem, we propose two image creation methods to be used as input of Arcface. The first method creates a new image by changing the lower part of the horizontal line passing through the nose to white in the bounding box detected through RetinaFace. The same characteristics are extracted from the lower end, and different characteristics are extracted only from the upper end, and the distance centered on the upper end is measured. The second method creates an image that cuts off the lower part of the horizontal line passing through the nose in the bounding box and leaves only the upper part. The distance is measured by extracting the features of only the upper part, excluding the part where the occlusion is predicted. In order to give weight to the features of the non-occlusion area, each distance is measured and combined with the distance of the existing bounding box.

3. Experiments3. Experiments

3.1 실험 환경3.1 Experimental environment

RetinaFace는 ResNet-50[9]을 backbone으로 WIDER FACE 데이터셋에서 사전 훈련된 모델을, ArcFace는 ResNet-50을 backbone으로 MS Celeb 1M 데이터셋에서 사전 훈련된 모델을 사용한다.RetinaFace uses ResNet-50 [9] as a backbone and a pre-trained model on the WIDER FACE dataset, and ArcFace uses ResNet-50 as a backbone and a pre-trained model on the MS Celeb 1M dataset.

실험 데이터는 The 'Celebrity Together' Dataset의 훈련 데이터셋에서 임의의 100개 클래스 중 정면 사진을 골라 마스크를 씌운 새로운 데이터셋을 만들었다. 기존 데이터베이스 즉 출석부의 사진처럼 사용할 데이터는 D1, CCTV 환경에서 검출된 이미지처럼 사용할 데이터는 D2, D3는 D2의 이미지에서 마스크를 씌워 만든 이미지 데이터이다. 실험1은 D1과 D2, 실험2는 D1과 D3를 매칭하는 것으로 명칭 한다.For experimental data, a new dataset was created with a mask by selecting frontal photos from random 100 classes from the training dataset of The 'Celebrity Together' dataset. The existing database, that is, the data to be used like a photo of the attendance book is D1, the data to be used like the image detected in the CCTV environment is D2, and D3 is the image data created by putting a mask on the image of D2. Experiment 1 is called matching D1 and D2, and Experiment 2 is called matching D1 and D3.

3.2 RetinaFace와 ArcFace 최적화3.2 Optimizing RetinaFace and ArcFace

RetinaFace를 통해 검출된 얼굴의 바운딩 박스의 크기와 데이터베이스의 사진 크기와의 관계를 파악한다. 동일 인물을 약 45cm 간격으로 5장씩 촬영하여 서로 다른 해상도의 이미지에서 동일 인물 간거리를 계산하면 비슷한 크기의 사진에서는 0.2 근처의 값으로 측정되는 반면 크기가 많이 차이 나는 경우 0.4 근처의 값으로 차이가 크다. 따라서 본 발명에서는 출석부의 사진을 CCTV를 통해 측정되는 바운딩 박스의 크기와 비슷하게 한다.The relationship between the size of the bounding box of the face detected through RetinaFace and the size of the photo in the database is identified. If you take 5 pictures of the same person at intervals of about 45 cm and calculate the distance between the same people in images with different resolutions, the value is around 0.2 for similarly sized photos, whereas the difference is around 0.4 for large differences in size. . Therefore, in the present invention, the photo of the attendance book is similar to the size of the bounding box measured through CCTV.

3.3 유사도 측정 방법3.3 How to measure similarity

본 발명에서 거리를 측정할 3가지 이미지를 다음과 같이 명명할 수 있다. F는 얼굴 이미지 전체, W는 얼굴 이미지의 하단부를 흰색으로 변경한 이미지(처리얼굴이미지), N은 얼굴 상단부 이미지(상부얼굴이미지)를 의미한다. 3가지 이미지를 임베딩하여 실험하여 Rank-1, 매칭 정확도를 측정한 실험 결과는 표 2와 같다.In the present invention, the three images for which the distance is to be measured can be named as follows. F stands for the entire face image, W stands for the image in which the lower part of the face image is changed to white (processed face image), and N stands for the upper face image (upper face image). Table 2 shows the results of measuring Rank-1 and matching accuracy by experimenting with embedding three images.

표 2Table 2

Figure 112020083671685-pat00005
Figure 112020083671685-pat00005

실험1에서 W 이미지는 F 이미지에 비해 좋지 않은 성능을 기록하지만, 마스크를 착용한 실험 2에서는 더 좋은 성능을 기록한다. 이를 조합하여 마스크를 착용하지 않은 경우의 정확도를 떨어뜨리지 않고, 마스크를 착용한 경우의 정확도만 높이기 위해 수학식 2와 같은 거리 결합 방법을 제안할 수 있다.In Experiment 1, the W image recorded poor performance compared to the F image, but in Experiment 2 wearing a mask, it recorded better performance. By combining these, a distance combining method as in Equation 2 may be proposed in order to increase the accuracy only when the mask is worn without reducing the accuracy when the mask is not worn.

수학식 2Equation 2

Figure 112020083671685-pat00006
Figure 112020083671685-pat00006

여기서,

Figure 112020083671685-pat00007
로 측정될 수 있다.here,
Figure 112020083671685-pat00007
can be measured as

3.4 실험 결과3.4 Experimental results

수학식 2의 거리를 3개의 이미지를 조합하여 Rank-1, 매칭 정확도를 측정한 실험 결과는 표 3과 같다. 3개 중 2개만 조합하여 측정한 경우에도 α,β,γ의 값은 위와 같다.Table 3 shows the experimental results of measuring Rank-1 and matching accuracy by combining the distance of Equation 2 with three images. The values of α, β, and γ are the same as above even when only two out of three are combined and measured.

표 3Table 3

Figure 112020083671685-pat00008
Figure 112020083671685-pat00008

이를 살펴보면, 마스크를 착용하지 않은 실험 1의 경우 본 발명을 적용했을 때 얼굴 검출한 바운딩 박스만 사용하여 거리를 측정한 경우와 크게 다르지 않은 결과를 보였다. 하지만 모두 마스크를 착용한 실험 2의 경우 성능이 향상되었음을 확인할 수 있다.Looking at this, in the case of Experiment 1 not wearing a mask, when the present invention was applied, the result was not significantly different from that in the case of measuring the distance using only the bounding box in which the face was detected. However, it can be seen that the performance was improved in the case of Experiment 2, in which all masks were worn.

F 이미지에서 80%의 Rank-1, 88%의 매칭 정확도를 F, W, N 이미지에서 거리를 결합하여 각각 85%의 Rank-1, 94%의 매칭정확도로 향상시켰다. 실제 강의실 환경에서 10명을 대상으로 결과는 다음과 같다. 실험1은 마스크를 쓰지 않은 환경에서, 실험2는 마스크를 착용한 환경에서 출석부의 사진과 매칭하는 것으로 명칭 한다. 한편, 도 9는 실제 강의실 환경에서 실험한 사진을 나타내며, 표 4는 도 9의 실험환경에서 실시한 Rank-1 및 매칭 정확도를 나타낸다.The matching accuracy of 80% Rank-1 and 88% in the F image was improved to 85% Rank-1 and 94% matching accuracy by combining the distances in the F, W, and N images, respectively. The results for 10 people in an actual classroom environment are as follows. Experiment 1 is named as matching the photo of the attendance sheet in an environment without a mask, and Experiment 2 in an environment wearing a mask. On the other hand, FIG. 9 shows a photograph tested in an actual classroom environment, and Table 4 shows Rank-1 and matching accuracy performed in the experimental environment of FIG. 9 .

표 4Table 4

Figure 112020083671685-pat00009
Figure 112020083671685-pat00009

4. Conclusions4. Conclusions

본 발명은 CCTV 영상을 통한 자동 출석체크 시스템을 제공하는 것으로, 영상에서 CNN을 활용하여 얼굴을 검출 및 임베딩하여 기존 데이터베이스의 사진과 비교하여 출석 여부를 판단한다. 그리고 실제 환경에 적용하기 위해 경량의 backbone 네트워크를 사용하였으며, 정면 얼굴이 검출될 수 있는 환경으로 제한하였다.The present invention is to provide an automatic attendance check system through a CCTV image, and by using CNN in the image to detect and embed a face, compare it with a picture in an existing database to determine whether or not to attend. And to apply it to the real environment, a lightweight backbone network was used, and it was limited to an environment where a front face could be detected.

또한, 마스크를 쓴 경우 동일성을 잘 판단하기 위해 얼굴 하단부를 흰색으로 만든 이미지, 얼굴의 상단부 이미지로 임베딩된 벡터로 거리를 측정하고 얼굴 전체 이미지에서 얻은 거리와 결합 방법을 제공할 수 있다.In addition, if you wear a mask, you can measure the distance with a vector embedded as an image of the lower part of the face in white and the image of the upper part of the face in order to judge the sameness well, and provide a method of combining with the distance obtained from the entire face image.

이에, 100명을 대상으로 마스크를 착용하지 않은 경우의 정확도를 유지하면서, 마스크를 쓴 상황에서 기존 방법보다 Rank-1 정확도를 16%, 매칭 정확도를 19% 증가시킬 수 있다. 따라서 본 발명은 폐색이 있는 부분에 동일한 처리 방법을 통해 폐색을 지우거나, 폐색이 일어나지 않은 부분만으로 거리를 측정하여 전체 이미지에서 측정한 거리와 결합하여 매칭하는 것이 선글라스, 모자 등으로 얼굴의 다른 부분을 가려 생기는 폐색 문제에 잘 대응할 것으로 기대할 수 있다.Accordingly, it is possible to increase the Rank-1 accuracy by 16% and the matching accuracy by 19% compared to the existing method in a mask-wearing situation while maintaining the accuracy of 100 people without a mask. Therefore, in the present invention, it is possible to erase the occlusion through the same processing method on the part with the occlusion, or measure the distance only for the part where the occlusion does not occur and combine it with the distance measured in the entire image to match other parts of the face with sunglasses, hat, etc. It can be expected to respond well to the occlusion problem caused by occlusion.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 다른 실시예가 가능하다는 점을 이해할 것이다. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의하여 정해져야 할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, which is merely exemplary, it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible therefrom. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

10 : 이미지촬영부
20 : 출석체크장치
100 : 데이터베이스부
200 : 이미지검출부
300 : 이미지생성부
400 : 출결분석부
500 : 출석체크 시스템
10: image recording unit
20: attendance check device
100: database unit
200: image detection unit
300: image generator
400: attendance analysis unit
500: attendance check system

Claims (14)

강의에 대한 출석부이미지와, 강의실을 촬영한 강의실영상들이 저장된 데이터베이스부와;
상기 데이터베이스로부터 해당 강의에 대한 상기 출석부이미지로부터 얼굴을 추출하여 출석얼굴이미지들을 검출하고, 상기 강의실영상으로부터 얼굴을 추출하여 입력얼굴이미지들을 검출하는 이미지검출부와;
상기 이미지검출부에 의하여 검출된 상기 출석얼굴이미지와 상기 입력얼굴이미지에서 코를 기준으로 수평선상의 기준선을 설정하고, 상기 기준선에 대하여 상기 출석얼굴이미지 또는 상기 입력얼굴이미지를 부분 처리하여 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하는 이미지생성부와;
상기 출석얼굴이미지와 상기 이미지생성부에 의하여 생성된 얼굴이미지를 매칭하여 출석여부를 체크하는 출결분석부;를 포함하여 구성되고,
상기 이미지생성부는,
상기 출석얼굴이미지와 상기 입력얼굴이미지 각각을 부분 처리하여 얼굴이미지를 생성하도록 구성되고,
상기 이미지생성부는,
상기 기준선에 대하여 상부영역의 얼굴 상부의 얼굴이미지만을 추출한 상부얼굴이미지와,
상기 기준선에 대하여 하부영역을 이미지 처리한 처리얼굴이미지를 각각 생성하도록 구성되고,
상기 출결분석부는,
상기 출석얼굴이미지와, 상기 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 상기 입력얼굴이미지와, 상기 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지를 각각 R512의 목표공간으로 임베딩하여 생성된 벡터 간 거리를 계산하고, 계산된 거리를 조합 및 매칭하여 출석 여부를 체크하도록 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템.
A database unit in which the attendance book image for the lecture and the lecture room images taken in the lecture room are stored;
an image detection unit for extracting a face from the attendance book image for a corresponding lecture from the database to detect attendance face images, and extracting a face from the lecture room image to detect input face images;
In the presence face image and the input face image detected by the image detection unit, a reference line on a horizontal line is set based on the nose, and a mask is worn by partially processing the attendance face image or the input face image with respect to the reference line an image generating unit generating a face image assuming ;
and an attendance analysis unit that matches the attendance face image and the face image generated by the image generator to check attendance.
The image generating unit,
It is configured to generate a face image by partially processing each of the attendance face image and the input face image,
The image generating unit,
an upper face image obtained by extracting only a face image of the upper part of the face in the upper region with respect to the reference line;
It is configured to generate each processed face image in which the image processing of the lower region with respect to the reference line is performed,
The attendance analysis unit,
The attendance face image, the upper face image and the processed face image generated from the attendance face image, the input face image, and the upper face image and the processed face image generated from the input face image are converted into the target space of R 512 , respectively. Attendance check system through face recognition, characterized in that it is configured to calculate the distance between the vectors generated by embedding, and check the attendance by combining and matching the calculated distance.
제 1 항에 있어서,
상기 이미지검출부는,
Retinaface 모델을 이용하여 상기 출석얼굴이미지와 상기 입력얼굴이미지를 검출하도록 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템.
The method of claim 1,
The image detection unit,
Attendance check system through face recognition, characterized in that it is configured to detect the attendance face image and the input face image using a Retinaface model.
삭제delete 삭제delete 제 1 항에 있어서,
상기 이미지생성부는,
ArcFace모델을 통하여 상기 상부얼굴이미지와, 상기 처리얼굴이미지를 생성하도록 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템.
The method of claim 1,
The image generating unit,
Attendance check system through face recognition, characterized in that it is configured to generate the upper face image and the processed face image through the ArcFace model.
삭제delete 제 1 항에 있어서,
상기 출결분석부는,
임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 짧은 거리를 기준으로 매칭하여 출석 여부를 체크하도록 구성됨을 특징으로 하는 얼굴인식을 통한 출석체크 시스템.
The method of claim 1,
The attendance analysis unit,
Attendance check system through face recognition, characterized in that it is configured to check attendance by calculating the cosine distance (Angular/cosine Distance) between vectors generated by embedding and matching based on the shortest distance.
강의에 대한 출석부이미지와, 강의실을 촬영한 강의실영상들을 데이터베이스에 저장하는 이미지저장단계와;
이미지검출부가 해당 강의에 대하여 상기 데이터베이스의 상기 출석부이미지로부터 얼굴을 추출하여 출석얼굴이미지들을 검출하고, 상기 강의실영상으로부터 얼굴을 추출하여 입력얼굴이미지들을 검출하는 얼굴검출단계와;
이미지생성부가 상기 이미지검출부에 의하여 검출된 상기 출석얼굴이미지와 상기 입력얼굴이미지에서 코를 기준으로 수평선상의 기준선을 설정하고, 상기 기준선에 대하여 상기 입력얼굴이미지 또는 출석얼굴이미지를 부분 처리하여, 마스크를 착용했을 경우를 가정한 얼굴이미지를 생성하는 이미지생성단계와;
출결분석부가 상기 출석얼굴이미지와 상기 이미지생성부에 의하여 생성된 얼굴이미지를 매칭하여 출석여부를 체크하는 출결체크단계;를 포함하여 구성되고,
상기 이미지생성단계는,
상기 이미지생성부가 상기 출석얼굴이미지와 상기 입력얼굴이미지 각각을 부분 처리하여 얼굴이미지를 생성하도록 구성되고,
상기 이미지생성단계는,
상기 이미지생성부가 상기 기준선에 대하여 상부영역의 얼굴 상부의 얼굴이미지만을 추출한 상부얼굴이미지와, 상기 기준선에 대하여 하부영역을 이미지처리한 처리얼굴이미지를 각각 생성하고,
상기 출결체크단계는,
상기 출결분석부가 상기 출석얼굴이미지와, 상기 출석얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지와, 상기 입력얼굴이미지와, 상기 입력얼굴이미지에서 생성된 상부얼굴이미지 및 처리얼굴이미지를 각각 R512의 목표공간으로 임베딩하여 생성된 벡터 간 거리를 계산하고, 계산된 거리를 조합 및 매칭하여 출석 여부를 체크하는 것을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 이용한 얼굴인식 방법.
an image storage step of storing the attendance book image for the lecture and the classroom images taken of the lecture room in a database;
a face detection step in which an image detection unit extracts a face from the attendance book image of the database for a corresponding lecture to detect attendance face images, and extracts a face from the lecture room image to detect input face images;
An image generating unit sets a baseline on a horizontal line based on the nose in the face image and the input face image detected by the image detection unit, and partially processes the input face image or the face image with respect to the reference line to form a mask An image generating step of generating a face image assuming a case of wearing;
Attendance check step of checking attendance by matching the attendance face image and the face image generated by the image generator by the attendance analysis unit;
The image creation step is
The image generating unit is configured to generate a face image by partially processing each of the attendance face image and the input face image,
The image creation step is
The image generating unit generates an upper face image in which only a face image of the upper region of the face is extracted with respect to the reference line, and a processed face image obtained by image processing of the lower region with respect to the reference line, respectively;
The attendance check step is,
The attendance analysis unit R512 each of the attendance face image, the upper face image and processed face image generated from the attendance face image, the input face image, and the upper face image and processed face image generated from the input face image A face recognition method using an attendance check system through face recognition, characterized in that it calculates the distance between vectors generated by embedding into the target space of , and checks the attendance by combining and matching the calculated distance.
제 8 항에 있어서,
상기 얼굴검출단계는,
상기 이미지검출부가 Retinaface 모델을 이용하여 상기 출석얼굴이미지와 상기 입력얼굴이미지를 검출하는 것을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 이용한 얼굴인식 방법.
9. The method of claim 8,
The face detection step is
The face recognition method using an attendance check system through face recognition, characterized in that the image detection unit detects the attendance face image and the input face image using a Retinaface model.
삭제delete 삭제delete 제 8 항에 있어서,
상기 이미지생성단계는,
상기 이미지생성부가 ArcFace모델을 통하여 상기 상부얼굴이미지와, 상기 처리얼굴이미지를 생성하는 것을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 이용한 얼굴인식 방법.
9. The method of claim 8,
The image creation step is
The face recognition method using the attendance check system through face recognition, characterized in that the image generator generates the upper face image and the processed face image through the ArcFace model.
삭제delete 제 8 항에 있어서,
상기 출결체크단계는,
상기 출결분석부가 임베딩하여 생성된 벡터 간의 코사인 거리(Angular/cosine Distance)를 계산하여 가장 짧은 거리를 기준으로 매칭하여 출석 여부를 체크하는 것을 특징으로 하는 얼굴인식을 통한 출석체크 시스템을 이용한 얼굴인식 방법.
9. The method of claim 8,
The attendance check step is,
A face recognition method using an attendance check system through face recognition, characterized in that the attendance analysis unit calculates the cosine distance (Angular/cosine Distance) between the vectors generated by embedding and checks the attendance by matching based on the shortest distance .
KR1020200099777A 2020-08-10 2020-08-10 Attendance check system using face recognition and attendance check method using same KR102435581B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200099777A KR102435581B1 (en) 2020-08-10 2020-08-10 Attendance check system using face recognition and attendance check method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200099777A KR102435581B1 (en) 2020-08-10 2020-08-10 Attendance check system using face recognition and attendance check method using same

Publications (3)

Publication Number Publication Date
KR20220019403A KR20220019403A (en) 2022-02-17
KR102435581B1 true KR102435581B1 (en) 2022-08-24
KR102435581B9 KR102435581B9 (en) 2024-02-08

Family

ID=80493294

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200099777A KR102435581B1 (en) 2020-08-10 2020-08-10 Attendance check system using face recognition and attendance check method using same

Country Status (1)

Country Link
KR (1) KR102435581B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100734849B1 (en) * 2005-11-26 2007-07-03 한국전자통신연구원 Method for recognizing face and apparatus thereof
KR102078249B1 (en) * 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102244013B1 (en) 2018-09-06 2021-04-22 포항공과대학교 산학협력단 Method and apparatus for face recognition
KR102177235B1 (en) * 2018-11-28 2020-11-11 동국대학교 산학협력단 An attendance check system using deep learning based face recognition

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100734849B1 (en) * 2005-11-26 2007-07-03 한국전자통신연구원 Method for recognizing face and apparatus thereof
KR102078249B1 (en) * 2019-06-18 2020-02-17 주식회사 페이스테그 Method for face authentication, apparatus for face authentication and computer program for the same

Also Published As

Publication number Publication date
KR20220019403A (en) 2022-02-17
KR102435581B9 (en) 2024-02-08

Similar Documents

Publication Publication Date Title
KR102596897B1 (en) Method of motion vector and feature vector based fake face detection and apparatus for the same
CN109934176B (en) Pedestrian recognition system, recognition method, and computer-readable storage medium
KR102147052B1 (en) Emotional recognition system and method based on face images
JP4241763B2 (en) Person recognition apparatus and method
KR101781358B1 (en) Personal Identification System And Method By Face Recognition In Digital Image
KR102174595B1 (en) System and method for identifying faces in unconstrained media
US8705813B2 (en) Identification device, identification method, and storage medium
CN105740778B (en) Improved three-dimensional human face in-vivo detection method and device
KR20160011916A (en) Method and apparatus of identifying user using face recognition
KR101252843B1 (en) Method of Managing Image in a Mobile Communication Terminal
KR102078249B1 (en) Method for face authentication, apparatus for face authentication and computer program for the same
CN109858375A (en) Living body faces detection method, terminal and computer readable storage medium
WO2016158811A1 (en) Image processing device, image processing method, and image processing system
WO2020195732A1 (en) Image processing device, image processing method, and recording medium in which program is stored
JP2014529815A (en) Fraud detection in biometric type access control systems
RU2315352C2 (en) Method and system for automatically finding three-dimensional images
US20220157078A1 (en) Adaptive learning and matching of face modalities
US20070253598A1 (en) Image monitoring apparatus
KR102435581B1 (en) Attendance check system using face recognition and attendance check method using same
CN111738059A (en) Non-sensory scene-oriented face recognition method
JP2021110962A (en) Search method and device in search support system
CN113989914B (en) Security monitoring method and system based on face recognition
CN114359646A (en) Video analysis method, device, system, electronic equipment and medium
Kainz et al. Students’ Attendance Monitoring through the Face Recognition
KR102613983B1 (en) Real-time rescue request response method using unmanned mobile vehicle and device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
G170 Re-publication after modification of scope of protection [patent]