KR102248706B1 - System for intergrated education management based on intelligent image analysis technology and method thereof - Google Patents

System for intergrated education management based on intelligent image analysis technology and method thereof Download PDF

Info

Publication number
KR102248706B1
KR102248706B1 KR1020190106015A KR20190106015A KR102248706B1 KR 102248706 B1 KR102248706 B1 KR 102248706B1 KR 1020190106015 A KR1020190106015 A KR 1020190106015A KR 20190106015 A KR20190106015 A KR 20190106015A KR 102248706 B1 KR102248706 B1 KR 102248706B1
Authority
KR
South Korea
Prior art keywords
image
training
domain
facial
abnormal situation
Prior art date
Application number
KR1020190106015A
Other languages
Korean (ko)
Other versions
KR20210025945A (en
Inventor
구인혁
Original Assignee
구인혁
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구인혁 filed Critical 구인혁
Priority to KR1020190106015A priority Critical patent/KR102248706B1/en
Publication of KR20210025945A publication Critical patent/KR20210025945A/en
Application granted granted Critical
Publication of KR102248706B1 publication Critical patent/KR102248706B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • G06K9/00221
    • G06K9/00268
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

통합 교육 관리 시스템 및 그 방법이 제공된다. 본 개시의 몇몇 실시예에 따른 통합 교육 관리 시스템은, 하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 수집부와 안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하고, 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 출결 관리부를 포함할 수 있다.An integrated education management system and method thereof are provided. In the integrated education management system according to some embodiments of the present disclosure, a collection unit for collecting images of an education place from one or more photographing devices and a training participant included in the collected image through facial recognition are identified, and the identification result It may include an attendance management unit to determine whether the attendance of the training participant based on.

Description

지능형 영상 분석 기술에 기반한 통합 교육 관리 시스템 및 그 방법{SYSTEM FOR INTERGRATED EDUCATION MANAGEMENT BASED ON INTELLIGENT IMAGE ANALYSIS TECHNOLOGY AND METHOD THEREOF}Integrated education management system and method based on intelligent video analysis technology {SYSTEM FOR INTERGRATED EDUCATION MANAGEMENT BASED ON INTELLIGENT IMAGE ANALYSIS TECHNOLOGY AND METHOD THEREOF}

본 개시는 지능형 영상 분석 기술에 기반한 통합 교육 관리 시스템 및 그 방법에 관한 것이다. 보다 상세하게는, 지능형 영상 분석 기술을 이용하여 교육 참가자에 대한 출결 관리, 교육 집중도 분석 및 교육 과정에서 발생되는 이상 상황 감지를 수행할 수 있는 통합 교육 관리 시스템 및 그 시스템에서 수행되는 방법에 관한 것이다.The present disclosure relates to an integrated education management system and method based on intelligent video analysis technology. More specifically, it relates to an integrated education management system capable of performing attendance management, analysis of education concentration, and detection of abnormal situations occurring in the course of education using intelligent video analysis technology, and a method performed in the system. .

정보 통신 기술의 발전과 스마트폰의 보급으로 인해 스마트 교육 환경을 조성하기 위한 초석이 마련되었고, 현재 다양한 교육 기관에서 스마트 교육을 위한 시스템의 도입을 추진 중에 있다. 스마트 교육 시스템의 대표적인 예로는 스마트 출결 관리 시스템을 들 수 있는데, 최근 일부 대학에서는 전자 카드, 비콘, 스마트폰의 블루투스 기능 등을 통해 자동으로 출결을 확인하는 시스템을 도입하고 있다.The development of information and communication technology and the spread of smartphones laid the foundation for creating a smart education environment, and various educational institutions are currently promoting the introduction of a system for smart education. A representative example of a smart education system is a smart attendance management system. Recently, some universities have introduced a system that automatically checks attendance through electronic cards, beacons, and Bluetooth functions of smartphones.

이러한 스마트 출결 관리 시스템은 학생, 강사 등의 교육 관계자들이 인터넷으로 출석 현황을 빠르게 확인할 수 있도록 함으로써, 교육 관리의 효율성과 편의성을 높일 수 있다.Such a smart attendance management system enables education officials such as students and instructors to quickly check attendance status through the Internet, thereby improving the efficiency and convenience of education management.

그러나, 위에서 언급한 출결 확인 방식은 교육 참가자가 소지한 단말이나 카드 등 물리적 장치를 통해 해당 참가자를 식별할 뿐이어서, 대리 출석 문제를 해결할 수가 없다. 또한, 비콘 또는 블루투스 기반 출결 확인 기법은 거리를 기반으로 출결을 확인하기 때문에, 교육 장소가 아닌 다른 장소에서 통신 연결을 하여 출석을 인정받을 수 있다. 따라서, 해당 기법에서도, 부정 출석의 가능성을 배제하기 어렵다.However, the above-mentioned attendance confirmation method only identifies the participant through a physical device such as a terminal or card possessed by the training participant, and thus cannot solve the problem of proxy attendance. In addition, since the beacon or Bluetooth-based attendance check method checks attendance based on distance, attendance can be recognized by communicating at a place other than an educational place. Therefore, even in this technique, it is difficult to rule out the possibility of irregular attendance.

또한, 교육 참가자들이 단말기나 카드를 별도로 소지해야 한다는 번거로움이 있고, 습기나 온도 등 환경적인 요소에 제약을 받는 경우도 생길 수 있으며, 장비 분실의 위험도 존재한다.In addition, there is a hassle of having to carry a terminal or a card separately, and there may be cases where the training participants are restricted by environmental factors such as humidity and temperature, and there is a risk of equipment loss.

아울러, 현재 스마트 교육 환경 조성과 관련된 대부분의 연구는 스마트 출결 관리에 치중되어 있으며, 교육 중에 참가자들의 집중도 분석을 통해 교육 효과를 개선하거나 교육 중에 발생되는 이상 상황을 실시간으로 감지하여 교육 장소의 안전을 확보하는 기술에 관해서는 거의 연구가 진행되지 않고 있다. 이로 인해, 교육 참가자의 출결 관리와 태도 관리, 교육 장소의 안전 관리 등을 통합 수행할 수 있는 시스템의 구축은 아직 요원한 실정이다.In addition, most of the current research related to the creation of a smart education environment is focused on smart attendance management, and improves the effectiveness of education through analysis of the concentration of participants during training, or detects abnormal situations during training in real time to ensure the safety of the training place. There is hardly any research on the technology to be secured. For this reason, the establishment of a system capable of integrating attendance management, attitude management, and safety management of training venues of training participants is still inadequate.

한국공개특허 제10-2016-0145384호 (2016.12.20. 공개)Korean Patent Publication No. 10-2016-0145384 (published on December 20, 2016)

본 개시의 몇몇 실시예를 통해 해결하고자 하는 기술적 과제는, 스마트 교육 환경을 조성할 수 있는 통합 교육 관리 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.A technical problem to be solved through some embodiments of the present disclosure is to provide an integrated education management system capable of creating a smart education environment and a method performed in the system.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 다른 기술적 과제는, 지능형 영상 분석 기술에 기반하여 대리 출석 문제를 해결하고 교육 참가자에 대한 출결 관리를 자동화할 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of solving a proxy attendance problem based on intelligent video analysis technology and automating attendance management for training participants, and a method performed in the system. It is to do.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 지능형 영상 분석 기술에 기반하여 교육 참가자의 집중도를 측정함으로써, 교육 효과를 개선시킬 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of improving training effect and a method performed in the system by measuring the concentration of training participants based on intelligent video analysis technology. will be.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 지능형 영상 분석 기술에 기반하여 교육 과정에서 발생되는 이상 상황을 감지함으로써, 안전한 교육 환경을 조성할 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is a system capable of creating a safe educational environment by detecting an abnormal situation occurring in an educational process based on an intelligent image analysis technology, and a system performed in the system. Is to provide a way.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 안면 인식의 정확도 향상을 통해 출석 관리의 편의성과 정확도를 개선시킬 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of improving the convenience and accuracy of attendance management by improving the accuracy of facial recognition, and a method performed in the system.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 장신구 착용에 따라 안면 인식의 정확도가 떨어지는 문제를 해결할 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of solving a problem in that the accuracy of facial recognition decreases according to wearing of jewelry, and a method performed in the system.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 고속으로 지능형 영상 분석을 수행함으로써, 이상 상황 감지의 실시간성을 확보할 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of securing real-time capability of detecting an abnormal situation by performing intelligent image analysis at high speed, and a method performed in the system.

본 개시의 몇몇 실시예를 통해 해결하고자 하는 또 다른 기술적 과제는, 영상 데이터 유출에 따른 프라이버시 침해 문제를 완화시킬 수 있는 시스템 및 그 시스템에서 수행되는 방법을 제공하는 것이다.Another technical problem to be solved through some embodiments of the present disclosure is to provide a system capable of mitigating a privacy invasion problem caused by video data leakage, and a method performed in the system.

본 개시의 기술적 과제들은 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 개시의 기술분야에서의 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The technical problems of the present disclosure are not limited to the technical problems mentioned above, and other technical problems that are not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 해결하기 위한, 본 개시의 몇몇 실시예에 따른 통합 교육 관리 시스템은, 하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 수집부 및 안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하고, 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 출결 관리부를 포함할 수 있다.In order to solve the technical problem, the integrated education management system according to some embodiments of the present disclosure includes a collection unit that collects images of an education place from one or more photographing devices, and education included in the collected images through facial recognition. It may include an attendance management unit that identifies the participant and determines whether the training participant attends or not based on the identification result.

몇몇 실시예에서, 상기 하나 이상의 촬영 장치 중 적어도 하나는 어안렌즈를 구비하고, 상기 어안렌즈에 의해 촬영된 이미지에 대해 디워핑(dewarping) 처리를 수행하는 처리부를 더 포함할 수 있다.In some embodiments, at least one of the one or more photographing devices may further include a processing unit including a fisheye lens and performing a dewarping process on an image captured by the fisheye lens.

몇몇 실시예에서, 상기 하나 이상의 촬영 장치 중 적어도 하나는 상기 교육 장소의 출입구를 촬영할 수 있다.In some embodiments, at least one of the one or more photographing devices may photograph the entrance of the educational venue.

몇몇 실시예에서, 상기 출결 관리부는, 상기 수집된 이미지에서 제1 방향의 안면 영역과 제2 방향의 안면 영역을 검출하고, 상기 제1 방향의 안면 영역에서 제1 특징점을 추출하며, 상기 제2 방향의 안면 영역에서 제2 특징점을 추출하고, 상기 제1 특징점 및 상기 제2 특징점에 기초하여 상기 교육 참가자를 식별할 수 있다.In some embodiments, the attendance management unit detects a facial area in a first direction and a facial area in a second direction from the collected image, extracts a first feature point from the facial area in the first direction, and the second A second feature point may be extracted from the facial area of the direction, and the training participant may be identified based on the first feature point and the second feature point.

몇몇 실시예에서, 상기 출결 관리부는, 상기 수집된 이미지를 분석하여 상기 교육 참가자의 장신구 착용 여부를 판단하고, 장신구를 착용했다는 판단에 응답하여, GAN(Generative Adversarial Networks) 기반의 이미지 변환 모델을 통해 상기 수집된 이미지를 장신구가 제거된 이미지로 변환하고, 상기 변환된 이미지에 대해 상기 안면 인식을 수행할 수 있다.In some embodiments, the attendance management unit analyzes the collected image to determine whether the training participant wears jewelry, and in response to the determination that the training participant has worn jewelry, through an image conversion model based on Generative Adversarial Networks (GAN). The collected image may be converted into an image from which ornaments have been removed, and the face recognition may be performed on the converted image.

몇몇 실시예에서, 상기 수집된 이미지를 상기 교육 장소에 대한 이탈 정도, 시선 움직임 및 상기 교육 참가자의 개인 단말 사용 정도 중 적어도 하나를 기준으로 분석하여 상기 교육 참가자의 집중도를 측정하는 집중도 측정부를 더 포함할 수 있다.In some embodiments, further comprising a concentration measurement unit for measuring the concentration of the training participant by analyzing the collected image based on at least one of a degree of departure from the training place, a gaze movement, and a degree of use of the personal terminal of the training participant can do.

몇몇 실시예에서, 상기 수집된 이미지를 분석하여 상기 교육 장소에서 발생하는 이상 상황을 감지하는 이상 상황 감지부 및 상기 감지된 이상 상황에 대응되는 조치를 수행하는 조치부를 더 포함할 수 있다.In some embodiments, an abnormal situation detector configured to detect an abnormal situation occurring in the educational place by analyzing the collected image, and an action unit configured to perform an action corresponding to the detected abnormal situation may be further included.

몇몇 실시예에서, 상기 수집된 이미지를 가공 처리하여 저장하는 저장부를 더 포함하되, 상기 가공 처리는, 상기 수집된 이미지에서 안면 영역을 검출하고, 상기 검출된 안면 영역 중 적어도 일부를 은폐 처리하며, 상기 은폐 처리된 안면 영역에 상기 교육 참가자의 식별 코드를 주입하는 과정을 포함할 수 있다.In some embodiments, further comprising a storage unit for processing and storing the collected image, wherein the processing includes detecting a facial area in the collected image, and concealing at least a portion of the detected facial area, It may include a process of injecting the identification code of the training participant into the concealed facial area.

상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예에 따른 통합 교육 관리 방법은, 컴퓨팅 장치에 의하여 수행되는 통합 교육 관리 방법에 있어서, 하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 단계, 안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하는 단계 및 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 단계를 포함할 수 있다.In the integrated education management method according to some embodiments of the present disclosure for solving the above technical problem, in the integrated education management method performed by a computing device, the steps of collecting an image of an education place from one or more photographing devices, It may include identifying the training participant included in the collected image through facial recognition, and determining whether the training participant attends or not based on the identification result.

상술한 기술적 과제를 해결하기 위한 본 개시의 몇몇 실시예에 따른 컴퓨터 프로그램은, 컴퓨팅 장치와 결합되어, 하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 단계, 안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하는 단계 및 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 단계를 실행시키기 위하여 컴퓨터로 판독 가능한 기록매체에 저장될 수 있다.A computer program according to some embodiments of the present disclosure for solving the above-described technical problem is combined with a computing device to collect an image of an education place from one or more photographing devices, and to the collected image through facial recognition. It may be stored in a computer-readable recording medium to execute the step of identifying the included training participant and determining whether the training participant attends or not based on the identification result.

상술한 본 개시의 다양한 실시예에 따르면, 지능형 영상 분석 기술을 활용하여 출결, 태도 및 안전 관리 등이 모두 가능한 통합 교육 관리 시스템이 구축될 수 있으며, 상기 시스템을 통해 스마트 교육 환경이 조성될 수 있다.According to various embodiments of the present disclosure described above, an integrated education management system capable of all attendance, attitude, and safety management, etc., may be constructed using intelligent video analysis technology, and a smart education environment may be created through the system. .

또한, 지능형 영상 분석을 통해 출결을 확인함으로써, 대리 출석이 원천 봉쇄되고 수업 중도 이탈도 방지될 수 있다. 뿐만 아니라, 출결 확인 자동화를 통해 출결 관리의 정확도와 효율성이 향상될 수 있다.In addition, by checking attendance through intelligent video analysis, proxy attendance is blocked at the source and dropout during class can be prevented. In addition, the accuracy and efficiency of attendance management can be improved by automating attendance verification.

또한, 다양한 각도의 안면 특징점을 이용하여 안면 인식이 수행될 수 있다. 이에 따라, 안면 인식 및 출결 확인의 정확도가 향상될 수 있다.In addition, facial recognition may be performed using facial feature points of various angles. Accordingly, the accuracy of facial recognition and attendance confirmation may be improved.

또한, 이미지 변환 모델을 통해 이미지 상의 장신구를 제거함으로써, 교육 참가자가 장신구를 착용한 경우에도 정확하게 안면 인식이 수행될 수 있다.In addition, by removing the ornaments on the image through the image conversion model, facial recognition can be accurately performed even when the training participant wears the ornaments.

또한, 지능형 영상 분석 기술을 활용하여 교육 참가자의 집중도가 측정될 수 있으며, 측정된 집중도 정보가 다양한 교육 관계자에게 제공될 수 있다. 이에 따라, 교육 참가자의 참여도를 비롯하여 전반적인 교육 효과가 증진될 수 있다.In addition, by using intelligent video analysis technology, the degree of concentration of training participants may be measured, and the measured concentration information may be provided to various education related persons. Accordingly, the overall educational effect, including the degree of participation of training participants, can be improved.

또한, 지능형 영상 분석 기술을 활용하여 폭력, 화재 등과 같이 교육 중에 발생될 수 있는 각종 이상 상황이 실시간으로 감지될 수 있으며, 감지된 이상 상황에 따라 적절한 조치가 자동으로 취해질 수 있다. 이에 따라, 안전 관리의 편의성이 증진되고, 안전한 교육 환경이 조성될 수 있다.In addition, by using intelligent video analysis technology, various abnormal situations that may occur during education, such as violence and fire, can be detected in real time, and appropriate actions can be automatically taken according to the detected abnormal situation. Accordingly, convenience of safety management can be improved, and a safe educational environment can be created.

또한, 색차 성분 제외, 다운샘플링을 통해 이상 상황 감지를 위해 분석되는 이미지 데이터가 경량화될 수 있다. 이에 따라, 이상 상황 감지의 실시간성이 확보될 수 있어, 더욱 안전한 교육 환경이 조성될 수 있다.In addition, image data analyzed to detect an abnormal situation through downsampling and excluding color difference components may be lightened. Accordingly, real-time detection of abnormal situations can be secured, and a safer educational environment can be created.

또한, 특징맵 병합 또는 종합을 통해 다양한 특징에 기반하여 이상 상황 감지가 수행될 수 있으며, 이에 따라 이상 상황 감지의 정확도가 향상될 수 있다.In addition, abnormal situation detection may be performed based on various features through feature map merging or synthesis, and accordingly, the accuracy of the abnormal situation detection may be improved.

또한, 교육 장소에 대한 이미지가 시스템에 저장되기 전에, 안면 영역에 대한 은폐 처리인 마스킹 처리가 수행되기 때문에, 데이터 유출에 따른 교육 참가자의 프라이버시 침해 문제가 미연에 방지될 수 있다.In addition, since the masking process, which is a concealment process for the facial area, is performed before the image of the training place is stored in the system, the problem of privacy invasion of the training participant due to data leakage can be prevented in advance.

본 개시의 기술적 사상에 따른 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects according to the technical idea of the present disclosure are not limited to the above-mentioned effects, and other effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 본 개시의 몇몇 실시예에 따른 통합 교육 관리 시스템을 나타내는 예시적인 구성도이다.
도 2는 본 개시의 몇몇 실시예에 따른 표준렌즈를 이용한 촬영 장치의 촬영 위치를 예시한다.
도 3 및 도 4는 본 개시의 다른 몇몇 실시예에 따른 어안렌즈 또는 광각렌즈를 이용한 촬영 장치의 촬영 위치와 왜곡 보정 방법을 설명하기 위한 도면이다.
도 5는 본 개시의 몇몇 실시예에 따른 통합 교육 관리 서버를 나타내는 예시적인 블록도이다.
도 6은 본 개시의 몇몇 실시예에 따른 출결 관리 방법을 나타내는 예시적인 흐름도이다.
도 7은 본 개시의 제1 실시예에 따른 안면 인식 방법을 설명하기 위한 예시도이다.
도 8 내지 도 11은 본 개시의 제2 실시예에 따른 안면 인식 방법을 설명하기 위한 도면이다.
도 12는 본 개시의 몇몇 실시예에 따른 교육 집중도 측정 방법을 나타내는 예시적인 흐름도이다.
도 13은 본 개시의 몇몇 실시예에 따른 이상 상황 감지 방법을 나타내는 예시적인 흐름도이다.
도 14 내지 도 16은 도 13에 도시된 이상 상황 감지 단계 S320의 세부 과정을 설명하기 위한 도면이다.
도 17은 본 개시의 몇몇 실시예에 따른 프라이버시 보호 방법을 설명하기 위한 예시도이다.
도 18은 본 개시의 다양한 실시예에 따른 장치들을 구현할 수 있는 예시적인 컴퓨팅 장치를 도시한다.
1 is an exemplary configuration diagram illustrating an integrated education management system according to some embodiments of the present disclosure.
2 illustrates a photographing position of a photographing apparatus using a standard lens according to some embodiments of the present disclosure.
3 and 4 are views for explaining a photographing position and a distortion correction method of a photographing apparatus using a fisheye lens or a wide-angle lens according to some other exemplary embodiments of the present disclosure.
5 is an exemplary block diagram illustrating an integrated education management server according to some embodiments of the present disclosure.
6 is an exemplary flowchart illustrating an attendance management method according to some embodiments of the present disclosure.
7 is an exemplary diagram for describing a face recognition method according to the first exemplary embodiment of the present disclosure.
8 to 11 are diagrams for describing a face recognition method according to a second exemplary embodiment of the present disclosure.
12 is an exemplary flowchart illustrating a method of measuring education concentration according to some embodiments of the present disclosure.
13 is an exemplary flowchart illustrating a method of detecting an abnormal situation according to some embodiments of the present disclosure.
14 to 16 are diagrams for explaining a detailed process of the abnormal situation detection step S320 shown in FIG. 13.
17 is an exemplary diagram for describing a privacy protection method according to some embodiments of the present disclosure.
18 illustrates an exemplary computing device capable of implementing devices according to various embodiments of the present disclosure.

이하, 첨부된 도면을 참조하여 본 개시의 바람직한 실시예들을 상세히 설명한다. 본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시의 기술적 사상은 이하의 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 이하의 실시예들은 본 개시의 기술적 사상을 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시의 기술적 사상은 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, exemplary embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. Advantages and features of the present disclosure, and a method of achieving them will be apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the technical idea of the present disclosure is not limited to the following embodiments, but may be implemented in various different forms, and only the following embodiments complete the technical idea of the present disclosure, and in the technical field to which the present disclosure pertains. It is provided to completely inform the scope of the present disclosure to those of ordinary skill in the art, and the technical idea of the present disclosure is only defined by the scope of the claims.

각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 개시를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.In adding reference numerals to elements of each drawing, it should be noted that the same elements are assigned the same numerals as possible, even if they are indicated on different drawings. In addition, in describing the present disclosure, when it is determined that a detailed description of a related known configuration or function may obscure the subject matter of the present disclosure, a detailed description thereof will be omitted.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. 본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used with meanings that can be commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not interpreted ideally or excessively unless explicitly defined specifically. The terms used in the present specification are for describing exemplary embodiments and are not intended to limit the present disclosure. In this specification, the singular form also includes the plural form unless specifically stated in the phrase.

또한, 본 개시의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the constituent elements of the present disclosure, terms such as first, second, A, B, (a) and (b) may be used. These terms are for distinguishing the constituent element from other constituent elements, and the nature, order, or order of the constituent element is not limited by the term. When a component is described as being "connected", "coupled" or "connected" to another component, the component may be directly connected or connected to that other component, but another component between each component It will be understood that elements may be “connected”, “coupled” or “connected”.

본 개시에서 사용되는 "포함한다 (comprises)" 및/또는 "포함하는 (comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.As used in this disclosure, "comprises" and/or "comprising" refers to the recited component, step, operation and/or element. It does not exclude presence or addition.

어느 하나의 실시예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성 요소는, 다른 실시예에서 동일한 명칭을 사용하여 설명될 수 있다. 반대되는 기재가 없는 이상, 어느 하나의 실시예에 기재된 설명은 다른 실시예에도 적용될 수 있으며, 중복되는 범위 또는 당해 기술 분야에 속한 통상의 기술자가 자명하게 이해할 수 있는 범위 내에서 구체적인 설명은 생략될 수 있다.Components included in one embodiment and components including common functions may be described using the same name in other embodiments. Unless otherwise stated, the description in any one embodiment may be applied to other embodiments, and a detailed description will be omitted within the overlapping range or the range that can be clearly understood by a person skilled in the art. I can.

이하, 본 개시의 다양한 실시예에 대하여 첨부된 도면에 따라 상세하게 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 개시의 몇몇 실시예에 따른 통합 교육 관리 시스템을 나타내는 예시적인 구성도이다. 이하의 설명에서, 임의의 촬영 장치(1-1 or 1-2, ?? or 1-n)를 지칭하거나 전체 촬영 장치(1-1 내지 1-n)를 총칭하는 경우, 참조번호 "1"을 사용하도록 한다.1 is an exemplary configuration diagram illustrating an integrated education management system according to some embodiments of the present disclosure. In the following description, when referring to any photographing apparatus (1-1 or 1-2, ?? or 1-n) or collectively referring to all photographing apparatuses (1-1 to 1-n), reference numeral "1" Try to use.

도 1에 도시된 바와 같이, 상기 통합 교육 관리 시스템은 하나 이상의 촬영 장치(1)와 통합 교육 관리 서버(10)를 포함할 수 있다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 구성 요소가 추가되거나 삭제될 수 있음은 물론이다. 예를 들어, 상기 통합 교육 관리 시스템은 교육 관리자의 단말(미도시), 교육 참가자의 단말(미도시) 등을 더 포함할 수도 있다. 이하에서는, 설명의 편의상, 통합 교육 관리 서버(10)를 "관리 서버"로 약칭하도록 한다.As shown in FIG. 1, the integrated education management system may include one or more photographing devices 1 and an integrated education management server 10. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some components may be added or deleted as necessary. For example, the integrated education management system may further include an education manager's terminal (not shown), an education participant's terminal (not shown), and the like. Hereinafter, for convenience of description, the integrated education management server 10 will be abbreviated as "management server".

도 1에 도시된 통합 교육 관리 시스템의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 복수의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 또한, 실제 물리적 환경에서 상기 각각의 구성 요소들은 복수의 세부 기능 요소로 분리되는 형태로 구현될 수도 있다. 예컨대, 관리 서버(10)의 제1 기능은 제1 컴퓨팅 장치에서 구현되고, 제2 기능은 제2 컴퓨팅 장치에서 구현될 수도 있다. 이하, 상기 각각의 구성 요소에 대하여 설명한다.It should be noted that each of the constituent elements of the integrated education management system shown in FIG. 1 represents functional elements that are functionally divided, and a plurality of constituent elements may be implemented in a form in which they are integrated with each other in an actual physical environment. In addition, in an actual physical environment, each of the constituent elements may be implemented in a form that is separated into a plurality of detailed functional elements. For example, a first function of the management server 10 may be implemented in a first computing device, and a second function may be implemented in a second computing device. Hereinafter, each of the above components will be described.

상기 통합 교육 관리 시스템에서, 관리 서버(10)는 통합 교육 관리 기능을 제공하는 컴퓨팅 장치이다. 상기 통합 교육 관리는 예를 들어 교육 참가자의 출결 관리, 교육 집중도 관리(즉, 교육 태도 관리), 안전 관리 등을 포함할 수 있다. 그러나, 이에 한정되는 것은 아니고, 다양한 유형의 관리 기능이 더 포함될 수도 있다.In the integrated education management system, the management server 10 is a computing device that provides an integrated education management function. The integrated education management may include, for example, attendance management of training participants, education concentration management (ie, education attitude management), safety management, and the like. However, the present invention is not limited thereto, and various types of management functions may be further included.

앞서 언급한 바와 같이, 관리 서버(10)는 하나 이상의 컴퓨팅 장치로 구현될 수 있다. 여기서, 상기 컴퓨팅 장치는, 노트북, 데스크톱(desktop), 랩탑(laptop) 등이 될 수 있으나, 이에 국한되는 것은 아니며 컴퓨팅 기능 및 통신 기능이 구비된 모든 유형의 장치를 포함할 수 있다. 다만, 지능형 영상 분석을 통해 실시간 관리가 수행되어야 하는 환경이라면, 관리 서버(10)는 고성능의 서버급 컴퓨팅 장치로 구현되는 것이 바람직할 수 있다. 상기 컴퓨팅 장치의 일 예시에 관해서는 도 18을 참조하도록 한다.As mentioned above, the management server 10 may be implemented with one or more computing devices. Here, the computing device may be a notebook, a desktop, a laptop, etc., but is not limited thereto, and may include all types of devices equipped with a computing function and a communication function. However, in an environment in which real-time management is to be performed through intelligent image analysis, the management server 10 may be preferably implemented as a high-performance server-class computing device. Referring to FIG. 18 for an example of the computing device.

본 개시의 다양한 실시예에서, 관리 서버(10)는 하나 이상의 촬영 장치(1)로부터 교육 장소에 대한 다양한 이미지를 수집하고, 지능형 영상 분석 기술에 기반하여 수집된 이미지를 분석할 수 있다. 그리고, 관리 서버(10)는 분석 결과를 토대로 통합 교육 관리를 수행할 수 있다. 예를 들어, 관리 서버(10)는 지능형 영상 분석을 통해 교육 대상자의 출결을 확인하고, 교육 집중도를 측정하며, 이상 상황을 감지할 수 있다. 본 실시예에 따르면, 지능형 영상 분석 기술을 활용하여 전반적인 교육 관리 기능이 자동화될 수 있기 때문에, 스마트 교육 환경이 조성될 수 있다. 본 실시예에 대한 보다 자세한 설명은 도 5이하의 도면을 참조하여 후술하도록 한다.In various embodiments of the present disclosure, the management server 10 may collect various images of an education place from one or more photographing devices 1 and analyze the collected images based on intelligent image analysis technology. In addition, the management server 10 may perform integrated education management based on the analysis result. For example, the management server 10 may check the attendance of an education subject through intelligent image analysis, measure an education concentration, and detect an abnormal situation. According to the present embodiment, since the overall education management function can be automated using the intelligent image analysis technology, a smart education environment can be created. A more detailed description of the present embodiment will be described later with reference to the accompanying drawings in FIG. 5.

상기 통합 교육 관리 시스템에서, 촬영 장치(1)는 교육 장소를 촬영하여 분석 대상이 되는 이미지를 생성하는 장치이다. 상기 이미지는 스틸 이미지(still image), 복수의 프레임 이미지로 구성된 비디오 이미지(즉, 동영상), 적외선 이미지, 가시광선 이미지 등과 같이 다양한 유형/형태의 이미지를 포함할 수 있다.In the integrated education management system, the photographing device 1 is a device that photographs an education place and generates an image to be analyzed. The image may include various types/types of images such as a still image, a video image (ie, a moving image) composed of a plurality of frame images, an infrared image, and a visible light image.

촬영 장치(1)는 교육 장소의 다양한 위치에 설치될 수 있다. 예를 들어, 도 2에 예시된 바와 같이, 제1 촬영 장치(1-1)는 교육 장소의 제1 출입구(21)를 촬영하도록 설치되고, 제2 촬영 장치(1-2)는 교육 장소의 제2 출입구(23)를 촬영하도록 설치될 수 있다. 이와 같은 경우, 교육 장소에 출입하는 사람들이 정확하게 식별될 수 있기 때문에, 보다 효과적으로 통합 교육 관리(e.g. 출결 관리)가 이루어질 수 있다. 여기서, 제1 촬영 장치(1-1) 및 제2 촬영 장치(1-2)는 표준 렌즈(즉, 어안렌즈 또는 광각렌즈가 아닌 일반적인 카메라 렌즈)를 구비한 장치일 수 있다.The photographing device 1 may be installed at various locations in an educational place. For example, as illustrated in FIG. 2, the first photographing device 1-1 is installed to photograph the first entrance 21 of the education place, and the second photographing device 1-2 is of the education place. It may be installed to photograph the second entrance 23. In such a case, since people entering and exiting the training place can be accurately identified, integrated training management (e.g. attendance management) can be performed more effectively. Here, the first photographing apparatus 1-1 and the second photographing apparatus 1-2 may be devices having a standard lens (ie, a general camera lens other than a fisheye lens or a wide-angle lens).

촬영 장치(1)는 CCTV(Closed-circuit Television) 등과 같이 다양한 유형의 카메라 장치로 구현될 수 있으며, 이미지를 생성할 수 있다면 어떠한 장치로 구현되더라도 무방하다. 또한, 몇몇 실시예에서는, 촬영 장치(1) 측에 지능형 영상 분석 기능의 일부 또는 전부가 구현될 수도 있다.The photographing device 1 may be implemented with various types of camera devices such as CCTV (Closed-Circuit Television), and any device may be implemented as long as it can generate an image. In addition, in some embodiments, some or all of the intelligent image analysis function may be implemented on the photographing device 1 side.

몇몇 실시예에서는, 어안렌즈 또는 광각렌즈를 구비한 하나 이상의 촬영 장치(1)가 교육 장소를 촬영할 수도 있다. 이와 같은 경우, 디워핑(dewarping) 기법을 통해 이미지의 왜곡을 보정/제거(e.g. 어안렌즈로 촬영된 원형의 파노라마 이미지를 반듯하게 펼쳐진 이미지로 변환)하는 가공 처리가 수행되고, 가공된 이미지를 기초로 지능형 영상 분석이 수행될 수 있다. 이하, 본 실시예에 대하여 도 3 및 도 4를 참조하여 부연 설명하도록 한다.In some embodiments, one or more photographing apparatuses 1 having a fisheye lens or a wide-angle lens may photograph an educational site. In such a case, a processing process of correcting/removing image distortion (eg converting a circular panoramic image taken with a fisheye lens into a flat image) is performed through a dewarping technique, and the processed image is based on Intelligent image analysis can be performed. Hereinafter, the present embodiment will be further described with reference to FIGS. 3 and 4.

도 3에 예시된 바와 같이, 어안렌즈를 구비한 촬영 장치(1)는 교육 장소의 출입구(25-5)보다는 교수자 위치(25-1)와 맨 앞쪽의 교육 참가자 위치(25-3)의 중간 부근에 배치되는 것이 바람직할 수 있다. 360도 촬영이 가능한 어안렌즈의 특성 상 해당 위치에서 촬영 장치(1)가 교육 장소 전반의 이미지를 촬영할 수 있고, 이로 인해 교수자와 교육 참가자 모두에 대해 안면 인식, 행동 인식, 이상 상황 인식 등의 지능형 영상 기법이 적용될 수 있기 때문이다.As illustrated in FIG. 3, the photographing apparatus 1 provided with a fisheye lens is located between the instructor's position 25-1 and the training participant's position 25-3 at the front of the training place rather than the entrance 25-5. It may be desirable to be placed in the vicinity. Due to the nature of the fisheye lens capable of 360-degree shooting, the photographing device 1 can take an image of the entire educational venue at the corresponding location, and this makes it possible for both instructors and participants to be intelligent, such as facial recognition, behavior recognition, and abnormal situation recognition. This is because an image technique can be applied.

상술한 실시예에서, 어안렌즈를 이용하는 이유는 보안 사각지대를 최소화하면서 비용 부담도 함께 줄이기 위한 것이다. 종래의 범용 카메라(즉, 어안렌즈를 이용하지 않는 일반 카메라)를 이용한 CCTV 보안 관리 기술은 카메라가 촬영하는 장소에 사각지대를 만들지 않기 위하여 한 공간에 다수의 카메라를 배치하였다. 그러나, 한 공간에 다수의 카메라를 배치하게 되면, 설치 및 유지 보수 비용이 증가하고, 기대에 비해 효율성이 떨어진다는 문제점이 있었다. 이와 같은 문제점을 해결하기 위하여, 상술한 실시예에서 어안렌즈가 이용되는 것으로 이해될 수 있다.In the above-described embodiment, the reason for using the fisheye lens is to reduce the cost burden while minimizing the security blind spot. CCTV security management technology using a conventional general-purpose camera (ie, a general camera that does not use a fisheye lens) has arranged a plurality of cameras in one space so as not to create a blind spot in a place where the camera is photographed. However, if a plurality of cameras are arranged in one space, there is a problem that installation and maintenance costs increase, and efficiency is lower than expected. In order to solve such a problem, it may be understood that a fisheye lens is used in the above-described embodiment.

어안렌즈는 7~15mm의 짧은 초점 거리를 가지고 있기 때문에, 단일 촬영 장치(e.g. 도 3의 1)로도 180도 이상의 화각을 확보할 수 있다. 따라서, 어안렌즈를 구비한 촬영 장치(e.g. 도 3의 1)를 사용함으로써 적은 설치 비용과 낮은 유지 보수 비용으로 사각지대 없이 넓은 영역을 촬영할 수 있다. 다만, 어안렌즈로 촬영한 이미지는 가장자리 영역으로 갈수록 굴절이 심해져서 매우 왜곡된 형태로 생성될 수 있다. 따라서, 이미지의 왜곡을 보정해서 사용해야 하는데, 본 개시의 몇몇 실시예에서는, 하기의 수학식 1에 기초하여 이미지 왜곡을 보정하는 가공 처리가 수행될 수 있다. 단, 다른 수학식이 이용될 수도 있어서, 본 개시의 기술적 범위가 이에 한정되는 것은 아니다.Since the fisheye lens has a short focal length of 7 to 15 mm, a field of view of 180 degrees or more can be secured even with a single photographing device (e.g. 1 in FIG. 3). Therefore, by using the photographing apparatus (e.g. 1 in Fig. 3) equipped with a fisheye lens, it is possible to photograph a wide area without a blind spot at low installation cost and low maintenance cost. However, an image photographed with a fisheye lens may be generated in a very distorted form because refraction becomes severe as it goes toward the edge region. Accordingly, it is necessary to correct and use image distortion. In some embodiments of the present disclosure, a processing process for correcting image distortion may be performed based on Equation 1 below. However, since other equations may be used, the technical scope of the present disclosure is not limited thereto.

Figure 112019088710222-pat00001
Figure 112019088710222-pat00001

Figure 112019088710222-pat00002
Figure 112019088710222-pat00002

상기 수학식 1에서, f는 카메라의 초점 거리, P f 는 카메라의 광중심에서 입력 이미지의 (x, y) 좌표(즉, (X 입력이미지, Y 입력이미지)까지의 거리)를 의미한다. 또한, X 입력이미지Y 입력이미지는 입력 이미지의 (x, y) 좌표값이고, X 왜곡보정이미지Y 왜곡보정이미지는 왜곡 보정이 수행된 이미지의 (x, y) 좌표값을 의미한다.In Equation 1, f denotes the focal length of the camera, and P f denotes the distance from the optical center of the camera to the (x, y) coordinates of the input image (ie, (X input image, Y input image )). In addition, the X input image and the Y input image are the (x, y) coordinate values of the input image, and the X distortion correction image and the Y distortion correction image refer to the (x, y) coordinate values of the image on which the distortion correction has been performed.

초점 거리(f)와 광중심 까지의 거리(P f )를 알아야 상기 수학식 1을 적용해서 왜곡 보정 이미지를 얻을 수 있다. 따라서, 어안렌즈에 의해 형성되는 이미지의 왜곡 보정 시 초점 거리나 광중심 위치 등과 같은 파라미터가 매우 중요한 의미를 갖게 된다.It is necessary to know the focal length f and the distance to the optical center P f to obtain a distortion correction image by applying Equation 1 above. Therefore, when correcting distortion of an image formed by a fisheye lens, parameters such as a focal length or an optical center position have very important meanings.

상기 수학식 1에 의해 왜곡이 보정된 실례는 도 4에 도시되어 있다. 도 4에 도시된 바와 같이, 입력 이미지(27)가 상기 수학식 1에 의해 반듯하게 펼쳐진 형태의 이미지(29)로 보정될 수 있다. 이미지 왜곡 보정 기법에 대한 설명은 한국공개특허 제10-2011-0068375호를 더 참고하도록 하며, 해당 특허의 개시 내용 전체는 본 명세서로 참조로 포함될 수 있다.An example in which distortion is corrected by Equation 1 is shown in FIG. 4. As shown in FIG. 4, the input image 27 may be corrected into an image 29 in a flatly unfolded form by Equation 1 above. For a description of the image distortion correction technique, reference is made to Korean Patent Publication No. 10-2011-0068375, and the entire disclosure of the patent may be incorporated herein by reference.

본 개시의 다양한 실시예에서, 촬영 장치(1)와 관리 서버(10)는 네트워크를 통해 통신할 수 있다. 여기서, 상기 네트워크는 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN), 이동 통신망(mobile radio communication network), Wibro(Wireless Broadband Internet) 등과 같은 모든 유형의 유/무선 네트워크로 구현될 수 있다.In various embodiments of the present disclosure, the photographing device 1 and the management server 10 may communicate through a network. Here, the network is all types of wired/wireless networks such as a local area network (LAN), a wide area network (WAN), a mobile radio communication network, and Wibro (Wireless Broadband Internet). Can be implemented.

지금까지 도 1 및 도 2를 참조하여 본 개시의 몇몇 실시예에 따른 통합 교육 관리 시스템에 대하여 설명하였다. 이하에서는, 관리 서버(10)의 세부 구성 및 동작에 대하여 도 5 이하의 도면을 참조하여 상세하게 설명하도록 한다.So far, the integrated education management system according to some embodiments of the present disclosure has been described with reference to FIGS. 1 and 2. Hereinafter, a detailed configuration and operation of the management server 10 will be described in detail with reference to the accompanying drawings in FIG. 5.

도 5는 본 개시의 몇몇 실시예에 따른 관리 서버(10)를 나타내는 예시적인 블록도이다.5 is an exemplary block diagram illustrating a management server 10 according to some embodiments of the present disclosure.

도 5에 도시된 바와 같이, 관리 서버(10)는 수집부(11), 처리부(19), 관리부(13), 조치부(15) 및 저장부(17)를 포함할 수 있다. 다만, 도 5에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 5에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다. 또한, 도 5에 도시된 관리 서버(10)의 각각의 구성 요소들은 기능적으로 구분되는 기능 요소들을 나타낸 것으로서, 복수의 구성 요소가 실제 물리적 환경에서는 서로 통합되는 형태로 구현될 수도 있음에 유의한다. 이하, 각 구성 요소에 대하여 설명한다.As shown in FIG. 5, the management server 10 may include a collection unit 11, a processing unit 19, a management unit 13, an action unit 15, and a storage unit 17. However, only the components related to the embodiment of the present disclosure are shown in FIG. 5. Accordingly, those of ordinary skill in the art to which the present disclosure pertains can recognize that other general-purpose components may be further included in addition to the components illustrated in FIG. 5. In addition, it should be noted that each of the components of the management server 10 shown in FIG. 5 represents functional components that are functionally divided, and a plurality of components may be implemented in a form in which they are integrated with each other in an actual physical environment. Hereinafter, each component will be described.

수집부(11)는 통합 교육 관리를 위한 각종 정보를 수집할 수 있다. 예를 들어, 수집부(11)는 촬영 장치(1)로부터 교육 장소에 대한 이미지를 실시간으로 수집할 수 있다. 다만, 수집부(11)는 촬영 장치(1) 외에도 다양한 모니터링 장치(e.g. AP)로부터 다양한 형태의 모니터링 데이터(e.g. 인터넷 액세스 정보, 음성 데이터 등)를 수집할 수 있다.The collection unit 11 may collect various types of information for integrated education management. For example, the collection unit 11 may collect an image of an educational place from the photographing device 1 in real time. However, the collection unit 11 may collect various types of monitoring data (e.g. Internet access information, voice data, etc.) from various monitoring devices (e.g. AP) in addition to the photographing device 1.

다음으로, 처리부(19)는 수집부(11)에서 획득한 이미지(e.g. 어안렌즈에 의해 촬영된 이미지)에 대해 디워핑(dewarping) 처리를 수행할 수 있다. 촬영 장치(1)가 어안렌즈 또는 광각렌즈를 구비한 경우, 상술한 바와 같이, 짧은 초점 거리와 넓은 화각으로 인해 이미지에 왜곡이 발생할 수 있다. 따라서, 처리부(19)는 안면 인식 등과 같은 지능형 영상 기법을 적용하기 위하여 원본 이미지의 왜곡을 보정하고 파노라마 형태로 변환시켜주는 디워핑 처리를 수행할 수 있다. 수집부(11)가 표준 렌즈로 촬영된 이미지만을 수집하는 경우라면, 처리부(19)는 생략될 수도 있다.Next, the processing unit 19 may perform a dewarping process on the image acquired by the collection unit 11 (e.g. an image photographed by a fisheye lens). When the photographing apparatus 1 includes a fisheye lens or a wide-angle lens, as described above, distortion may occur in the image due to a short focal length and a wide angle of view. Accordingly, the processing unit 19 may perform a dewarping process that corrects distortion of the original image and converts it into a panorama form in order to apply an intelligent image technique such as facial recognition. If the collection unit 11 collects only images photographed with a standard lens, the processing unit 19 may be omitted.

다음으로, 관리부(13)는 지능형 영상 분석을 통해 교육 참가자 및/또는 교육 장소에 대한 통합 관리를 수행할 수 있다. 몇몇 실시예에 따른 관리부(13)는 출결 관리부(13-1), 집중도 측정부(13-2) 및 이상 상황 감지부(13-3)를 포함할 수 있다.Next, the management unit 13 may perform integrated management for training participants and/or training places through intelligent image analysis. The management unit 13 according to some embodiments may include an attendance management unit 13-1, a concentration measurement unit 13-2, and an abnormal situation detection unit 13-3.

출결 관리부(13-1)는 지능형 영상 분석을 통해 교육 참가자의 출결 여부를 판단하고 관리할 수 있다. 예를 들어, 출결 관리부(13-1)는 수집된 이미지를 기초로 안면 인식을 수행하여, 해당 이미지에 포함된 교육 참가자를 식별할 수 있다. 또한, 출결 관리부(13-1)는 식별 결과를 토대로 해당 교육 참가자의 출결 여부를 판단할 수 있다. 중복된 설명을 배제하기 위해, 출결 관리부(13-1)의 동작에 대한 자세한 설명은 도 6 내지 도 11을 참조하여 후술하도록 한다.The attendance management unit 13-1 may determine and manage the attendance of training participants through intelligent video analysis. For example, the attendance management unit 13-1 may perform facial recognition based on the collected image to identify the training participant included in the image. In addition, the attendance management unit 13-1 may determine whether the training participant attends or not based on the identification result. In order to eliminate redundant descriptions, a detailed description of the operation of the attendance management unit 13-1 will be described later with reference to FIGS. 6 to 11.

다음으로, 집중도 측정부(13-2)는 지능형 영상 분석을 통해 교육 참가자의 집중도를 측정할 수 있다. 예를 들어, 집중도 측정부(13-2)는 교육 참가자가 교육 장소를 이탈한 정도, 교육 참가자의 시선 움직임, 시선 방향, 자신의 개인 단말(e.g. 스마트폰)을 사용한 정도, 신체 움직임 정도 등과 같은 다양한 지표를 기준으로 각 교육 참가자의 집중도를 측정할 수 있다. 중복된 설명을 배제하기 위해, 집중도 측정부(13-2)의 동작에 대한 자세한 설명은 도 12를 참조하여 후술하도록 한다.Next, the concentration measurement unit 13-2 may measure the concentration of the training participant through intelligent image analysis. For example, the concentration measurement unit 13-2 includes the degree of the education participant leaving the education place, the participant's gaze movement, the direction of the gaze, the degree of using his personal terminal (eg smartphone), the degree of body movement, etc. The concentration of each participant can be measured based on various indicators. In order to exclude redundant descriptions, a detailed description of the operation of the concentration measurement unit 13-2 will be described later with reference to FIG. 12.

다음으로, 이상 상황 감지부(13-3)는 지능형 영상 분석을 통해 교육 장소에서 발생하는 이상 상황을 실시간으로 감지할 수 있다. 상기 이상 상황은 예를 들어 폭력, 화재, 거수자 침입 등을 포함할 수 있을 것이나, 다양한 유형의 이상 상황이 더 포함될 수 있어서, 본 개시의 기술적 범위는 상기 열거된 예시에 한정되지 않는다. 중복된 설명을 배제하기 위해, 이상 상황 감지부(13-3)의 동작에 대한 자세한 설명은 도 13 내지 도 16을 참조하여 후술하도록 한다.Next, the abnormal situation detection unit 13-3 may detect an abnormal situation occurring in the educational place in real time through intelligent image analysis. The abnormal situation may include, for example, violence, fire, intrusion of a big player, and the like, but various types of abnormal situations may be further included, so that the technical scope of the present disclosure is not limited to the examples listed above. In order to exclude redundant descriptions, a detailed description of the operation of the abnormal situation detection unit 13-3 will be described later with reference to FIGS. 13 to 16.

다음으로, 조치부(15)는 출결 확인 결과, 집중도 측정 결과, 이상 상황 발생 등(즉, 관리부 13의 지능형 영상 분석 결과)에 따라 대응되는 조치를 수행한다. 구체적인 조치 방식은 실시예에 따라 달라질 수 있다.Next, the action unit 15 performs a corresponding action according to the attendance check result, concentration measurement result, abnormal situation occurrence, etc. (ie, the intelligent video analysis result of the management unit 13). The specific action method may vary depending on the embodiment.

예를 들어, 특정 교육 참가자의 지각 또는 결석이 확인된 경우, 조치부(15)는 교육 관계자(e.g. 학부모, 상급자와 같은 교육 감독자, 교육 참가자 본인 또는 지인, 교육 관리자)의 단말(미도시)로 알림을 제공할 수 있다.For example, when it is confirmed that a specific participant is late or absent, the action unit 15 is sent to the terminal (not shown) of an education official (eg, an education supervisor such as a parent or a supervisor, the education participant or acquaintance, education manager). You can provide a notification.

다른 예로써, 특정 교육 참가자의 집중도가 제1 기준치 미만(e.g. 수업 태도 불량)이거나 제2 기준치 이상(e.g. 수업 태도 우수)인 경우, 조치부(15)는 교육 관계자의 단말(미도시)로 알림을 제공할 수 있다. 또한, 조치부(15)는 집중도 현황 정보나 집중도 측정 정보를 교육 관계자의 단말(미도시)로 실시간 또는 비실시간으로 제공할 수 있다.As another example, when the concentration of a specific training participant is less than the first standard value (eg poor class attitude) or more than the second standard value (eg excellent class attitude), the action unit 15 notifies the terminal (not shown) of the person concerned with education. Can provide. In addition, the action unit 15 may provide concentration status information or concentration measurement information to a terminal (not shown) of an education person in real time or non-real time.

또 다른 예로써, 폭력, 화재, 거수자 침입 등의 이상 상황이 발생한 경우, 조치부(15)는 교육 관계자의 단말(미도시)로 알림을 제공하거나, 교육 참가자의 단말(미도시)로 비상구 정보를 제공하거나, 방송을 통해 이상 상황을 알리는 등의 조치를 수행할 수 있다. 그리고, 조치부(15)는 긴급 출동 기관(e.g. 경찰서, 소방서, 병원)에게 알림을 제공하고, 긴급 구조를 요청할 수도 있다.As another example, in the event of an abnormal situation such as violence, fire, or intrusion of a large number of people, the action unit 15 provides a notification to a terminal (not shown) of an education person, or an emergency exit to a terminal (not shown) of an education participant Measures such as providing information or notifying an abnormal situation through broadcasting may be performed. In addition, the action unit 15 may provide a notification to an emergency dispatch agency (e.g. police station, fire station, hospital) and request emergency rescue.

다음으로, 저장부(17)는 통합 교육 관리와 연관된 각종 데이터 및/또는 정보를 저장하고 관리할 수 있다. 예를 들어, 저장부(17)는 교육 참가자 정보 DB(17-1), 출결 정보 DB(17-2), 교수자 정보 DB(17-3), 기타 정보 DB(17-3) 등을 관리할 수 있다. 기타 정보 DB(17-3)는 원시 영상 데이터, 조치 정책, 지능형 영상 분석 결과를 포함할 수 있다.Next, the storage unit 17 may store and manage various data and/or information related to integrated education management. For example, the storage unit 17 can manage training participant information DB 17-1, attendance information DB 17-2, instructor information DB 17-3, and other information DB 17-3. I can. The other information DB 17-3 may include raw image data, action policies, and intelligent image analysis results.

교육 참가자 정보 DB(17-1)에는 교육 참가자의 신원 정보, 안면 인식을 위한 이미지 또는 특징점 정보, 교육 참가자의 교육 신청 현황 등의 정보가 저장될 수 있다.The education participant information DB 17-1 may store information such as identity information of the education participant, image or feature point information for facial recognition, and the education application status of the education participant.

출결 정보 DB(17-2)에는 각 교육 참가자의 출결 현황(e.g. 출석, 결석, 지각 등) 등의 정보가 저장될 수 있다.The attendance information DB 17-2 may store information such as the attendance status (e.g. attendance, absence, lateness, etc.) of each training participant.

교수자 정보 DB(17-3)에는 교수자의 신원 정보, 교수 과목 등의 정보가 저장될 수 있다.Instructor information DB 17-3 may store information such as an instructor's identity information and a professor's subject.

본 개시의 몇몇 실시예에서, 저장부(17)는 교육 참가자가 포함된 이미지를 저장하기 전에 안면 영역 중 적어도 일부에 대해 은폐 처리를 수행할 수 있다. 본 실시예에 따르면, 데이터 유출이 발생하더라도 교육 참가자의 프라이버시가 보호될 수 있는데, 본 실시예에 관하여서는 도 17을 참조하여 보다 상세하게 설명하도록 한다.In some embodiments of the present disclosure, the storage unit 17 may perform concealment processing on at least a portion of the facial area before storing the image including the training participant. According to this embodiment, even if data leakage occurs, the privacy of training participants can be protected. This embodiment will be described in more detail with reference to FIG. 17.

도 5에 도시된 각 구성 요소는 소프트웨어(Software) 또는, 프로세서(즉, 컴퓨팅 장치), FPGA(Field Programmable Gate Array)나 ASIC(Application-Specific Integrated Circuit)과 같은 하드웨어(Hardware)를 의미할 수 있다. 그렇지만, 상기 구성 요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(Addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성 요소들 안에서 제공되는 기능은 더 세분화된 구성 요소에 의하여 구현될 수 있으며, 복수의 구성 요소들을 합하여 특정한 기능을 수행하는 하나의 구성 요소로 구현될 수도 있다.Each component shown in FIG. 5 may mean software or hardware such as a processor (ie, a computing device), a Field Programmable Gate Array (FPGA), or an Application-Specific Integrated Circuit (ASIC). . However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium, or may be configured to execute one or more processors. The functions provided in the components may be implemented by more subdivided components, or may be implemented as one component that performs a specific function by combining a plurality of components.

한편, 본 개시의 다양한 실시예에 따르면, 통합 교육 관리 서버(10)와 연동하여 동작하는 애플리케이션(application)이 제공될 수 있고, 상기 애플리케이션을 통해 다양한 지능형 영상 분석 정보(e.g. 교수자 및 교육 참가자의 출결, 집중도, 이상 상황 정보 등)가 제공될 수 있다. 상기 애플리케이션은 다양한 교육 관계자의 단말에 설치될 수 있다. 상기 애플리케이션을 통해 교수자는 조금 더 손쉽게 교육 참가자의 출결 및 성적 관리가 가능하고, 교육 참가자는 조금 더 손쉽게 자신의 출결 및 성적을 확인할 수 있다.Meanwhile, according to various embodiments of the present disclosure, an application operating in conjunction with the integrated education management server 10 may be provided, and various intelligent image analysis information (eg, attendance of instructors and training participants) may be provided through the application. , Concentration, abnormal situation information, etc.) may be provided. The application may be installed on the terminals of various educational personnel. Through the above application, instructors can more easily manage attendance and grades of training participants, and training participants can more easily check their attendance and grades.

상기 어플리케이션의 주된 기능은 실시간 출결 확인, 공결 및 병결 처리를 포함하는 출결 관리 기능, 휴강 및 보강 등 수업에 대한 정보를 실시간으로 제공하는 수업 알림 기능, 강의 및 프로젝트 별 일정, 과제 관리, 진행 척도를 제공하는 일정 관리 기능, 학과 또는 주제별 모임 및 정보 제공 등 커뮤니티를 통한 소통의 장을 제공해주는 커뮤니티 관리 기능을 포함할 수 있다.The main function of the above application is a real-time attendance check, attendance management function including public attendance and consolidation processing, class notification function that provides information about classes in real time such as absences and reinforcement, schedules for each lecture and project, task management, and progress scale. It may include a community management function that provides a place for communication through the community, such as a schedule management function provided, meetings and information by department or subject.

이하에서는, 도 6 내지 도 17을 참조하여 본 개시의 다양한 실시예에 따른 방법들에 대하여 상세하게 설명하도록 한다. 상기 방법들의 각 단계는 컴퓨팅 장치에 의해 수행될 수 있다. 다시 말하면, 상기 방법들의 각 단계는 컴퓨팅 장치의 프로세서에 의해 실행되는 하나 이상의 인스트럭션들로 구현될 수 있다. 상기 방법들에 포함되는 모든 단계는 하나의 물리적인 컴퓨팅 장치에 의하여 실행될 수도 있을 것이나, 복수의 물리적인 컴퓨팅 장치에 의해 분산되어 실행될 수도 있다. 예를 들면, 상기 방법의 제1 단계들은 제1 컴퓨팅 장치에 의하여 수행되고, 상기 방법의 제2 단계들은 제2 컴퓨팅 장치에 의하여 수행될 수도 있다. 이하에서는, 이해의 편의를 위해, 상기 방법들의 각 단계가 관리 서버(10)에 의해 수행되는 것을 가정하여 설명을 이어가도록 한다. 따라서, 이하의 설명에서 각 동작의 주어가 생략된 경우, 상기 예시된 장치(10)에 의하여 수행될 수 있는 것으로 이해될 수 있을 것이다.Hereinafter, methods according to various embodiments of the present disclosure will be described in detail with reference to FIGS. 6 to 17. Each step of the above methods may be performed by a computing device. In other words, each step of the methods may be implemented with one or more instructions executed by the processor of the computing device. All of the steps included in the above methods may be performed by one physical computing device, but may be distributed and performed by a plurality of physical computing devices. For example, first steps of the method may be performed by a first computing device, and second steps of the method may be performed by a second computing device. In the following, for convenience of understanding, description will be continued on the assumption that each step of the above methods is performed by the management server 10. Accordingly, in the following description, when the subject of each operation is omitted, it will be understood that it can be performed by the illustrated apparatus 10.

먼저, 도 6 내지 도 11을 참조하여 본 개시의 몇몇 실시예에 따른 출결 관리 방법에 대하여 설명하도록 한다. 이하의 출결 관리 방법은 출결 관리부(13-1)와 조치부(15)에 의해 수행될 수 있다.First, an attendance management method according to some embodiments of the present disclosure will be described with reference to FIGS. 6 to 11. The following attendance management method may be performed by the attendance management unit 13-1 and the action unit 15.

도 6은 본 개시의 몇몇 실시예에 따른 출결 관리 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.6 is an exemplary flowchart illustrating an attendance management method according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some steps may be added or deleted as necessary.

도 6에 도시된 바와 같이, 상기 출결 관리 방법은 교육 장소에 대한 이미지를 수집하는 단계 S100에서 시작될 수 있다. 예를 들어, 교육 장소의 출입구를 촬영하는 촬영 장치(e.g. 도 1의 1)로부터 출입자들(e.g. 교육 참가자, 거수자 등)이 포함된 이미지가 수집될 수 있다.As shown in FIG. 6, the attendance management method may begin in step S100 of collecting an image of an education place. For example, an image including visitors (e.g. training participants, beasts, etc.) may be collected from a photographing device (e.g. 1 in FIG. 1) that photographs the entrance of an education place.

몇몇 실시예에서, 상기 수집된 이미지는 어안렌즈 또는 광각렌즈에 의해 촬영된 이미지(e.g. 원형의 파노라마 이미지)일 수 있다. 이와 같은 경우, 상기 수집된 이미지를 분석하기 전에, 디워핑 기법을 이용하여 상기 수집된 이미지의 왜곡을 보정/제거(e.g. 원형의 파노라마 이미지를 반듯하게 펼쳐진 이미지로 변환)하는 가공 처리가 수행될 수 있다. 또한, 가공된 이미지를 분석하여 교육 참가자가 식별될 수 있다.In some embodiments, the collected image may be an image captured by a fisheye lens or a wide-angle lens (e.g. a circular panoramic image). In this case, before analyzing the collected image, a processing process of correcting/removing the distortion of the collected image (eg converting a circular panoramic image into a flatly unfolded image) may be performed using a dewarping technique. have. In addition, by analyzing the processed image, training participants can be identified.

단계 S120에서, 수집된 이미지를 분석하여 교육 참가자가 식별될 수 있다. 예를 들어, 교육 장소로 출입하는 교육 참가자, 교육 장소를 이탈하는 교육 참가자, 이탈 후 교육 장소로 복귀하는 교육 참가자의 신원이 이미지 분석을 통해 자동으로 식별될 수 있다.In step S120, the training participant may be identified by analyzing the collected image. For example, the identity of the training participant entering or leaving the training place, the training participant leaving the training place, and the training participant returning to the training place after leaving may be automatically identified through image analysis.

단계 S120에서, 교육 참가자를 식별하는 구체적인 방식은 실시예에 따라 달라질 수 있다.In step S120, a specific method of identifying a training participant may vary according to embodiments.

몇몇 실시예에서는, 수집된 이미지에 대한 안면 인식 결과를 기초로 교육 참가자가 식별될 수 있다. 본 개시의 다양한 실시예에 따른 안면 인식 방법에 관하여서는, 도 7 내지 도 11을 참조하여 상세하게 설명하도록 한다. 본 실시예에 따르면, 안면 인식을 통해 교육 참가자의 출결이 확인되는 바, 대리 출석이 원천 봉쇄될 수 있다.In some embodiments, training participants may be identified based on facial recognition results for the collected images. A facial recognition method according to various embodiments of the present disclosure will be described in detail with reference to FIGS. 7 to 11. According to the present embodiment, since the attendance of the training participant is confirmed through facial recognition, the proxy attendance may be blocked at the source.

다른 몇몇 실시예에서는, 상기 안면 인식 결과 외에도 수집된 이미지에서 추출된 장신구 특징 및 복장 특징과 성문 인식(voice recognition) 결과 중 적어도 하나에 더 기초하여 교육 참가자가 식별될 수 있다. 예를 들어, 교육 참가자 정보 DB(17-1)에는 해당 교육 참가자가 빈번하게 착용하는 복장, 장신구 등에 관한 외관 특징 정보가 저장되어 있을 수 있다. 그러면, 안면 인식의 결과로 얻어진 제1 유사도와 상기 수집된 이미지에서 추출된 장신구 특징 및 복장 특징과 기 저장된 외관 특징 정보 간의 제2 유사도를 종합적으로 고려하여 교육 참가자가 식별될 수 있다. 다른 예를 들어, 안면 인식의 결과로 얻어진 제1 유사도와 성문 인식의 결과로 얻어진 제2 유사도를 종합적으로 고려하여 교육 참가자가 식별될 수 있다. 상기 성문 인식은 현재 수집된 교육 참가자의 음성 특징과 기 저장된 음성 특징 정보 간의 유사도를 구하는 방식, 딥러닝 기반의 성문 인식 모델을 이용하는 방식 등 다양한 방식으로 수행될 수 있다. 본 실시예에 따르면, 안면 외에 다른 외관 특성이나 음성 특성을 더 고려하여 교육 참가자의 신원이 식별되므로, 참가자 식별 및 출결 판단의 정확도가 더욱 향상될 수 있다.In some other embodiments, in addition to the facial recognition result, the training participant may be further identified based on at least one of an accessory feature, a dress feature, and a voice recognition result extracted from the collected image. For example, the training participant information DB 17-1 may store appearance characteristic information about clothes and accessories that the training participant frequently wears. Then, the training participant may be identified by comprehensively considering the first similarity obtained as a result of facial recognition and the second similarity between the accessory feature and the clothing feature extracted from the collected image and the pre-stored appearance feature information. For another example, the training participant may be identified by comprehensively considering a first similarity obtained as a result of facial recognition and a second similarity obtained as a result of voiceprint recognition. The voiceprint recognition may be performed in various ways, such as a method of obtaining a similarity between a voice feature of the currently collected training participants and pre-stored voice feature information, and a method using a deep learning-based voiceprint recognition model. According to the present embodiment, since the identity of the training participant is identified by further considering appearance characteristics or voice characteristics other than the face, the accuracy of participant identification and attendance determination may be further improved.

또한, 몇몇 실시예에서는, 수집된 제1 이미지(또는 가공된 제1 이미지)로부터 교육 참가자가 정확하게 식별되지 않는 경우, 이미지 상의 해당 교육 참가자에 대응되는 객체를 추적하여 상기 객체가 포함된 제2 이미지를 탐지하고, 상기 제2 이미지를 기초로 교육 참가자가 식별될 수 있다. 이를 통해, 교육 참가자 식별과 출결 판단의 정확도가 더욱 향상될 수 있다.In addition, in some embodiments, when a training participant is not accurately identified from the collected first image (or processed first image), an object corresponding to the training participant on the image is tracked to provide a second image containing the object. Is detected, and the training participant may be identified based on the second image. Through this, the accuracy of identification of training participants and determination of attendance may be further improved.

단계 S140에서, 식별 결과를 기초로 출결 여부가 판단된다. 예를 들어, 식별된 교육 참가자가 해당 교육 과정을 신청한 사람인 경우, 해당 교육 과정에 출석한 것으로 판단될 수 있다. 다른 예를 들어, 식별된 교육 참가자가 기 신청자이나 식별 시각이 교육 시작 시간을 경과한 경우, 해당 교육 과정에 지각한 것으로 판단될 수 있다.In step S140, it is determined whether to attend or not based on the identification result. For example, if the identified training participant is a person who has applied for a corresponding training course, it may be determined that they have attended the corresponding training course. For another example, when the identified training participant is a pre-applicant but the identification time has passed the training start time, it may be determined that they are late for the corresponding training course.

몇몇 실시예에서는, 단계 S140의 판단 결과로 얻어진 출결 정보가 출결 정보 DB(17-2) 등에 기록될 수 있으며, 출결 상황 정보, 출결 현황 정보 등은 실시간으로 지정된 교육 관계자(e.g. 감독자, 교육 참가자 본인 또는 지인, 교육 관리자)들의 단말로 제공될 수 있다.In some embodiments, the attendance information obtained as a result of the determination in step S140 may be recorded in the attendance information DB 17-2, and the attendance status information, attendance status information, etc. Or it may be provided as a terminal of acquaintances, education managers).

또한, 몇몇 실시예에서는, 상술한 출결 판단 과정(즉, 단계 S100 내지 단계 S140)이 교육 중에 지속적으로 수행될 수 있다. 본 실시예에 따르면, 교육 도중에 교육 장소를 무단 이탈하는 등과 같이 교육 분위기를 저해하는 다양한 해태 행위들이 예방될 수 있으며, 전반적인 교육 효과가 향상될 수 있다.In addition, in some embodiments, the above-described attendance determination process (ie, steps S100 to S140) may be continuously performed during training. According to the present embodiment, various behaviors that hinder the educational atmosphere, such as unauthorized leaving of an educational place during training, can be prevented, and an overall educational effect can be improved.

지금까지 도 6을 참조하여 본 개시의 몇몇 실시예에 따른 출결 관리 방법에 대하여 설명하였다. 상술한 방법에 따르면, 안면 인식과 같은 지능형 영상 분석 기술을 활용하여 출결 관리가 자동화될 수 있는 바, 출결 관리의 편의성이 크게 향상될 수 있다.So far, the attendance management method according to some embodiments of the present disclosure has been described with reference to FIG. 6. According to the above-described method, since attendance management can be automated using an intelligent image analysis technology such as facial recognition, the convenience of attendance management can be greatly improved.

이하에서는, 도 7 내지 도 11을 참조하여 본 개시의 다양한 실시예에 따른 안면 인식 방법에 대하여 설명하도록 한다. 이하에서 후술될 안면 인식 방법들은 전술한 교육 참가자 식별 단계 S120에서 활용될 수 있다.Hereinafter, a facial recognition method according to various embodiments of the present disclosure will be described with reference to FIGS. 7 to 11. Facial recognition methods to be described later may be utilized in the above-described training participant identification step S120.

먼저, 도 7은 본 개시의 제1 실시예에 따른 안면 인식 방법을 설명하기 위한 예시도이다.First, FIG. 7 is an exemplary diagram for describing a face recognition method according to a first embodiment of the present disclosure.

상기 제1 실시예는 장신구 착용 여부와 관계없이 안면 인식 자체의 정확도 향상을 위해 고안된 것으로, 다양한 방향의 안면 영역에서 추출된 특징점을 활용하여 안면 인식을 수행하는 방법에 관한 것이다.The first embodiment is designed to improve the accuracy of facial recognition itself regardless of whether or not an accessory is worn, and relates to a method of performing facial recognition using feature points extracted from facial regions in various directions.

보다 구체적으로, 하나 이상의 교육 참가자 이미지에서 복수의 방향에 대응되는 안면 영역이 검출되고, 각각의 안면 영역에서 특징점이 추출될 수 있다. 예를 들어, 도 7에 도시된 바와 같이, 상기 교육 참가자 이미지에서 정면 방향 안면 영역(35), 좌측 방향 안면 영역(34), 우측 방향 안면 영역(36), 상측 방향 안면 영역(32), 하측 방향 안면 영역(38), 좌상측 방향 안면 영역(31), 좌하측 방향 안면 영역(37), 우상측 방향 안면 영역(33) 및 우하측 방향 안면 영역(39)이 검출되고, 각 안면 영역(31 내지 39)에서 특징점이 추출될 수 있다. 몇몇 실시예에서는, 제1 방향의 안면 영역이 검출되지 않는 경우, 기 검출된 제2 방향의 안면 영역 이미지와 머리 모델을 이용하여 상기 제1 방향의 안면 영역 이미지가 생성될 수 있다. 이때, 상기 머리 모델은 해당 교육 참가자의 인구 통계학적 정보(e.g. 인종, 나이, 성별 등)에 기초하여 복수의 머리 모델 중에서 선별된 것일 수도 있다.More specifically, facial regions corresponding to a plurality of directions from one or more training participant images may be detected, and feature points may be extracted from each facial region. For example, as shown in FIG. 7, in the training participant image, a front face area 35, a left face area 34, a right face area 36, an upper face area 32, and a lower side The directional facial region 38, the upper left facial region 31, the lower left facial region 37, the upper right facial region 33 and the lower right facial region 39 are detected, and each facial region ( 31 to 39) can be extracted. In some embodiments, when the facial area in the first direction is not detected, the facial area image in the first direction may be generated using the previously detected facial area image in the second direction and the head model. In this case, the head model may be selected from among a plurality of head models based on demographic information (e.g. race, age, gender, etc.) of a corresponding training participant.

복수 방향의 안면 영역에서 추출된 특징점은 기 저장된 교육 참가자의 특징점(즉, 복수 방향의 안면 영역에서 추출된 특징점)과 비교되고, 비교 결과로 얻어진 유사도에 기초하여 해당 교육 참가자의 신원이 식별될 수 있다. 여기서, 비교 대상이 되는 특징점은 교육 참가자 DB(e.g. 도 5의 17-1)에 미리 저장되어 있을 수 있다.The feature points extracted from the facial areas in multiple directions are compared with the previously stored feature points of the training participant (i.e., feature points extracted from the facial areas in the multiple directions), and the identity of the training participant can be identified based on the similarity obtained as a result of the comparison. have. Here, the feature points to be compared may be previously stored in the training participant DB (e.g. 17-1 in FIG. 5).

몇몇 실시예서는, 각 방향 별 유사도(e.g. 제1 방향 안면 영역에서 추출된 특징점과 기 저장된 제1 방향 특징점 간의 유사도)에 적어도 일부는 서로 다른 가중치가 부여될 수 있다. 예를 들어, 정면 방향에 가장 높은 가중치가 부여될 수 있다. 다른 예를 들어, 해당 교육 참가자가 장신구를 착용한 경우, 각 방향의 안면 영역에 상기 장신구가 포함된 정도(즉, 안면 인식에 방해를 끼치는 정도)에 기초하여 가중치가 결정될 수 있다. 즉, 장신구가 보이는 비중이 높을수록 해당 방향의 유사도에는 낮은 가중치가 부여될 수 있다. 본 실시예에서, 안면 인식 결과는 최종 안면 유사도에 기초하여 도출될 수 있는데, 상기 최종 안면 유사도는 각 방향 별 유사도에 부여된 가중치에 기초하여 산출될 수 있다(e.g. 가중치 합).In some embodiments, different weights may be assigned to at least some of the similarities for each direction (e.g. the similarity between the feature points extracted from the first direction facial area and the previously stored first direction feature points). For example, the highest weight may be given to the front direction. For another example, when a corresponding training participant wears an ornament, the weight may be determined based on the degree to which the ornament is included in the facial area in each direction (ie, the degree to which it interferes with facial recognition). That is, the higher the proportion of the ornaments visible, the lower the weight may be given to the similarity in the corresponding direction. In this embodiment, the facial recognition result may be derived based on the final facial similarity, and the final facial similarity may be calculated based on the weight assigned to the similarity for each direction (e.g. sum of weights).

지금까지, 도 7을 참조하여 본 개시의 제1 실시예에 따른 안면 인식 방법에 대하여 설명하였다. 상술한 방법에 따르면, 다양한 방향/각도에서 추출된 특징점을 활용함으로써, 안면 인식의 정확도가 크게 향상될 수 있다.So far, a face recognition method according to the first embodiment of the present disclosure has been described with reference to FIG. 7. According to the above-described method, the accuracy of facial recognition can be greatly improved by utilizing feature points extracted from various directions/angles.

이하에서는, 도 8 내지 도 11을 참조하여 본 개시의 제2 실시예에 따른 안면 인식 방법을 설명하도록 한다.Hereinafter, a facial recognition method according to a second exemplary embodiment of the present disclosure will be described with reference to FIGS. 8 to 11.

상기 제2 실시예에는 교육 참가자가 착용한 장신구로 인해 안면 인식의 정확도가 떨어지는 문제점을 해결하기 위해 고안된 것이다. 상기 장신구는 예를 들어 모자, 마스크, 안경, 귀걸이, 목걸이 등을 포함할 수 있을 것이나, 이외에도 외양 변화를 일으킬 수 있는 모든 종류의 도구를 포함할 수 있다. 이하, 상기 제2 실시예에 대하여 설명한다.The second embodiment is designed to solve a problem in that the accuracy of facial recognition is deteriorated due to accessories worn by training participants. The ornaments may include, for example, hats, masks, glasses, earrings, necklaces, and the like, but may include all kinds of tools that can cause changes in appearance. Hereinafter, the second embodiment will be described.

도 8은 본 개시의 제2 실시예에 따른 안면 인식 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 도 8을 참조하여 설명한다.8 is an exemplary flowchart illustrating a method for recognizing a face according to a second exemplary embodiment of the present disclosure. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some steps may be added or deleted as necessary. This will be described with reference to FIG. 8.

단계 S122에서, 교육 참가자의 이미지에서 장신구 착용 여부가 판단된다. 예를 들어, 상기 이미지에서 해당 교육 참가자의 안면 영역이 검출 및 추출되고, 추출된 안면 영역 내 또는 근처 부위에서 장신구가 존재하는지 여부가 판단될 수 있다.In step S122, it is determined whether or not to wear jewelry from the image of the training participant. For example, a facial area of a corresponding training participant may be detected and extracted from the image, and it may be determined whether or not an accessory exists in or near the extracted facial area.

장신구 존재 여부를 판단하는 구체적인 방식은 실시예에 따라 달라질 수 있다. 예를 들어, 상기 이미지에서 특정 안면 부위에 해당하는 특징이 검출되지 않는 경우 해당 부위에 장신구가 있다고 판단하는 방식(e.g. 입, 코 등이 검출되지 않으면 마스크를 존재했다고 판단함), 특정 장신구의 이미지와 해당 교육 참가자의 이미지를 직접 비교하는 방식, 상기 이미지의 특정 안면 부위에서 특정 장신구의 특징(e.g. 모양, 색상 등)을 갖는 객체가 검출되는지에 기초하여 장신구 존재 여부를 판단하는 방식 등이 이용될 수 있을 것이다. 다만, 이외에도, 다양한 방식으로 장신구 존재 여부가 판단될 수 있어서, 본 개시의 기술적 범위가 상기 열거된 예시에 한정되는 것은 아니다.A specific method of determining the presence of jewelry may vary according to embodiments. For example, if a feature corresponding to a specific facial area is not detected in the image, a method of determining that there is an accessory in the area (eg, if a mouth, nose, etc. is not detected, it is determined that a mask exists), an image of a specific accessory A method of directly comparing the image of the training participant with the corresponding training participant, and a method of determining the presence of an accessory based on whether an object having the characteristics of a specific accessory (eg shape, color, etc.) is detected in a specific facial part of the image. I will be able to. However, in addition to this, the presence or absence of accessories may be determined in various ways, so the technical scope of the present disclosure is not limited to the examples listed above.

해당 교육 참가자가 장신구를 착용하고 있지 않다고 판단된 경우, 단계 S124가 수행될 수 있다. 반대의 경우, 단계 S126이 수행될 수 있다.If it is determined that the training participant is not wearing jewelry, step S124 may be performed. In the opposite case, step S126 may be performed.

단계 S124에서, 원본 이미지로 안면 인식이 수행된다. 여기서, 원본 이미지란 장신구 제거를 위한 변환 과정(즉, 단계 S126의 처리 과정)이 수행되지 않은 이미지를 의미한다. 따라서, 안면 인식의 정확도를 높이기 위해, 소정의 이미지 처리가 수행되더라도 상기 원본 이미지의 범위에 포함될 수 있음은 물론이다.In step S124, facial recognition is performed with the original image. Here, the original image refers to an image that has not been subjected to a conversion process (that is, the processing process of step S126) for removing ornaments. Therefore, in order to increase the accuracy of facial recognition, it goes without saying that even if a predetermined image processing is performed, it may be included in the range of the original image.

상기 안면 인식은 상술한 제1 실시예에 따른 안면 인식 방법에 의해 수행될 수 있을 것이나, 이에 한정되지 않고, 딥러닝 기반의 안면 인식 모델을 이용하는 방식 등과 같이 다른 방식으로 수행될 수도 있다.The facial recognition may be performed by the facial recognition method according to the first embodiment described above, but is not limited thereto, and may be performed in other ways, such as a method using a deep learning-based facial recognition model.

단계 S126에서, 원본 이미지가 장신구가 제거된 이미지로 변환된다. 이는, 장신구 제거를 통해 안면 인식의 정확도를 높이기 위한 것으로 이해될 수 있다. 본 단계에서, 이미지 변환은 GAN(Generative Adversarial Networks) 기반의 이미지 변환 모델(e.g. 도 9의 40)을 통해 수행될 수 있다. 보다 상세하게는, 도 9에 도시된 바와 같이, 도메인 변환(domain transfer)를 수행하는 이미지 변환 모델(40)을 통해 제1 도메인 이미지(41) 또는 제2 도메인 이미지(43)가 다른 도메인의 페이크 이미지(45, 47)로 변환될 수 있다. 여기서, 상기 제1 도메인은 특정 장신구(e.g. 마스크)를 착용한 이미지와 연관되고, 상기 제2 도메인은 상기 특정 장신구를 착용하지 않은 이미지와 연관될 수 있다. 이하, 본 실시예에 대해 설명함에 있어서, 상기 제1 도메인과 상기 제2 도메인을 앞서 언급한 의미로 계속해서 이용하도록 한다.In step S126, the original image is converted into an image from which the ornaments have been removed. This may be understood as improving the accuracy of facial recognition through the removal of jewelry. In this step, image conversion may be performed through an image conversion model based on Generative Adversarial Networks (GAN) (e.g. 40 in FIG. 9). In more detail, as shown in FIG. 9, the first domain image 41 or the second domain image 43 is faked from another domain through the image conversion model 40 performing domain transfer. It can be converted into images 45 and 47. Here, the first domain may be associated with an image wearing a specific accessory (e.g. a mask), and the second domain may be associated with an image not wearing the specific accessory. Hereinafter, in describing the present embodiment, the first domain and the second domain will be continuously used in the aforementioned meaning.

이미지 변환 모델(40)은 도메인 변환(또는 이미지 변환) 기능이 구비된 다양한 유형의 GAN에 기초하여 구현될 수 있다. 예를 들어, 이미지 변환 모델(40)은 Disco-GAN, cycle-GAN, UNIT(Unsupervised Image-to-Image Translation), MUNIT(Multimodal Unsupervised Image-to-Image Translation)과 같은 다양한 GAN에 기초하여 구현될 수 있다.The image conversion model 40 may be implemented based on various types of GANs equipped with a domain conversion (or image conversion) function. For example, the image conversion model 40 may be implemented based on various GANs such as Disco-GAN, cycle-GAN, UNIT (Unsupervised Image-to-Image Translation), and MUNIT (Multimodal Unsupervised Image-to-Image Translation). I can.

이미지 변환 모델(40)의 몇몇 예시는 도 10 및 도 11에 도시되어 있다. 도 10은 이미지 변환 모델(40)이 cycle-GAN에 기초하여 구현된 것을 예시하고 있고, 도 11은 UNIT에 기초하여 구현된 것을 예시하고 있다. 이하, 설명의 편의상, 이미지 변환 모델(40)을 "변환 모델"로 약칭하고, 도 10에 예시된 이미지 변환 모델은 참조번호 "50"으로 지칭하며, 도 11에 예시된 이미지 변환 모델은 참조번호 "60"으로 지칭하도록 한다.Some examples of image transformation model 40 are shown in FIGS. 10 and 11. 10 illustrates that the image conversion model 40 is implemented based on cycle-GAN, and FIG. 11 illustrates that the image conversion model 40 is implemented based on the UNIT. Hereinafter, for convenience of description, the image conversion model 40 is abbreviated as "conversion model", the image conversion model illustrated in FIG. 10 is referred to as "50", and the image conversion model illustrated in FIG. 11 is a reference number. It should be referred to as "60".

이하, 도 10을 참조하여 변환 모델(50)의 구조와 학습 방법에 대하여 설명한다.Hereinafter, the structure of the transformation model 50 and a learning method will be described with reference to FIG. 10.

도 10에 도시된 바와 같이, 변환 모델(50)은 제1 생성기(51), 제2 생성기(52), 제1 판별기(53) 및 제2 판별기(54)를 포함할 수 있다.As shown in FIG. 10, the transformation model 50 may include a first generator 51, a second generator 52, a first discriminator 53 and a second discriminator 54.

제1 생성기(51)는 제1 도메인의 이미지(55-1)를 제2 도메인의 페이크 이미지(55-2)로 변환하는 모듈이다. 그리고, 제2 판별기(54)는 제2 도메인의 실제 이미지(56-1)와 페이크 이미지(55-2)를 판별하는 모듈이다. 제1 생성기(51)와 제2 판별기(54)는 적대적 학습을 통해 상호 보완적으로 학습될 수 있다(즉, 가중치가 업데이트됨).The first generator 51 is a module that converts the image 55-1 of the first domain into a fake image 55-2 of the second domain. In addition, the second discriminator 54 is a module that determines the actual image 56-1 and the fake image 55-2 of the second domain. The first generator 51 and the second discriminator 54 may be complementarily learned through hostile learning (that is, the weights are updated).

또한, 제1 생성기(51)는 제1 일관성 오차(consistency loss; LCONSTA)를 이용하여 더 학습될 수 있다. 제1 일관성 오차(LCONSTA)는 제1 생성기(51)로 입력된 실제 이미지(55-1)와 제2 생성기(52)를 통해 변환된 페이크 이미지(55-3) 간의 차이에 기초하여 산출될 수 있다. 이때, 페이크 이미지(55-3)는 제1 생성기(51)를 통해 변환된 페이크 이미지(55-2)를 다시 제2 생성기(52)를 통해 본래의 도메인으로 변환한 이미지를 의미한다. 제1 일관성 오차(LCONSTA)을 학습함으로써, 제1 생성기(51)는 학습 이미지셋이 이미지 쌍(pair)으로 구성되어 있지 않더라도 정확하게 이미지 변환을 수행할 수 있게 된다. 제1 일관성 오차(LCONSTA)는 예를 들어 유클리드 거리(Euclidian distance), 코사인 유사도(cosine similarity) 등에 기초하여 산출될 수 있을 것이나, 본 개시의 기술적 범위가 상기 열거된 예시에 한정되는 것은 아니다.In addition, the first generator 51 may be further learned using a first consistency loss (L CONST A). The first consistency error (L CONST A) is calculated based on the difference between the actual image 55-1 input to the first generator 51 and the fake image 55-3 converted through the second generator 52. Can be. In this case, the fake image 55-3 refers to an image obtained by converting the fake image 55-2 converted through the first generator 51 into an original domain through the second generator 52 again. By learning the first consistency error L CONST A, the first generator 51 can accurately perform image conversion even if the training image set is not composed of image pairs. The first consistency error (L CONST A) may be calculated based on, for example, a Euclidian distance, a cosine similarity, and the like, but the technical scope of the present disclosure is not limited to the examples listed above. .

다음으로, 제2 생성기(52)는 제2 도메인의 이미지(56-1)를 제1 도메인의 페이크 이미지(56-2)로 변환하는 모듈이다. 또한, 제1 판별기(53)는 제1 도메인의 실제 이미지(55-1)와 페이크 이미지(56-2)를 판별하는 모듈이다. 제2 생성기(52)와 제1 판별기(53) 또한 적대적 학습을 통해 상호 보완적으로 학습될 수 있다.Next, the second generator 52 is a module that converts the image 56-1 of the second domain into a fake image 56-2 of the first domain. In addition, the first discriminator 53 is a module that determines the actual image 55-1 and the fake image 56-2 of the first domain. The second generator 52 and the first discriminator 53 may also be complementarily learned through hostile learning.

또한, 제2 생성기(52)는 제2 일관성 오차(LCONSTB)를 이용하여 더 학습될 수 있다. 제2 생성기(52)의 학습 과정은 제1 생성기(51)와 유사한 바 더 이상의 설명은 생략하도록 한다.Also, the second generator 52 may be further learned using the second consistency error L CONST B. Since the learning process of the second generator 52 is similar to that of the first generator 51, further description will be omitted.

이하, 도 11을 참조하여 변환 모델(60)의 구조와 학습 방법에 대하여 설명한다.Hereinafter, the structure of the transformation model 60 and a learning method will be described with reference to FIG. 11.

도 11에 도시된 바와 같이, 변환 모델(60)은 제1 도메인과 연관된 제1 인코더(61), 제1 생성기(63) 및 제1 판별기(65)와, 제2 도메인과 연관된 제2 인코더(62), 제2 생성기(64) 및 제2 판별기(66)를 포함할 수 있다.As shown in Fig. 11, the transform model 60 includes a first encoder 61, a first generator 63, and a first discriminator 65 associated with a first domain, and a second encoder associated with a second domain. 62, a second generator 64 and a second discriminator 66 may be included.

제1 인코더(61)는 제1 도메인의 이미지(68-1)를 인코딩 데이터(67)로 인코딩하는 모듈이고, 제2 인코더(62)는 제2 도메인 이미지(69-1)를 인코딩 데이터(67)로 인코딩하는 모듈이다. 인코딩 데이터(67)는 제1 도메인과 제2 도메인 이미지 간(즉, 서로 다른 도메인 간)에 잠재적으로 공유되는 특정 공간(latent shared space) 상의 데이터로 이해될 수 있다.The first encoder 61 is a module that encodes the image 68-1 of the first domain into the encoded data 67, and the second encoder 62 converts the second domain image 69-1 into the encoded data 67. It is a module that encodes with ). The encoded data 67 may be understood as data on a specific space potentially shared between the first domain and the second domain image (ie, between different domains).

제1 생성기(63)는 인코딩 데이터(67)에 기초하여 제1 도메인의 페이크 이미지(69-2)를 생성하는 모듈이다. 마찬가지로, 제2 생성기(64)는 인코딩 데이터(67)에 기초하여 제2 도메인의 페이크 이미지(69-2)를 생성하는 모듈이다.The first generator 63 is a module that generates a fake image 69-2 of the first domain based on the encoded data 67. Similarly, the second generator 64 is a module that generates a fake image 69-2 of the second domain based on the encoded data 67.

제1 판별기(65)는 제1 도메인 이미지에 대한 판별 동작을 수행하는 모듈이고, 제2 판별기(66)는 제2 도메인 이미지에 대한 판별 동작을 수행하는 모듈이다. 제1 판별기(65)와 제1 생성기(63) 간에는 적대적 학습이 수행되고, 제2 판별기(66)와 제2 생성기(64) 간에도 적대적 학습이 수행될 수 있다.The first discriminator 65 is a module that performs a discrimination operation on a first domain image, and the second discriminator 66 is a module that performs a discrimination operation on a second domain image. Hostile learning may be performed between the first discriminator 65 and the first generator 63, and hostile learning may also be performed between the second discriminator 66 and the second generator 64.

또한, 이미지 변환을 위해 도 11에 도시된 흐름에 따라 학습이 수행될 수 있다. 예를 들어, 제2 도메인의 이미지(69-1)에 대한 인코딩 데이터(67)가 제1 생성기(63)에 입력되면, 제2 도메인의 이미지(69-1)가 제1 도메인의 페이크 이미지(68-2)로 변환되도록 학습이 수행될 수 있다. 유사하게, 제1 도메인의 이미지(68-1)에 대한 인코딩 데이터(67)가 제2 생성기(64)에 입력되면, 제1 도메인의 이미지(68-1)가 제2 도메인의 페이크 이미지(69-2)로 변환되도록 학습이 수행될 수 있다. 구체적인 학습 방법과 관련해서는"UNIT; Unsupervised Image-to-Image Translation"으로 명명되는 문헌을 참조하도록 한다. 실제 이미지 변환 또한 도 11에 도시된 흐름에 따라 수행될 수 있다.In addition, learning may be performed according to the flow shown in FIG. 11 for image conversion. For example, when encoding data 67 for the image 69-1 of the second domain is input to the first generator 63, the image 69-1 of the second domain is a fake image of the first domain ( 68-2) can be performed. Similarly, when the encoding data 67 for the image 68-1 of the first domain is input to the second generator 64, the image 68-1 of the first domain is a fake image 69 of the second domain. Learning can be performed to transform into -2). For specific learning methods, refer to a document called "UNIT; Unsupervised Image-to-Image Translation". Actual image conversion may also be performed according to the flow shown in FIG. 11.

다시 도 8을 참조하여 설명을 이어가도록 한다.The description will be continued with reference to FIG. 8 again.

단계 S128에서, 변환된 이미지로 안면 인식이 수행될 수 있다. 전술한 바와 같이, 상기 안면 인식은 앞서 설명한 제1 실시예에 따른 안면 인식 방법에 따라 수행될 수 있을 것이나, 다른 방식으로 수행되더라도 무방하다.In step S128, facial recognition may be performed with the converted image. As described above, the facial recognition may be performed according to the facial recognition method according to the first embodiment described above, but may be performed in a different manner.

한편, 본 개시의 다른 몇몇 실시예에서는, 이미지 변환 과정 없이 장신구를 착용한 원본 이미지로 교육 참가자의 신원이 식별될 수도 있다. 예를 들어, 장신구 착용 상태에서의 안면 인식 결과(즉, 안면 유사도), 장신구 특징, 복장 특징, 동작 인식 결과(즉, 동작 유사도), 성문 인식 결과(즉, 음성 유사도) 등의 식별 요소를 종합적으로 고려하여 교육 참가자의 신원이 식별될 수도 있다. 이때, 각 식별 요소에는 동일한 가중치가 부여될 수도 있고, 서로 차등적인 가중치가 부여될 수도 있다. 예를 들어, 상기 안면 인식 결과 정확도는 장신구로 인해 다소 떨어질 수 있기 때문에, 다른 식별 요소보다 더 낮은 가중치가 부여될 수도 있다.Meanwhile, in some other embodiments of the present disclosure, the identity of the training participant may be identified as an original image wearing jewelry without an image conversion process. For example, identification factors such as facial recognition results (i.e., facial similarity), jewelry characteristics, clothing characteristics, motion recognition results (i.e., motion similarity), and voiceprint recognition results (i.e., voice similarity) are comprehensively integrated. In consideration of this, the identity of the training participant may be identified. In this case, the same weight may be assigned to each identification element, or differential weights may be assigned to each other. For example, since the accuracy of the facial recognition result may be slightly degraded due to jewelry, a lower weight may be given than other identification factors.

지금까지 도 8 내지 도 11을 참조하여 본 개시의 제2 실시예에 따른 안면 인식 방법에 대하여 설명하였다. 상술한 방법에 따르면, GAN 기반의 이미지 변환 모델을 이용하여, 교육 참가자가 장신구를 착용한 경우에도 높은 정확도로 안면 인식이 수행될 수 있다. 이에 따라, 출결 관리의 정확도도 향상될 수 있다.So far, a face recognition method according to a second embodiment of the present disclosure has been described with reference to FIGS. 8 to 11. According to the above-described method, face recognition can be performed with high accuracy even when the training participant wears jewelry by using the GAN-based image conversion model. Accordingly, the accuracy of attendance management may also be improved.

이하에서는, 도 12를 참조하여 본 개시의 몇몇 실시예에 따른 교육 집중도 측정 방법에 대하여 설명하도록 한다.Hereinafter, a method of measuring education concentration according to some embodiments of the present disclosure will be described with reference to FIG. 12.

도 12는 본 개시의 몇몇 실시예에 따른 교육 집중도 측정 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다. 이하의 교육 집중도 측정 방법은 집중도 측정부(13-2)와 조치부(15)에 의해 수행될 수 있다.12 is an exemplary flowchart illustrating a method of measuring education concentration according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some steps may be added or deleted as necessary. The following education concentration measurement method may be performed by the concentration measurement unit 13-2 and the action unit 15.

도 12에 도시된 바와 같이, 상기 교육 집중도 측정 방법은 교육 참가자에 대한 이미지를 수집하는 단계 S200에서 시작될 수 있다. 예를 들어, 교육 장소에 설치된 하나 이상의 촬영 장치(e.g. 도 1의 1)로부터 교육 도중에 촬영된 이미지가 수집될 수 있다. 이외에도, 본 단계에서, 음성 데이터, AP(Access Point) 등을 통한 인터넷 액세스 정보 등과 같이 모니터링 가능한 다양한 정보가 더 수집될 수도 있다.As illustrated in FIG. 12, the method of measuring the education concentration may begin in step S200 of collecting images of participants in education. For example, images photographed during education may be collected from one or more photographing devices (e.g. 1 in FIG. 1) installed in an education place. In addition, in this step, various information that can be monitored, such as voice data and Internet access information through an AP (Access Point), may be further collected.

단계 S220에서, 소정의 상호작용 지표를 기준으로 수집된 이미지를 분석하여 교육 참가자의 집중도가 측정될 수 있다. 여기서, 상기 상호작용 지표는 예를 들어 교육 장소에 대한 이탈 정도, 교육 참가자의 시선 방향, 시선 움직임, 교육 참가자의 개인 단말 사용 정도, 교수자의 질의에 대해 손을 든 횟수, 질의에 대한 답변 횟수, 답변의 정확도, 교육 참가자의 자세, 감정, 표정 등을 포함할 수 있다. 그러나, 이외에도 다양한 상호작용 지표가 더 포함될 수 있어서, 본 개시의 기술적 범위는 상기 열거된 예시에 한정되지 않는다. 본 단계에서 집중도를 측정하는 구체적인 예시들은 다음과 같다.In step S220, the concentration of the training participant may be measured by analyzing the collected image based on a predetermined interaction index. Here, the interaction indicator is, for example, the degree of departure from the training place, the direction of the gaze of the training participant, the movement of the gaze, the degree of use of the personal terminal of the training participant, the number of times the instructor raises his hand, the number of answers to the inquiry, It may include the accuracy of the answer, the posture, emotion, and facial expression of the training participant. However, in addition to the various interaction indicators may be further included, the technical scope of the present disclosure is not limited to the examples listed above. Specific examples of measuring concentration in this step are as follows.

몇몇 예에서, 교육 장소를 이탈한 횟수 및/또는 이탈 시간에 기초하여 집중도가 측정될 수 있다. 즉, 이탈 횟수가 많거나 이탈 시간이 길수록 집중도는 낮게 측정될 수 있다. 물론, 반대의 경우라면, 집중도는 높게 측정될 수 있다.In some examples, concentration may be measured based on the number of times and/or the time of departure from the educational venue. That is, the greater the number of times of departure or the longer the departure time, the lower the concentration may be measured. Of course, in the opposite case, concentration can be measured high.

다른 예로써, 교육 참가자의 시선 방향이 교수자를 향하고, 시선 유지 시간이 길어질수록 집중도는 높게 측정될 수 있다. 물론, 반대의 경우라면, 집중도는 낮게 측정될 수 있다.As another example, as an education participant's gaze direction is toward the instructor and the gaze retention time increases, the degree of concentration may be measured higher. Of course, in the opposite case, concentration can be measured low.

또 다른 예로써, 교육 참가자가 개인 단말을 사용한 횟수가 많거나, 시간이 길수록 집중도는 낮게 측정될 수 있다. 물론, 반대의 경우라면, 집중도는 높게 측정될 수 있다.As another example, the greater the number of times or longer the training participant uses the personal terminal, the lower the degree of concentration may be measured. Of course, in the opposite case, concentration can be measured high.

또 다른 예로써, 교육 참가자가 손을 든 횟수가 많거나, 답변한 횟수가 많을수록 집중도는 높게 측정될 수 있다. 물론, 반대의 경우라면, 집중도는 낮게 측정될 수 있다.As another example, as the number of times the training participant raises his or her hand or the number of answers increases, the degree of concentration may be measured higher. Of course, in the opposite case, concentration can be measured low.

또 다른 예로써, 교육 참가자가 정면을 응시하고 있지 않거나, 특정 자세(e.g. 조는 자세)를 취하고 있는 경우, 집중도는 낮게 측정될 수 있다. 물론, 반대의 경우라면, 집중도는 높게 측정될 수 있다.As another example, if the training participant is not staring straight ahead or is in a specific posture (e.g. tight posture), the degree of concentration may be measured to be low. Of course, in the opposite case, concentration can be measured high.

몇몇 예에서는, 교육 중에 수집된 교육 참가자의 음성에 대해 음성 인식이 수행되고, 음성 인식의 결과와 교육 주제와의 관련도에 기초하여 집중도가 측정될 수 있다. 이를테면, 관련도가 높은 경우 질의에 대한 정확한 답변으로 간주하여 집중도가 높게 측정되고, 반대의 경우 부정확한 답변 또는 잡담으로 간주하여 집중도가 낮게 측정될 수 있다.In some examples, speech recognition may be performed on the voices of training participants collected during training, and the degree of concentration may be measured based on a result of the voice recognition and a degree of relevance to the educational topic. For example, if the degree of relevance is high, the degree of concentration may be regarded as an accurate answer to a query, and the degree of concentration may be measured as high.

또한, 몇몇 예에서는, 수집된 이미지에서 인식된 복수의 교육 참가자의 감정 또는 표정과 특정 교육 참가자의 감정 또는 표정과의 차이에 기초하여 상기 특정 교육 참가자의 집중도가 측정될 수 있다. 이를테면, 다수의 교육 참가자가 무감정 또는 무표정인데, 특정 교육 참가자는 즐거운 감정 또는 웃는 표정을 취하고 있는 경우, 상기 특정 교육 참가자의 집중도는 낮게 측정될 수 있다.In addition, in some examples, the concentration of the specific training participant may be measured based on a difference between the emotions or facial expressions of the plurality of training participants recognized in the collected images and the emotions or facial expressions of the specific training participant. For example, when a number of training participants are insensitive or expressionless, and a specific training participant has a pleasant emotion or a smiling expression, the concentration of the specific training participant may be measured low.

또한, 몇몇 예에서는, 전술한 상호작용 지표들의 다양한 조합에 기초하여 교육 참가자의 집중도가 측정될 수 있다. 이를테면, 각 상호작용 지표의 가중치를 고려하여, 각 상호작용에 따라 측정된 집중도를 종합함으로써 교육 참가자의 최종 집중도가 결정될 수 있다. 이때, 각 상호작용 지표의 가중치는 실 데이터를 이용한 통계 분석 결과에 기초하여 결정되거나 조정될 수 있다. 구체적으로, 교육 참가자의 실제 피드백(e.g. 교육 만족도에 대한 설문 조사 결과 등), 교육 성과(e.g. 교육 참가자의 시험 점수 등), 교수자의 프로파일(e.g. 업적, 교수 기간, 횟수 등) 등을 기준으로 해당 교육의 효과가 정량적으로 측정될 수 있다. 그리고, 회귀 분석과 같은 통계 분석을 통해 측정된 교육 효과와 각 상호작용 지표 간의 관련도가 도출될 수 있고, 도출된 관련도에 따라 각 상호작용 지표의 가중치가 결정되거나 조정될 수 있다. 예를 들어, 특정 상호작용 지표가 교육 효과 향상에 큰 영향을 미친 경우(즉, 관련도가 높은 경우), 상기 특정 상호작용 지표의 가중치는 더 높은 값으로 조정될 수 있다.Further, in some examples, the degree of concentration of the training participant may be measured based on various combinations of the aforementioned interaction indicators. For example, by taking the weight of each interaction index into account and synthesizing the concentration measured according to each interaction, the final concentration of the training participant can be determined. In this case, the weight of each interaction index may be determined or adjusted based on the result of statistical analysis using real data. Specifically, it is based on the actual feedback of the training participants (eg survey results on education satisfaction, etc.), educational outcomes (eg test scores of training participants, etc.), and the instructor's profile (eg achievements, teaching period, number of times, etc.). The effectiveness of education can be measured quantitatively. In addition, a relationship between the measured educational effect and each interaction index may be derived through statistical analysis such as regression analysis, and the weight of each interaction index may be determined or adjusted according to the derived relationship. For example, when a specific interaction index has a great influence on improving the educational effect (ie, a high degree of relevance), the weight of the specific interaction index may be adjusted to a higher value.

한편, 몇몇 실시예에서는, 단계 S220의 집중도 측정 결과가 교육 참가자 정보 DB(17-1) 또는 기타 정보 DB(17-4) 등에 기록될 수 있으며, 상기 집중도 측정 결과가 지정된 교육 관계자(e.g. 감독자, 교육 참가자 본인 또는 지인, 교육 관리자)들의 단말로 제공될 수 있다. 본 실시예에 따르면, 교육 참가자의 집중도 저하를 방지하여, 전반적인 교육 효과가 향상될 수 있다.On the other hand, in some embodiments, the concentration measurement result of step S220 may be recorded in the training participant information DB 17-1 or other information DB 17-4, and the education official (eg, supervisor, It may be provided as a terminal of the training participant or acquaintance, training manager). According to the present embodiment, the overall educational effect may be improved by preventing a decrease in the concentration of training participants.

또한, 몇몇 실시예에서는, 상술한 집중도 측정 과정(즉, 단계 S200 및 단계 S220)이 교육 중에 지속적으로 수행될 수 있다. 본 실시예에 따르면, 교육 참가자의 집중도 저하를 방지하여, 전반적인 교육 효과가 향상될 수 있다.In addition, in some embodiments, the above-described concentration measurement process (ie, steps S200 and S220) may be continuously performed during training. According to the present embodiment, the overall educational effect may be improved by preventing a decrease in the concentration of training participants.

지금까지 도 12를 참조하여 본 개시의 몇몇 실시예에 따른 교육 집중도 측정 방법에 대하여 설명하였다. 상술한 방법에 따르면, 지능형 영상 분석 기술을 활용하여 교육 참가자의 집중도가 측정될 수 있으며, 측정된 집중도 정보가 다양한 교육 관계자가 제공될 수 있다. 이에 따라, 교육 참가자의 참여도를 비롯하여 전반적인 교육 효과가 증진될 수 있다.So far, a method of measuring education concentration according to some embodiments of the present disclosure has been described with reference to FIG. 12. According to the above-described method, the degree of concentration of the training participant may be measured by using the intelligent image analysis technology, and various education personnel may be provided with the measured concentration information. Accordingly, the overall educational effect, including the degree of participation of training participants, can be improved.

이하에서는, 도 13 내지 도 16을 참조하여 본 개시의 몇몇 실시예에 따른 이상 상황 감지 방법에 대하여 설명하도록 한다. 이하의 이상 상황 감지 방법은 이상 상황 감지부(13-3)와 조치부(15)에 의해 수행될 수 있다.Hereinafter, a method of detecting an abnormal situation according to some embodiments of the present disclosure will be described with reference to FIGS. 13 to 16. The following abnormal situation detection method may be performed by the abnormal situation detection unit 13-3 and the action unit 15.

도 13은 본 개시의 몇몇 실시예에 따른 이상 상황 감지 방법을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.13 is an exemplary flowchart illustrating a method of detecting an abnormal situation according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some steps may be added or deleted as necessary.

도 13에 도시된 바와 같이, 상기 이상 상황 감지 방법은 교육 장소에 대한 이미지를 수집하는 단계 S300에서 시작될 수 있다. 상기 이미지는 복수의 프레임 이미지를 포함할 수 있다.As illustrated in FIG. 13, the method for detecting an abnormal situation may begin in step S300 of collecting an image of an educational place. The image may include a plurality of frame images.

단계 S320에서, 수집된 이미지를 분석하여 이상 상황이 감지될 수 있다. 본 단계에서, 이상 상황 감지를 위해, 컨볼루션 신경망(convolutional neural network) 기반의 이상 상황 감지 모델을 이용될 수 있다. 이와 관련하여서는, 도 14 내지 도 16을 참조하여 후술하도록 한다.In step S320, an abnormal situation may be detected by analyzing the collected image. In this step, to detect an abnormal situation, an abnormal situation detection model based on a convolutional neural network may be used. In this regard, it will be described later with reference to FIGS. 14 to 16.

다만, 본 개시의 다른 몇몇 실시예에 따르면, 컨볼루션 신경망 외에도 다양한 지능형 영상 분석 기법을 이용하여 이상 상황이 감지될 수 있다. 예를 들어, 복수의 프레임 이미지에서 객체를 검출하고, 검출된 객체의 움직임 정도를 분석하여 폭력 상황이 실시간으로 감지될 수 있다. 이를테면, 서로 인접한 둘 이상의 객체 사이에 기준치 이상의 움직임이 검출된 경우, 폭력 상황이 발생했다고 판단될 수 있다.However, according to some other embodiments of the present disclosure, an abnormal situation may be detected using various intelligent image analysis techniques in addition to the convolutional neural network. For example, a violent situation may be detected in real time by detecting an object from a plurality of frame images and analyzing the degree of movement of the detected object. For example, when motion of more than a reference value is detected between two or more objects adjacent to each other, it may be determined that a violent situation has occurred.

단계 S340에서, 감지된 이상 상황에 따른 적절한 조치가 수행될 수 있다. 예를 들어, 교육 관계자에게 알림을 제공하거나, 긴급 출동 기관에게 긴급 구조를 요청하는 등의 조치가 수행될 수 있다. 구체적인 조치에 대해서는 앞서 서술한 조치부(15)의 설명 내용을 참조하도록 한다.In step S340, an appropriate action may be performed according to the detected abnormal situation. For example, measures such as providing a notification to an education official or requesting an emergency rescue from an emergency response organization may be performed. For specific measures, refer to the description of the action unit 15 described above.

이하에서는, 도 14 내지 도 16을 참조하여 상술한 이상 상황 감지 단계 S320의 세부 과정에 대하여 설명하도록 한다. 도 14 및 도 15는 실시간 이상 상황 감지를 위해 분석 대상이 되는 이미지 데이터를 경량화하는 실시예를 설명하기 위한 것이고, 도 16은 이상 상황 감지의 정확도를 향상시키기 위해 고안된 실시예를 설명하기 위한 것이다.Hereinafter, a detailed process of the abnormal situation detection step S320 described above will be described with reference to FIGS. 14 to 16. 14 and 15 are for explaining an embodiment in which image data to be analyzed is lightened in order to detect an abnormal situation in real time, and FIG. 16 is for explaining an embodiment designed to improve the accuracy of detection of an abnormal situation.

도 14는 본 개시의 몇몇 실시예에 따른 이상 상황 감지 단계 S320의 세부 과정을 나타내는 예시적인 흐름도이다. 단, 이는 본 개시의 목적을 달성하기 위한 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가되거나 삭제될 수 있음은 물론이다.14 is an exemplary flowchart illustrating a detailed process of an abnormal situation detection step S320 according to some embodiments of the present disclosure. However, this is only a preferred embodiment for achieving the object of the present disclosure, and of course, some steps may be added or deleted as necessary.

도 14에 도시된 바와 같이, 단계 S322에서, 복수의 프레임 이미지 각각에서 색차 성분을 제외하여 복수의 휘도 이미지가 추출될 수 있다. 예를 들어, 도 15에 도시된 바와 같이, RGB 형식의 특정 이미지를 YUV 형식으로 변환하고, 색차 성분(U, V)를 제거하면, 상기 특정 이미지에서 휘도 이미지가 추출될 수 있다. 본 단계는 색차 성분에 대응되는 데이터 제거를 통해 경량화를 수행하는 단계로 이해될 수 있다.As shown in FIG. 14, in step S322, a plurality of luminance images may be extracted from each of the plurality of frame images by excluding a color difference component. For example, as illustrated in FIG. 15, when a specific image in an RGB format is converted into a YUV format and color difference components (U, V) are removed, a luminance image may be extracted from the specific image. This step may be understood as a step of performing weight reduction by removing data corresponding to a color difference component.

몇몇 실시예에서, 단계 S322는 감지 대상이 되는 이상 상황이 폭력 상황인 경우에 한하여 수행될 수 있다. 폭력 상황은 움직임 등의 특징에 기초하여 검출될 것이므로, 색차 성분이 제외되더라도 높은 정확도로 이상 상황 검출이 가능할 것이기 때문이다.In some embodiments, step S322 may be performed only when the abnormal situation to be detected is a violent situation. This is because the violent situation will be detected based on features such as movement, and therefore abnormal situations will be detected with high accuracy even if the color difference component is excluded.

단계 S324에서, 추출된 복수의 휘도 이미지를 축적하여 3차원의 이미지가 생성될 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 일정 개수의 휘도 이미지(71)가 축적되어(stacking) 3차원 이미지(73)가 생성될 수 있다.In step S324, a three-dimensional image may be generated by accumulating a plurality of extracted luminance images. For example, as shown in FIG. 15, a predetermined number of luminance images 71 may be stacked to generate a 3D image 73.

단계 S326에서, 생성된 3차원의 이미지 중 적어도 일부에 대해 다운샘플링(downsampling)이 수행되고, 그 결과로 입력 이미지가 구성될 수 있다. 상기 입력 이미지는 이상 상황 감지 모델로 입력되는 이미지를 의미할 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 3차원 이미지(73)를 다운샘플링하여 입력 이미지(75)가 구성될 수 있다.In step S326, downsampling is performed on at least a part of the generated three-dimensional image, and as a result, an input image may be configured. The input image may mean an image input as an abnormal situation detection model. For example, as shown in FIG. 15, the input image 75 may be configured by down-sampling the 3D image 73.

상기 다운샘플링은 3차원 이미지(e.g. 73)에 포함된 복수의 휘도 이미지 중에서 일부를 추출하는 방식(e.g. 폭력 상황 검출인 경우, 움직임 벡터의 개수가 기준치 이상인 회도 이미지만을 추출함)으로 수행될 수 있을 것이나, 다른 방식으로 수행되더라도 무방하다.The downsampling may be performed by a method of extracting part of a plurality of luminance images included in a three-dimensional image (eg 73) (eg, in the case of detection of a violent situation, extracting only the circular image with the number of motion vectors equal to or greater than the reference value). There may be, but it can be done in a different way.

단계 S328에서, 상기 입력 이미지를 이상 상황 감지 모델에 입력하여 이상 상황이 감지될 수 있다. 예를 들어, 도 15에 도시된 바와 같이, 입력 이미지(75)가 이상 상황 감지 모델에 입력되면, 컨볼루션 연산과 풀링 연산 등을 통해 입력 이미지(75)로부터 특징맵(77, 79 등; feature map)이 추출될 수 있고, 특징맵(77, 79 등)에 기초하여 상기 이상 상황 감지 모델이 이상 상황 감지 결과를 출력할 수 있다. 이를테면, 이상 상황 감지 모델이 화재를 감지하는 이진 분류 모델(e.g. 화재 or 정상 2개의 클래스로 분류하는 모델)인 경우, 이상 상황 감지 모델은 두 클래스의 컨피던스 스코어(confidence score)를 출력할 수 있다. 그러면, 화재 클래스의 컨피던스 스코어가 기준치 이상인지 여부에 기초하여 화재 발생 여부가 결정될 수 있다.In step S328, the abnormal situation may be detected by inputting the input image to the abnormal situation detection model. For example, as shown in FIG. 15, when the input image 75 is input to the abnormal situation detection model, feature maps 77, 79, etc. from the input image 75 through convolution and pooling operations, etc.; map) may be extracted, and the abnormal situation detection model may output the abnormal situation detection result based on the feature maps 77, 79, etc. For example, if the abnormal situation detection model is a binary classification model that detects fire (e.g. a model classified into two classes of fire or normal), the abnormal situation detection model may output confidence scores of two classes. Then, whether or not a fire occurs may be determined based on whether the confidence score of the fire class is equal to or greater than a reference value.

한편, 본 개시의 몇몇 실시예에 따르면, 상기 이상 상황 감지 모델은 복수의 특징맵을 종합하여 새로운 특징맵을 생성하고, 생성된 특징맵을 이용하여 이상 상황 감지를 수행할 수 있다. 그렇게 함으로써, 이상 상황 감지의 정확도가 향상시킬 수 있는데, 이하 본 실시예에 관하여 도 16을 참조하여 부연 설명하도록 한다.Meanwhile, according to some embodiments of the present disclosure, the abnormal condition detection model may generate a new feature map by synthesizing a plurality of feature maps, and detect the abnormal condition using the generated feature map. By doing so, the accuracy of detecting an abnormal situation can be improved. Hereinafter, the present embodiment will be further described with reference to FIG. 16.

도 16에 도시된 바와 같이, 이상 상황 감지 모델은 복수의 컨볼루션 연산을 통해 입력 이미지(75)로부터 고차원의 특징이 담긴 특징맵을 추출하게 된다. 예를 들어, 제1 특징맵(77)에 대해 다시 컨볼루션 연산이 수행되어, 제2 특징맵(79)이 추출되고, 유사한 방식으로 제3 특징맵(81)과 제4 특징맵(83)이 추출되는데, 제4 특징맵(83)은 제1 특징맵(77)보다 더 고차원의 특징을 포함하게 된다.As shown in FIG. 16, the abnormal situation detection model extracts a feature map containing high-dimensional features from the input image 75 through a plurality of convolution operations. For example, a convolution operation is again performed on the first feature map 77, the second feature map 79 is extracted, and the third feature map 81 and the fourth feature map 83 are similar in a similar manner. This is extracted, and the fourth feature map 83 includes higher-dimensional features than the first feature map 77.

그러나, 저차원의 특징 또한 이상 상황 감지에 중요한 역할을 할 수 있는 바, 이상 상황 감지 모델은 복수의 특징맵(e.g. 79, 83)을 종합하여 다양한 특징이 담긴 제5 특징맵(85)을 생성하고, 제5 특징맵(85)에 기초하여 이상 상황 발생 여부를 판단할 수 있다. 예를 들어, 이상 상황 감지 모델은 동일한 프레임 이미지와 연관된 제2 특징맵(79)의 특징값과 제4 특징맵(83)의 특징값을 종합하여 제5 특징맵(85)을 생성할 수 있다. 즉, 상기 종합 과정에서, 제1 프레임 이미지와 연관된 제2 특징맵(79)의 특징값과 제4 특징맵(83)의 특징값이 종합되고, 제2 프레임 이미지와 연관된 제2 특징맵(79)의 특징값과 제4 특징맵(83)의 특징값이 종합될 수 있다. 상기 종합 과정을 통해, 저차원의 특징과 고차원의 특징이 혼합되거나, 중요 특징이 증폭되기 때문에, 이상 상황 감지의 정확도가 더욱 향상될 수 있다.However, low-dimensional features can also play an important role in detecting abnormal situations, and the abnormal situation detection model synthesizes a plurality of feature maps (eg 79, 83) to generate a fifth feature map 85 containing various features. And, based on the fifth feature map 85, it may be determined whether or not an abnormal situation has occurred. For example, the abnormal situation detection model may generate the fifth feature map 85 by synthesizing the feature values of the second feature map 79 and the feature values of the fourth feature map 83 associated with the same frame image. . That is, in the synthesis process, the feature values of the second feature map 79 associated with the first frame image and the feature values of the fourth feature map 83 are synthesized, and the second feature map 79 associated with the second frame image. ) And the feature values of the fourth feature map 83 may be combined. Through the above synthesis process, since low-dimensional features and high-dimensional features are mixed or important features are amplified, the accuracy of detecting an abnormal situation can be further improved.

지금까지 도 13 내지 도 16을 참조하여 본 개시의 몇몇 실시예에 따른 이상 상황 감지 방법에 대하여 설명하였다. 상술한 방법에 따르면, 지능형 영상 분석 기술을 활용하여 폭력, 화재 등과 같이 교육 중에 발생될 수 있는 각종 이상 상황이 실시간으로 감지될 수 있으며, 감지된 이상 상황에 따라 적절한 조치가 자동으로 취해질 수 있다. 이에 따라, 안전 관리의 편의성이 증진되고, 안전한 교육 환경이 조성될 수 있다. 또한, 색차 성분 제외, 다운샘플링 통해 이상 상황 감지를 위해 분석되는 이미지 데이터가 경량화될 수 있는 바, 이상 상황 감지의 실시간성이 확보될 수 있다. 또한, 특징맵 병합 또는 종합을 통해 다양한 특징에 기반하여 이상 상황 감지가 수행될 수 있으며, 이에 따라 이상 상황 감지의 정확도가 향상될 수 있다.So far, a method of detecting an abnormal situation according to some embodiments of the present disclosure has been described with reference to FIGS. 13 to 16. According to the above-described method, various abnormal situations that may occur during education, such as violence and fire, may be detected in real time by using intelligent image analysis technology, and appropriate measures may be automatically taken according to the detected abnormal situation. Accordingly, convenience of safety management can be improved, and a safe educational environment can be created. In addition, since the image data analyzed for detecting an abnormal situation through downsampling and excluding the color difference component can be reduced in weight, real-time capability of detecting an abnormal situation can be secured. In addition, abnormal situation detection may be performed based on various features through feature map merging or synthesis, and accordingly, the accuracy of the abnormal situation detection may be improved.

이하에서는, 도 17을 참조하여 본 개시의 몇몇 실시예에 따른 프라이버시 보호 방법에 대하여 설명할 수 있다. 이하의 프라이버시 보호 방법은 저장부(17)에 의해 수행될 수 있으나, 다른 모듈에 의해 수행될 수도 있다. 또한, 저장부(17)가 다른 모듈과 연동하여 상기 프라이버시 보호 방법을 수행할 수도 있다.Hereinafter, a privacy protection method according to some embodiments of the present disclosure may be described with reference to FIG. 17. The following privacy protection method may be performed by the storage unit 17, but may be performed by other modules. In addition, the storage unit 17 may perform the privacy protection method in conjunction with other modules.

도 17은 본 개시의 몇몇 실시예에 따른 프라이버시 보호 방법을 설명하기 위한 예시도이다.17 is an exemplary diagram for describing a privacy protection method according to some embodiments of the present disclosure.

도 17에 도시된 바와 같이, 촬영 장치(e.g. 도 1의 1)로부터 수집된 이미지(91)에는 교육 참가자(95 등)의 다양한 모습이 포함될 수 있다. 이러한 이미지(91)가 유출될 경우, 프라이버시 침해가 야기될 수 있으므로, 본 개시의 몇몇 실시예에서는, 이미지(91)를 저장하기 전에 적절한 가공 처리가 수행될 수 있다.As shown in FIG. 17, the image 91 collected from the photographing device (e.g. 1 in FIG. 1) may include various aspects of the training participant (95, etc.). If such an image 91 is leaked, privacy may be infringed, and therefore, in some embodiments of the present disclosure, an appropriate processing process may be performed before storing the image 91.

상기 가공 처리는 안면 영역(e.g. 93-1) 중 적어도 일부 영역에 대한 은폐 처리를 포함할 수 있다. 예를 들어, 수집된 이미지(91)에서 안면 영역(e.g. 93-1)이 검출되면, 안면 영역(e.g. 93-1)의 전부 또는 일부 영역에 대해 마스킹, 모자이크 처리 등이 수행될 수 있다. 은폐 처리된 이미지(94)의 일 예는 도 17의 하단에 도시되어 있다.The processing may include concealing at least a portion of the facial area (e.g. 93-1). For example, when a facial area (e.g. 93-1) is detected in the collected image 91, masking or mosaic processing may be performed on all or part of the facial area (e.g. 93-1). An example of the concealed image 94 is shown at the bottom of FIG. 17.

또한, 상기 가공 처리는 은폐된 영역(e.g. 93-2)에 해당 교육 참가자(e.g. 95)에 대한 식별 코드를 주입하는 과정을 더 포함할 수 있다. 예를 들어, 은폐된 영역(e.g. 93-2)에 해당 교육 참가자(e.g. 95)를 식별할 수 있는 적절한 식별 코드가 삽입될 수 있다. 물론, 상기 식별 코드는 다른 위치에 삽입되거나, 별도의 메타데이터로 저장되더라도 무방하다. 또한, 상기 식별 코드의 형식은 어떠한 형식이 되더라도 무방하다. 식별 코드를 삽입하는 이유는, 추후 저장된 이미지(94)를 분석할 때, 해당 교육 참가자(e.g. 95)가 식별될 필요성이 있기 때문이다. 몇몇 실시예에서는, 상기 식별 코드는 암호화되어 저장될 수 있다.In addition, the processing may further include a process of injecting an identification code for the training participant (e.g. 95) into the concealed area (e.g. 93-2). For example, an appropriate identification code may be inserted in the concealed area (e.g. 93-2) to identify the training participant (e.g. 95). Of course, the identification code may be inserted in another location or stored as separate metadata. In addition, the form of the identification code may be any form. The reason for inserting the identification code is that when analyzing the stored image 94 later, the corresponding training participant (e.g. 95) needs to be identified. In some embodiments, the identification code may be encrypted and stored.

지금까지 도 17을 참조하여 본 개시의 몇몇 실시예에 따른 프라이버시 보호 방법에 대하여 설명하였다. 상술한 방법에 따르면, 교육 참가자의 안면이 포함된 이미지에 대해 은폐 처리가 수행되므로, 데이터 유출에 따른 교육 참가자의 프라이버시 침해 문제가 미연에 방지될 수 있다.So far, a privacy protection method according to some embodiments of the present disclosure has been described with reference to FIG. 17. According to the above-described method, since concealment processing is performed on the image including the face of the training participant, the problem of invading the privacy of the training participant due to data leakage can be prevented in advance.

이하에서는, 도 18을 참조하여 본 개시의 다양한 실시예에 따른 장치들(e.g. 도 1의 통합 관리 서버 10)를 구현할 수 있는 예시적인 컴퓨팅 장치(100)에 대하여 설명하도록 한다.Hereinafter, an exemplary computing device 100 capable of implementing devices (e.g. the integrated management server 10 of FIG. 1) according to various embodiments of the present disclosure will be described with reference to FIG. 18.

도 18은 컴퓨팅 장치(100)를 나타내는 예시적인 하드웨어 구성도이다.18 is an exemplary hardware configuration diagram illustrating the computing device 100.

도 18에 도시된 바와 같이, 컴퓨팅 장치(100)는 하나 이상의 프로세서(110), 버스(150), 통신 인터페이스(170), 프로세서(110)에 의하여 수행되는 컴퓨터 프로그램을 로드(load)하는 메모리(130)와, 컴퓨터 프로그램(191)를 저장하는 스토리지(190)를 포함할 수 있다. 다만, 도 18에는 본 개시의 실시예와 관련 있는 구성요소들만이 도시되어 있다. 따라서, 본 개시가 속한 기술분야의 통상의 기술자라면 도 18에 도시된 구성요소들 외에 다른 범용적인 구성 요소들이 더 포함될 수 있음을 알 수 있다. 즉, 컴퓨팅 장치(100)에는, 도 18에 도시된 구성 요소 이외에도 다양한 구성 요소가 더 포함될 수 있다.As shown in FIG. 18, the computing device 100 is a memory for loading a computer program executed by one or more processors 110, a bus 150, a communication interface 170, and the processor 110 ( 130) and a storage 190 for storing the computer program 191. However, only the components related to the embodiment of the present disclosure are shown in FIG. 18. Accordingly, those of ordinary skill in the art to which the present disclosure belongs may recognize that other general-purpose components may be further included in addition to the components illustrated in FIG. 18. That is, the computing device 100 may further include various components in addition to the components illustrated in FIG. 18.

프로세서(110)는 컴퓨팅 장치(100)의 각 구성의 전반적인 동작을 제어한다. 프로세서(110)는 CPU(Central Processing Unit), MPU(Micro Processor Unit), MCU(Micro Controller Unit), GPU(Graphic Processing Unit) 또는 본 개시의 기술 분야에 잘 알려진 임의의 형태의 프로세서 중 적어도 하나를 포함하여 구성될 수 있다. 또한, 프로세서(110)는 본 개시의 다양한 실시예에 따른 방법/동작들을 실행하기 위한 적어도 하나의 애플리케이션 또는 프로그램에 대한 연산을 수행할 수 있다. 컴퓨팅 장치(100)는 하나 이상의 프로세서를 구비할 수 있다.The processor 110 controls the overall operation of each component of the computing device 100. The processor 110 includes at least one of a CPU (Central Processing Unit), a Micro Processor Unit (MPU), a Micro Controller Unit (MCU), a Graphic Processing Unit (GPU), or any type of processor well known in the technical field of the present disclosure. It can be configured to include. In addition, the processor 110 may perform an operation on at least one application or program for executing methods/operations according to various embodiments of the present disclosure. The computing device 100 may include one or more processors.

메모리(130)는 각종 데이터, 명령 및/또는 정보를 저장한다. 메모리(130)는 본 개시의 다양한 실시예에 따른 방법/동작들을 실행하기 위하여 스토리지(190)로부터 하나 이상의 프로그램(191)을 로드할 수 있다. 가령, 메모리(130)에 컴퓨터 프로그램(191)이 로드되면, 도 5에 도시된 바와 같은 모듈이 메모리(130) 상에 구현될 수 있다. 메모리(130)는 RAM과 같은 휘발성 메모리로 구현될 수 있을 것이나, 본 개시의 기술적 범위는 이에 한정되지 아니한다.The memory 130 stores various types of data, commands, and/or information. The memory 130 may load one or more programs 191 from the storage 190 to execute methods/operations according to various embodiments of the present disclosure. For example, when the computer program 191 is loaded in the memory 130, a module as shown in FIG. 5 may be implemented on the memory 130. The memory 130 may be implemented as a volatile memory such as RAM, but the technical scope of the present disclosure is not limited thereto.

버스(150)는 컴퓨팅 장치(100)의 구성 요소 간 통신 기능을 제공한다. 버스(150)는 주소 버스(Address Bus), 데이터 버스(Data Bus) 및 제어 버스(Control Bus) 등 다양한 형태의 버스로 구현될 수 있다.The bus 150 provides a communication function between components of the computing device 100. The bus 150 may be implemented as various types of buses such as an address bus, a data bus, and a control bus.

통신 인터페이스(170)는 컴퓨팅 장치(100)의 유무선 인터넷 통신을 지원한다. 또한, 통신 인터페이스(170)는 인터넷 통신 외의 다양한 통신 방식을 지원할 수도 있다. 이를 위해, 통신 인터페이스(170)는 본 개시의 기술 분야에 잘 알려진 통신 모듈을 포함하여 구성될 수 있다.The communication interface 170 supports wired/wireless Internet communication of the computing device 100. In addition, the communication interface 170 may support various communication methods other than Internet communication. To this end, the communication interface 170 may be configured to include a communication module well known in the art.

스토리지(190)는 상기 하나 이상의 프로그램(191)을 비임시적으로 저장할 수 있다. 스토리지(190)는 ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리 등과 같은 비휘발성 메모리, 하드 디스크, 착탈형 디스크, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터로 읽을 수 있는 기록 매체를 포함하여 구성될 수 있다.The storage 190 may non-temporarily store the one or more programs 191. The storage 190 is a nonvolatile memory such as a ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), flash memory, etc., a hard disk, a removable disk, or well in the technical field to which the present disclosure belongs. It may be configured to include any known computer-readable recording medium.

컴퓨터 프로그램(191)은 메모리(130)에 로드될 때 프로세서(110)로 하여금 본 개시의 다양한 실시예에 따른 방법/동작들을 수행하도록 하는 하나 이상의 인스트럭션들(instructions)을 포함할 수 있다. 즉, 프로세서(110)는 상기 하나 이상의 인스트럭션들을 실행함으로써, 본 개시의 다양한 실시예에 따른 방법/동작들을 수행할 수 있다.The computer program 191 may include one or more instructions that when loaded into the memory 130 cause the processor 110 to perform methods/operations according to various embodiments of the present disclosure. That is, the processor 110 may perform methods/operations according to various embodiments of the present disclosure by executing the one or more instructions.

예를 들어, 컴퓨터 프로그램(191)은 하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 동작, 안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하는 동작 및 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 동작을 수행하도록 하는 하나 이상의 인스트럭션들을 포함할 수 있다. 이와 같은 경우, 컴퓨팅 장치(100)를 통해 본 개시의 몇몇 실시예에 따른 통합 교육 관리 서버(10)가 구현될 수 있다.For example, the computer program 191 may include an operation of collecting an image of an education place from one or more photographing devices, an operation of identifying an education participant included in the collected image through facial recognition, and the identification result. It may include one or more instructions for performing an operation to determine whether the training participant attends or not. In this case, the integrated education management server 10 according to some embodiments of the present disclosure may be implemented through the computing device 100.

지금까지 도 1 내지 도 18을 참조하여 본 개시의 기술적 사상과 다양한 실시예에 대하여 설명하였다. 이해의 편의를 위해, 본 개시의 기술적 사상이 교육 장소와 환경을 통합 관리하기 위해 적용된 것을 예로 들어 설명하였으나, 본 개시의 기술적 사상은 지능형 영상 분석이 수행 가능한 임의의 환경에 적용될 수 있다.So far, the technical idea and various embodiments of the present disclosure have been described with reference to FIGS. 1 to 18. For convenience of understanding, the technical idea of the present disclosure has been described as an example in which the technical idea of the present disclosure is applied to integrated management of an educational place and environment, but the technical idea of the present disclosure may be applied to any environment in which intelligent image analysis can be performed.

지금까지 도 1 내지 도 18을 참조하여 설명한 본 개시의 기술적 사상과 다양한 실시예에 따르면 다음의 효과를 더 달성될 수 있다.According to the technical idea and various embodiments of the present disclosure described with reference to FIGS. 1 to 18 so far, the following effects may be further achieved.

먼저, 종래의 출결 관리는 교수자가 직접 교육 참가자의 이름을 호명하여 출결을 확인하는 방식으로 수행되었다. 이러한 방식은 강의 시간의 일부를 출결 확인에 사용하고, 대리 출석 등에 대해 정확한 출결 확인을 기대할 수 없었다. 또한, 최근에 제안된 비콘을 이용한 출결 관리 시스템은 교육 참가자들이 비콘 근처에서 직접 단말기를 이용하여 출석을 체크하는 방식이기 때문에, 대리 출석이 가능하고 강의실 외부에서 부정 출석 체크가 가능하며, 비콘이 검색되지 않거나 네트워크 문제로 접속 오류가 발생하는 등 효율적이지 못한 부분이 있었다. 이에 반해, 본 개시의 실시예에 따른 출결 확인 방식은 지능형 영상 분석을 통해 교육 참가자를 정확하게 인식함으로써 대리 출석 및 부정 출석에 대한 가능성을 완전히 배제할 수 있다. 또한, 소프트웨어를 통하여 출결이 관리되기 때문에, 교육 참가자들이 별도의 단말기를 이용할 필요가 없어 출결 확인의 편의성도 향상될 수 있다.First, the conventional attendance management was performed in such a way that the instructor directly calls the names of participants in the training to confirm attendance. In this method, part of the lecture time was used for attendance confirmation, and accurate attendance confirmation could not be expected for substitute attendance. In addition, the recently proposed beacon-based attendance management system is a method in which training participants directly check attendance using a terminal near the beacon, so it is possible to be a proxy attendance and check irregular attendance outside the classroom, and beacon is searched. There were areas that were not efficient, such as failures or connection errors due to network problems. On the other hand, the attendance confirmation method according to the exemplary embodiment of the present disclosure can completely eliminate the possibility of proxy attendance and irregular attendance by accurately recognizing educational participants through intelligent image analysis. In addition, since attendance is managed through software, the convenience of attendance confirmation can be improved because training participants do not need to use a separate terminal.

또한, 종래의 경우, 수업 정보 및 알람은 각 학교의 학과사무실을 통하여 게시판에 게시되거나 각 학교의 대학정보시스템 홈페이지를 통하여 확인이 가능하였다. 이러한 방식은 학생이 직접 학과사무실을 찾아가야 하거나 컴퓨터를 사용해야 하는 등의 이유로 실시간으로 수업 정보 및 알람을 확인하는 데에 제한이 있었다. 이에 반해, 본 개시의 실시예에 따른 통합 교육 관리 서버(10) 및 이와 연동되는 애플리케이션을 통해 수업에 대한 정보나 휴강 및 보강 등 수업 일정의 변동사항이 교수자와 교육 참가자 간에 실시간으로 공유될 수 있다.In addition, in the conventional case, class information and alarms were posted on a bulletin board through the department office of each school, or could be checked through the university information system homepage of each school. This method has limitations in checking class information and alarms in real time for reasons such as the need for students to visit the department office or use a computer. On the other hand, through the integrated education management server 10 according to an embodiment of the present disclosure and an application linked thereto, changes in class schedules, such as information on classes, or cancellation and reinforcement, may be shared in real time between the instructor and the training participant. .

또한, 종래의 경우, 강의 및 프로젝트 별 일정, 과제 관리, 진행 척도를 확인하기 위해서는 교수자 및 교육 참가자들이 직접 대면하여 확인을 하거나 관리 시스템(e.g. 대학정보시스템)에 접속하여 확인을 해야만 했다. 예를 들어, 학생들은 자신이 수강하고 있는 강의가 현재 어떠한 진행도를 보이고 있는지 확인하기 위해 직접 대학정보시스템 홈페이지에 들어가 확인을 해야만 했다. 이러한 접근 과정의 번거로움으로 인해, 종래에는 대부분의 학생들이 강의 진행도를 확인하지 않는 등의 문제점이 있었다. 이에 반해, 본 개시의 실시예에 따른 통합 교육 관리 서버(10) 및 이와 연동되는 애플리케이션은 현재 자신이 수강하고 있는 강의의 진행 척도를 시각적으로 보여줄 수 있다. 이에 따라, 교육 참가자는 교수자의 강의 계획과 현재 진행 척도를 비교하여 이 강의가 좋은 강의인지 여부를 손쉽게 확인할 수 있게 된다. 또한, 교수자가 과제에 대한 정보를 애플리케이션에 등록함으로써 교육 참가자들이 손쉽게 과제를 확인할 수 있게 된다.In addition, in the conventional case, in order to check the schedule, task management, and progress scale for each lecture and project, professors and training participants had to check face-to-face or access a management system (e.g. university information system) to check. For example, students had to go to the website of the university information system and check in order to see what kind of progress their lectures are currently taking. Due to the cumbersomeness of such an approach process, conventionally, there has been a problem that most of the students do not check the progress of the lecture. On the other hand, the integrated education management server 10 and an application linked thereto according to an embodiment of the present disclosure may visually show a progress measure of a lecture currently being taken. Accordingly, the training participant can easily check whether the lecture is a good lecture by comparing the lecture plan of the instructor with the current progress scale. In addition, the instructor registers information about the assignment in the application, so that training participants can easily check the assignment.

또한, 종래의 경우, 주제별 모임 및 정보 제공 등 커뮤니티를 통한 소통의 장이 학교 동아리 및 인터넷 카페 혹은 단일 애플리케이션으로 형성되어 있었다. 그리고, 학생들은 인터넷 카페에 접속하는 번거로움으로 인하여 특별한 공지사항 외에는 카페에 접속하지 않는 문제점이 있다. 이에 반해, 본 개시의 실시예에 따른 통합 교육 관리 서버(10) 및 이와 연동되는 애플리케이션은 뛰어난 접근성을 제공할 수 있다. 즉, 학생들이 상기 애플리케이션을 통해 커뮤니티에 손쉽게 접근할 수 있고, 신규 동아리 및 소통의 장을 손쉽고 원활하게 형성할 수 있게 된다. 또한, 상기 애플리케이션의 파일 첨부 기능을 통해 직접 만나지 않고도 동아리나 소통의 장에 대한 정보가 학생들 간에 공유될 수 있다.In addition, in the conventional case, a place for communication through a community, such as meetings and information by topic, was formed as a school club, an Internet cafe, or a single application. In addition, there is a problem in that students do not access the cafe except for special notices due to the hassle of accessing the Internet cafe. On the other hand, the integrated education management server 10 according to an embodiment of the present disclosure and an application linked thereto may provide excellent accessibility. That is, students can easily access the community through the application, and new clubs and places of communication can be easily and smoothly formed. In addition, information about a club or a place of communication can be shared among students without meeting in person through the file attachment function of the application.

지금까지 도 1 내지 도 18을 참조하여 설명된 본 개시의 기술적 사상은 컴퓨터가 읽을 수 있는 매체 상에 컴퓨터가 읽을 수 있는 코드로 구현될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들어 이동형 기록 매체(CD, DVD, 블루레이 디스크, USB 저장 장치, 이동식 하드 디스크)이거나, 고정식 기록 매체(ROM, RAM, 컴퓨터 구비 형 하드 디스크)일 수 있다. 상기 컴퓨터로 읽을 수 있는 기록 매체에 기록된 상기 컴퓨터 프로그램은 인터넷 등의 네트워크를 통하여 다른 컴퓨팅 장치에 전송되어 상기 다른 컴퓨팅 장치에 설치될 수 있고, 이로써 상기 다른 컴퓨팅 장치에서 사용될 수 있다.The technical idea of the present disclosure described with reference to FIGS. 1 to 18 so far may be implemented as computer-readable code on a computer-readable medium. The computer-readable recording medium is, for example, a removable recording medium (CD, DVD, Blu-ray disk, USB storage device, removable hard disk) or a fixed recording medium (ROM, RAM, computer-equipped hard disk). I can. The computer program recorded on the computer-readable recording medium may be transmitted to another computing device through a network such as the Internet and installed in the other computing device, thereby being used in the other computing device.

이상에서, 본 개시의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 개시의 기술적 사상이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 개시의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다.In the above, even if all the constituent elements constituting the embodiments of the present disclosure have been described as being combined into one or operating in combination, the technical idea of the present disclosure is not necessarily limited to these embodiments. That is, as long as it is within the scope of the object of the present disclosure, one or more of the components may be selectively combined and operated.

도면에서 동작들이 특정한 순서로 도시되어 있지만, 반드시 동작들이 도시된 특정한 순서로 또는 순차적 순서로 실행되어야만 하거나 또는 모든 도시 된 동작들이 실행되어야만 원하는 결과를 얻을 수 있는 것으로 이해되어서는 안 된다. 특정 상황에서는, 멀티태스킹 및 병렬 처리가 유리할 수도 있다. 더욱이, 위에 설명한 실시예들에서 다양한 구성들의 분리는 그러한 분리가 반드시 필요한 것으로 이해되어서는 안 되고, 설명된 프로그램 컴포넌트들 및 시스템들은 일반적으로 단일 소프트웨어 제품으로 함께 통합되거나 다수의 소프트웨어 제품으로 패키지 될 수 있음을 이해하여야 한다.Although the operations are illustrated in a specific order in the drawings, it should not be understood that the operations must be executed in the specific order shown or in a sequential order, or all illustrated operations must be executed to obtain a desired result. In certain situations, multitasking and parallel processing may be advantageous. Moreover, the separation of the various components in the above-described embodiments should not be understood as necessitating such separation, and the program components and systems described are generally integrated together into a single software product or may be packaged into multiple software products. It should be understood that there is.

이상 첨부된 도면을 참조하여 본 개시의 실시예들을 설명하였지만, 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 개시가 다른 구체적인 형태로도 실시될 수 있다는 것을 이해할 수 있다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로 이해해야만 한다. 본 개시의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 개시에 의해 정의되는 기술적 사상의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Although the embodiments of the present disclosure have been described with reference to the accompanying drawings above, those of ordinary skill in the art to which the present disclosure pertains may implement the present disclosure in other specific forms without changing the technical idea or essential features. I can understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not limiting. The protection scope of the present disclosure should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the technical ideas defined by the present disclosure.

Claims (18)

하나 이상의 촬영 장치로부터 교육 장소에 대한 이미지를 수집하는 수집부; 및
안면 인식을 통해 상기 수집된 이미지에 포함된 교육 참가자를 식별하고, 상기 식별 결과를 기초로 상기 교육 참가자의 출결 여부를 판단하는 출결 관리부를 포함하고,
상기 출결 관리부는 상기 수집된 이미지에서 복수 방향의 안면 영역에서 특징점을 추출하고, 추출된 상기 특징점과 기 저장된 상기 교육 참가자의 특징점을 비교하여 획득된 유사도에 기초하여 해당 교육 참가자의 신원을 식별하되, 상기 복수 방향의 안면 영역에 대해, 안면 인식에 방해를 끼치는 정도를 판단하여 각 방향별 유사도에 상이한 가중치를 부여하고, 상기 각 방향별 유사도에 부여된 가중치에 기초하여 최종 안면 유사도를 산출하고,
상기 특징점은 정면 방향 안면 영역의 특징점, 좌측 방향 안면 영역의 특징점, 우측 방향 안면 영역의 특징점, 상측 방향 안면 영역의 특징점, 하측 방향 안면 영역의 특징점, 좌상측 방향 안면 영역의 특징점, 좌하측 방향 안면 영역의 특징점, 우상측 방향 안면 영역의 특징점 및 우하측 방향 안면 영역의 특징점을 포함하는 것
인 통합 교육 관리 시스템.
A collection unit that collects an image of an educational place from one or more photographing devices; And
It includes an attendance management unit that identifies the training participant included in the collected image through facial recognition, and determines whether the training participant attends or not based on the identification result,
The attendance management unit extracts a feature point from the facial area in multiple directions from the collected image, and identifies the identity of the training participant based on the similarity obtained by comparing the extracted feature point with the previously stored feature point of the training participant, For the facial regions in the plurality of directions, a different weight is given to the similarity for each direction by determining the degree of interference with facial recognition, and a final facial similarity is calculated based on the weight given to the similarity for each direction,
The feature points are the feature points of the front face area, the feature points of the left face area, the feature points of the right face area, the feature points of the upper face area, the feature points of the lower face area, the feature points of the upper left face area, the lower left face Including the feature points of the region, the feature points of the facial region in the upper right direction and the feature points of the facial region in the lower right direction
Integrated education management system.
제1 항에 있어서,
상기 하나 이상의 촬영 장치 중 적어도 하나는 어안렌즈를 구비하고,
상기 어안렌즈에 의해 촬영된 이미지에 대해 디워핑(dewarping) 처리를 수행하는 처리부를 더 포함하는,
통합 교육 관리 시스템.
The method of claim 1,
At least one of the one or more photographing devices includes a fisheye lens,
Further comprising a processing unit for performing a dewarping (dewarping) processing on the image photographed by the fisheye lens,
Integrated education management system.
제1 항에 있어서,
상기 하나 이상의 촬영 장치 중 적어도 하나는 상기 교육 장소의 출입구를 촬영하는 것인,
통합 교육 관리 시스템.
The method of claim 1,
At least one of the one or more photographing devices is to photograph the entrance and exit of the educational place,
Integrated education management system.
제1 항에 있어서,
상기 출결 관리부는,
상기 안면 인식 결과 외에도 상기 수집된 이미지에서 추출된 장신구 특징 및 복장 특징에 더 기초하여 상기 교육 참가자를 식별하는,
통합 교육 관리 시스템.
The method of claim 1,
The attendance management unit,
In addition to the facial recognition result, identifying the training participant further based on the accessory feature and the dress feature extracted from the collected image,
Integrated education management system.
삭제delete 삭제delete 제1 항에 있어서,
상기 출결 관리부는,
상기 수집된 이미지를 분석하여 상기 교육 참가자의 장신구 착용 여부를 판단하고,
장신구를 착용했다는 판단에 응답하여, GAN(Generative Adversarial Networks) 기반의 이미지 변환 모델을 통해 상기 수집된 이미지를 장신구가 제거된 이미지로 변환하고,
상기 변환된 이미지에 대해 상기 안면 인식을 수행하는,
통합 교육 관리 시스템.
The method of claim 1,
The attendance management unit,
By analyzing the collected image, it is determined whether the training participant wears jewelry,
In response to the determination that the ornaments were worn, the collected image is converted into an image from which the ornaments have been removed through an image conversion model based on Generative Adversarial Networks (GAN),
Performing the facial recognition on the converted image,
Integrated education management system.
제7 항에 있어서,
상기 이미지 변환 모델은 제1 도메인의 이미지를 제2 도메인의 페이크 이미지(fake image)로 변환하는 제1 생성기(generator), 상기 제2 도메인의 이미지를 상기 제1 도메인의 페이크 이미지로 변환하는 제2 생성기, 상기 제1 도메인의 이미지와 상기 제1 도메인의 페이크 이미지를 판별하는 제1 판별기(discriminator) 및 상기 제2 도메인의 이미지와 상기 제2 도메인의 페이크 이미지를 판별하는 제2 판별기를 포함하고,
상기 제1 도메인은 상기 장신구를 포함하는 이미지와 연관되며,
상기 제2 도메인은 상기 장신구를 포함하지 않는 이미지와 연관되되,
상기 출결 관리부는,
상기 제1 생성기를 통해 제1 학습 이미지를 제2 학습 이미지로 변환하고, 상기 제2 생성기를 통해 상기 제2 학습 이미지를 제3 학습 이미지로 변환하며, 상기 제1 학습 이미지와 상기 제3 학습 이미지 간의 차이를 기초로 상기 제1 생성기를 업데이트하고,
상기 제2 생성기와 상기 제1 판별기 간에 적대적 학습(adversarial learning)을 수행하며,
상기 제1 생성기와 상기 제2 판별기 간에 적대적 학습을 수행하여 상기 이미지 변환 모델을 학습시키는,
통합 교육 관리 시스템.
The method of claim 7,
The image conversion model includes a first generator that converts an image of a first domain to a fake image of a second domain, and a second generator that converts the image of the second domain to a fake image of the first domain. A generator, a first discriminator for discriminating an image of the first domain and a fake image of the first domain, and a second discriminator for discriminating an image of the second domain and a fake image of the second domain, ,
The first domain is associated with an image including the ornament,
The second domain is associated with an image that does not include the ornament,
The attendance management unit,
The first training image is converted into a second training image through the first generator, the second training image is converted into a third training image through the second generator, and the first training image and the third training image Update the first generator based on the difference between,
Adversarial learning is performed between the second generator and the first discriminator,
Learning the image transformation model by performing hostile learning between the first generator and the second discriminator,
Integrated education management system.
제7 항에 있어서,
상기 이미지 변환 모델은 제1 도메인의 이미지를 인코딩하는 제1 인코더(encoder), 제2 도메인의 이미지를 인코딩하는 제2 인코더, 상기 제1 인코더 또는 상기 제2 인코더에서 출력된 인코딩 데이터를 이용하여 상기 제1 도메인의 페이크 이미지(fake image)를 생성하는 제1 생성기(generator) 및 상기 인코딩 데이터를 이용하여 상기 제2 도메인의 페이크 이미지를 생성하는 제2 생성기를 포함하고,
상기 제1 도메인은 상기 장신구를 포함하는 이미지와 연관되며,
상기 제2 도메인은 상기 장신구를 포함하지 않는 이미지와 연관되되,
상기 출결 관리부는,
상기 제1 인코더를 통해 상기 수집된 이미지에 대한 제1 인코딩 데이터를 얻고,
상기 제1 인코딩 데이터를 상기 제2 생성기에 입력하여 상기 변환된 이미지를 생성하는,
통합 교육 관리 시스템.
The method of claim 7,
The image conversion model uses a first encoder for encoding an image of a first domain, a second encoder for encoding an image of a second domain, and encoding data output from the first encoder or the second encoder. A first generator for generating a fake image of the first domain and a second generator for generating a fake image of the second domain by using the encoded data,
The first domain is associated with an image including the ornament,
The second domain is associated with an image that does not include the ornament,
The attendance management unit,
Obtaining first encoding data for the collected image through the first encoder,
Generating the converted image by inputting the first encoded data to the second generator,
Integrated education management system.
제1 항에 있어서,
상기 수집된 이미지를 상기 교육 장소에 대한 이탈 정도, 시선 움직임 및 상기 교육 참가자의 개인 단말 사용 정도 중 적어도 하나를 기준으로 분석하여 상기 교육 참가자의 집중도를 측정하는 집중도 측정부를 더 포함하는,
통합 교육 관리 시스템.
The method of claim 1,
Further comprising a concentration measurement unit for measuring the concentration of the training participant by analyzing the collected image based on at least one of a degree of departure from the training place, a gaze movement, and a degree of use of the personal terminal of the training participant,
Integrated education management system.
제10 항에 있어서,
상기 집중도 측정부는,
교육 중에 수집된 상기 교육 참가자의 음성에 대한 음성 인식을 수행하고,
상기 음성 인식의 결과와 상기 교육의 주제와의 관련도에 더 기초하여 상기 집중도를 측정하는,
통합 교육 관리 시스템.
The method of claim 10,
The concentration measurement unit,
Performing speech recognition on the voice of the training participant collected during training,
Measuring the degree of concentration further based on a degree of relevance between the result of the speech recognition and the subject of education,
Integrated education management system.
제10 항에 있어서,
상기 집중도 측정부는,
상기 수집된 이미지에서 인식된 복수의 교육 참가자의 감정 또는 표정과 특정 교육 참가자의 감정 또는 표정과의 차이에 더 기초하여 상기 특정 교육 참가자의 집중도를 측정하는,
통합 교육 관리 시스템.
The method of claim 10,
The concentration measurement unit,
Measuring the concentration of the specific training participant further based on a difference between the emotions or facial expressions of the plurality of training participants recognized in the collected image and the emotions or facial expressions of the specific training participant,
Integrated education management system.
제1 항에 있어서,
상기 수집된 이미지를 분석하여 상기 교육 장소에서 발생하는 이상 상황을 감지하는 이상 상황 감지부; 및
상기 감지된 이상 상황에 대응되는 조치를 수행하는 조치부를 더 포함하는,
통합 교육 관리 시스템.
The method of claim 1,
An abnormal situation detector configured to analyze the collected image to detect an abnormal situation occurring in the educational place; And
Further comprising an action unit for performing an action corresponding to the detected abnormal situation,
Integrated education management system.
제13 항에 있어서,
상기 수집된 이미지는 복수의 프레임 이미지를 포함하고,
상기 이상 상황 감지부는,
상기 복수의 프레임 이미지에서 색차 성분을 제외하여 복수의 휘도 이미지를 추출하고,
상기 추출된 복수의 휘도 이미지를 축적하여 3차원의 이미지를 생성하며,
상기 생성된 3차원의 이미지 중 적어도 일부를 다운샘플링(downsampling)하여 입력 이미지를 구성하고,
상기 구성된 입력 이미지를 컨볼루션 신경망(convolutional neural network) 기반의 이상 상황 감지 모델에 입력하여 상기 이상 상황을 감지하는,
통합 교육 관리 시스템.
The method of claim 13,
The collected image includes a plurality of frame images,
The abnormal situation detection unit,
Extracting a plurality of luminance images by excluding a color difference component from the plurality of frame images,
Accumulating the extracted plurality of luminance images to generate a three-dimensional image,
Downsampling at least a part of the generated three-dimensional image to construct an input image,
Inputting the configured input image to an abnormal situation detection model based on a convolutional neural network to detect the abnormal situation,
Integrated education management system.
제13 항에 있어서,
상기 수집된 이미지는 복수의 프레임 이미지를 포함하고,
상기 이상 상황 감지부는,
상기 복수의 프레임 이미지를 축적하여 입력 이미지를 구성하고,
상기 구성된 입력 이미지를 컨볼루션 신경망(convolutional neural network) 기반의 이상 상황 감지 모델에 입력하여 상기 이상 상황을 감지하되,
상기 이상 상황 감지 모델은,
제1 컨볼루션 연산을 통해 제1 특징맵(feature map)을 추출하는 제1 컨볼루션 레이어와 제2 컨볼루션 연산을 통해 제2 특징맵을 추출하는 제2 컨볼루션 레이어를 포함하고,
동일 프레임 이미지와 연관된 상기 제1 특징맵의 특징값과 상기 제2 특징맵의 특징값을 종합하여(aggregating) 제3 특징맵을 생성하며,
상기 제3 특징맵을 기초로 상기 이상 상황을 감지하는,
통합 교육 관리 시스템.
The method of claim 13,
The collected image includes a plurality of frame images,
The abnormal situation detection unit,
Accumulating the plurality of frame images to form an input image,
The configured input image is input to an abnormal situation detection model based on a convolutional neural network to detect the abnormal situation,
The abnormal situation detection model,
A first convolution layer extracting a first feature map through a first convolution operation and a second convolution layer extracting a second feature map through a second convolution operation,
A third feature map is generated by aggregating feature values of the first feature map and the feature values of the second feature map associated with the same frame image,
Detecting the abnormal situation based on the third feature map,
Integrated education management system.
제1 항에 있어서,
상기 수집된 이미지를 가공 처리하여 저장하는 저장부를 더 포함하되,
상기 가공 처리는,
상기 수집된 이미지에서 안면 영역을 검출하고,
상기 검출된 안면 영역 중 적어도 일부를 은폐 처리하며,
상기 은폐 처리된 안면 영역에 상기 교육 참가자의 식별 코드를 주입하는 과정을 포함하는,
통합 교육 관리 시스템.
The method of claim 1,
Further comprising a storage unit for processing and storing the collected image,
The processing treatment,
Detecting a facial area in the collected image,
At least a part of the detected facial area is concealed,
Including the process of injecting the identification code of the training participant in the concealed facial area,
Integrated education management system.
삭제delete 삭제delete
KR1020190106015A 2019-08-28 2019-08-28 System for intergrated education management based on intelligent image analysis technology and method thereof KR102248706B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190106015A KR102248706B1 (en) 2019-08-28 2019-08-28 System for intergrated education management based on intelligent image analysis technology and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190106015A KR102248706B1 (en) 2019-08-28 2019-08-28 System for intergrated education management based on intelligent image analysis technology and method thereof

Publications (2)

Publication Number Publication Date
KR20210025945A KR20210025945A (en) 2021-03-10
KR102248706B1 true KR102248706B1 (en) 2021-05-10

Family

ID=75147946

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190106015A KR102248706B1 (en) 2019-08-28 2019-08-28 System for intergrated education management based on intelligent image analysis technology and method thereof

Country Status (1)

Country Link
KR (1) KR102248706B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102535244B1 (en) * 2021-04-28 2023-05-26 주식회사 와이티 identification system and method using landmark of part of the face and voice recognition
KR102544463B1 (en) * 2021-10-14 2023-06-20 유현민 Mathematics education system
KR102414773B1 (en) * 2021-12-24 2022-06-29 쿨사인 주식회사 System for Supplementing or Adding Metadata Generated by Edge Device After Reanalysis on Server

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185875A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Management server, photograph seal creation device, image management method, control program, and recording medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101890134B1 (en) * 2013-07-08 2018-08-23 우리윈시스템 주식회사 The analysis system and controlling method of moving image data by a CCTV monitor
KR101775974B1 (en) * 2014-10-15 2017-09-19 한국과학기술연구원 Analysis system and method for class attitude
KR101766347B1 (en) * 2015-05-27 2017-08-08 노성렬 Concentrativeness evaluating system
KR20160145384A (en) 2015-06-10 2016-12-20 클래스베리 주식회사 Attendance and absence management system and method thereof
KR102380426B1 (en) * 2017-03-23 2022-03-31 삼성전자주식회사 Method and apparatus for verifying face
KR102403494B1 (en) * 2017-04-27 2022-05-27 에스케이텔레콤 주식회사 Method for learning Cross-domain Relations based on Generative Adversarial Network
KR102008290B1 (en) * 2017-11-14 2019-08-07 고려대학교 산학협력단 Method and apparatus for detecting action of object in viedio stream
KR20200056186A (en) * 2018-11-14 2020-05-22 현대자동차주식회사 Apparatus and method for recognizing face

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015185875A (en) * 2014-03-20 2015-10-22 フリュー株式会社 Management server, photograph seal creation device, image management method, control program, and recording medium

Also Published As

Publication number Publication date
KR20210025945A (en) 2021-03-10

Similar Documents

Publication Publication Date Title
US20230289903A1 (en) Media management system
KR102248706B1 (en) System for intergrated education management based on intelligent image analysis technology and method thereof
US10943095B2 (en) Methods and systems for matching extracted feature descriptors for enhanced face recognition
CN109743541A (en) Intelligent control method, device, computer equipment and storage medium
Dospinescu et al. Face detection and face recognition in android mobile applications
Semerikov et al. Mask and emotion: Computer vision in the age of COVID-19
Bekzod Face recognition based automated student attendance system
CN113591603A (en) Certificate verification method and device, electronic equipment and storage medium
Soltane et al. A smart system to detect cheating in the online exam
Bouras et al. An online real-time face recognition system for police purposes
Manchanda et al. D-lord: Dysl-ai database for low-resolution disguised face recognition
Fulzele et al. Utilizing cloud capabilities for face detection and face recognition during COVID-19: Comparative Analysis
Zolotarev et al. Liveness detection methods implementation to face identification reinforcement in gaming services
Tsuchiya et al. Detecting deception using machine learning with facial expressions and pulse rate
Menon Leveraging Facial Recognition Technology in Criminal Identification
Ferreira et al. Where’s Wally: A gigapixel image study for face recognition in crowds
Arhipova et al. Long Period Re-identification Approach to Improving the Quality of Education: A Preliminary Study
Ise et al. Low cost Approach to Secured Student Attendance Management System Development
Manu et al. Real-Time Face Mask Detection and Alert System Using IoT and Machine Learning
Babatunde et al. Mobile Based Student Attendance System Using Geo-Fencing With Timing and Face Recognition
Garg et al. Smart Authentication Process for Human and Vehicles Using AI Techniques: An Approach for making better life in 21 st Century Smart Cities
Zhu et al. Online and Offline Integration of Smart Educational Monitoring System based on Face Recognition Smart Sign-in Devices
Selvan et al. E-Voting Based on Face Recognition Using KNN Classifier
KR102387232B1 (en) System for attendance notification and integrated management for children in nursery school
Vakaliuk et al. Mask and Emotion: Computer Vision in the Age of COVID-19

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant