KR20230030599A - Cathexis learning system and method using AI in an untact learning based on Web browser - Google Patents

Cathexis learning system and method using AI in an untact learning based on Web browser Download PDF

Info

Publication number
KR20230030599A
KR20230030599A KR1020230018387A KR20230018387A KR20230030599A KR 20230030599 A KR20230030599 A KR 20230030599A KR 1020230018387 A KR1020230018387 A KR 1020230018387A KR 20230018387 A KR20230018387 A KR 20230018387A KR 20230030599 A KR20230030599 A KR 20230030599A
Authority
KR
South Korea
Prior art keywords
face
learning
user terminal
test
learner
Prior art date
Application number
KR1020230018387A
Other languages
Korean (ko)
Inventor
박기남
이언주
신승용
Original Assignee
(주)엔에스데블
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔에스데블 filed Critical (주)엔에스데블
Priority to KR1020230018387A priority Critical patent/KR20230030599A/en
Publication of KR20230030599A publication Critical patent/KR20230030599A/en
Priority to KR1020230165959A priority patent/KR20230169880A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker
    • G10L15/075Adaptation to the speaker supervised, i.e. under machine guidance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

Disclosed are a cathexis learning system and method using artificial intelligence (AI) in web browser-based non-contact learning. The cathexis learning system using AI in web browser-based non-contact learning comprises: a learning content server providing non-contact lecture learning content; and a user terminal connect to the learning content server to run an educational content viewer program, and having an educational content viewer installed thereon so that a user learns, in an AI cathexis manner, learning content by using AI face recognition/motion recognition and sound playback techniques for image data from a front camera of the user terminal during non-contact learning. For non-contact learning, the educational content viewer of the user terminal includes a media playback unit and a facial outline recognition unit module. The cathexis learning system recognizes the outline of a face and the features of the face such as two eyes, a nose, and two ears on a five-point scale so that the user learns, in the AI cathexis manner, non-contact lecture learning content focused on the camera of the user terminal linked to the learning content server (ubcloud server) while gazing at the non-contact lecture learning content, generates an alarm or warning message to the user terminal by using sound and messaging techniques if the gaze is out of the non-contact lecture learning content by a predetermined angle, and provides cathexis learning using web browser-based ubcloud AI during non-contact learning.

Description

웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법{Cathexis learning system and method using AI in an untact learning based on Web browser}{Cathexis learning system and method using AI in an untact learning based on Web browser}

본 발명은 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것으로, 보다 상세하게는 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 사용자 단말을 바라보는 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것이다.The present invention relates to an attentional learning system and method using artificial intelligence in non-face-to-face learning (ubcloud), and more particularly, in online lecture non-face-to-face learning, an educational content viewer of a user terminal is a media playback unit and a facial contour recognition unit module. , and five facial feature points of eyes 2/nose/ear 2 so that attention is focused on the learning content focused on the front camera of the user terminal linked to the learning content server (ubcloud server). If the eyes looking at the user terminal at a certain angle are deviating through scale facial contour recognition, an alarm/warning message is generated to the user terminal using sound and messaging technology, and in non-face-to-face learning, using web browser-based ubcloud artificial intelligence It relates to an attentional learning system and method using artificial intelligence in web browser-based non-face-to-face learning (ubcloud) that provides attentional learning.

얼굴 인식(Face Recognition) 기술은 형상 기반 매칭 방법(appearance based matching method), 및 특징(faeture) 기반의 얼굴 인식이 주로 사용된다. 얼굴 인식은 카메라의 촬영 각도, 조명의 방향, 자세(pose), 표정의 변화 및 시간에 따른 얼굴의 변화에 따라 다르게 인식된다.As face recognition technology, an appearance based matching method and feature based face recognition are mainly used. Face recognition is differently recognized according to a photographing angle of a camera, a direction of lighting, a pose, a change in expression, and a change in face over time.

특징(faeture) 기반의 얼굴 인식은 디지털 카메라, IoT 디바이스의 카메라 또는 스마트폰의 카메라로 촬영된 영상 데이터를 Haar-like feature를 이용한 검출 방법과 MCT(Modified Census Transform) 영상을 이용한 검출 방법이 사용된다. 스마트폰의 카메라의 입력 영상에서 Haar-like feature로 학습된 얼굴 및 눈 검출기를 사용하여 얼굴의 윤곽선과 이마/눈/코/입 특징점을 검출하고, 원형의 눈동자를 검출하기 위해 관심 영역(ROI, Region of Interest)으로 설정된 눈 영역을 grayscale로 변환하며, 눈 영역에서 눈동자와 눈의 외곽선 영역이 추출되는 실험에 의한 통계적인 임계값(threshold)을 사용하여 눈 이미지의 histogram[x축 각 픽셀의 화소값, y축 해당 화소 값의 갯수]을 구하고 눈의 이미지를 이진화(binarization)한 후, 히스토그램 평활화(histogram equalization)를 통해 눈 영역의 사진의 전처리를 수행하며, 얼굴 영역에서 눈썹과 눈, 코, 입, 윤곽선의 얼굴 특징점을 갖는 얼굴데이터를 검출하고, 텍스처 특징(texture faetures)과 형상 특징(shape features)을 추출하여 얼굴 인식 DB에 저장된 얼굴 사진의 특징점들과 유사도를 비교하여 얼굴이 인식된다.For feature-based face recognition, a detection method using Haar-like features and a detection method using MCT (Modified Census Transform) images are used for image data captured by a digital camera, IoT device camera, or smartphone camera. . Using the face and eye detectors learned as Haar-like features from the input images of the smartphone camera, the contours of the face and feature points of the forehead/eyes/nose/mouth are detected, and the region of interest (ROI, ROI, The eye area set as Region of Interest) is converted to grayscale, and the histogram of the eye image [pixels of each pixel on the x-axis] is used by using a statistical threshold by experiment in which the pupil and the outline of the eye are extracted from the eye area. value, the number of pixel values corresponding to the y-axis], binarizes the image of the eye, and pre-processes the eye area photo through histogram equalization. In the face area, the eyebrows, eyes, nose, The face is recognized by detecting face data having facial feature points of the mouth and outline, extracting texture features and shape features, and comparing similarity with feature points of face photos stored in the face recognition DB.

얼굴 영역의 눈썹과 눈, 코, 입, 턱의 특징 값은 Haar-like feature의 흰 영역에서 포함되는 픽셀들의 합에서 검은 영역에서 포함되는 픽셀의 합의 차로 표현된다. The feature values of the eyebrows, eyes, nose, mouth, and chin of the face area are expressed as the difference between the sum of pixels included in the white area of the Haar-like feature and the sum of pixels included in the black area.

예를들면, 가로와 세로 표준 크기의 얼굴 영역 사진에서 검출된 눈 영역에서 오른쪽과 왼쪽 눈의 양쪽 끝점 까지의 거리, 허프 원 변환(hough circle transform) 알고리즘을 사용하여 추출된 눈동자(iris)의 크기 값이 특징 값으로 사용된다.For example, the distance from the eye area detected in a standard horizontal and vertical face area picture to the endpoints of the right and left eyes, the size of the iris extracted using a hough circle transform algorithm value is used as the feature value.

도 1a는 기존 얼굴 인식 장치의 구성도이다. 1A is a configuration diagram of an existing face recognition device.

얼굴 인식 장치(100)는 영상 표시 장치, 영상 촬영 장치, 얼굴 인식 서버, 태블릿 PC, 랩톱(Laptop), 개인용 PC, 스마트폰, 개인 휴대용 정보 단말기(Personal Digital Assistant, PDA), 이동통신 단말기, 및 지능형 로봇(Intelligence Robot) 등 중 어느 하나일 수 있다.The face recognition device 100 includes an image display device, an image recording device, a face recognition server, a tablet PC, a laptop, a personal PC, a smartphone, a personal digital assistant (PDA), a mobile communication terminal, and It may be any one of an intelligent robot and the like.

얼굴 인식 장치(100)는 카메라로부터 입력 영상을 획득하는 입력 영상 획득부(112); 상기 입력 영상에서 얼굴 영역을 검출하여 얼굴포즈(Pose)를 정규화함으로써 정면 포즈 영상을 생성하고, 상기 카메라와 피사체 간의 거리에 따른 원근왜곡(Perspective Distortion)을 제거하기 위하여 상기 정면 포즈 영상의 원근감(Perspective)을 정규화하여 정규화 영상을 생성하는 정규화부(114); 상기 정규화 영상으로부터 상기 피사체의 얼굴을 표현하는 특징 벡터(Feature Vector)를 추출하는 특징벡터 추출부(116); 및 기 학습된 분류모델에 상기 특징벡터를 적용하여 상기 입력영상에 포함된 상기 피사체의 얼굴을 인식하는 얼굴인식부(118)를 포함한다.The face recognition apparatus 100 includes an input image acquisition unit 112 acquiring an input image from a camera; A front pose image is generated by detecting a face region in the input image and normalizing a face pose. a normalization unit 114 for normalizing ) to generate a normalized image; a feature vector extraction unit 116 extracting a feature vector representing the face of the subject from the normalized image; and a face recognition unit 118 recognizing the face of the subject included in the input image by applying the feature vector to the previously learned classification model.

입력 영상 획득부(112)는 카메라로부터 입력 영상을 획득한다. 카메라는 깊이 인식 카메라, 스테레오 카메라, 및 컬러 카메라일 수 있다(예를 들면, 키넥트(Kinect) 카메라 등). 또한, 입력 영상은 인식대상이 되는 피사체의 얼굴이 포함된 영상으로서 2차원 정지영상 및 동영상을 포함한다. 입력 영상은 컬러 영상, 깊이영상, 및 컬러-깊이(RGB-D) 영상을 포함할 수 있다.The input image acquisition unit 112 acquires an input image from a camera. The camera can be a depth-aware camera, a stereo camera, and a color camera (eg, a Kinect camera, etc.). In addition, the input image is an image including a face of a subject to be recognized, and includes a 2D still image and a moving image. The input image may include a color image, a depth image, and a color-depth (RGB-D) image.

정규화부(114)는 입력 영상으로부터 얼굴 영역을 검출하고 얼굴 포즈(Pose) 및 원근감(Perspective)을 정규화하여 정규화 영상을 생성한다. 얼굴 포즈에 변화가 있는 경우, 그레이 스케일, 형상, 특징점의 위치 등이 달라지기 때문에 얼굴인식률이 저하된다. 또한, 카메라와 피사체 간의 거리가 달라지면 동일한 피사체라 하더라도 촬영된 위치마다 원근 왜곡(Perspective Distortion, 뒤틀림)이 다르게 발생하므로, 다른 피사체를 촬영한 것처럼 보이기도 한다. 따라서, 얼굴인식률을 향상시키기 위해 입력 영상의 얼굴 포즈 및 원근감을 정규화할 필요가 있다. The normalization unit 114 detects a face region from an input image and normalizes a face pose and perspective to generate a normalized image. When there is a change in the face pose, the face recognition rate is lowered because the gray scale, shape, location of feature points, etc. are changed. In addition, if the distance between the camera and the subject is different, perspective distortion (distortion) occurs differently for each photographed position even for the same subject, so it may seem as if a different subject has been photographed. Therefore, it is necessary to normalize the face pose and perspective of the input image in order to improve the face recognition rate.

정규화부(114)는, 다양한 포즈의 학습용 얼굴영상을 제1 인공신경망의 입력층에 입력하고, 정면포즈의 학습용 얼굴영상이 상기 제1 인공신경망의 출력층에서 출력되도록 상기 제1 인공신경망을 학습시키는 얼굴포즈 정규화 학습부; 및 상기 제1 인공신경망의 출력층에서 출력된 데이터를 제 2 인공신경망의 입력층에 입력하고, 원근왜곡이 없는 학습용 얼굴영상이 상기 제 2 인공신경망의 출력층에서 출력되도록 상기 제2 인공신경망을 학습시키는 원근감 정규화 학습부를 포함한다. The normalization unit 114 inputs face images for learning in various poses to the input layer of the first artificial neural network, and trains the first artificial neural network so that face images for learning in front poses are output from the output layer of the first artificial neural network. face pose normalization learning unit; And inputting the data output from the output layer of the first artificial neural network to the input layer of the second artificial neural network, and learning the second artificial neural network so that a face image for learning without perspective distortion is output from the output layer of the second artificial neural network. Includes a perspective normalization learning unit.

상기 정규화부는, 학습이 완료된 상기 제1 인공신경망과 상기 제2 인공신경망을 통합한 통합 인공신경망의 입력층에 다양한 원근 왜곡이 있는 다양한 포즈의 학습용 얼굴영상을 입력하고, 정면 포즈의 원근왜곡이 없는 학습용 얼굴영상이 상기통합 인공신경망의 출력층에서 출력되도록 상기 통합 인공신경망을 학습시킨다. The normalization unit inputs face images for learning in various poses with various perspective distortions to the input layer of the integrated artificial neural network in which the first artificial neural network and the second artificial neural network are integrated, and the front pose is free of perspective distortion. The integrated artificial neural network is trained so that a facial image for learning is output from an output layer of the integrated artificial neural network.

특징 벡터 추출부(116)는 기계학습(Machine Learning)을 통해 결정되며, 정규화 영상으로부터 피사체의 얼굴을 표현하는 특징 벡터(Feature Vector)를 추출한다.The feature vector extractor 116 is determined through machine learning and extracts a feature vector representing a face of a subject from a normalized image.

특징 벡터는 얼굴 인식에 사용되는 특징값들을 원소로 가지는 벡터이다. 특징 벡터를 추출하는데 사용되는 필터로써 Gabor 필터, Haar 필터, LBP(Local Binary Pattern) - DLBP(Discriminative LBP), ULBP(Uniform LBP), NLBP(Number LBP) 등을 포함 - 등이 있으나, 반드시 이에 한정되지 않으며 그 밖의 다른 필터가 사용될 수 있다.The feature vector is a vector having feature values used for face recognition as elements. Filters used to extract feature vectors include Gabor filter, Haar filter, LBP (Local Binary Pattern) - including DLBP (Discriminative LBP), ULBP (Uniform LBP), NLBP (Number LBP), etc. - but must be limited to these and other filters may be used.

얼굴 인식부(118)는 기 학습된 분류 모델에 특징벡터 추출부(116)에서 추출된 특징벡터를 적용하여 입력영상에 포함된 피사체의 얼굴을 인식한다. 기 학습된 분류 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 선형판별분석(Linear Discriminant Analysis, LDA), 및 Softmax 등을 포함할 수 있으나, 반드시 이에 한정되지 않는다.The face recognition unit 118 recognizes the face of a subject included in the input image by applying the feature vector extracted from the feature vector extraction unit 116 to the previously learned classification model. The pre-learned classification model may include, but is not limited to, Support Vector Machine (SVM), Linear Discriminant Analysis (LDA), and Softmax.

가상 얼굴영상 생성부(124)는 정규화부(114), 특징벡터 추출부(116), 및 얼굴 인식부(118)가 학습하는데 사용되는 복수의 가상 얼굴 영상을 생성할 수 있다.The virtual face image generation unit 124 may generate a plurality of virtual face images used for learning by the normalization unit 114 , the feature vector extraction unit 116 , and the face recognition unit 118 .

복수의 가상 얼굴영상은 가상 얼굴영상 생성부(124)가 카메라로부터 획득된 하나 이상의 2차원 기준 영상을 이용하여 합성한 3차원 얼굴 모델을 변형시킴으로써생성되는 얼굴 영상을 의미한다.The plurality of virtual face images refer to face images generated by transforming a 3D face model synthesized by the virtual face image generation unit 124 using one or more 2D reference images obtained from a camera.

이와 관련된 선행기술1로써, 특허 등록번호 10-2103521에서는 “인공지능 심층학습 기반의 영상물 인식 시스템 및 방법“이 등록되어 있다. As prior art 1 related to this, Patent Registration No. 10-2103521 has registered “a video object recognition system and method based on artificial intelligence deep learning”.

도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다. 인공지능의 심층학습(Deep Learning)으로 다양한 이미지를 사전 학습하고, 상기 사전 학습 결과를 반영하여 유통되는 영상물에 대해 프레임 단위로 이미지를 분석하고, 경우에 따라 영상물의 음성정보도 함께 분석하여 시간순으로 키워드를 도출해 낸 후 사전에 축적되어 있던 영상물 대본의 시계열적 키워드와 비교하는 방식의 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법을 제공한다. 1B is a block diagram of a conventional video object recognition system based on artificial intelligence deep learning. Various images are pre-learned through deep learning of artificial intelligence, and images are analyzed in frame units for distributed video materials by reflecting the above-mentioned pre-learning results, and in some cases, the audio information of the video material is also analyzed in chronological order. After deriving keywords, we provide a video recognition system and method based on artificial intelligence deep learning that compares them with the keywords accumulated in advance with the time-series keywords of video scripts.

인공지능에 의해 구현되는 시스템은, 다수의 오브젝트 이미지를 키워드로 심층학습(DeepLearning)하는 데이터셋 학습부; 영상물 대본에서 키워드를 추출하여 시계열적으로 나열, 저장하는 DB부; 영상물을 프레임 단위 이미지 분석을 통해, 이미지 상의 오브젝트들과 오브젝트 간의 관계를 키워드로 추출하여 시계열적으로 나열하는 영상물 분석부; 및 상기 DB부와 영상물 분석부의 키워드를 비교하여 유사성을 판단하는 비교판단부를 포함한다. A system implemented by artificial intelligence includes a dataset learning unit for deep learning using a plurality of object images as keywords; a DB unit for extracting keywords from video scripts, chronologically arranging them, and storing them; a video object analysis unit that extracts objects on the image and the relationship between the objects as keywords through frame-by-frame image analysis of the video object, and sequentially arranges them; and a comparison determination unit that compares keywords of the DB unit and the video analysis unit to determine similarity.

그러나, 기존의 이러닝 또는 유러닝 시스템은 단순히 온라인 학습 콘텐츠를 제공하였으며, 얼굴 인식 기술과 소리와 메시징 기술을 사용하여 학습자의 부주의하게 얼굴 시선이 이탈하면, 알람을 발생하고 주의집중 학습이 되도록 하는 기능을 제공하지 않았다. However, existing e-learning or u-learning systems simply provided online learning content, and a function that generates an alarm and enables attention-focused learning when a learner carelessly loses his or her facial gaze by using face recognition technology, sound, and messaging technology. did not provide

특허 등록번호 10-2103521 (등록일자 2020년 04월 16일), " 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법", 상명대학교 산학협력단Patent Registration No. 10-2103521 (Registration Date: April 16, 2020), "Video object recognition system and method based on artificial intelligence deep learning", Sangmyung University Industry-University Cooperation Foundation

상기 문제점을 해결하기 위한 본 발명의 목적은 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 학습 콘텐츠에 시선을 바로보고 비대면 강의 학습 콘텐츠를 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템을 제공한다. An object of the present invention to solve the above problem is that in online lecture non-face-to-face learning, the educational content viewer of the user terminal has a media playback unit and a facial contour recognizing unit module, and the user terminal linked to the learning content server (ubcloud server). Directly look at the learning content focused on the front camera and focus on the learning content of the non-face-to-face lecture, so that the gaze is directed at a certain angle through facial contour recognition on a 5-point scale of face contour and eye 2/nose/ear 2 facial feature points. In case of deviation, an alarm/warning message is generated to the corresponding user terminal using sound and messaging technology, and in non-face-to-face learning, artificial intelligence It provides an attention learning system using intelligence.

본 발명의 다른 목적은 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 방법을 제공한다.Another object of the present invention is to provide an attention learning method using artificial intelligence in web browser-based non-face-to-face learning.

본 발명의 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템은 비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버; 및 상기 학습 콘텐츠 서버에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말을 포함하고,In order to achieve the object of the present invention, an attention learning system using artificial intelligence in web browser-based non-face-to-face learning includes a learning content server that provides non-face-to-face online lecture learning content; And accessing the learning content server through a wired/wireless communication network to drive the educational content viewer program, and in non-face-to-face online learning, AI face recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal is used to display learning content through artificial intelligence. Including a user terminal in which an educational content viewer is installed for attention-focused learning,

상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 눈2/코/귀2의 얼굴의 특징점 5점 척도를 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하고, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며, The user terminal is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing a 5-point scale for facial feature points of eyes 2/nose/ear 2; and when it is more than a certain angle away from the screen (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, when the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) or the learner's voice includes a learner's alarm generating unit that generates an alarm or outputs a warning message to a user terminal of the learner so that attention is learned when learning is recognized, and the user terminal further includes a voice recognition module that recognizes the learner's voice,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며,The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,

상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하고,The educational content viewer has a VOD media player, a chat screen, and an online learning memo space,

비대면 온라인 학습에서, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server.

상기 사용자 단말의 정면 카메라에 포커싱된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 알람/경고 메시지를 발생한다. In order to directly look at the non-face-to-face online lecture learning content focused on the front camera of the user terminal and receive attention training, the eye 2/nose/ear 2 facial feature point 5-point scale facial contour recognition is used to prevent the gaze from deviating at a certain angle. alarm/warning messages using sound and messaging technology.

본 발명의 다른 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법은 (a) 사용자 단말로부터 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버가 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer 프로그램과 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 시선이 일정 각도로 벗어난 경우 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고, In order to achieve another object of the present invention, the attentional learning method in web browser-based non-face-to-face learning includes (a) receiving and storing learner information and a standard-sized frontal face picture from a user terminal in a learning content server; (b) issuing, by the learning content server, a QR code corresponding to user information and a front face picture; (c) In a user terminal equipped with an educational content viewer program and a face recognition module, the recognition result of the front face photo of the camera is received by the learning content server using the front face recognition algorithm of the front camera image, and the previously registered learner information and Checking whether the learner is himself by comparing a standard size frontal face photo with facial feature points; (d) providing learning content from the learning content server to a user terminal of a pre-registered member; and (e) the learning content server analyzes the online learner's face image detected by the camera at each learner's user terminal, and sends the learning content server to the corresponding user terminal for attention-focused learning when the gaze is out of a certain angle or when the learner's voice is recognized. generating a warning message or alarm;

비대면 온라인 학습에서, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,In non-face-to-face online learning, the educational content viewer has a VOD media player, a chatting screen, and an online learning memo space, and the instructor's terminal has question and answer chatting with a plurality of learner terminals in a 1:N manner through the learning content server. Further comprising the step of transmitting and receiving data,

상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며, The user terminal is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; a face recognition module recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing feature points of the face on a 5-point scale of eye 2/nose/ear 2; and when it is more than a certain angle away from the screen (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, when the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) or the learner's voice includes a learner's alarm generating unit that generates an alarm or outputs a warning message to the learner's user terminal so that attention is learned when recognizing , and the user terminal further includes a voice recognition module for recognizing the learner's voice,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology.

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는 효과가 있다. In the web browser-based non-face-to-face learning system and method of the present invention, in the non-face-to-face learning, the educational content viewer of the user terminal is provided with a media playback unit and a facial contour recognition module, and a learning content server ( ubcloud server), face contour and eye 2 / nose / ear 2 facial feature points 5-point scale facial contour recognition to direct attention to the non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the user terminal When the eyes are diverted at a certain angle through this, an alarm/warning message is generated to the user terminal using sound and messaging technology, and it has the effect of providing attention-focused learning using web browser-based ubcloud artificial intelligence in non-face-to-face learning.

도 1a는 기존 얼굴 인식 장치의 구성도이다.
도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다.
도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다.
도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.
도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다.
도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1.사용자 등록->2.학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7 UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다.
도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1)응시자 등록, 2)학습, 3)QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험응시 - 프로세스를 보인 그림이다.
도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다.
도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다.
도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다.
도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다.
도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다.
도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다.
도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다.
1A is a configuration diagram of an existing face recognition device.
1B is a block diagram of a conventional video object recognition system based on artificial intelligence deep learning.
2a and 2b are implementation examples of an attention-focused learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.
3A is a diagram showing the concept of a facial contour recognition artificial intelligence platform having a tablet PC, a smart phone, and a PC-based learning content server during online learning.
3B is a diagram showing a face recognition function on the ubiquitous-based NSDAI platform.
3c and 3d show the goals and User Experience (1. User registration -> 2. Learning -> 3. QR Code generation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7 UBT App/Web camera facial contour recognition 8. End of test) It is a picture.
4 shows the process from learner/test taker registration to test taking department, 1) candidate registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (applicant face/test taker information), 6) Taking the test - This is a picture showing the process.
5 is a screen for registering/learning/QR code issuing a candidate-face matching code issuing unit-at the time of an online test/UBT test based on machine learning and learning results of a registered candidate's face.
6 is a test taker identification unit screen in the UBT system that measures the distance and similarity of facial feature points of a standard-sized frontal face picture based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.
7 is a rule user definition unit and a program test screen when determining a learner.
8 is a learning content server access/login/left-QR code recognition/recognition of QR code during non-face-to-face online learning (TTS)/right-face recognition (smartphone/tablet PC front camera)/face in the background This is the demonstration screen including the process of starting area recognition/recognition rate display - UBT authentication process user definition part using the generated user code.
9 is a block diagram of an attentional learning system using artificial intelligence in tablet PC, smartphone, and PC-based web browser-based non-face-to-face learning using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
10 is a diagram explaining the functions of an AI-based facial contour recognition module during online learning and testing.
11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. 본 발명의 설명에 있어서 관련된 공지의 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 자세한 설명을 생략한다. 또한, 첨부된 도면 번호는 동일한 구성을 표기할 때에 다른 도면에서 동일한 도면 번호를 부여한다. Hereinafter, the configuration and operation of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the description of the present invention, if it is determined that a detailed description of a related known technology or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, the attached drawing numbers refer to the same drawing numbers in other drawings when indicating the same configuration.

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공한다. In the web browser-based non-face-to-face learning system and method of the present invention, in the non-face-to-face learning, the educational content viewer of the user terminal is provided with a media playback unit and a facial contour recognition module, and a learning content server ( ubcloud server), face contour and eye 2 / nose / ear 2 facial feature points 5-point scale facial contour recognition to direct attention to the non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the user terminal When the gaze is diverted at a certain angle through the system, an alarm/warning message is generated to the user terminal using sound and messaging technology, and attentional learning using web browser-based ubcloud artificial intelligence is provided in non-face-to-face learning.

* 안면 특징점 및 윤곽선 인식 기술 동일(ubcloud)* Same facial features and contour recognition technology (ubcloud)

* 학습 콘텐츠 서버와 시험 시버 기능 추가됨 * Added learning content server and exam server function

* 브라우저 기반인 점과, 온라인(학습 데이터 기반 온라인에서 읽어오고 온라인에 저장)/오프라인(라이브러리 브라우저 내장과 웹페이지에 내장하고 인식 데이터를 사용자 기기에 저장)을 모두 활용 가능한 점이 특징.* It is characterized by being browser-based and being able to use both online (learning data-based online reading and online storage) / offline (library browser built-in and web page built-in and recognition data stored on the user's device).

* 소리와 메시징을 활용하여 주의집중을 시킴.* Utilizes sound and messaging to draw attention.

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습 시에, 사용자 단말(태블릿 PC, 스마트폰, PC)은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되고, AI 안면인식/동작인식/소리와 메시징 기술을 사용하여 사용자 단말의 정면 카메라를 사용한 AI 기반 안면 인식(posenet 알고리즘, machine learning model which allows for real-time face pose estimation) 기술을 사용하는 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈이 탑재되며, 얼굴 인식 시에 응시자 단말의 정면 카메라(C)를 사용하여 촬영된 정면 얼굴 사진을 학습 콘텐츠 서버의 얼굴 사진 DB의 표준 크기의 학습자의 정면 얼굴 사진의 얼굴특징점들과 비교하여 학습자의 출석 여부를 검출하고, 비대면 온라인 학습에서, 사용자 단말의 정면 카메라 영상 데이터를 사용하여 실시간으로 AI 기반 안면윤곽선을 인식하여 학습자의 영상의 얼굴의 행동 패턴을 검출하여 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 해당 학습자의 사용자 단말로 알람/경고메시지를 발생하며, 소리와 메시징 기술을 사용하여 주의 집중되도록한다. The attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning of the present invention is an educational content viewer in which a user terminal (tablet PC, smartphone, PC) is linked with a learning content server during non-face-to-face online learning. is installed, using AI face recognition / motion recognition / sound and messaging technology, using AI-based face recognition (posenet algorithm, machine learning model which allows for real-time face pose estimation) technology using the front camera of the user terminal A face recognition module is installed that recognizes the contour of the face and the feature points of the face on a 5-point scale of eyes 2/nose/ear 2, and when recognizing a face, it learns a frontal face picture taken using the front camera (C) of the test taker terminal. Detect whether the learner is present by comparing the facial feature points of the standard-sized front face photo of the learner in the face photo DB of the content server, and in non-face-to-face online learning, AI-based real-time using the front camera image data of the user terminal By recognizing the facial contours and detecting the behavior pattern of the learner's face in the video, the user's eyes are directly focused on the non-face-to-face online lecture learning content focused on the front camera of the user terminal linked to the learning content server (ubcloud server), so that attention is focused on the education. 2/Nose/Ear 2’s facial feature points 5-point scale Facial contour recognition generates an alarm/warning message to the learner’s user terminal when the gaze is deviated at a certain angle, and uses sound and messaging technology to focus attention do.

사용자 단말은 학습 콘텐츠 서버로부터 유무선 통신망을 통해 온라인 학습 콘텐츠를 제공받는 스마트폰, 태블릿 PC 뿐만 아니라, 인터넷 접속이 가능한 노트북을 포함한다. User terminals include not only smart phones and tablet PCs that receive online learning contents from the learning contents server through wired/wireless communication networks, but also laptops capable of accessing the Internet.

사용자 단말은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되며, AI 안면인식/동작인식/소리와 메시징 기술을 사용하여 학습자 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점을 인식하는 안면인식 모듈을 구비한다. The user terminal is installed with an educational content viewer that is linked with the learning content server, and uses AI face recognition/motion recognition/sound and messaging technology to detect the contours of the learner's face and facial feature points on a 5-point scale of eyes 2/nose/ear 2. It has a face recognition module that recognizes.

도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다.2a and 2b are implementation examples of an attention-focused learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.

도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.3A is a diagram showing the concept of a facial contour recognition artificial intelligence platform having a tablet PC, a smart phone, and a PC-based learning content server during online learning.

도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다. 3B is a diagram showing a face recognition function on the ubiquitous-based NSDAI platform.

도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1. 사용자 등록->2. 학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7 UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다. 3c and 3d show the goals and User Experience (1. User registration -> 2. Learning -> 3. QR Code generation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7 UBT App/Web camera facial contour recognition 8. End of test) It is a picture.

도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1) 응시자 등록, 2) 학습, 3) QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험응시 - 프로세스를 보인 그림이다. 4 shows the process from learner/test taker registration to test taker registration, 1) test taker registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (applicant face/test taker information), 6) Taking the test - This is a picture showing the process.

도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다. 5 is a screen for registering/learning/QR code issuing a candidate-face matching code issuing unit-at the time of an online test/UBT test based on machine learning and learning results of a registered candidate's face.

도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다. 6 is a test taker identification unit screen in the UBT system that measures the distance and similarity of facial feature points of a standard-sized frontal face picture based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.

도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다. 7 is a rule user definition unit and a program test screen when determining a learner.

도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다. 8 is a learning content server access/login/left-QR code recognition/recognition of QR code during non-face-to-face online learning (TTS)/right-face recognition (smartphone/tablet PC front camera)/face in the background This is the demonstration screen including the process of starting area recognition/recognition rate display - the UBT authentication process user definition part using the generated user code.

(1) 사용자 단말은 교육 콘텐츠 viewer가 설치되고, 교육 콘텐츠 viewer는 인공지능 안면인식을 사용하여 학습자 얼굴 영상의 눈2/코/귀2의 얼굴 특징점들을 인식하는 5점 척도 안면인식 모듈이 탑재되었다. (1) The educational content viewer is installed on the user terminal, and the educational content viewer is equipped with a 5-point scale facial recognition module that recognizes facial feature points of eyes 2/nose/ear 2 of the learner's face image using artificial intelligence face recognition. .

온라인 학습과 시험을 위한 인식 코드로써 QR 코드를 사용하였다. QR codes were used as recognition codes for online learning and testing.

실시예에서는, 사용자 단말은 태블릿 PC를 사용하고, 인식 코드는 QR 코드를 사용하였다. In the embodiment, the user terminal uses a tablet PC, and the recognition code uses a QR code.

학습자/시험응시자의 등록 사진을 학습한 인공지능이 사용자별 인식코드(QR 코드)를 생성하고, 응시자는 해당 인식 코드(QR 코드)가 부착된 응시표를 시험장 PC 또는 태블릿 PC의 카메라에 비춘후 사용자 인식한 AI 모듈이 해당 응시자 정보와 정면 얼굴 사진(코를 정점으로 한 표준 크기의 정면 얼굴 사진)을 학습 콘텐츠 서버의 얼굴 DB의 기 등록된 응시자 정보와 표준 크기의 정면 얼굴 사진을 미리 학습한 결과모델을 비교하고, 얼굴의 특징점들의 유사도(similarity)를 계산하여 일정 수치가 넘으면 본인으로 인식하고, 학습 화면으로 이동, 학습자가 비대면 온라인 학습하게 된다. 얼굴의 특징점들의 유사도가 일정 수치 미달인 경우(완전 미달, 판정 보류)의 경우, 서버를 통해 감독관 단말에 정보를 전달하여 감독관이 실제 얼굴 확인과 개인 정보 확인을 거쳐 온라인 학습을 실시한다. Artificial intelligence learning the registration photos of learners/test takers generates a recognition code (QR code) for each user, and the test taker holds the test taker with the corresponding recognition code (QR code) attached to the camera of the test center PC or tablet PC, and then the user The result of the recognized AI module pre-learning the candidate information and front face photo (standard-size front face photo with the nose as the vertex), pre-registered candidate information in the face DB of the learning content server, and standard-size front face photo The model is compared, and the similarity of facial feature points is calculated, and if a certain value is exceeded, it is recognized as the person, moved to the learning screen, and the learner learns non-face-to-face online. In case the similarity of facial feature points does not reach a certain level (completely insufficient, pending judgment), the information is transmitted to the supervisor's terminal through the server, and the supervisor conducts online learning after confirming the actual face and personal information.

<시스템 구성><System Configuration>

1) 비대면 온라인 학습 : 응시자 단말(PC/스마트폰/태블릿) 사용자 프로그램 -> 유무선 통신망(WAN, LTE 4G/5G) 및 내부망(LAN, Wi-Fi) -> 학습 콘텐츠 서버(학습 커리큘럼 정보/학습자 정보)로 각 사용자 단말의 정면 얼굴 사진과 학습자 정보를 전송하여 감독관 단말이 학습 참여 여부를 결정한다. 1) Non-face-to-face online learning: test taker terminal (PC/smartphone/tablet) user program -> wired/wireless communication network (WAN, LTE 4G/5G) and internal network (LAN, Wi-Fi) -> learning content server (learning curriculum information / learner information), the front face picture of each user terminal and learner information are transmitted, and the supervisor terminal determines whether to participate in learning.

2) 오프 라인 활용시 : 사용자 프로그램 (PC/스마트폰/태블릿)에 인공지능 안면인식 모듈 탑재, 자체적으로 응시자 얼굴의 안면윤곽선 인식 후, 최종 얼굴 안면인식 결과만 학습 콘텐츠 서버로 전송한다. 2) When using offline: The AI face recognition module is installed in the user program (PC/Smartphone/Tablet), and only the final face face recognition result is transmitted to the learning content server after recognizing the facial contour of the candidate's face by itself.

<학습자 단말의 앱 프로토타입 일부 APK - 안드로이드용 첨부><Partial APK of the app prototype of the learner's device - Attachment for Android>

https://we.tl/t-wFdXexsors 파일 다운로드 암호: nsdevil https://we.tl/t-wFdXexsors File Download Password: nsdevil

안드로이드 스마트폰 또는 태블릿 PC에 앱(App)을 설치Install the app on your Android smartphone or tablet PC

<웹 버전 기능 주소><web version function address>

1) 안면인식 모듈 : https://facere.nsdai.org  (id: nsdevil, passwd: nsdevil)  > QR 코드를 스마트폰으로 찍어 PC 카메라에 인식 화면에 대면 동작됨.1) Face Recognition Module: https://facere.nsdai.org (id: nsdevil, passwd: nsdevil) > Take a picture of the QR code with your smartphone and place it on the recognition screen on the PC camera to activate.

2) 얼굴의 윤곽선과 5점 척도 얼굴의 특징점들의 안면윤곽선 인식 모듈 : https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil), 학습자 얼굴의 눈2/코/귀2의 5점 척도 얼굴의 특징점들의 안면인식2) Facial contour recognition module of face contour and 5-point scale face feature points: https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil) Facial recognition of facial feature points on a 5-point scale

3) 음성 인식 모듈 3) Voice recognition module

음성인식(Speech Recognition)은 man-machine 인터페이스 기술로써, 마이크로 입력된 음향 신호(Acoustic speech signal)에 대하여 잡음을 제거하고 음성 신호의 특징을 추출하여 단어의 집합 또는 문장의 텍스트로 변환하는(mapping) 과정이며, 마이크-> AMP -> LPF -> ADC -> 음성 데이터베이스에 저장된다. Speech Recognition is a man-machine interface technology that removes noise from an acoustic speech signal input by a microphone, extracts features of the speech signal, and converts it into a set of words or text of a sentence (mapping). It is a process, microphone -> AMP -> LPF -> ADC -> it is stored in the voice database.

음성인식 모듈은 벡터 양자화(Vector Quantization)를 이용하는 방법, 동적 시간 정합(Dynamic Time Warping, DTW)을 이용하는 방법, 신경회로망(Neural Network)을 이용하는 방법, HMM(Hidden Markov Model, 은닉 마르코프 모델)을 이용하는 방법이 사용된다. 음성 인식 모듈은 하드웨어와 소프트웨어가 모듈화된 음성인식기와 STT(Speech To Text) 기술의 음성인식 API를 사용하였다. The speech recognition module uses a method using vector quantization, a method using dynamic time warping (DTW), a method using a neural network, and a method using HMM (Hidden Markov Model). method is used The voice recognition module uses a voice recognition module of hardware and software and a voice recognition API of STT (Speech To Text) technology.

도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다. 9 is a block diagram of an attentional learning system using artificial intelligence in tablet PC, smartphone, and PC-based web browser-based non-face-to-face learning using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다. 10 is a diagram explaining the functions of an AI-based facial contour recognition module during online learning and testing.

시험관리부를 구비하는 학습 콘텐츠 서버(100)는 WWW 서버(101), 제어부(102), 회원 등록부(103), 사용자 인증부(104), 학습 콘텐츠 제공부(105), QR 코드 관리부(106), 감독자 확인부, 얼굴 인식부(107), 시험 관리부(109), 시험 정보DB(120), 응시자DB(121), 및 얼굴사진 DB(123)를 포함한다. The learning content server 100 having a test management unit includes a WWW server 101, a control unit 102, a member registration unit 103, a user authentication unit 104, a learning content providing unit 105, a QR code management unit 106 , supervisor identification unit, face recognition unit 107, examination management unit 109, examination information DB 120, candidate DB 121, and face photo DB 123.

본 발명의 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템은 In the web browser-based non-face-to-face learning of the present invention, the attention learning system

저작 도구(authoring tool)에 의해 저작된 비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버(100); 및 A learning content server 100 that provides non-face-to-face online lecture learning content authored by an authoring tool; and

상기 학습 콘텐츠 서버(100)에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말(300,310,311)을 포함하고,The learning content server 100 is accessed through a wired/wireless communication network to drive the educational content viewer program, and in non-face-to-face online learning, learning content is displayed using AI face recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal. Including user terminals (300, 310, 311) with an educational content viewer installed for artificial intelligence attention-focused learning,

상기 사용자 단말(300,310,311)은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하고, 상기 사용자 단말은 학습자의 음성을 마이크로 인식하는 STT(Speech To Text) 기술을 사용하는 음성인식 모듈을 더 포함하며, The user terminal (300, 310, 311) is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; a face recognition module recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing facial outlines and 5-point scales of facial feature points of eyes 2/nose/ear 2; And if it is out of the screen by more than a certain angle (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, if the distance in the corresponding direction of the eye-to-ear distance or the nose-to-ear distance exceeds a certain standard value) or the user of the learner When the terminal recognizes the learner's voice, a learner's alarm generator generates an alarm or outputs a warning message to the user terminal of the learner so that attention is learned, and the user terminal recognizes the learner's voice as a microphone STT ( It further includes a voice recognition module using Speech To Text) technology,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,

사용자 단말의 정면 카메라에 포커싱된 비대면 온라인 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 학습자의 사용자 단말에서 학습자의 음성이 인식된 경우 주의집중 학습되도록 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하고, In order to directly look at the non-face-to-face online lecture learning content focused on the front camera of the user terminal and focus attention, the gaze is directed at a certain angle through face recognition on a 5-point scale of facial contours and eye 2/nose/ear 2 facial feature points. In the case of a miss or when the learner's voice is recognized by the learner's user terminal, an alarm / warning message is generated to the corresponding user terminal using sound and messaging technology so that attention is learned,

상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 비대면 온라인 학습에서, 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. The educational content viewer has a VOD media player, a chatting screen, and a memo space for online learning. In non-face-to-face online learning, the instructor's terminal (supervisor's terminal) connects a plurality of learners in a 1:N manner through the learning content server 100. Q&A chatting data is transmitted and received to terminals.

학습 콘텐츠 서버(100)는, 비대면 온라인 학습 시에, 시간과 장소에 상관 없이 강사가 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하며,In non-face-to-face online learning, the learning content server 100 provides learning content regardless of time and place and underlines or texts, pictures, and photos in the online learning memo space (shared workspace) of the educational content viewer. , Sending/receiving files with attached reports/learning files and sending/receiving notes are provided to the instructor's terminal (supervisor terminal) and a plurality of learner terminals according to the instructor's floor control through voice recording,

비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In the case of non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a plurality of learner terminals in a 1:N manner through the learning content server 100. Writing / graphic writing / memo in the shared workspace of the educational content viewer writing is displayed.

비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server 100.

비대면 온라인 학습에서, 시간과 장소에 상관 없이 학습 콘텐츠 서버를 통해 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공한다.In non-face-to-face online learning, regardless of time and place, during online learning through the learning content server, the instructor provides learning content and underlines or texts, pictures, and photos in the online learning memo space (shared workspace) of the educational content viewer. , It provides sending/receiving files with attached reports/learning files and sending/receiving notes to the instructor's terminal (supervisor's terminal) and a plurality of learner terminals according to the instructor's floor control through voice recording.

비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In non-face-to-face online learning, during non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a 1:N method through the learning content server 100 to a plurality of learner terminals in the shared workspace of the educational content viewer. Text/Graphic handwriting/Memo writing is displayed.

상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function of recognizing a QR code as a recognition code when using a smartphone.

상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버(100)로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server 100 is installed, and the educational content viewer is VOD media. A chat screen with the player is provided.

상기 사용자 단말은 The user terminal

비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; A VOD media player that plays non-face-to-face lecture learning content;

강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between the instructor and the learner; and

상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고, 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal, and recognizing face outlines and facial feature points on a 5-point scale of eyes 2/nose/ear 2; and

화면으로부터 시선이 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the line of sight deviates from the screen by more than a certain angle (when the distance between the eyes and ears and the distance between the nose and ears in the corresponding direction exceeds a certain standard depending on whether the 3 points of the eye/nose get closer to the 2 points of the ears at both ends), the user of the learner and a learner's alarm generating unit generating an alarm or outputting a warning message to the terminal.

상기 사용자 단말의 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The face recognition module of the user terminal uses the posenet algorithm as an AI-based face contour recognition technology.

상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 정면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 학습자 사용자 단말에서 알람을 발생하거나 또는 경고 메시지를 출력하여 주의집중 학습되도록 한다. The face recognition module extracts a face object using a face recognition algorithm for a front face photo of a learner of a standard size that has been resized/rotated/angle corrected during non-face-to-face online learning, recognizes a facial action pattern, and recognizes the learner's face. The contour line and facial feature points of Eye2/Nose/Ear2 are extracted, and the Euclidean distance between the facial feature points of Eye2/Nose/Ear2 and the center point (pupil) of the left/right ear and the left/right eye, respectively ( d) and similarity are calculated, and compared with specific points of the user's face photo in the face photo DB, it is checked whether the line of sight is deviating, and depending on whether the 3 eye/nose points are closer to the 2 ears at both ends, the right/left/right/nose points are calculated. Detects head movement to the left, detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when it is out of the screen by more than a certain angle (3 points of eyes/nose are closer to 2 points of both ears If the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value), the facial behavior pattern captured by the camera of the user terminal is recognized, and the right eye and the right ear are Since the distance and the distance between the left eye and the left ear are different, the learner's user terminal generates an alarm or outputs a warning message so that attention is learned.

상기 학습 콘텐츠 서버(100)는 The learning content server 100

WWW 서버(101); WWW server 101;

상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부(102); a control unit 102 controlling to provide online learning content to the user terminal;

상기 제어부(102)에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부(103); A member registration unit 103 connected to the control unit 102 and receiving registered member information and storing and managing ID/Passwd;

상기 제어부(102)에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부(104); A user authentication unit 104 that is connected to the control unit 102 and authenticates using a QR code/Passwd or ID/Passwd or a personal certificate;

상기 제어부(102)에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부(106); A QR code management unit 106 connected to the control unit 102 and issuing and managing a QR code corresponding to user information;

상기 제어부(102)에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부(105); a learning content provider 105 connected to the controller 102 and providing the online learning content to the user terminal;

상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111); A chatting server 111 connected to the control unit 102 and transmitting and receiving chatting data between the instructor and the learner;

상기 제어부(102)에 연결되며, 사용자 단말로부터 카메라의 학습자/응시자의 정면 얼굴 사진을 수신받아 표준 크기의 크기 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습/온라인 시험 자격을 확인하는 감독관 확인부; It is connected to the control unit 102, receives the front face picture of the learner/applicant from the camera from the user terminal, converts it into a standard size front face picture through size correction/rotation/angle correction of the standard size, and stores it in the database of the server. a supervisor checking unit that compares the stored user information with a standard-size frontal face picture and confirms eligibility for online learning/online exam by checking the supervisor's terminal at the supervisor's terminal;

상기 제어부(102)에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부(107); 및Connected to the control unit 102, the user terminal uses a face recognition module to recognize the outline of the learner's face and facial feature points of the eyes 2/nose/ear 2, and face recognition receiving the face recognition result from the user terminal. part 107; and

사용자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. a test information DB for storing test papers, prepared answers, and scoring results of user terminals; It includes a candidate DB and a face DB that store candidate information and a standard size frontal face picture.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the controller 102 and further includes a chatting server 111 that transmits and receives chatting data between the instructor and the learner.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a send/receive note providing unit for transmitting/receiving note data to which the instructor and the learner can attach a report file.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the controller 102 and further includes an FTP server for transmitting and receiving learning data files.

추가적으로, 온라인 시험 또는 UBT 시험 시에, 응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장한 후, 시험 종료시 시험 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함한다. In addition, during the online exam or UBT exam, the test program (App) and test papers are provided to the candidate terminal and the supervisor terminal, and the candidate information, the candidate's on-site face picture, and supervisor information are managed, and the online exam or UBT exam A test management unit that stores test paper writing answers in each test taker terminal within a certain test time, transmits them to the test server at the end of the test, and stores and manages test takers' test paper writing answers, scoring results, supervisor information, and test taker status information. do.

추가적으로, 응시자 단말의 안면인식 모듈과 눈2/코/귀2 얼굴의 특징점 5점 척도 활용 부정행위 방지 모듈에서 사용하는 AI 기반 안면인식 기술은 태블릿 PC의 카메라 영상의 안면윤곽선과 얼굴의 특징점들을 인식하기 위해 posenet 알고리즘을 사용하였다. 온라인 시험 또는 UBT 시험시에, AI 기반 얼굴인식 기술을 사용하여 시험 서버에 연동된 감독관 단말을 통해 태블릿 PC 응시자 본인을 확인하고, 온라인 학습 시에 주의 집중 학습하게 하거나 또는 시험 시에 대리 시험을 방지하며, 온라인 학습, 온라인 시험 또는 UBT 시험에서 서버를 통해 응시자 얼굴 인식과 음성 인식 기술에 의해 주의 집중 학습 또는 시험 시에 대리 시험이나 시각적인/청각적인 부정 행위를 방지한다. Additionally, the AI-based facial recognition technology used in the facial recognition module of the test taker terminal and the anti-cheating module using the eye 2/nose/ear 2 face feature points on a 5-point scale recognizes the facial outline and facial feature points of the camera image of the tablet PC. To do this, the posenet algorithm was used. During an online test or UBT test, AI-based face recognition technology is used to identify the tablet PC test taker through a proctor terminal linked to the test server, and to enable focused learning during online learning or to prevent proxy testing during the test. In online learning, online exams, or UBT exams, substitute exams or visual/auditory cheating are prevented during attention-focused learning or exams by test taker face recognition and voice recognition technology through the server.

시험 프로그램(App)의 시험지 문항은 주관식 및/또는 객관식 시험 문항을 포함하며, 각 문항마다 텍스트 및 이미지 뿐만 아니라 텍스트, 이미지, VR/AR 콘텐츠, 음성과 동영상이 포함된 멀티미디어 시험 문항이 출제되어 서버를 통해 사용자 단말로 디스플레이된다. The test paper questions of the test program (App) include subjective and/or multiple-choice test questions, and for each question, not only text and images, but also multimedia test questions including text, images, VR/AR content, voice and video are presented and server It is displayed on the user terminal through

1. 인공지능 허브 플랫폼1. Artificial Intelligence Hub Platform

ㆍ NSD-AI (NSDevil's Artificial intelligence) 플랫폼 기반 인공지능 허브플랫폼ㆍ NSD-AI (NSDevil's Artificial intelligence) platform-based artificial intelligence hub platform

ㆍ 어학, 의학교육 부문 구문 인식을 통한 교수자 채점 가이드(인제대학교 의과대학 외 공동연구)ㆍ Instructor scoring guide through syntax recognition for language and medical education (collaborative research with Inje University College of Medicine and others)

ㆍ 사물 인식을 통한 체험학습 지원시스템(펀에듀랩 및 한국민속촌 외)ㆍ Experiential learning support system through object recognition (Fun Edu Lab and Korean Folk Village, etc.)

ㆍ 치아 이미지 분석을 통한 치과교육 부문 질병분석 기능(연세대학교 치과대학 외 3개국 기관 공동연구)ㆍ Disease analysis function in dental education sector through tooth image analysis (joint research with Yonsei University College of Dentistry and other institutions in 3 countries)

ㆍ UBT connect platform 기반ㆍ Based on UBT connect platform

ㆍ 태블릿 PC 기반 평가 플랫폼ㆍ Tablet PC-based evaluation platform

ㆍ 어학평가 부문(말하기/듣기/읽기/쓰기)ㆍ Language evaluation section (Speaking/Listening/Reading/Writing)

ㆍ 보건의료평가 부문(듣기/읽기/쓰기)ㆍ Health and Medical Evaluation Division (Listening/Reading/Writing)

ㆍ 기타 직무평가 부문(읽기/쓰기)ㆍ Other job evaluation areas (read/write)

추가적으로, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)는 사용자 단말로부터 유무선 통신망을 통해 시험 응시자 정보와 정면 얼굴 사진을 등록받아 저장하고, 응시자들에게 응시표에 부착하는 QR 코드를 발급하며, 응시자별 QR 코드 인식 후 TTS 변환 기술을 통해 인사말을 제공하며, 온라인 시험지와 온라인 시험 또는 UBT 시험을 실시하기 위한 시험 프로그램을 응시자 단말들로 제공한다. Additionally, the learning content server 100 having a test management unit receives and stores test taker information and front face photos registered from a user terminal through a wired/wireless communication network, issues a QR code attached to a test taker to the test taker, and issues QR codes for each test taker. After recognizing the code, a greeting is provided through TTS conversion technology, and online test papers and a test program for conducting an online test or UBT test are provided to test taker terminals.

추가적으로, 온라인 시험 또는 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 뿐만 아니라 주관식 시험을 제공하며. 주관식 시험 문항은 터치 센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 제공한다.Additionally, the online exam or UBT exam offers subjective exams as well as 2/3/4/5 choice multiple-choice exams. The subjective test questions provide a subjective test in which the handwritten text of the stylus pen is recognized using the handwriting recognition unit of the test taker's terminal having a touch sensor and a display and converted into text to recognize the handwritten text.

온라인 시험지는 전체 객관식, 객관식/주관식 혼용하여 출제될 수 있다. Online test papers can be presented in a combination of all multiple-choice and multiple-choice/subjective forms.

응시자 단말(300,310,311)은 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 유무선 통신망(LAN, Wi-Fi, LTE 4G/5G)을 통해 연결되며, 시험 프로그램을 구동하며, AI 안면인식/동작인식/소리인식 기술을 사용하여 응시자 단말의 정면 카메라(C)를 사용하여 응시자 얼굴의 영상의 안면인식/동작인식, 응시자 단말의 마이크와 음성인식 모듈을 통해 소리인식을 통해 청각적인 부정행위를 감시하도록 응시자 단말의 정면 카메라(C)에 의해 촬영되는 응시자의 정면 얼굴 사진의 인공지능 안면인식 모듈과, 응시자 단말의 정면 카메라(C)로 촬영되는 얼굴 행동 패턴을 인식하여 얼굴의 특징점을 구성하는 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 부정행위 방지 모듈, 응시자의 음성 인식을 통해 청각적인 부정행위를 검출하는 음성인식 모듈을 구비하며, 시험관리부를 구비하는 학습 콘텐츠 서버(100)와 연동되는 응시자 단말에 녹음/녹화 프로그램이 설치된다. Candidate terminals (300, 310, 311) are connected to the learning content server 100 having a test management unit through wired and wireless communication networks (LAN, Wi-Fi, LTE 4G/5G), drive test programs, and AI face recognition/motion recognition/ Using sound recognition technology, the front camera (C) of the test taker's terminal is used to perform facial recognition/motion recognition of the test taker's face, and auditory misconduct is monitored through sound recognition through the microphone and voice recognition module of the test taker's terminal. The artificial intelligence facial recognition module of the front face photograph of the candidate taken by the front camera C of the terminal, and the face outline constituting the feature points of the face by recognizing the facial behavior pattern taken by the front camera C of the candidate terminal Equipped with an eye 2 / nose / ear 2 5-point scale cheating prevention module, a voice recognition module that detects auditory cheating through voice recognition of the test taker, and interlocks with the learning content server 100 equipped with a test management unit A recording/recording program is installed in the test taker terminal.

감독관 단말은 온라인 시험 또는 UBT 시험 시에, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 복수의 응시자 단말의 얼굴 사진과 부정행위 정보를 수신받고, 이를 확인하여 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 부정행위 방지 알람 또는 메시지를 전송한다.During an online test or UBT test, the proctor terminal receives face photos and cheating information from a plurality of test taker terminals through the learning content server 100 having a test management unit, checks them, and learns content server having a test management unit. Through (100), an anti-cheating alarm or message is transmitted to the corresponding test taker terminal.

사용자 단말의 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘(machine learning model which allows for real-time face pose estimation)을 사용한다.The AI-based face contour recognition technology used in the face recognition module of the user terminal uses a posenet algorithm (machine learning model which allows for real-time face pose estimation).

실시예에서는, 온라인 학습/온라인 시험 또는 UBT 시험 시에, 사용자 단말은 태블릿 PC를 사용하였다.In the embodiment, during online learning/online exam or UBT exam, the user terminal uses a tablet PC.

응시자 단말(300,310,311)은 학습자 얼굴 영상의 얼굴의 윤곽선과 눈2/코/귀2 얼굴특징점 5점 척도 안면인식 모듈이 구비된다. The test taker terminals 300, 310, and 311 are equipped with a facial contour line of the learner's face image and a face recognition module with a 5-point scale for eye2/nose/ear2 facial feature points.

추가적으로, 응시자 단말은 주관식 시험 문항을 위해 스타일러스 펜의 필기체를 인식하여 문자로 변환하여 필기체 문자를 인식하는 터치 센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 더 포함한다. In addition, the test taker terminal further includes a handwriting recognition unit of the test taker terminal having a display and a touch sensor for recognizing and converting handwritten text of a stylus pen into text for subjective test questions.

응시자 단말(300,310,311)은 온라인 학습/온라인 시험 시에, 상기 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘을 사용한다. The candidate terminals 300, 310, and 311 use the posenet algorithm as the AI-based facial contour recognition technology used in the face recognition module during online learning/online exam.

온라인 시험 또는 UBT 시험 시에, 상기 눈2/코/귀2 얼굴의 특징점 5점 척도 안면인식 모듈은 응시자 단말의 정면 카메라로 실시간으로 촬영된 얼굴 영상의 관심영역(ROI)을 검출하여 코의 정점을 기준으로 가로x세로 표준 크기로 크기 보정/회전/각도 보정을 통해 생성된 표준 크기의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고, 얼굴 행동 패턴을 인식하여 응시자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴특징점들을 추출하며, 특징 추출과 분류를 통해 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 온라인 시험 또는 UBT 시험 서버의 얼굴사진 DB의 사진와 비교하여 대리 시험 여부를 확인하며, 온라인 시험 또는 UBT 시험시에 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 부정행위와 관련된 얼굴의 이상행동 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 시험 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 부정행위를 방지하도록 응시자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 시각적인 부정행위를 판단하여 시각적인 부정행위 이미지 또는 영상 데이터를 상기 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 상기 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 연동된 감독관 단말(200)이 확인 후 상기 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 경고 메시지 또는 알람을 발생한다. During the online test or the UBT test, the eye2/nose/ear2 face feature point 5-point scale face recognition module detects the ROI of the face image captured in real time by the front camera of the test taker terminal and detects the apex of the nose. Based on the horizontal x vertical standard size, a face object is extracted using a face recognition algorithm for a standard size frontal face photo generated through size correction/rotation/angle correction, and facial behavior patterns are recognized to determine the size of the test taker's face. The outline and facial feature points of Eye 2/Nose/Ear 2 are extracted, and through feature extraction and classification, the facial feature points of Eye 2/Nose/Ear 2 are connected to the left/right ear and the central point (pupil) of the left/right eye, respectively. Calculate the Euclidean distance (d) and similarity, compare with the photo in the face photo DB of the online test or UBT test server to check whether it is a proxy test, and in the online test or UBT test, 3 points on the eyes/nose are positive Detects head movement to the right/left according to the proximity to the two end ears, detects abnormal facial behavior patterns related to cheating, and when facial contours are not recognized during face recognition, strays from the test screen by more than a certain angle In this case (when the distance between the eye and the ear or the distance between the nose and the ear in the corresponding direction exceeds a certain standard value depending on how close the 3 eye/nose points are to the 2 ear points at both ends) The distance between the right eye and the right ear and the distance between the left eye and the left ear change according to the angle at which the front face is turned left and right by recognizing the facial behavior pattern. is transmitted to the learning content server 100 having the test management unit, and after checking by the supervisor terminal 200 linked to the learning content server 100 having the test management unit, through the learning content server 100 having the test management unit. A warning message or an alarm is generated to the corresponding test taker terminal.

(실시예)(Example)

Posenet 알고리즘 모델을 사용하여 태블릿 PC의 Android에서 사람의 얼굴의 포즈 추정을 위해 TensorFlow를 사용하였다. 참고로, Posenet 알고리즘은 행위 인식을 위해 사람의 얼굴과 몸체와 팔과 다리의 위치 주요 인체의 부위의 위치를 감지하여 이미지나 동영상으로부터 사람의 포즈(pose)를 추정하는 비전 모델이다. 얼굴 인식 시에, TensorFlow Lite는 응시자 단말의 정면 카메라를 활용하여 얼굴 인식 시에 실시간으로 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 식별하고, 얼굴의 안면안곽선 포즈 추정 모델을 구현하였다.TensorFlow was used for pose estimation of a human face on Android on a tablet PC using the Posenet algorithm model. For reference, the Posenet algorithm is a vision model that estimates a person's pose from an image or video by detecting the position of a person's face, body, arms and legs, and major body parts for action recognition. At the time of face recognition, TensorFlow Lite uses the front camera of the test taker's terminal to identify the facial contour and eye 2/nose/ear 2 facial feature points in real time during face recognition, and creates a facial contour pose estimation model for the face. implemented.

인공지능 안면인식 모듈에 사용된 posenet 알고리즘은 좌측 눈(leftEye), 우측 눈(rightEye), 코(nose), 왼쪽 귀(leftEar), 오른쪽 귀(rightEar)의 5점 척도 부정행위 방지 모듈을 사용하여 구현하였으며, The posenet algorithm used in the artificial intelligence face recognition module uses a five-point scale anti-fraud module of leftEye, rightEye, nose, leftEar, and rightEar. implemented,

leftEar의 x,y좌표와 rightEar의 x,y좌표를 구한 후 이를 기반으로 원의 직경(diameter)을 구하고 ellipse( )로 천사 고리를 만들 수 있다. diameter는 피타고라스 정리를 굳이 쓰지 않아도 p5js에서 dist( )로 쉽게 구할 수 있다.After finding the x,y coordinates of leftEar and the x,y coordinates of rightEar, you can find the diameter of a circle based on these and create an angel ring with ellipse( ). The diameter can be easily obtained with dist( ) in p5js without having to use the Pythagorean theorem.

<ml5js 및 웹캠 연결하기><Connecting ml5js and Webcam>

<script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script><script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script>

let video;let video;

let poseNet;let poseNet;

function setup( ) {function setup() {

createCanvas(400, 400); createCanvas(400, 400);

video = createCapture(VIDEO); video = createCapture(VIDEO);

//비디오가 2번 안나오게 해주는 용도 // Used to prevent the video from appearing twice

video.hide( ); video.hide( );

poseNet = ml5.poseNet(video,modelLoaded); poseNet = ml5.poseNet(video, modelLoaded);

poseNet.on('pose',gotPoses); poseNet.on('pose', gotPoses);

console.log(ml5); console.log(ml5);

}}

// 포즈 관련 콜백들이 들어감// Pose-related callbacks are entered

function gotPoses(poses) { function gotPoses(poses) {

}}

// 로딩이 잘됐는지 확인하는 용도// Used to check if loading was successful

function modelLoaded( ) {function modelLoaded() {

console.log('Model Loaded'); console.log('Model Loaded');

}}

function draw( ) {function draw() {

//0,0 위치에 웹캠을 그려준다. // Draw the webcam at the 0,0 position.

image(video,0,0); image(video,0,0);

}}

응시자 단말의 전면 카메라 얼굴 영상으로부터 실시간으로 얼굴 영역을 추출하고, 코의 꼭지점을 기준으로 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진의 표준 크기로 맞추며, 시험 서버의 기 저장된 표준 크기의 얼굴 사진 DB의 학습 데이터와 비교 -> 얼굴 사진의 학습 모델 -> 얼굴의 윤곽선과 눈2/코/귀2의 특징점들을 추출하고 분류하며, 얼굴 인식 데이터의 얼굴의 윤곽선, 눈2/코/귀2 얼굴의 특징점들의 그룹 clustering(클러스터의 중심 k-means 알고리즘) density estimation하며, 얼굴의 특징점들의 거리(유클리디안 거리)와 유사도(similarity)를 계산하여 온라인 시험 또는 UBT 시험 서버의 얼굴 사진 DB에 저장된 표준 크기의 응시자의 정면 얼굴 사진의 얼굴 특징점들의 거리(d)와 유사도(similarity)를 비교하여 응시자 사진의 본인 여부를 확인하여 대리 시험이 방지되며, 온라인 시험 또는 UBT 시험 시에 시각적인 부정행위를 판단하게 된다. The face region is extracted in real time from the face image of the front camera of the test taker device, and the standard size is adjusted to the standard size of the front face photo through size correction/rotation/angle correction based on the vertex of the nose, and the standard size pre-stored in the test server Comparison with learning data of face photo DB -> Learning model of face photo -> Extract and classify face outline and eye 2/nose/ear 2 feature points, face outline of face recognition data, eye 2/nose/ear 2 Ear 2 performs group clustering (center of cluster k-means algorithm) density estimation of facial feature points, and calculates distance (Euclidean distance) and similarity of facial feature points to online test or UBT test server's face photo DB By comparing the distance (d) and similarity of the facial feature points of the standard size front face photograph of the candidate stored in the standard size, the identity of the candidate photograph is checked to prevent proxy testing, and visual irregularities during the online test or UBT test. judge the action.

예를들면, 응시자 단말(태블릿 PC)의 시험 화면으로 응시자 단말의 전면 카메라로 촬영되는 얼굴이 향하는 방향이 바뀌거나 응시자가 일정 각도로 얼굴을 돌리면 얼굴 사진의 눈2/코/귀2와 윤곽선의 얼굴의 특징점들이 인식이 안되거나 사용자의 얼굴과 스마트폰의 유효 거리(20~30cm)내에서 학습 콘텐츠 또는 시험 프로그램을 향하는 각도가 달라지게 되면, 주의집중 학습을 안하거나 시험 시에 부정행위로 인식하며, 부정행위 감지 결과를 온라인 시험 또는 UBT 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 이를 감독관 단말(200)로 전송하여 감독관이 확인 후 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하여 해당 응시자가 부정행위를 방지하게 한다. For example, if the direction of the face photographed by the front camera of the test taker terminal (tablet PC) is changed or the test taker turns the face at a certain angle, the eyes 2/nose/ear 2 and the outline of the face picture are changed. If the facial feature points are not recognized or the angle toward the learning content or test program changes within the effective distance between the user's face and the smartphone (20 to 30 cm), attentional learning is not performed or it is recognized as cheating during the test. and transmits the cheating detection result to the learning content server 100 having an online test or UBT test management unit, transmits it to the supervisor terminal 200, and after the supervisor confirms it, the learning content server 100 having the test management unit Through this, an alarm is generated or a warning message is transmitted to the corresponding candidate terminal so that the candidate is prevented from cheating.

또한, [텍스트 A] 데이터 참조 미리 정의된 응시자 프로그램에서 설정된 경고 임계치가 0이 되는 순간 서버 연결 없이 응시자에게 경고 메시지를 표시하고, 감독관/부정행위 검출 서버/기타 시험 관리 서버로 역 전송할 수 있고, 또는 시험 종료 후 해당 raw data의 후처리를 위해 부정행위 검출 서버/기타 시험 관리 서버로 전송한다.In addition, [Text A] As soon as the warning threshold set in the predefined test taker program with reference to data becomes 0, a warning message is displayed to the test taker without server connection and can be transmitted back to the supervisor/cheating detection server/other test management server, Or, after the test is over, the raw data is sent to the cheating detection server/other test management server for post-processing.

또한, 응시자 단말은 안면 인식 모듈, 눈2/코/귀2 얼굴의 특징점 5점 척도 부정행위 방지 모듈, 및 상기 부정행위 방지 모듈은 응시자의 시각적인 부정행위를 방지하기 위해 응시자의 말소리를 인식하는 음성 인식 모듈을 더 구비하며, In addition, the candidate terminal includes a face recognition module, an eye 2/nose/ear 2 facial feature point 5-point scale cheating prevention module, and the cheating prevention module recognizes the candidate's speech to prevent the candidate's visual cheating. Further comprising a voice recognition module,

온라인 학습, 온라인 시험 또는 UBT 시험 시에, 음성 인식 모듈은 응시자 단말의 마이크를 통해 입력된 부정행위와 관련된 응시자의 말소리가 들리는 경우, 음성인식하고 이를 즉시 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하여 저장하며, 이를 감독관 단말(200)로 부정행위 알림을 전송하여 감독관이 확인 후 학습 콘텐츠 서버를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하며, 부정행위를 방지하게 한다. 또는, 눈과 귀의 거리, 코와 귀의 거리의 표준 크기의 정면 얼굴 사진의 미리 정의된 거리의 임계치를 참조하여 서버 명령 없이 응시자 프로그램 자체에서 직접 해당 학습자/응시자 단말로 알람 또는 경고 메시지를 표시하고, 부정행위를 정보를 시험 서버와 감독관 단말로 전송한다. During online learning, online exam, or UBT exam, the voice recognition module recognizes the speech of the candidate related to the cheating input through the microphone of the candidate terminal, and immediately recognizes the voice and the learning content server 100 having a test management unit. After the supervisor checks the cheating notification, an alarm is generated or a warning message is sent to the candidate terminal through the learning content server, and cheating is prevented. Alternatively, the test taker program itself directly displays an alarm or warning message to the corresponding learner / test taker terminal without a server command by referring to the threshold of the predefined distance of the standard size frontal face photograph of the eye-to-ear distance and the nose-to-ear distance, It transmits cheating information to the test server and the supervisor's terminal.

도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다. 11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

본 발명의 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법은 (a) 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버로 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버가 사용자 정보와 표준 크기의 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer 프로그램과 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 표준 크기의 크기의 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진을 생성하고 서버의 데이터베이스에 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 사용자 단말의 화면을 바라보는 시선이 일정 각도로 벗어난 경우 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고, In the web browser-based non-face-to-face learning of the present invention, the tablet PC, smartphone, and PC-based attentional learning method using facial contour recognition artificial intelligence (a) registers learner information and standard-sized frontal face photos as a learning content server storing; (b) issuing, by the learning content server, a QR code corresponding to user information and a standard size frontal face picture; (c) In a user terminal equipped with an educational content viewer program and a face recognition module, the learning content server receives the recognition result of the front face photo of the camera using the front face recognition algorithm of the front camera image and corrects the size of the standard size. / Creating a standard size frontal face picture through rotation / angle correction and comparing the learner information pre-registered in the database of the server with the standard size frontal face picture and the facial feature points to confirm whether the learner is himself or not; (d) providing learning content from the learning content server to a user terminal of a pre-registered member; and (e) the learning content server analyzes the online learner's face image detected by the camera in each learner's user terminal, and when the gaze looking at the screen of the user terminal deviates from a certain angle or the learner's voice in the learner's user terminal In case of recognizing, generating a warning message or an alarm to the user terminal of the learner so that attention is learned,

상기 방법은, 비대면 온라인 학습에서, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 상기 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,In the method, in non-face-to-face online learning, the educational content viewer has a VOD media player, a chat screen, and an online learning memo space, and the instructor's terminal provides a plurality of 1:N methods through the learning content server 100. Further comprising transmitting and receiving question and response chatting data to learner terminals,

상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 마이크로부터 인식하는 STT 기술을 사용하는 음성인식 모듈을 더 포함하며, The user terminal is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; A face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and face feature points on a 5-point scale of eyes 2/nose/ear 2; and when it is more than a certain angle away from the screen (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, when the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) or the learner's voice includes a learner's alarm generating unit that generates an alarm or outputs a warning message to the corresponding user terminal so that when it recognizes, the user terminal is a voice recognition module using STT technology that recognizes the learner's voice from a microphone Including more,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology.

상기 학습 콘텐츠 서버(100)는 비대면 온라인 학습에서, 시간과 장소에 상관없이, 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하고, In non-face-to-face online learning, regardless of time and place, during online learning, the instructor provides learning content and underlines or texts the online learning memo space (shared workspace) of the educational content viewer. Sending/receiving files with report/learning files attached to the instructor's terminal (supervisor's terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings, and sending/receiving notes. provide,

비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In the case of non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a plurality of learner terminals in a 1:N manner through the learning content server 100. Writing / graphic writing / memo in the shared workspace of the educational content viewer writing is displayed.

상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function of recognizing a QR code as a recognition code when using a smartphone.

상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면과 온라인 학습 메모 공간을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server is installed, and the educational content viewer chats with a VOD media player. screen and space for online learning notes.

상기 사용자 단말은 The user terminal

비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; A VOD media player that plays non-face-to-face lecture learning content;

강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between the instructor and the learner; and

상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈; a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and feature points of the eye2/nose/ear2 face;

사용자 단말의 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the screen of the user device is out of a certain angle or more (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, if the distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance exceeds a certain standard value), an alarm is triggered. Include a learner's alarm generating unit that generates or outputs a warning message.

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용한다. The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology.

상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 표준 크기의 정면 얼굴 사진의 얼굴특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 사용자 딘말의 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력한다. The face recognition module extracts a face object using a frontal face recognition algorithm for a face photo of a learner of a standard size corrected for size/rotation/angle during non-face-to-face online learning, recognizes a facial action pattern, and recognizes the face of the learner. Euclidean distance (d) between the facial feature points of the eyes 2/nose/ear 2 and the central point (pupil) of the left/right ears and the left/right eyes respectively. and similarity are calculated, and compared with face specific points of the user's standard-sized frontal face photo of the face photo DB, whether or not the line of sight is deviating is checked, and whether the 3 eye/nose points get closer to the 2 ear points at both ends is determined. Detects head movement to the right/left along the line, detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when the user's screen is deviating from the user's screen by more than a certain angle (3 points on eyes/nose at both ends Depending on how close the two ears are, if the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value) Recognizes the facial behavior pattern captured by the camera of the user terminal and adjusts the angle at which the front face is turned left and right Accordingly, since the distance between the right eye and the right ear and the distance between the left eye and the left ear change, an alarm is generated or a warning message is output to the corresponding user terminal.

상기 학습 콘텐츠 서버(100)는 The learning content server 100

WWW 서버; WWW server;

상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부; a control unit controlling to provide online learning content to the user terminal;

상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부; a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;

상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부; A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;

상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부; a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;

상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부; a learning content provider connected to the controller and providing the online learning content to the user terminal;

상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버; a chatting server connected to the control unit and transmitting and receiving chatting data between the instructor and the learner;

상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/각도 보정/회전을 통해 표준 크기의 정면 얼굴 사진을 생성하고, 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부; It is connected to the control unit, receives a picture taken by a camera of a candidate from a user terminal, generates a standard size front face picture through size correction/angle correction/rotation to a standard size, and user information and front face previously stored in a server database. a supervisor confirmation unit that compares face photos and confirms eligibility for online learning by a supervisor checking the supervisor's terminal;

상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴 특징점을 인식하고 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및a face recognition unit connected to the control unit and recognizing the outline of the learner's face and facial feature points of eyes 2/nose/ear 2 using a face recognition module in the user terminal and receiving a face recognition result from the user terminal; and

응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. Test information DB for storing test papers, written answers, and scoring results of test taker terminals; It includes a candidate DB and a face DB that store candidate information and a standard size frontal face picture.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the controller 102 and further includes a chatting server 111 that transmits and receives chatting data between the instructor and the learner.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a send/receive note providing unit for transmitting/receiving note data to which the instructor and the learner can attach a report file.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the controller 102 and further includes an FTP server for transmitting and receiving learning data files.

비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server 100.

비대면 온라인 학습에서, 시간과 장소에 상관없이, 학습 콘텐츠 서버(100)를 통해 온라인 학습 시에 강사는 학습 콘텐츠를 제공하고 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공하며,In non-face-to-face online learning, regardless of time and place, during online learning through the learning content server 100, the instructor provides learning content and underlines or texts the online learning memo space (shared workspace) of the educational content viewer. Sending/receiving files with report/learning files attached to the instructor's terminal (supervisor's terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings, and sending/receiving notes. provide,

비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 동시에 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모 쓰기가 표시된다. In non-face-to-face online learning, during non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a shared workspace of the educational content viewer with multiple learner terminals simultaneously in a 1:N manner through the learning content server 100 Text/Graphic handwriting/Memo writing are displayed on .

추가적으로, 온라인 시험 또는 UBT 시험 시에, 응시자 정보들과 응시자의 현장의 정면 얼굴 사진, 감독관 정보를 시험 관리부를 구비하는 학습 콘텐츠 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험 시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장한 후 시험 종료시 응시자 단말로부터 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함한다. In addition, during the online exam or UBT exam, the candidate information, the front face photo of the candidate's field, and the supervisor information are stored and managed in the database of the learning content server equipped with the test management unit, and the schedule is tested during the online exam or UBT exam. During the time, after storing the test paper writing answers in each test taker terminal, at the end of the test, the test taker terminal receives and stores the test taker terminal to the learning content server 100 having a test management unit, and provides the scoring results of the test takers' test paper preparation answers to the test taker terminal Include more steps.

추가적으로, 온라인 및 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 및 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 포함한다. In addition, the online and UBT tests include a 2nd/3rd/4th/5th multiple-choice multiple-choice test and a subjective test in which the handwriting of a stylus pen is recognized and converted into characters using the handwriting recognition unit of the test taker terminal to recognize handwritten characters. include

또한, 상기 방법은 사용자 단말의 카메라 영상의 사용자의 얼굴 움직임을 [텍스트 A]와 같이 프레임 단위로 저장하면서 정의된 일정 프레임 또는 시간 또는 횟수를 차감하다가 0이 되는 시점에 학습자/응시자 단말로 경고 메시지를 표출/노출하거나, 감독관 기기 또는 부정행위 검출 이미지를 서버로 보낸 후, 경고 트리거 횟수를 초기화하여 다음 움직임부터 다시 차감을 시작하는 단계를 포함한다.In addition, the above method stores the motion of the user's face in the camera image of the user terminal in frame units as in [Text A] and subtracts a defined frame or time or number of times, and then sends a warning message to the learner/applicant terminal at the time when it becomes 0. After displaying/exposing or sending a supervisory device or cheating detection image to the server, initializing the number of warning triggers to start deduction again from the next movement.

[텍스트 A] - 응시자 단말의 태블릿 PC에 저장되는 얼굴의 행동 패턴 정보 (예시. 서울대학교 치과대학 학습자의 얼굴 패턴 데이터): 일자, 시간, 움직인 각도/거리 및 위상(좌우) 등의 정보를 매 프레임 또는 시간당 저장하고, 이를 바탕으로 사용자 단말로 알람 또는 경고 메시지를 출력하고, 감독관 확인 및 응시자 얼굴인식 부정행위 검출 - 학습 콘텐츠 서버의 시스템에 해당 RAW Data를 전송하여 후처리 한다.[Text A] - Facial behavior pattern information stored on the tablet PC of the test taker terminal (Ex. Face pattern data of Seoul National University dental school learners): information such as date, time, movement angle/distance, and phase (left and right) It is stored every frame or hourly, and based on this, an alarm or warning message is output to the user terminal, and supervisor confirmation and candidate face recognition misconduct detection - The corresponding RAW data is transmitted to the learning content server system for post-processing.

200519094106,0.02,R200519094106,0.02,R

200519094111,0.03,R200519094111,0.03,R

200519094120,0.42,R200519094120,0.42,R

200519094148,0.01,R200519094148,0.01,R

200519094150,0.21,R200519094150,0.21,R

200519094155,0.22,R200519094155,0.22,R

200519094158,0.09,R200519094158,0.09,R

200519094209,0.11,L200519094209,0.11,L

200519094214,0.09,R200519094214,0.09,R

200519094216,0.10,R200519094216,0.10,R

200519094219,0.09,R200519094219,0.09,R

200519094224,0.01,L200519094224,0.01,L

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중 교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 안면윤곽선 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 온라인 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습/시험을 제공한다.In the web browser-based non-face-to-face learning system and method of the present invention, an attention-focused learning system and method using artificial intelligence in non-face-to-face online learning includes an educational content viewer of a user terminal equipped with a media playback unit and a facial contour recognition module, and a learning content server. 5-point scale face contour recognition for facial contours and eye 2/nose/ear 2 facial feature points to direct attention to the non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the (ubcloud server) When the gaze is deviated at a certain angle through, an alarm/warning message is generated to the user terminal using sound and messaging technology, and attention-focused learning/testing using web browser-based ubcloud artificial intelligence is provided in non-face-to-face online learning. .

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되고, 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 서버 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드 뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.Embodiments according to the present invention are implemented in the form of program instructions that can be executed through various computer means, and can be recorded in a computer readable recording medium. The computer readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include server storage, hard disks, magnetic media such as floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and floptical disks. A hardware device configured to store and execute program instructions in storage media such as magneto-optical media, ROM, RAM, flash memory, etc. may be included. Examples of program instructions may include those produced by a compiler, machine language codes as well as high-level language codes that can be executed by a computer using an interpreter. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention.

이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be read using computer software on a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) ) can be stored in

본 발명의 구체적인 실시예를 참조하여 설명하였지만, 본 발명은 상기와 같이 기술적 사상을 예시하기 위해 구체적인 실시 예와 동일한 구성 및 작용에만 한정되지 않고, 본 발명의 기술적 사상과 범위를 벗어나지 않는 한도 내에서 다양하게 변형하여 실시될 수 있으며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although described with reference to specific embodiments of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiments to illustrate the technical idea as described above, and within the limit that does not deviate from the technical spirit and scope of the present invention It can be implemented with various modifications, and the scope of the present invention should be determined by the claims described later.

100: 학습 콘텐츠 서버 101: WWW 서버
102: 제어부 103: 회원 등록부
104: 사용자 인증부 105: 학습 콘텐츠 제공부
106: QR 코드 제공부 107: 얼굴인식부(안면윤곽선 인식)
109: 시험 관리부 111: 채팅 서버
300, 310, 311: 사용자 단말
100: learning content server 101: WWW server
102: control unit 103: member registration unit
104: user authentication unit 105: learning content providing unit
106: QR code providing unit 107: face recognition unit (facial contour recognition)
109: test management department 111: chat server
300, 310, 311: user terminal

Claims (12)

비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버; 및
상기 학습 콘텐츠 서버에 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말을 포함하고,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며,
상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며,
비대면 온라인 학습에서, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
A learning content server that provides non-face-to-face online lecture learning content; and
Connect to the learning content server and run the educational content viewer program. In non-face-to-face online learning, AI facial recognition/motion recognition sound reproduction technology of the front camera image data of the user terminal is used to educate learning content with artificial intelligence attention. Including a user terminal with a content viewer installed,
The user terminal is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; a face recognition module recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing facial outlines and 5-point scales of facial feature points of eyes 2/nose/ear 2; and when it is more than a certain angle away from the screen (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, when the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) or the learner's voice includes a learner's alarm generating unit that generates an alarm or outputs a warning message to the learner's user terminal so that attention is learned when recognizing , and the user terminal further includes a voice recognition module for recognizing the learner's voice,
The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,
The educational content viewer has a VOD media player, a chat screen, and an online learning memo space,
In non-face-to-face online learning, the instructor's terminal transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server.
제1항에 있어서,
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The learning content server provides a function of recognizing a QR code as a recognition code when using a smartphone, an attentional learning system in web browser-based non-face-to-face learning.
제1항에 있어서,
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and focuses attention in web browser-based non-face-to-face learning in which the educational content viewer downloaded from the learning content server is installed. learning system.
제1항에 있어서,
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 정면 얼굴 사진에 대하여 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The face recognition module extracts a face object using a face recognition algorithm for a front face photo of a learner of a standard size that has been resized/rotated/angle corrected during non-face-to-face online learning, recognizes a facial action pattern, and recognizes the learner's face. The contour line and facial feature points of Eye2/Nose/Ear2 are extracted, and the Euclidean distance between the facial feature points of Eye2/Nose/Ear2 and the center point (pupil) of the left/right ear and the left/right eye, respectively ( d) and similarity are calculated, and compared with specific points of the user's face photo in the face photo DB, it is checked whether the line of sight is deviating, and depending on whether the 3 eye/nose points are closer to the 2 ears at both ends, the right/left/right/nose points are calculated. Detects head movement to the left, detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when it is out of the screen by more than a certain angle (3 points of eyes/nose are closer to 2 points of both ears If the eye-to-ear distance or nose-to-ear distance in the corresponding direction exceeds a certain standard value), the facial behavior pattern captured by the camera of the user terminal is recognized and the right eye and right ear are separated according to the angle at which the front face is turned left and right. An attentional learning system in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message to a corresponding user terminal because the distance and the distance between the left eye and the left ear are different.
제1항에 있어서,
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 상기 사용자 단말의 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The learning content server
WWW server;
a control unit controlling to provide online learning content to the user terminal;
a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;
A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;
a learning content provider connected to the controller and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;
a chatting server connected to the control unit and transmitting and receiving chatting data between the instructor and the learner;
It is connected to the control unit, receives a photo taken by a camera of a test taker from a user terminal, converts it into a frontal face photo through size correction/rotation/angle correction in a standard size, and compares user information previously stored in a database of a server with a frontal face photo. a supervisor verification unit for confirming eligibility for online learning by checking the supervisor at the supervisor's terminal;
a face recognition unit connected to the control unit, recognizing the outline of the learner's face and feature points of the eyes 2/nose/ear 2 using the face recognition module of the user terminal, and receiving a face recognition result from the user terminal; and
Test information DB for storing test papers, written answers, and scoring results of test taker terminals; a candidate DB and a face DB that store candidate information and a standard size frontal face picture;
Attentional learning system in non-face-to-face learning based on web browsers.
제5항에 있어서,
응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료시 시험관리부를 구비하는 상기 학습 콘텐츠 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 5,
It provides the test program (App) and test papers to the candidate terminal and the supervisor terminal, manages the candidate information, the candidate's on-site face picture, and supervisor information, and sends the test paper to each candidate terminal within a certain test time during the online test or UBT test. After saving the written answer, it is transmitted to the learning content server having the test management unit at the end of the test, and further includes a test management unit that stores and manages test takers' test paper written answers, scoring results, supervisor information, and test taker status information. Attentional learning system in non-face-to-face learning.
(a) 사용자 단말로부터 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버가 등록받아 저장하는 단계;
(b) 상기 학습 콘텐츠 서버가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계;
(c) 교육 콘텐츠 viewer 프로그램과 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계;
(d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및
(e) 상기 학습 콘텐츠 서버는 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상을 분석하여 시선이 일정 각도로 벗어난 경우 또는 학습자의 사용자 단말에서 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 학습자의 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함하고,
비대면 온라인 학습에서, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면, 온라인 학습 메모 공간을 구비하며, 강사의 단말은 상기 학습 콘텐츠 서버를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신하는 단계를 더 포함하며,
상기 사용자 단말은 비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; 강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 또는 학습자의 음성을 인식한 경우 주의집중 학습되도록 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함하며, 상기 사용자 단말은 학습자의 음성을 인식하는 음성인식 모듈을 더 포함하며,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
(a) receiving and storing learner information and a standard-sized frontal face photo from a user terminal in a learning content server;
(b) issuing, by the learning content server, a QR code corresponding to user information and a front face picture;
(c) In a user terminal equipped with an educational content viewer program and a face recognition module, the recognition result of the front face photo of the camera is received by the learning content server using the front face recognition algorithm of the front camera image, and the previously registered learner information and Checking whether the learner is himself by comparing a standard size frontal face photo with facial feature points;
(d) providing learning content from the learning content server to a user terminal of a pre-registered member; and
(e) The learning content server analyzes the online learner's face image detected by the camera at each learner's user terminal so that when the gaze is off at a certain angle or when the learner's user terminal recognizes the learner's voice, attention is learned. Generating a warning message or alarm to the user terminal of the learner,
In non-face-to-face online learning, the educational content viewer has a VOD media player, a chatting screen, and an online learning memo space, and the instructor's terminal has question and answer chatting with a plurality of learner terminals in a 1:N manner through the learning content server. Further comprising the step of transmitting and receiving data,
The user terminal is a VOD media player for playing non-face-to-face lecture learning content; A chat module that transmits and receives chat data between the instructor and the learner; A face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and face feature points on a 5-point scale of eyes 2/nose/ear 2; and when it is more than a certain angle away from the screen (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, when the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) or the learner's voice includes a learner's alarm generating unit that generates an alarm or outputs a warning message to a corresponding user terminal so that attention is learned when recognizing , and the user terminal further includes a voice recognition module that recognizes the learner's voice,
The face recognition module is an attentional learning method in web browser-based non-face-to-face learning using the posenet algorithm as an AI-based facial contour recognition technology.
제7항에 있어서,
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는 단계를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 7,
The learning content server further comprises providing a function of recognizing a QR code as a recognition code when using a smartphone.
제7항에 있어서,
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 7,
The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and focuses attention in web browser-based non-face-to-face learning in which the educational content viewer downloaded from the learning content server is installed. learning method.
제7항에 있어서,
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/회전/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 정면 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말에서 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 7,
The face recognition module extracts a face object using a frontal face recognition algorithm for a face photo of a learner of a standard size corrected for size/rotation/angle during non-face-to-face online learning, recognizes a facial action pattern, and recognizes the face of the learner. The contour line and facial feature points of Eye2/Nose/Ear2 are extracted, and the Euclidean distance between the facial feature points of Eye2/Nose/Ear2 and the center point (pupil) of the left/right ear and the left/right eye, respectively ( d) and similarity are calculated, and compared with specific points of the user's frontal face photo in the face photo DB, whether or not the line of sight is displaced is checked, and according to whether the 3 eye/nose points are closer to the 2 ears at both ends, the right / Detects head movement to the left, detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when it is out of a certain angle or more from the screen (3 points of eyes/nose are close to 2 points of ears at both ends) If the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value) Recognizes the facial behavior pattern captured by the camera of the user terminal and detects the right eye and right eye according to the angle at which the front face is turned left and right An attentional learning method in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message at the user terminal because the distance between the ear and the distance between the left eye and the left ear is different.
제7항에 있어서,
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진으로 변환하고 서버의 데이터베이스에 기 저장된 사용자 정보와 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2 특징점들을 인식하고 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 7,
The learning content server
WWW server;
a control unit controlling to provide online learning content to the user terminal;
a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;
A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;
a learning content provider connected to the controller and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;
It is connected to the control unit, receives a photo taken by a camera of a test taker from a user terminal, converts it into a frontal face photo through size correction/rotation/angle correction in a standard size, and compares user information previously stored in a database of a server with a frontal face photo. a supervisor verification unit for confirming eligibility for online learning by checking the supervisor at the supervisor's terminal;
a face recognition unit that is connected to the control unit and recognizes the outline of the learner's face and eye2/nose/ear2 feature points using a face recognition module in the user terminal and receives a face recognition result from the user terminal; and
Test information DB for storing test papers, written answers, and scoring results of test taker terminals; a candidate DB and a face DB that store candidate information and a standard size frontal face picture;
Attentional learning method in non-face-to-face learning based on web browsers.
제7항에 있어서,
상기 학습 콘텐츠 서버가 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 시험 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험 시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료 시 응시자 단말로부터 시험관리부를 구비하는 상기 학습 콘텐츠 서버로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 7,
The learning content server stores and manages the candidate information, the candidate's on-site face picture, and the supervisor information in the database of the test server, and stores the test paper preparation answer in each candidate terminal during a certain test time during the online test or UBT test. Concentration of attention in web browser-based non-face-to-face learning, further comprising receiving and storing the test taker terminal to the learning content server having a test management unit at the end of the test, and providing the scoring results of the test taker's answers to the test taker terminal to the test taker terminal. learning method.
KR1020230018387A 2020-10-08 2023-02-11 Cathexis learning system and method using AI in an untact learning based on Web browser KR20230030599A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230018387A KR20230030599A (en) 2020-10-08 2023-02-11 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230165959A KR20230169880A (en) 2020-10-08 2023-11-24 Cathexis learning system and method using AI in an untact learning based on Web browser

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200130062A KR20220046859A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230018387A KR20230030599A (en) 2020-10-08 2023-02-11 Cathexis learning system and method using AI in an untact learning based on Web browser

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200130062A Division KR20220046859A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020230165959A Division KR20230169880A (en) 2020-10-08 2023-11-24 Cathexis learning system and method using AI in an untact learning based on Web browser

Publications (1)

Publication Number Publication Date
KR20230030599A true KR20230030599A (en) 2023-03-06

Family

ID=81211776

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200130062A KR20220046859A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230018387A KR20230030599A (en) 2020-10-08 2023-02-11 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230165959A KR20230169880A (en) 2020-10-08 2023-11-24 Cathexis learning system and method using AI in an untact learning based on Web browser

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200130062A KR20220046859A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020230165959A KR20230169880A (en) 2020-10-08 2023-11-24 Cathexis learning system and method using AI in an untact learning based on Web browser

Country Status (1)

Country Link
KR (3) KR20220046859A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612283B1 (en) * 2022-11-15 2023-12-12 주식회사 화성 Learning concentration analysis system based on eye tracking and method using the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102103521B1 (en) 2018-01-12 2020-04-28 상명대학교산학협력단 Artificial intelligence deep-learning based video object recognition system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102103521B1 (en) 2018-01-12 2020-04-28 상명대학교산학협력단 Artificial intelligence deep-learning based video object recognition system and method

Also Published As

Publication number Publication date
KR20220046859A (en) 2022-04-15
KR20230169880A (en) 2023-12-18

Similar Documents

Publication Publication Date Title
Labayen et al. Online student authentication and proctoring system based on multimodal biometrics technology
KR102593624B1 (en) Online Test System using face contour recognition AI to prevent the cheating behaviour and method thereof
US10095850B2 (en) User identity authentication techniques for on-line content or access
WO2016172872A1 (en) Method and device for verifying real human face, and computer program product
KR20240040683A (en) Cathexis learning system and method using AI in an untact learning based on Web browser
KR20230169880A (en) Cathexis learning system and method using AI in an untact learning based on Web browser
Li et al. Multi-stream deep learning framework for automated presentation assessment
Villa et al. A survey of biometric and machine learning methods for tracking students’ attention and engagement
CN114616565A (en) Living body detection using audio-visual disparity
Chou Presentation attack detection based on score level fusion and challenge-response technique
KR102581415B1 (en) UBT system using face contour recognition AI to prevent the cheating behaviour and method thereof
KR102615709B1 (en) Online Test System using face contour recognition AI to prevent the cheating behavior by using a front camera of examinee terminal installed audible video recording program and an auxiliary camera and method thereof
KR20230110681A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using a front camera of examinee terminal and an auxiliary camera and method thereof
KR20230013236A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using speech recognition and method thereof
US11715330B2 (en) Liveness detection in an interactive video session
Seneviratne et al. Student and lecturer performance enhancement system using artificial intelligence
KR20230007250A (en) UBT system using face contour recognition AI and method thereof
Yi et al. Real time learning evaluation based on gaze tracking
WO2015179428A1 (en) User identity authentication techniques for on-line content or access
Mothukuri et al. Invigilated online assessment: Various ways to minimize unauthorized help
CN115132027A (en) Intelligent programming learning system and method based on multi-mode deep learning
Singh et al. A Cheating Detection System in Online Examinations Based on the Analysis of Eye-Gaze and Head-Pose
CN113256129A (en) Concentration degree analysis method and system and computer readable storage medium
Sakthivel et al. Online Education Pedagogy Approach
KR102577559B1 (en) Apparatus for measuring concentration of learner in online education and method therefor

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment