KR20230053553A - Cathexis learning system and method using AI in an untact learning based on Web browser - Google Patents

Cathexis learning system and method using AI in an untact learning based on Web browser Download PDF

Info

Publication number
KR20230053553A
KR20230053553A KR1020230021899A KR20230021899A KR20230053553A KR 20230053553 A KR20230053553 A KR 20230053553A KR 1020230021899 A KR1020230021899 A KR 1020230021899A KR 20230021899 A KR20230021899 A KR 20230021899A KR 20230053553 A KR20230053553 A KR 20230053553A
Authority
KR
South Korea
Prior art keywords
face
learning
user terminal
test
nose
Prior art date
Application number
KR1020230021899A
Other languages
Korean (ko)
Inventor
신승용
이언주
박기남
Original Assignee
(주)엔에스데블
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)엔에스데블 filed Critical (주)엔에스데블
Priority to KR1020230021899A priority Critical patent/KR20230053553A/en
Publication of KR20230053553A publication Critical patent/KR20230053553A/en
Priority to KR1020240015437A priority patent/KR20240040683A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/30
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/50Business processes related to the communications industry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Tourism & Hospitality (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • Educational Technology (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Educational Administration (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Operations Research (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Image Analysis (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

Disclosed are a cathexis learning system and a method using artificial intelligence (AI) in non-contact learning based on a web browser. The cathexis learning system in non-contact learning based on a web browser according to the present invention comprises: a learning content server providing non-face-to-face lecture learning content; and a user terminal accessing the learning content server to run an educational content viewer program, having a facial recognition module that recognizes the facial outline of the front camera image data of the user terminal and facial feature points of two eyes, one nose, and two ears and a voice recognition module in the non-face-to-face online learning, and including an educational content viewer installed to use AI facial recognition/gesture recognition and sound reproduction technology to allow learning content to be learned in cathexis with artificial intelligence. In non-face-to-face online learning, the educational content viewer on the user terminal has a media playback unit and a facial outline recognition module, issues an alarm/warning message to the user terminal using sound and messaging technology when a gaze is found to deviate at a certain angle or a distance in the corresponding direction of the eye-to-ear distance or nose-to-ear distance is found to exceed a certain reference by facial recognition of the face outline and the facial features of two eyes, one nose, and two ears on a 5-point scale in order to enable a student to pay attention to non-face-to-face lectures focused on the camera of the user terminal linked to the learning content server (ubcloud server) and perform cathexis learning, and provides cathexis learning using web browser-based ubcloud artificial intelligence in the non-face-to-face online learning.

Description

웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법{Cathexis learning system and method using AI in an untact learning based on Web browser}{Cathexis learning system and method using AI in an untact learning based on Web browser}

본 발명은 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것으로, 보다 상세하게는 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도를 인식하는 안면 인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 소리와 메시징 기술을 사용하여 주의 집중 학습하도록 해당 사용자 단말로 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습(ubcloud)에서 인공지능을 사용한 주의집중 학습 시스템 및 방법에 관한 것이다.The present invention relates to an attentional learning system and method using artificial intelligence in non-face-to-face learning (ubcloud), and more particularly, in online lecture non-face-to-face learning, an educational content viewer of a user terminal is a media playback unit and a facial contour recognition unit module. , and five facial feature points of eyes 2/nose/ear 2 so that attention is focused on the learning content focused on the front camera of the user terminal linked to the learning content server (ubcloud server). Through face recognition that recognizes the scale, when the gaze is deviating at a certain angle, or when the distance in the corresponding direction of the eye-to-ear distance or the nose-to-ear distance exceeds a certain standard value, the user uses sound and messaging technology to focus attention and learn. System and method for attention learning using artificial intelligence in web browser-based non-face-to-face learning (ubcloud) that generates alarm/warning messages to terminals and provides attention-focused learning using web browser-based ubcloud artificial intelligence in non-face-to-face learning It is about.

얼굴 인식(Face Recognition) 기술은 형상 기반 매칭 방법(appearance based matching method), 및 특징(faeture) 기반의 얼굴 인식이 주로 사용된다. 얼굴 인식은 카메라의 촬영 각도, 조명의 방향, 자세(pose), 표정의 변화 및 시간에 따른 얼굴의 변화에 따라 다르게 인식된다.As face recognition technology, an appearance based matching method and feature based face recognition are mainly used. Face recognition is differently recognized according to a photographing angle of a camera, a direction of lighting, a pose, a change in expression, and a change in face over time.

특징(faeture) 기반의 얼굴 인식은 디지털 카메라, IoT 디바이스의 카메라 또는 스마트폰의 카메라로 촬영된 영상 데이터를 Haar-like feature를 이용한 검출 방법과 MCT(Modified Census Transform) 영상을 이용한 검출 방법이 사용된다. 스마트폰의 카메라의 입력 영상에서 Haar-like feature로 학습된 얼굴 및 눈 검출기를 사용하여 얼굴의 윤곽선과 이마/눈/코/입을 검출하고, 원형의 눈동자를 검출하기 위해 관심 영역(ROI, Region of Interest)으로 설정된 눈 영역을 grayscale로 변환하며, 눈 영역에서 눈동자와 눈의 외곽선 영역이 추출되는 실험에 의한 통계적인 임계값(threshold)을 사용하여 눈 이미지의 histogram[x축 각 픽셀의 화소값, y축 해당 화소 값의 갯수]을 구하고 눈의 이미지를 이진화(binarization)한 후, 히스토그램 평활화(histogram equalization)를 통해 눈 영역의 사진의 전처리를 수행하며, 얼굴 영역에서 윤곽선과 눈썹과 눈, 코, 입의 얼굴 특징 얼굴데이터를 검출하고, 텍스처 특징(texture faetures)과 형상 특징(shape features)을 추출하여 얼굴 인식 DB에 저장된 얼굴 사진의 특징점들과 유사도를 비교하여 얼굴이 인식된다.For feature-based face recognition, a detection method using Haar-like features and a detection method using MCT (Modified Census Transform) images are used for image data captured by a digital camera, IoT device camera, or smartphone camera. . Using the face and eye detectors learned as Haar-like features from the input image of the smartphone camera, the contours of the face and the forehead/eyes/nose/mouth are detected, and the region of interest (ROI, Region of Interest) is detected to detect the circular pupil. The eye area set as Interest) is converted to grayscale, and the histogram of the eye image [pixel value of each pixel in the x-axis, The number of pixel values corresponding to the y-axis] is obtained, and after binarization of the eye image, pre-processing of the eye area photo is performed through histogram equalization, and contours, eyebrows, eyes, nose, The facial features of the mouth are detected by face data, texture features and shape features are extracted, and the face is recognized by comparing the similarity with the feature points of the face photos stored in the face recognition DB.

얼굴 영역의 눈썹과 눈, 코, 입, 턱의 특징 값은 Haar-like feature의 흰 영역에서 포함되는 픽셀들의 합에서 검은 영역에서 포함되는 픽셀의 합의 차로 표현된다. The feature values of the eyebrows, eyes, nose, mouth, and chin of the face area are expressed as the difference between the sum of pixels included in the white area of the Haar-like feature and the sum of pixels included in the black area.

예를들면, 가로와 세로 표준 크기의 얼굴 영역 사진에서 검출된 눈 영역에서 오른쪽과 왼쪽 눈의 양쪽 끝점 까지의 거리, 허프 원 변환(hough circle transform) 알고리즘을 사용하여 추출된 눈동자(iris)의 크기 값이 특징 값으로 사용된다.For example, the distance from the eye area detected in a standard horizontal and vertical face area picture to the endpoints of the right and left eyes, the size of the iris extracted using a hough circle transform algorithm value is used as the feature value.

도 1a는 기존 얼굴 인식 장치의 구성도이다. 1A is a configuration diagram of an existing face recognition device.

얼굴 인식 장치(100)는 영상 표시 장치, 영상 촬영 장치, 얼굴 인식 서버, 태블릿 PC, 랩톱(Laptop), 개인용 PC, 스마트폰, 개인 휴대용 정보단말기(Personal Digital Assistant, PDA), 이동통신 단말기, 및 지능형 로봇(Intelligence Robot) 등 중 어느 하나일 수 있다.The face recognition device 100 includes an image display device, an image recording device, a face recognition server, a tablet PC, a laptop (Laptop), a personal PC, a smartphone, a personal digital assistant (PDA), a mobile communication terminal, and It may be any one of an intelligent robot and the like.

얼굴 인식 장치(100)는 카메라로부터 입력 영상을 획득하는 입력 영상 획득부(112); 상기 입력 영상에서 얼굴 영역을 검출하여 얼굴 포즈(Pose)를 정규화함으로써 정면포즈 영상을 생성하고, 상기 카메라와 피사체 간의 거리에 따른 원근왜곡(Perspective Distortion)을 제거하기 위하여 상기 정면포즈 영상의 원근감(Perspective)을 정규화하여 정규화 영상을 생성하는 정규화부(114); 상기 정규화 영상으로부터 상기 피사체의 얼굴을 표현하는 특징 벡터(Feature Vector)를 추출하는 특징 벡터 추출부(116); 및 기 학습된 분류 모델에 상기 특징 벡터를 적용하여 상기 입력 영상에 포함된 상기 피사체의 얼굴을 인식하는 얼굴인식부(118)를 포함한다.The face recognition apparatus 100 includes an input image acquisition unit 112 acquiring an input image from a camera; In order to generate a front pose image by detecting a face region in the input image and normalizing a face pose, and removing perspective distortion according to the distance between the camera and the subject, the perspective of the front pose image is measured. a normalization unit 114 for normalizing ) to generate a normalized image; a feature vector extractor 116 extracting a feature vector representing the subject's face from the normalized image; and a face recognition unit 118 recognizing the face of the subject included in the input image by applying the feature vector to a pre-learned classification model.

입력 영상 획득부(112)는 카메라로부터 입력 영상을 획득한다. 카메라는 깊이인식 카메라, 스테레오 카메라, 및 컬러 카메라일 수 있다(예를 들면, 키넥트(Kinect) 카메라 등). 또한, 입력 영상은 인식대상이 되는 피사체의 얼굴이 포함된 영상으로서 2차원 정지영상 및 동영상을 포함한다. 입력 영상은 컬러영상, 깊이영상, 및 컬러-깊이(RGB-D) 영상을 포함할 수 있다.The input image acquisition unit 112 acquires an input image from a camera. The camera may be a depth-sensing camera, a stereo camera, and a color camera (eg, a Kinect camera, etc.). In addition, the input image is an image including a face of a subject to be recognized, and includes a 2D still image and a moving image. The input image may include a color image, a depth image, and a color-depth (RGB-D) image.

정규화부(114)는 입력 영상으로부터 얼굴 영역을 검출하고, 얼굴 포즈(Pose) 및 원근감(Perspective)을 정규화하여 정규화 영상을 생성한다. 얼굴 포즈에 변화가 있는 경우, 그레이스케일, 형상, 얼굴의 특징점들의 위치 등이 달라지기 때문에 얼굴 인식률이 저하된다. 또한, 카메라와 피사체 간의 거리가 달라지면 동일한 피사체라 하더라도 촬영된 위치마다 원근 왜곡(Perspective Distortion, 뒤틀림)이 다르게 발생하므로, 다른 피사체를 촬영한 것처럼 보이기도 한다. 따라서, 얼굴인식률을 향상시키기 위해 입력 영상의 얼굴포즈 및 원근감을 정규화할 필요가 있다. The normalization unit 114 detects a face region from an input image and normalizes a face pose and perspective to generate a normalized image. When there is a change in the facial pose, the face recognition rate is degraded because the gray scale, shape, and positions of feature points of the face are changed. In addition, if the distance between the camera and the subject is different, perspective distortion (distortion) occurs differently for each photographed position even for the same subject, so it may seem as if a different subject has been photographed. Therefore, it is necessary to normalize the face pose and perspective of the input image in order to improve the face recognition rate.

정규화부(114)는, 다양한 포즈의 학습용 얼굴영상을 제1 인공신경망의 입력층에 입력하고, 정면포즈의 학습용 얼굴영상이 상기 제1 인공신경망의 출력층에서 출력되도록 상기 제1 인공신경망을 학습시키는 얼굴포즈 정규화 학습부; 및 상기 제1 인공신경망의 출력층에서 출력된 데이터를 제 2 인공신경망의 입력층에 입력하고, 원근왜곡이 없는 학습용 얼굴영상이 상기 제 2 인공신경망의 출력층에서 출력되도록 상기 제2 인공신경망을 학습시키는 원근감 정규화 학습부를 포함한다. The normalization unit 114 inputs face images for learning in various poses to the input layer of the first artificial neural network, and trains the first artificial neural network so that face images for learning in front poses are output from the output layer of the first artificial neural network. face pose normalization learning unit; And inputting the data output from the output layer of the first artificial neural network to the input layer of the second artificial neural network, and learning the second artificial neural network so that a face image for learning without perspective distortion is output from the output layer of the second artificial neural network. Includes a perspective normalization learning unit.

상기 정규화부는, 학습이 완료된 상기 제1 인공신경망과 상기 제2 인공신경망을 통합한 통합 인공신경망의 입력층에 다양한 원근 왜곡이 있는 다양한 포즈의 학습용 얼굴영상을 입력하고, 정면 포즈의 원근 왜곡이 없는 학습용 얼굴영상이 상기통합 인공신경망의 출력층에서 출력되도록 상기 통합 인공신경망을 학습시킨다. The normalization unit inputs face images for learning in various poses with various perspective distortions to the input layer of the integrated artificial neural network in which the first artificial neural network and the second artificial neural network are integrated, and the front pose is free from perspective distortion. The integrated artificial neural network is trained so that a facial image for learning is output from an output layer of the integrated artificial neural network.

특징 벡터 추출부(116)는 기계 학습(Machine Learning)에 의해 결정되며, 정규화 영상으로부터 피사체의 얼굴을 표현하는 특징 벡터(Feature Vector)를 추출한다.The feature vector extractor 116 is determined by machine learning and extracts a feature vector representing a face of a subject from a normalized image.

특징 벡터는 얼굴인식에 사용되는 특징값들을 원소로 가지는 벡터이다. 특징벡터를 추출하는데 사용되는 필터로써 Gabor 필터, Haar 필터, LBP(Local Binary Pattern) - DLBP(Discriminative LBP), ULBP(Uniform LBP), NLBP(Number LBP) 등을 포함 - 등이 있으나, 반드시 이에 한정되지 않으며 그 밖의 다른 필터가 사용될 수 있다.A feature vector is a vector having feature values used for face recognition as elements. Filters used to extract feature vectors include Gabor filter, Haar filter, LBP (Local Binary Pattern) - including DLBP (Discriminative LBP), ULBP (Uniform LBP), NLBP (Number LBP), etc. - but must be limited to these and other filters may be used.

얼굴 인식부(118)는 기 학습된 분류 모델에 의해 특징 벡터 추출부(116)에서 추출된 특징 벡터를 적용하여 입력 영상에 포함된 피사체의 얼굴을 인식한다. 기 학습된 분류 모델은 서포트 벡터 머신(Support Vector Machine, SVM), 선형 판별 분석(Linear Discriminant Analysis, LDA), 및 Softmax 등을 포함할 수 있으나, 반드시 이에 한정되지 않는다.The face recognition unit 118 recognizes the face of a subject included in the input image by applying the feature vector extracted by the feature vector extraction unit 116 based on the pre-learned classification model. The pre-learned classification model may include, but is not necessarily limited to, a Support Vector Machine (SVM), a Linear Discriminant Analysis (LDA), and Softmax.

가상 얼굴영상 생성부(124)는 정규화부(114), 특징 벡터 추출부(116), 및 얼굴 인식부(118)가 학습하는데 사용되는 복수의 가상 얼굴영상을 생성할 수 있다.The virtual face image generation unit 124 may generate a plurality of virtual face images used for learning by the normalization unit 114 , the feature vector extraction unit 116 , and the face recognition unit 118 .

복수의 가상 얼굴 영상은 가상 얼굴 영상 생성부(124)가 카메라로부터 획득된 하나 이상의 2차원 기준 영상을 이용하여 합성한 3차원 얼굴모델을 변형시킴으로써 생성되는 얼굴 영상을 의미한다.The plurality of virtual face images refer to face images generated by transforming a 3D face model synthesized by the virtual face image generator 124 using one or more 2D reference images obtained from a camera.

이와 관련된 선행기술1로써, 특허 등록번호 10-2103521에서는 “인공지능 심층학습 기반의 영상물 인식 시스템 및 방법“이 등록되어 있다. As prior art 1 related to this, Patent Registration No. 10-2103521 has registered “a video object recognition system and method based on artificial intelligence deep learning”.

도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다. 인공지능의 심층학습(Deep Learning)으로 다양한 이미지를 사전 학습하고, 상기 사전 학습 결과를 반영하여 유통되는 영상물에 대해 프레임 단위로 이미지를 분석하고, 경우에 따라 영상물의 음성 정보도 함께 분석하여 시간순으로 키워드를 도출해 낸 후 사전에 축적되어 있던 영상물 대본의 시계열적 키워드와 비교하는 방식의 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법을 제공한다. 1B is a block diagram of a conventional video object recognition system based on artificial intelligence deep learning. Various images are pre-learned through deep learning of artificial intelligence, and images are analyzed frame-by-frame for distributed video products by reflecting the above-mentioned pre-learning results, and in some cases, audio information of video materials is also analyzed in chronological order. After deriving keywords, we provide a video recognition system and method based on artificial intelligence deep learning that compares them with the keywords accumulated in advance with the time-series keywords of video scripts.

인공지능에 의해 구현되는 시스템은, 다수의 오브젝트 이미지를 키워드로 심층학습(DeepLearning)하는 데이터셋 학습부; 영상물 대본에서 키워드를 추출하여 시계열적으로 나열, 저장하는 DB부; 영상물을 프레임 단위 이미지 분석을 통해, 이미지 상의 오브젝트들과 오브젝트 간의 관계를 키워드로 추출하여 시계열적으로 나열하는 영상물 분석부; 및 상기 DB부와 영상물 분석부의 키워드를 비교하여 유사성을 판단하는 비교판단부를 포함한다. A system implemented by artificial intelligence includes a dataset learning unit for deep learning using a plurality of object images as keywords; a DB unit for extracting keywords from video scripts, chronologically arranging them, and storing them; a video object analysis unit that extracts objects on the image and the relationship between the objects as keywords through frame-by-frame image analysis of the video object, and sequentially arranges them; and a comparison determination unit that compares keywords of the DB unit and the video analysis unit to determine similarity.

그러나, 기존의 이러닝 또는 유러닝 시스템은 단순히 온라인 학습 콘텐츠를 제공하였으며, 얼굴 인식 기술과 소리와 메시징 기술을 사용하여 학습자의 부주의하게 얼굴 시선이 이탈하면 해당 사용자 단말로 알람을 발생하고 주의집중 학습이 되도록 하는 기능을 제공하지 않았다. However, existing e-learning or U-learning systems simply provided online learning content, and when learners carelessly lose their gaze by using face recognition technology and sound and messaging technology, an alarm is generated to the user terminal and attention learning is performed. It didn't provide a function to do so.

특허 등록번호 10-2103521 (등록일자 2020년 04월 16일), " 인공지능 심층학습 기반의 영상물 인식 시스템 및 방법", 상명대학교 산학협력단Patent Registration No. 10-2103521 (Registration Date: April 16, 2020), "Video object recognition system and method based on artificial intelligence deep learning", Sangmyung University Industry-University Cooperation Foundation

상기 문제점을 해결하기 위한 본 발명의 목적은 온라인 강의 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 학습 콘텐츠에 시선을 바로보고 비대면 온라인 강의 학습 콘텐츠를 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 안면 인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 소리와 메시징 기술을 사용하여 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템을 제공한다. An object of the present invention to solve the above problem is that in online lecture non-face-to-face learning, the educational content viewer of the user terminal has a media playback unit and a facial contour recognizing unit module, and the user terminal linked to the learning content server (ubcloud server). Directly look at the learning content focused on the front camera and comb the gaze at a certain angle through face recognition on a 5-point scale of face outline and eye 2/nose/ear 2 facial feature points so that non-face-to-face online lecture learning content can be focused. When going out, or when the eye-to-ear distance or nose-to-ear distance exceeds a certain standard value, an alarm/warning message is generated using sound and messaging technology, and in non-face-to-face learning, using ubcloud artificial intelligence based on a web browser Provides an attention learning system using artificial intelligence in non-face-to-face learning based on a web browser that provides attention learning.

본 발명의 다른 목적은 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 방법을 제공한다.Another object of the present invention is to provide an attention learning method using artificial intelligence in web browser-based non-face-to-face learning.

본 발명의 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템은 비대면 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버; 및 상기 학습 콘텐츠 서버에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 학습에서 사용자 단말의 정면 카메라 영상 데이터의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하는 안면인식 모듈과 음성 인식 모듈을 구비하며, AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말을 포함하고, In order to achieve the object of the present invention, an attention learning system using artificial intelligence in web browser-based non-face-to-face learning includes a learning content server providing non-face-to-face lecture learning content; And accessing the learning content server through a wired/wireless communication network to drive an educational content viewer program, recognizing the contours of the face of the front camera image data of the user terminal and the facial feature points of the eyes 2 / nose / ears 2 in non-face-to-face learning It has a face recognition module and a voice recognition module, and includes a user terminal with an educational content viewer installed so that artificial intelligence attention-focused learning of learning content using AI face recognition / motion recognition sound reproduction technology is installed,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,

상기 학습 콘텐츠 서버 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생한다. The learning content server or the user terminal analyzes the eye2/nose/ear2 face feature points of the online learner's face image detected by the camera in the user terminal of each learner, and when the gaze is off at a certain angle or the eye-ear distance If the distance in the corresponding direction of the nose-to-ear distance exceeds a certain standard value, a warning message or an alarm is generated to the corresponding user terminal so that artificial intelligence attention-focused learning occurs.

본 발명의 다른 목적을 달성하기 위해, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법은 (a) 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버로 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer 프로그램과 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 학습 콘텐츠 서버 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함한다.In order to achieve another object of the present invention, the attention learning method in web browser-based non-face-to-face learning includes: (a) registering and storing learner information and a standard-sized frontal face picture in a learning content server; (b) issuing, by the learning content server, a QR code corresponding to user information and a front face picture; (c) In a user terminal equipped with an educational content viewer program and a face recognition module, the recognition result of the front face photo of the camera is received by the learning content server using the front face recognition algorithm of the front camera image, and the previously registered learner information and comparing the photograph and its facial features to confirm whether the learner is himself or not; (d) providing learning content from the learning content server to a user terminal of a pre-registered member; and (e) when the learning content server or the user terminal analyzes eye2/nose/ear2 face feature points of the online learner's face image detected by the camera in each learner's user terminal, and the line of sight deviates at a certain angle; or and generating a warning message or an alarm to a corresponding user terminal so that artificial intelligence attention-focused learning is performed when the eye-to-ear distance or nose-to-ear distance in the corresponding direction exceeds a predetermined reference value.

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 특징점 안면 인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 소리와 메시징 기술을 사용하여 알람/경고 메시지를 발생하며, 비대면 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공하는 효과가 있다. In the web browser-based non-face-to-face learning system and method of the present invention, in the non-face-to-face learning, the educational content viewer of the user terminal is provided with a media playback unit and a facial contour recognition module, and a learning content server ( ubcloud server) to direct the eyes to the non-face-to-face lecture learning contents focused on the front camera of the user terminal linked to the user terminal, and to provide attention-intensive education. If the line of sight deviates at an angle or if the eye-to-ear distance or the nose-to-ear distance exceeds a certain standard value, an alarm/warning message is generated using sound and messaging technology, and a web browser-based non-face-to-face learning There is an effect of providing attention-focused learning using ubcloud artificial intelligence.

도 1a는 기존 얼굴 인식 장치의 구성도이다.
도 1b는 종래의 인공지능 심층학습 기반의 영상물 인식 시스템의 구성도이다.
도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다.
도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.
도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다.
도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1.사용자 등록->2.학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7 UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다.
도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1) 응시자 등록, 2) 학습, 3) QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험 응시 - 프로세스를 보인 그림이다.
도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다.
도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다.
도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다.
도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다.
도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다.
도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다.
도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다.
1A is a configuration diagram of an existing face recognition device.
1B is a block diagram of a conventional video object recognition system based on artificial intelligence deep learning.
2a and 2b are implementation examples of an attention-focused learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.
3A is a diagram showing the concept of a facial contour recognition artificial intelligence platform having a tablet PC, a smart phone, and a PC-based learning content server during online learning.
3B is a diagram showing a face recognition function on the ubiquitous-based NSDAI platform.
3c and 3d show the goals and User Experience (1. User registration -> 2. Learning -> 3. QR Code generation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7 UBT App/Web camera facial contour recognition 8. End of test) It is a picture.
4 shows the process from learner/test taker registration to test taker registration, 1) test taker registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (applicant face/test taker information), 6) Taking the test - This is a picture showing the process.
5 is a screen for registering/learning/QR code issuing a candidate-face matching code issuing unit-at the time of an online test/UBT test based on machine learning and learning results of a registered candidate's face.
6 is a test taker identification unit screen in the UBT system that measures the distance and similarity of facial feature points of a standard-sized frontal face picture based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.
7 is a rule user definition unit and a program test screen when determining a learner.
8 is a learning content server access/login/left-QR code recognition/recognition of QR code during non-face-to-face online learning (TTS)/right-face recognition (smartphone/tablet PC front camera)/face in the background This is the demonstration screen including the process of starting area recognition/recognition rate display - the UBT authentication process user definition part using the generated user code.
9 is a block diagram of an attentional learning system using artificial intelligence in tablet PC, smartphone, and PC-based web browser-based non-face-to-face learning using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.
10 is a diagram explaining the functions of an AI-based facial contour recognition module during online learning and testing.
11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 발명의 구성 및 동작을 상세하게 설명한다. 본 발명의 설명에 있어서 관련된 공지의 기술 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 자세한 설명을 생략한다. 또한, 첨부된 도면 번호는 동일한 구성을 표기할 때에 다른 도면에서 동일한 도면 번호를 부여한다. Hereinafter, the configuration and operation of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In the description of the present invention, if it is determined that a detailed description of a related known technology or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description will be omitted. In addition, the attached drawing numbers refer to the same drawing numbers in other drawings when indicating the same configuration.

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 안면 인식을 통해 사용자 단말에서 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람 또는 경고 메시지를 발생하며, 비대면 온라인 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공한다. In the web browser-based non-face-to-face learning system and method of the present invention, an attention-focused learning system and method using artificial intelligence in non-face-to-face online learning includes an educational content viewer of a user terminal equipped with a media playback unit and a facial contour recognition module, and a learning content server. Through facial recognition on a 5-point scale, facial contours and eye 2/nose/ear 2 facial feature points allow direct attention to the non-face-to-face lecture learning content focused on the front camera of the user terminal linked to the (ubcloud server). If the user's gaze is diverted from the user's terminal at a certain angle, an alarm or warning message is generated to the user's terminal using sound and messaging technology, and attentional learning using web browser-based ubcloud artificial intelligence is provided in non-face-to-face online learning.

* 안면 특징점 및 윤곽선 인식 기술 동일(ubcloud)* Same facial features and contour recognition technology (ubcloud)

* 학습 콘텐츠 서버와 시험 시버 기능 추가됨 * Added learning content server and exam server function

* 브라우저 기반 온라인(학습데이터 바탕 온라인에서 읽어오고 온라인에 저장)/오프라인(라이브러리 브라우저 내장과 웹페이지에 내장하고 인식 데이터를 사용자 기기에 저장)을 모두 활용 가능.* Browser-based online (learning data is read online and stored online)/offline (library browser built-in and web page built-in, and recognition data is stored on the user's device) can be used.

* 소리와 메시징을 활용하여 주의집중 학습* Attention learning using sound and messaging

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 온라인 학습 시에, 사용자 단말(태블릿 PC, 스마트폰, PC)은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되고, AI 안면인식/동작인식/소리와 메시징 기술을 사용하여 사용자 단말의 정면 카메라를 사용한 AI 기반 안면 인식(posenet 알고리즘, machine learning model which allows for real-time face pose estimation) 기술을 사용하는 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 특징점들을 인식하는 안면인식 모듈이 탑재되며, 얼굴 인식 시에 응시자 단말의 정면 카메라(C)를 사용하여 촬영된 얼굴 사진을 학습 콘텐츠 서버의 얼굴 사진 DB의 학습자 얼굴 사진의 특징점들과 비교하여 학습자의 출석 여부를 검출하고, 비대면 온라인 학습에서, 사용자 단말의 정면 카메라 영상 데이터를 사용하여 실시간으로 AI 기반 안면을 인식하여 학습자의 영상의 얼굴의 행동 패턴을 검출하여 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 안면 인식을 통해 일정 각도로 시선이 빗나갈 경우 또는 눈과 귀의 거리, 코/와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 해당 사용자 단말로 알람/경고 메시지를 발생하며, 소리와 메시징 기술을 사용하여 학습자가 주의 집중학습 되도록 한다. The attention learning system and method using artificial intelligence in web browser-based non-face-to-face learning of the present invention is an educational content viewer in which a user terminal (tablet PC, smartphone, PC) is linked with a learning content server during non-face-to-face online learning. is installed, using AI face recognition / motion recognition / sound and messaging technology, using AI-based face recognition (posenet algorithm, machine learning model which allows for real-time face pose estimation) technology using the front camera of the user terminal A face recognition module is installed that recognizes the contours of the face and the feature points of the eyes 2/nose/ear 2 on a 5-point scale. When recognizing a face, it learns a face picture taken using the front camera (C) of the test taker terminal. Comparing the feature points of the learner's face photo in the face photo DB of the content server to detect whether or not the learner is present, and in non-face-to-face online learning, AI-based face recognition is performed in real time using the front camera image data of the user terminal to recognize the learner's By detecting the behavioral pattern of the face in the video, the user terminal's front camera linked to the learning content server (ubcloud server) focuses on the non-face-to-face lecture learning content to directly look at the eyes and focus on the outline of the face and eyes 2/nose/ Ear 2 facial feature point 5-point scale If the line of sight deviates at a certain angle through face recognition, or if the eye-to-ear distance or the nose/to-ear distance in the corresponding direction exceeds a certain standard value, an alarm/warning message is sent to the user terminal. and uses sound and messaging technology to enable learners to focus their attention.

사용자 단말은 학습 콘텐츠 서버로부터 유무선 통신망을 통해 온라인 학습 콘텐츠를 제공받는 스마트폰, 태블릿 PC 뿐만 아니라, 인터넷 접속이 가능한 노트북을 포함한다. User terminals include not only smart phones and tablet PCs that receive online learning contents from the learning contents server through wired/wireless communication networks, but also laptops capable of accessing the Internet.

사용자 단말은 학습 콘텐츠 서버와 연동되는 교육 콘텐츠 viewer가 설치되며, AI 안면인식/동작인식/소리와 메시징 기술을 사용하여 학습자 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 특징점들을 인식하는 안면인식 모듈을 구비한다.The user terminal is installed with an educational content viewer linked to the learning content server, and using AI face recognition/motion recognition/sound and messaging technology, the outline of the learner's face and the facial feature points of eyes 2/nose/ear 2 5-point scale feature points It has a face recognition module that recognizes them.

도 2a, 2b는 비대면 온라인 학습에서 웹 브라우저 기반 ubcloud 인공지능을 사용한 주의 집중 학습 시스템의 구현 예이다. 2a and 2b are implementation examples of an attention-focused learning system using web browser-based ubcloud artificial intelligence in non-face-to-face online learning.

도 3a는 온라인 학습 시에, 태블릿 PC, 스마트폰, PC 기반 학습 콘텐츠 서버를 구비하는 안면윤곽선 인식 인공지능 플랫폼 개념을 보인 도면이다.3A is a diagram showing the concept of a facial contour recognition artificial intelligence platform having a tablet PC, a smart phone, and a PC-based learning content server during online learning.

도 3b는 유비쿼터스 기반 NSDAI 플랫폼 상의 얼굴 인식 기능을 보인 도면이다. 3B is a diagram showing a face recognition function on the ubiquitous-based NSDAI platform.

도 3c, 3d는 비대면 온라인 학습과 시험 시에 태블릿 PC, 스마트폰, PC에서 사용하는 UBI cloud App, NS facere platform의 목표와 User Experience(1. 사용자 등록->2. 학습-> 3. QR 코드 생성 -> 4. UBT App/Web 로그인(QR code/passwd, ID/passwd) -> 5. 감독자 확인과 시험-> 6.7. UBT App/Web 카메라의 얼굴의 안면윤곽선 인식 8. 시험 종료)를 보인 그림이다. 3c and 3d show the goals and User Experience (1. User registration -> 2. Learning -> 3. QR Code generation -> 4. UBT App/Web login (QR code/passwd, ID/passwd) -> 5. Supervisor confirmation and test -> 6.7. Facial contour recognition of face by UBT App/Web camera 8. End of test) this is the picture shown

도 4는 학습자/시험 응시자 등록부터 시험 응시부의 과정, 1) 응시자 등록, 2) 학습, 3) QR 코드 발급, 4) QR 코드 및 얼굴 인식, 5) 감독관 확인(응사자 얼굴/응시자 정보), 6) 시험 응시 - 프로세스를 보인 그림이다. 4 shows the process from learner/test taker registration to test taker registration, 1) test taker registration, 2) learning, 3) QR code issuance, 4) QR code and face recognition, 5) supervisor confirmation (applicant face/test taker information), 6) Taking the test - This is a picture showing the process.

도 5는 등록된 응시자 얼굴 기계학습 및 학습 결과를 바탕으로 응시자-얼굴 매칭 코드 발급부 - 온라인 시험/UBT 시험시에 응시자 등록/학습/QR 코드 발급 화면이다. 5 is a screen for registering/learning/QR code issuing a candidate-face matching code issuing unit-at the time of an online test/UBT test based on machine learning and learning results of a registered candidate's face.

도 6은 시험 응시자 얼굴의 AI 기반 안면윤곽선 인식을 통해 코의 정점을 기준으로 표준 크기의 정면 얼굴 사진의 얼굴 특징점들의 거리와 유사도(similarity)를 측정한 UBT 시스템에서 응시자 확인부 화면이다. 6 is a test taker identification unit screen in the UBT system that measures the distance and similarity of facial feature points of a standard-sized frontal face picture based on the vertex of the nose through AI-based facial contour recognition of the test taker's face.

도 7은 학습자 판정시 규칙 사용자 정의부, 프로그램 테스트 화면이다. 7 is a rule user definition unit and a program test screen when determining a learner.

도 8은 비대면 온라인 학습시에 학습 콘텐츠 서버 접속/로그인/왼쪽- QR 코드 인식/QR 코드 인식 시에 인사말 들림(TTS)/오른쪽-얼굴 인식(스마트폰/태블릿PC 전면 카메라)/배경에서 얼굴 영역 인식 시작/인식율 표시 과정을 포함하는 시연 화면 - 생성된 사용자 코드 활용 UBT 인증 프로세스 사용자 정의부 -이다. 8 is a learning content server access/login/left-QR code recognition/recognition of QR code during non-face-to-face online learning (TTS)/right-face recognition (smartphone/tablet PC front camera)/face in the background This is the demonstration screen including the process of starting area recognition/recognition rate display - the UBT authentication process user definition part using the generated user code.

(1) 사용자 단말은 교육 콘텐츠 viewer가 설치되고, 교육 콘텐츠 viewer는 인공지능 안면인식을 사용하여 학습자 얼굴 영상의 윤곽선과 눈2/코/귀2의 얼굴 특징점들을 인식하는 5점 척도 얼굴특징점 안면인식 모듈이 탑재되었다. (1) The educational content viewer is installed on the user terminal, and the educational content viewer uses artificial intelligence facial recognition to recognize the outline of the learner's face image and the facial feature points of eyes 2/nose/ear 2 on a 5-point scale Facial recognition module has been installed.

온라인 학습과 시험을 위한 인식 코드로써 QR 코드를 사용하였다. QR codes were used as recognition codes for online learning and testing.

실시예에서는, 사용자 단말은 태블릿 PC와 QR 코드를 사용하였다. In the embodiment, the user terminal used a tablet PC and a QR code.

학습자/시험응시자의 등록 사진을 학습한 인공지능이 사용자별 인식코드(QR 코드)를 생성하고, 응시자는 해당 인식코드(QR 코드)가 부착된 응시표를 시험장 PC 또는 태블릿 PC의 카메라에 비춘 후, 사용자 인식한 AI가 해당 응시자 정보와 정면 얼굴 사진(코를 정점으로 한 표준 크기의 정면 얼굴 사진)을 학습 콘텐츠 서버의 얼굴 DB의 기 등록된 학습자/응시자 정보와 표준 크기의 정면 얼굴 사진을 미리 학습한 결과 모델을 비교하고, 얼굴의 특징점들의 거리와 유사도(similarity)를 계산하여 그 거리가 일정 수치가 넘으면 본인으로 인식하고, 학습 화면으로 이동, 학습자가 비대면 온라인 학습하게 된다. 얼굴의 특징점들의 유사도가 일정 수치 미달인 경우(완전 미달, 판정 보류)의 경우, 서버에 연동된 감독관 단말에 정보를 전달하여 감독관이 실제 얼굴 확인과 개인 정보 확인을 거쳐 온라인 학습을 실시한다. The artificial intelligence learning the registration photo of the learner/test taker generates a user-specific recognition code (QR code), and the test taker holds the examination ticket with the corresponding recognition code (QR code) attached to the camera of the test site PC or tablet PC, The user-recognized AI learns the candidate information and front face photo (standard-size front face photo with the nose as the vertex) in advance learning the learner/applicant information registered in the face DB of the content server and the standard-size front face photo. As a result, the model is compared, and the distance and similarity of the feature points of the face are calculated, and when the distance exceeds a certain value, it is recognized as the person, moves to the learning screen, and the learner learns non-face-to-face online. In case the similarity of the facial feature points does not reach a certain level (completely insufficient, pending judgment), the information is transmitted to the supervisor terminal linked to the server, and the supervisor conducts online learning after confirming the actual face and personal information.

<시스템 구성><System configuration>

1) 비대면 온라인 학습 : 응시자 단말(PC/스마트폰/태블릿) 사용자 프로그램 -> 유무선 통신망(WAN, LTE 4G/5G) 및 내부망(LAN, Wi-Fi 통신부) -> 학습 콘텐츠 서버(학습 커리큘럼 정보/학습자 정보)로 각 사용자 단말의 얼굴사진과 학습자 정보를 전송하여 감독관 단말이 학습 참여 여부를 결정한다. 1) Non-face-to-face online learning: test taker terminal (PC/smartphone/tablet) user program -> wired/wireless communication network (WAN, LTE 4G/5G) and internal network (LAN, Wi-Fi communication department) -> learning content server (learning curriculum information/learner information), the supervisor terminal determines whether or not to participate in learning by transmitting the face picture and learner information of each user terminal.

2) 오프라인 활용시 : 사용자 프로그램 (PC/스마트폰/태블릿 PC)에 인공지능 안면인식 모듈 탑재, 자체적으로 응시자 얼굴의 안면윤곽선 인식 후, 최종 얼굴 안면인식 결과만 학습 콘텐츠 서버로 전송한다. 2) When using offline: The AI face recognition module is installed in the user program (PC/Smartphone/Tablet PC), and only the final facial recognition result is transmitted to the learning content server after recognizing the facial contour of the candidate's face.

<학습자 단말의 앱 프로토타입 일부 APK - 안드로이드용 첨부><Partial APK of the app prototype of the learner's device - Attachment for Android>

https://we.tl/t-wFdXexsors 파일 다운로드 암호: nsdevil https://we.tl/t-wFdXexsors File Download Password: nsdevil

안드로이드 스마트폰 또는 태블릿 PC에 앱(App)을 설치Install the app on your Android smartphone or tablet PC

<웹 버전 기능 주소><web version function address>

1) 안면인식 모듈 : https://facere.nsdai.org  (id: nsdevil, passwd: nsdevil)  > QR 코드를 스마트폰으로 찍어 PC 카메라에 인식 화면에 대면 동작됨.1) Face Recognition Module: https://facere.nsdai.org (id: nsdevil, passwd: nsdevil) > Take a picture of the QR code with your smartphone and place it on the recognition screen on the PC camera to activate.

2) 얼굴윤곽선의 5점 척도 안면윤곽선 인식 모듈 : https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil), 학습자 얼굴의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴 특징점 안면인식2) 5-point facial contour recognition module: https://headpos.ublrandd.com.np (id: nsdevil, passwd: nsdevil), 5-point scale of the outline of the learner's face and eyes 2/nose/ear 2 facial features facial recognition

3) 음성 인식 모듈 3) Voice recognition module

음성인식(Speech Recognition)은 man-machine 인터페이스 기술로써, 마이크로 입력된 음향 신호(Acoustic speech signal)에 대하여 잡음을 제거하고, 음성 신호의 특징을 추출하여 단어의 집합 또는 문장의 텍스트로 변환하는(mapping) 과정이며, 마이크-> AMP -> LPF -> ADC -> 음성 데이터베이스에 저장된다. Speech Recognition is a man-machine interface technology that removes noise from an acoustic speech signal input by a microphone, extracts features of the speech signal, and converts it into a set of words or text of a sentence (mapping). ) process, microphone -> AMP -> LPF -> ADC -> saved in the voice database.

음성인식 모듈은 벡터 양자화(Vector Quantization)를 이용하는 방법, 동적 시간 정합(Dynamic Time Warping, DTW)을 이용하는 방법, 신경회로망(Neural Network)을 이용하는 방법, HMM(Hidden Markov Model, 은닉 마르코프 모델)을 이용하는 방법이 사용된다. 음성 인식 모듈은 하드웨어와 소프트웨어가 모듈화된 음성인식기와 STT(Speech To Text) 기술의 음성인식 API를 사용하였다. The speech recognition module uses a method using vector quantization, a method using dynamic time warping (DTW), a method using a neural network, and a method using HMM (Hidden Markov Model). method is used The voice recognition module uses a voice recognition module of hardware and software and a voice recognition API of STT (Speech To Text) technology.

도 9는 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 구성도이다. 9 is a block diagram of an attentional learning system using artificial intelligence in tablet PC, smartphone, and PC-based web browser-based non-face-to-face learning using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

도 10은 온라인 학습과 시험시에, AI 기반 안면윤곽선 인식 모듈의 기능을 설명한 도면이다. 10 is a diagram explaining the functions of an AI-based facial contour recognition module during online learning and testing.

시험관리부를 구비하는 학습 콘텐츠 서버(100)는 WWW 서버(101), 제어부(102), 회원 등록부(103), 사용자 인증부(104), 학습 콘텐츠 제공부(105), QR 코드 관리부(106), 감독자 확인부, 얼굴 인식부(107), 시험 관리부(109), 시험 정보DB(120), 응시자DB(121), 및 얼굴사진 DB(123)를 포함한다. The learning content server 100 having a test management unit includes a WWW server 101, a control unit 102, a member registration unit 103, a user authentication unit 104, a learning content providing unit 105, a QR code management unit 106 , supervisor identification unit, face recognition unit 107, examination management unit 109, examination information DB 120, candidate DB 121, and face photo DB 123.

본 발명의 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템은 In the web browser-based non-face-to-face learning of the present invention, the attention learning system

저작 도구(authoring tool)에 의해 저작된 비대면 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버(100); 및 A learning content server 100 that provides non-face-to-face lecture learning content authored by an authoring tool; and

상기 학습 콘텐츠 서버(100)에 유무선 통신망을 통해 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈과 음성 인식 모듈을 구비하며, AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말(300,310,311)을 포함하고,The learning content server 100 is accessed through a wired/wireless communication network to drive an educational content viewer program, and in non-face-to-face online learning, the facial contours and eye 2/nose/ear 2 face feature points of the front camera image data of the user terminal are displayed. It includes a user terminal (300, 310, 311) equipped with an educational content viewer so that artificial intelligence attention-focused learning of learning content using AI face recognition / motion recognition sound reproduction technology is provided,

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,

상기 학습 콘텐츠 서버 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생한다. The learning content server or the user terminal analyzes the eye2/nose/ear2 face feature points of the online learner's face image detected by the camera in the user terminal of each learner, and when the gaze is off at a certain angle or the eye-ear distance If the distance in the corresponding direction of the nose-to-ear distance exceeds a certain standard value, a warning message or an alarm is generated to the corresponding user terminal so that artificial intelligence attention-focused learning occurs.

비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server 100.

비대면 온라인 학습에서, 시간과 장소에 상관없이, 온라인 학습 시에 학습 콘텐츠 서버(100)를 통해 강사 단말은 학습자 단말로 제공된 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공한다.In non-face-to-face online learning, regardless of time and place, through the learning content server 100 during online learning, the instructor terminal underlines or texts the online learning memo space (shared workspace) of the educational content viewer provided to the learner terminal Sending/receiving files with report/learning files attached to the instructor's terminal (supervisor's terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings, and sending/receiving notes. to provide.

비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 동시에 복수의 학습자 단말들로 서버를 통해 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모를 쓰고 표시된다. In non-face-to-face online learning, during non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a 1:N method through the learning content server 100 to a plurality of learner terminals at the same time. Text/graphic notes/notes are written and displayed in the shared workspace.

상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function of recognizing a QR code as a recognition code when using a smartphone.

상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버(100)로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server 100 is installed, and the educational content viewer is VOD media. A chat screen with the player is provided.

상기 사용자 단말은 The user terminal

비대면 온라인 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; A VOD media player that plays non-face-to-face online lecture learning content;

강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between the instructor and the learner; and

상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈; 및 a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and feature points of the eye2/nose/ear2 face; and

화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the screen deviates from the screen by more than a certain angle (in case the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value depending on whether the 3 eye/nose points get closer to the 2 ears at both ends), an alarm is sent to the user terminal or includes a learner's alarm generating unit that generates a warning message or outputs a warning message.

상기 사용자 단말의 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The face recognition module of the user terminal uses the posenet algorithm as an AI-based face contour recognition technology,

상기 안면인식 모듈은 비대면 온라인 학습 시에 표준 크기로 크기 보정/각도 보정/회전을 통해 변환된 표준 크기의 학습자의 정면 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력한다. The face recognition module uses a frontal face recognition algorithm to extract a face object and a face behavior pattern for a standard-sized frontal face photo of a learner converted through size correction/angle correction/rotation to a standard size during non-face-to-face online learning. to extract the outline of the learner's face and the feature points of the face of Eye 2/Nose/Ear 2, and the center point (pupil) of the left/right ear and the left/right eye of the feature points of the face of Eye 2/Nose/Ear 2, respectively. Calculate the Euclidean distance (d) and similarity with the face, compare with specific points of the user's face photo in the face photo DB to check whether there is a gaze deviation, 3 eyes/nose points, 2 ears at both ends Detects head movement to the right/left depending on how close it is to , detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when it is out of the screen by more than a certain angle (3 points on eyes/nose are positive If the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value depending on how close to the two end ears are, the angle at which the front face is turned left and right by recognizing the facial behavior pattern captured by the camera of the user terminal Since the distance between the right eye and the right ear and the distance between the left eye and the left ear are changed according to , an alarm is generated or a warning message is output to the corresponding user terminal.

상기 학습 콘텐츠 서버(100)는 The learning content server 100

WWW 서버(101); WWW server 101;

상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부(102); a control unit 102 controlling to provide online learning content to the user terminal;

상기 제어부(102)에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부(103); A member registration unit 103 connected to the control unit 102 and receiving registered member information and storing and managing ID/Passwd;

상기 제어부(102)에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부(104); A user authentication unit 104 that is connected to the control unit 102 and authenticates using a QR code/Passwd or ID/Passwd or a personal certificate;

상기 제어부(102)에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부(106); A QR code management unit 106 connected to the control unit 102 and issuing and managing a QR code corresponding to user information;

상기 제어부(102)에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부(105); a learning content provider 105 connected to the controller 102 and providing the online learning content to the user terminal;

상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111); A chatting server 111 connected to the control unit 102 and transmitting and receiving chatting data between the instructor and the learner;

상기 제어부(102)에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기로 크기 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진으로 변환하고, 학습 콘텐츠 서버(100)의 데이터베이스에 기 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습/온라인 시험 자격을 확인하는 감독관 확인부; It is connected to the control unit 102, receives a picture taken by a camera of a candidate from a user terminal, converts it into a standard size front face picture through size correction/rotation/angle correction, and learning content server 100 a supervisor confirmation unit that compares user information pre-stored in the database with a standard-size frontal face photo and confirms eligibility for online learning/online examination by a supervisor at the supervisor's terminal;

상기 제어부(102)에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부(107); 및Connected to the control unit 102, the user terminal uses a face recognition module to recognize the outline of the learner's face and facial feature points of the eyes 2/nose/ear 2, and face recognition receiving the face recognition result from the user terminal. part 107; and

응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. Test information DB for storing test papers, written answers, and scoring results of test taker terminals; It includes a candidate DB and a face DB that store candidate information and a standard size frontal face picture.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the controller 102 and further includes a chatting server 111 that transmits and receives chatting data between the instructor and the learner.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a send/receive note providing unit for transmitting/receiving note data to which the instructor and the learner can attach a report file.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the controller 102 and further includes an FTP server for transmitting and receiving learning data files.

추가적으로, 온라인 시험 또는 UBT 시험 시에, 학습 콘텐츠 서버(100)는 응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 학습자/응시자 정보들과 학습자/응시자의 현장 정면 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험 시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장한 후, 시험 종료시 시험관리부를 구비하는 학습 콘텐츠 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함한다. Additionally, during an online test or UBT test, the learning content server 100 provides a test program (App) and test papers to the test taker terminal and the supervisor terminal, learner/taker information, a frontal face picture of the learner/taker, and supervisor Information is managed, and during the online test or UBT test, the test paper writing answers are stored in each test taker's terminal within a certain test time, and then transmitted to the learning content server equipped with the test management unit at the end of the test, and the test takers' test paper writing answers and scoring A test management unit for storing and managing results, supervisor information, and test taker status information is further included.

추가적으로, 응시자 단말의 안면인식 모듈과 5점 척도 활용 부정행위 방지 모듈에서 사용하는 AI 기반 안면인식 기술은 태블릿 PC의 카메라 영상의 안면윤곽선과 얼굴의 특징점들을 인식하기 위해 posenet 알고리즘을 사용하였다. 온라인 시험 또는 UBT 시험시에, AI 기반 얼굴인식 기술을 사용하여 시험관리부를 구비하는 학습 콘텐츠 서버에 연동된 감독관 단말을 통해 태블릿 PC 응시자 본인을 확인하고 대리 시험을 방지하며, 온라인 시험 또는 UBT 시험에서 응시자 얼굴 인식과 음성 인식에 의해 대리 시험이나 시각적인/청각적인 부정 행위를 방지한다. Additionally, the AI-based face recognition technology used in the face recognition module of the test taker terminal and the cheating prevention module using the 5-point scale used the posenet algorithm to recognize the facial contours and feature points of the camera image of the tablet PC. During an online test or UBT test, AI-based face recognition technology is used to identify the tablet PC test taker through a proctor terminal linked to a learning content server equipped with a test management unit, to prevent proxy tests, and to prevent proxy tests. Prevent proxy tests or visual/auditory cheating by recognizing candidates' faces and voices.

시험 프로그램(App)의 시험지 문항은 주관식 및/또는 객관식 시험 문항을 포함하며, 각 문항마다 텍스트 및 이미지 뿐만 아니라 텍스트, 이미지, VR/AR 콘텐츠, 음성과 동영상이 포함된 멀티미디어 시험 문항이 출제되어 서버로부터 해당 사용자 단말로 디스플레이 된다. The test paper questions of the test program (App) include subjective and/or multiple-choice test questions, and for each question, not only text and images, but also multimedia test questions including text, images, VR/AR content, voice and video are presented and server is displayed on the corresponding user terminal.

1. 인공지능 허브 플랫폼1. Artificial Intelligence Hub Platform

ㆍ NSD-AI (NSDevil's Artificial intelligence) 플랫폼 기반 인공지능 허브플랫폼ㆍ NSD-AI (NSDevil's Artificial intelligence) platform-based artificial intelligence hub platform

ㆍ 어학, 의학교육 부문 구문 인식을 통한 교수자 채점 가이드(인제대학교 의과대학 외 공동연구)ㆍ Instructor scoring guide through syntax recognition for language and medical education (collaborative research with Inje University College of Medicine and others)

ㆍ 사물 인식을 통한 체험학습 지원시스템(펀에듀랩 및 한국민속촌 외)ㆍ Experiential learning support system through object recognition (Fun Edu Lab and Korean Folk Village, etc.)

ㆍ 치아 이미지 분석을 통한 치과교육 부문 질병분석 기능(연세대학교 치과대학 외 3개국 기관 공동연구)ㆍ Disease analysis function in dental education sector through tooth image analysis (joint research with Yonsei University College of Dentistry and other institutions in 3 countries)

ㆍ UBT connect platform 기반ㆍ Based on UBT connect platform

ㆍ 태블릿 PC 기반 평가 플랫폼ㆍ Tablet PC-based evaluation platform

ㆍ 어학평가 부문(말하기/듣기/읽기/쓰기)ㆍ Language evaluation section (Speaking/Listening/Reading/Writing)

ㆍ 보건의료평가 부문(듣기/읽기/쓰기)ㆍ Health and Medical Evaluation Division (Listening/Reading/Writing)

ㆍ 기타 직무평가 부문(읽기/쓰기)ㆍ Other job evaluation areas (read/write)

추가적으로, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)는 사용자 단말로부터 유무선 통신망을 통해 시험 응시자 정보와 정면 얼굴 사진을 서버로 등록받아 저장하고, 응시자들에게 응시표에 부착하는 QR 코드를 발급하며, 응시자별 QR 코드 인식 후 TTS 변환 기술을 통해 인사말을 제공하며, 온라인 시험지와 온라인 시험 또는 UBT 시험을 실시하기 위한 시험 프로그램을 응시자 단말들로 제공한다. In addition, the learning content server 100 having a test management unit receives and stores test taker information and frontal face photos from a user terminal through a wired/wireless communication network, issues a QR code attached to the test taker to the test taker, and After recognizing each QR code, a greeting is provided through TTS conversion technology, and online test papers and a test program to conduct an online test or UBT test are provided to test taker terminals.

추가적으로, 온라인 시험 또는 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 뿐만 아니라 주관식 시험을 제공하며. 주관식 시험 문항은 터치센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 제공한다.Additionally, the online exam or UBT exam offers subjective exams as well as 2/3/4/5 choice multiple-choice exams. The subjective test questions provide a subjective test in which the handwritten text of the stylus pen is recognized using the handwriting recognition unit of the test taker's terminal having a touch sensor and a display and converted into text to recognize the handwritten text.

온라인 시험지는 전체 객관식, 객관식/주관식 혼용하여 출제될 수 있다. Online test papers can be presented in a combination of all multiple-choice and multiple-choice/subjective forms.

응시자 단말(300,310,311)은 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 유무선 통신망(LAN, Wi-Fi, LTE 4G/5G)을 통해 연결되며, 시험 프로그램을 구동하며, AI 안면인식/동작인식/소리인식 기술을 사용하여 응시자 단말의 정면 카메라(C)를 사용하여 학습자/응시자 얼굴의 영상의 안면인식/동작인식, 응시자 단말의 마이크와 음성인식 모듈을 통해 소리 인식을 통해 청각적인 부정행위를 감시하도록 응시자 단말의 정면 카메라(C)에 의해 촬영되는 응시자 얼굴의 인공지능 안면인식 모듈과, 응시자 단말의 정면 카메라(C)로 촬영되는 얼굴 행동 패턴을 인식하여 눈2/코/귀2 얼굴의 특징점 5점 척도 부정행위 방지 모듈, 응시자의 음성 인식을 통해 청각적인 부정행위를 검출하는 음성인식 모듈을 구비하며, 시험관리부를 구비하는 학습 콘텐츠 서버(100)와 연동되는 응시자 단말에 녹음/녹화 프로그램이 설치된다. Candidate terminals (300, 310, 311) are connected to the learning content server 100 having a test management unit through wired and wireless communication networks (LAN, Wi-Fi, LTE 4G/5G), drive test programs, and AI face recognition/motion recognition/ Using sound recognition technology, the front camera (C) of the test taker's terminal is used to perform facial recognition/motion recognition of the learner's/applicant's face image, and auditory misconduct is monitored through sound recognition through the microphone and voice recognition module of the test taker's terminal. The artificial intelligence face recognition module of the candidate's face photographed by the front camera (C) of the candidate's terminal and the facial behavior pattern photographed by the front camera (C) of the candidate's terminal A 5-point scale cheating prevention module, a voice recognition module that detects auditory cheating through voice recognition of the test taker, and a recording/recording program is installed on the test taker terminal linked to the learning content server 100 having a test management unit. installed

감독관 단말은 온라인 시험 또는 UBT 시험 시에, 시험 관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 복수의 응시자 단말의 얼굴 사진과 부정행위 정보를 수신받고, 이를 확인하여 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 부정행위 방지 알람 또는 메시지를 전송한다.During an online test or UBT test, the proctor terminal receives face photos and cheating information from a plurality of test taker terminals through the learning content server 100 having a test management unit, checks them, and learns content server having a test management unit. Through (100), an anti-cheating alarm or message is transmitted to the corresponding test taker terminal.

사용자 단말의 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘(machine learning model which allows for real-time face pose estimation)을 사용한다.The AI-based face contour recognition technology used in the face recognition module of the user terminal uses a posenet algorithm (machine learning model which allows for real-time face pose estimation).

실시예에서는, 온라인 학습/온라인 시험 또는 UBT 시험 시에, 사용자 단말은 태블릿 PC를 사용하였다.In the embodiment, during online learning/online exam or UBT exam, the user terminal uses a tablet PC.

응시자 단말(300,310,311)은 학습자 얼굴 영상의 윤곽선과 눈2/코/귀2의 5점 척도 얼굴특징점 안면인식 모듈이 구비된다. The test taker terminals 300, 310, and 311 are provided with a face recognition module for facial feature points on a five-point scale of the outline of the learner's face image and the eyes 2/nose/ear 2.

추가적으로, 응시자 단말은 주관식 시험 문항을 위해 스타일러스 펜의 필기체를 인식하여 문자로 변환하여 필기체 문자를 인식하는 터치 센서와 디스플레이를 구비하는 응시자 단말의 필기체 인식부를 더 포함한다. In addition, the test taker terminal further includes a handwriting recognition unit of the test taker terminal having a display and a touch sensor for recognizing and converting handwritten text of a stylus pen into text for subjective test questions.

응시자 단말(300,310,311)은 온라인 학습/온라인 시험 시에, 상기 안면인식 모듈에 사용된 AI 기반 안면윤곽선 인식 기술은 posenet 알고리즘을 사용한다. The candidate terminals 300, 310, and 311 use the posenet algorithm as the AI-based facial contour recognition technology used in the face recognition module during online learning/online exam.

온라인 시험 또는 UBT 시험 시에, 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 얼굴의 특징점들을 인식하는 안면인식 모듈은 응시자 단말의 정면 카메라로 실시간으로 촬영된 얼굴 영상의 관심영역(ROI)을 검출하여 코의 정점을 기준으로 표준 크기로 크기 보정/회전/각도 보정을 통해 변환된 표준 크기의 정면 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고, 얼굴 행동 패턴을 인식하여 응시자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 특징 추출과 분류를 통해 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 온라인 시험 또는 UBT 시험 서버의 얼굴사진 DB의 사진와 비교하여 대리 시험 여부를 확인하며, 온라인 시험 또는 UBT 시험 시에 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고, 부정행위와 관련된 얼굴의 이상 행동 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 시험 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 부정행위를 방지하도록 응시자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 시각적인 부정행위를 판단하여 부정행위 이미지 또는 영상 데이터를 상기 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 상기 시험 관리부를 구비하는 학습 콘텐츠 서버(100)에 연동된 감독관 단말(200)이 확인 후 상기 시험 관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 경고 메시지 또는 알람을 발생한다. During the online test or UBT test, the face recognition module recognizes the contours of the face and the feature points of the face on a 5-point scale with eyes 2/nose/ear 2. (ROI) is detected and a face object is extracted using a front face recognition algorithm for a standard size frontal face photo converted through size correction/rotation/angle correction to a standard size based on the vertex of the nose, and a face action pattern is extracted. and extracts the contours of the candidate's face and facial feature points of eye 2/nose/ear 2, and through feature extraction and classification, the left/right ear and left/right ear of eye 2/nose/ear 2 face feature points, respectively. Calculate the Euclidean distance (d) and similarity with the central point (pupil) of the eye, compare it with the photo in the face photo DB of the online test or UBT test server, check whether it is a surrogate test, and check the online test or UBT test Head movement to the right/left is detected according to whether the 3 eye/nose points approach the 2 ears at both ends at the time of writing, abnormal facial behavior patterns related to cheating are detected, and facial contours are not recognized during face recognition. , If the distance from the test screen is more than a certain angle (depending on whether the 3 eye/nose points get closer to the 2 ears at both ends, if the distance in the corresponding direction of the eye-ear distance or nose-ear distance exceeds a certain standard value) To prevent this, the facial behavior pattern captured by the camera of the test taker terminal is recognized, and the distance between the right eye and the right ear and the distance between the left eye and the left ear change according to the angle at which the front face is turned left and right, so visual cheating is judged and the cheating image is determined. Alternatively, the video data is transmitted to the learning content server 100 equipped with the test management unit, and after confirmation by the supervisor terminal 200 linked to the learning content server 100 equipped with the test management unit, learning with the test management unit is performed. A warning message or an alarm is generated to the corresponding test taker terminal through the content server 100 .

(실시예)(Example)

Posenet 알고리즘 모델을 사용하여 태블릿 PC의 Android에서 사람의 얼굴의 포즈 추정을 위해 TensorFlow를 사용하였다. 참고로, Posenet 알고리즘은 행위 인식을 위해 사람의 얼굴과 몸체와 팔과 다리의 위치 주요 인체의 부위의 위치를 감지하여 이미지나 동영상으로부터 사람의 포즈(pose)를 추정하는 비전 모델이다. 얼굴 인식 시에, TensorFlow Lite는 응시자 단말의 정면 카메라를 활용하여 얼굴 인식 시에 실시간으로 얼굴의 윤곽선과 눈2/코/귀2의 얼굴 특징점들을 식별하고 얼굴의 안면안곽선 포즈 추정 모델을 구현하였다.TensorFlow was used for pose estimation of a human face on Android on a tablet PC using the Posenet algorithm model. For reference, the Posenet algorithm is a vision model that estimates a person's pose from an image or video by detecting the position of a person's face, body, arms and legs, and major body parts for action recognition. At the time of face recognition, TensorFlow Lite uses the front camera of the test taker terminal to identify the contour of the face and facial feature points of eyes 2/nose/ear 2 in real time during face recognition, and implements a facial contour pose estimation model of the face. .

인공지능 안면인식 모듈에 사용된 posenet 알고리즘은 좌측 눈(leftEye), 우측 눈(rightEye), 코(nose), 왼쪽 귀(leftEar), 오른쪽 귀(rightEar)의 5점 척도 부정행위 방지 모듈을 사용하여 구현하였으며, The posenet algorithm used in the artificial intelligence face recognition module uses a five-point scale anti-fraud module of leftEye, rightEye, nose, leftEar, and rightEar. implemented,

leftEar의 x,y좌표와 rightEar의 x,y좌표를 구한 후 이를 기반으로 원의 직경(diameter)을 구하고 ellipse( )로 천사 고리를 만들 수 있다. diameter는 피타고라스 정리를 굳이 쓰지 않아도 p5js에서 dist( )로 쉽게 구할 수 있다.After finding the x,y coordinates of leftEar and the x,y coordinates of rightEar, you can find the diameter of a circle based on these and create an angel ring with ellipse( ). The diameter can be easily obtained with dist( ) in p5js without having to use the Pythagorean theorem.

<ml5js 및 웹캠 연결하기><Connecting ml5js and Webcam>

<script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script><script src="https://unpkg.com/ml5@0.3.1/dist/ml5.min.js"></script>

let video;let video;

let poseNet;let poseNet;

function setup( ) {function setup() {

createCanvas(400, 400); createCanvas(400, 400);

video = createCapture(VIDEO); video = createCapture(VIDEO);

//비디오가 2번 안나오게 해주는 용도 // Used to prevent the video from appearing twice

video.hide( ); video.hide( );

poseNet = ml5.poseNet(video,modelLoaded); poseNet = ml5.poseNet(video, modelLoaded);

poseNet.on('pose',gotPoses); poseNet.on('pose', gotPoses);

console.log(ml5); console.log(ml5);

}}

// 포즈 관련 콜백들이 들어감// Pose-related callbacks are entered

function gotPoses(poses) { function gotPoses(poses) {

}}

// 로딩이 잘됐는지 확인하는 용도// Used to check if loading was successful

function modelLoaded( ) {function modelLoaded() {

console.log('Model Loaded'); console.log('Model Loaded');

}}

function draw( ) {function draw() {

//0,0위치에 웹캠을 그려준다. // Draw the webcam at position 0,0.

image(video,0,0); image(video,0,0);

}}

응시자 단말의 전면 카메라 얼굴 영상으로부터 실시간으로 얼굴 영역을 추출하고, 코의 꼭지점을 기준으로 가로x세로 표준 크기로 크기 보정/회전/각도 보정을 통해 얼굴 사진의 표준 크기로 맞추며, 시험관리부를 구비하는 학습 콘텐츠 서버의 데이터베이스에 기 저장된 표준 크기의 얼굴 사진 DB의 학습 데이터와 비교 -> 얼굴 사진의 학습 모델 -> 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하고 분류하며, 얼굴 인식 데이터의 윤곽선과 눈2/코/귀2의 윤곽선의 얼굴의 특징점들의 그룹 clustering(클러스터의 중심 k-means 알고리즘) density estimation하며, 얼굴의 특징점들의 유클리디안 거리(d)와 유사도(similarity)를 계산하여 온라인 시험 또는 UBT 시험 서버의 얼굴 사진 DB에 저장된 표준 크기의 응시자 사진의 얼굴 특징점들의 거리와 유사도를 비교하여 응시자 사진 본인이 확인하여 대리 시험이 방지되며, 온라인 시험 또는 UBT 시험 시에 시각적인 부정행위를 판단하게 된다. The face region is extracted in real time from the face image of the front camera of the test taker terminal, the standard size of the face picture is adjusted to the standard size of the face photo through size correction / rotation / angle correction to the standard horizontal x vertical size based on the vertex of the nose, and the test management unit is provided. Comparison with the learning data of the standard size face photo DB pre-stored in the database of the learning content server -> Learning model of the face photo -> Extracting and classifying the contours of the face and facial feature points of the eyes 2 / nose / ears 2, Group clustering (centre of cluster k-means algorithm) density estimation of facial feature points of the contours of the recognition data and eye 2/nose/ear 2 outlines, Euclidean distance (d) and similarity (similarity) of facial feature points By calculating the distance and similarity of the facial feature points of the standard size of the candidate's photograph stored in the online test or UBT test server's face image DB, the test taker's photo is checked by the candidate himself to prevent proxy testing, and during the online test or UBT test, visual to judge human misconduct.

예를들면, 응시자 단말(태블릿 PC)의 시험 화면으로 응시자 단말의 전면 카메라로 촬영되는 얼굴이 향하는 방향이 바뀌거나 응시자가 일정 각도로 얼굴을 돌리면 얼굴 사진의 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들이 인식이 안되거나 사용자의 얼굴과 스마트폰의 유효 거리(20~30cm)내에서 시험 프로그램을 향하는 각도가 달라지게 되면, 부정행위로 인식하며, 부정행위 감지 결과를 온라인 시험 또는 UBT 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하고, 이를 감독관 단말(200)로 전송하여 감독관이 확인 후 시험관리부를 구비하는 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하여 해당 응시자가 부정행위를 방지하게 한다. For example, if the direction of the face photographed by the front camera of the test taker terminal (tablet PC) is changed or the test taker turns the face at a certain angle, the outline of the face and the eyes 2 / nose / ears of the face photo are changed. 2 If the feature points of the face are not recognized or the angle toward the test program changes within the effective distance between the user's face and the smartphone (20 ~ 30 cm), it is recognized as cheating, and the cheating detection result is displayed as an online test or UBT. It is transmitted to the learning content server 100 having a test management unit, transmitted to the supervisor terminal 200, and after confirmation by the supervisor, an alarm is generated or warned to the test taker terminal through the learning content server 100 equipped with a test management unit. Messages are sent to prevent the candidate from cheating.

또한, [텍스트 A] 데이터 참조 미리 정의된 응시자 프로그램에서 설정된 경고 임계치가 0이 되는 순간 서버 연결 없이 응시자 단말로 경고 메시지를 표시하고, 감독관/부정행위 검출 서버/기타 시험 관리 서버로 역 전송할 수 있고, 또는 시험 종료 후 해당 raw data의 후처리를 위해 부정행위 검출 서버/기타 시험 관리 서버로 전송한다.In addition, [Text A] As soon as the warning threshold set in the predefined test taker program with reference to data becomes 0, a warning message is displayed on the test taker's device without server connection, and it can be transmitted back to the supervisor/cheating detection server/other test management server, , or after the test is finished, the raw data is sent to the fraud detection server/other test management server for post-processing.

또한, 응시자 단말은 안면 인식 모듈, 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점 5점 척도 얼굴의 특징점들을 인식하여 시각적인 부정행위를 검출하는 부정행위 방지 모듈, 및 상기 부정행위 방지 모듈은 응시자의 청각적인 부정행위를 방지하기 위해 응시자의 말소리를 인식하는 음성 인식 모듈을 더 구비하며, In addition, the test taker terminal includes a face recognition module, an anti-cheating module for detecting visual cheating by recognizing facial contours and eye 2/nose/ear 2 facial feature points on a 5-point scale, and the cheating prevention module. further includes a voice recognition module for recognizing the candidate's speech in order to prevent the candidate's auditory cheating;

온라인 시험 또는 UBT 시험 시에, 음성 인식 모듈은 응시자 단말의 마이크를 통해 입력된 부정행위와 관련된 응시자의 말소리가 들리는 경우, 음성인식 후 이를 즉시 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송하여 저장하며, 이를 감독관 단말(200)로 부정행위 알림을 전송하여 감독관이 확인 후, 상기 학습 콘텐츠 서버(100)를 통해 해당 응시자 단말로 알람을 발생하거나 경고 메시지를 전송하며 부정행위를 방지하게 한다. 또는, 눈과 귀의 거리, 코와 귀의 거리의 표준 크기의 정면 얼굴 사진의 미리 정의된 거리의 임계치를 참조하여 서버 명령 없이 응시자 프로그램 자체에서 직접 해당 응시자 단말로 경고 메시지를 표시하고, 부정행위를 정보를 학습 콘텐츠 서버의 시험 관리부(시험 서버)와 감독관 단말로 전송한다. During the online test or UBT test, when the voice recognition module hears the voice of the test taker related to the cheating input through the microphone of the test taker's terminal, it immediately transmits it to the learning content server 100 having a test management unit after recognizing the voice. After the supervisor checks, an alarm is generated or a warning message is sent to the test taker terminal through the learning content server 100 to prevent cheating. Alternatively, the test taker program itself directly displays a warning message to the test taker terminal without a server command by referring to the threshold of the predefined distance of the eye-to-ear distance and the nose-to-ear distance of the standard size frontal face picture, and detects cheating information. is transmitted to the test management unit (test server) of the learning content server and the supervisor's terminal.

도 11은 본 발명에 따른 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법을 나타낸 순서도이다. 11 is a flowchart showing a tablet PC, smartphone, and PC-based attention learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning according to the present invention.

본 발명의 웹 브라우저 기반의 비대면 학습에서 안면윤곽선 인식 인공지능을 사용한 태블릿 PC, 스마트폰, PC 기반 주의집중 학습 방법은 (a) 사용자 단말로부터 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버(100)로 등록받아 저장하는 단계; (b) 상기 학습 콘텐츠 서버(100)가 사용자 정보와 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계; (c) 교육 콘텐츠 viewer 프로그램과 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하는 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버(100)로 수신받아 서버의 데이터베이스에 기 등록된 학습자 정보와 표준 크기의 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계; (d) 상기 학습 콘텐츠 서버(100)로부터 온라인 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및 (e) 상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, 상기 학습 콘텐츠 서버(100) 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 사용자 단말의 화면을 바라보는 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계를 포함한다. The tablet PC, smartphone, and PC-based attentional learning method using facial contour recognition artificial intelligence in web browser-based non-face-to-face learning of the present invention (a) transmits learner information and a standard-sized frontal face picture from a user terminal to a learning content server Registering and storing in (100); (b) issuing, by the learning content server 100, a QR code corresponding to user information and a front face photo; (c) The front face of the camera using the front face recognition algorithm of the front camera image in the user terminal equipped with the educational content viewer program and the face recognition module that recognizes the contours of the face and the facial feature points of the eyes 2/nose/ear 2 Receiving a photo recognition result to the learning content server 100 and comparing learner information pre-registered in the database of the server with a standard size frontal face photo and its facial features to confirm whether the learner is himself or not; (d) providing online learning content from the learning content server 100 to a user terminal of a pre-registered member; and (e) the facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology, and the learning content server 100 or the user terminal uses the face image of the online learner detected by the camera in the user terminal of each learner. Eye 2/Nose/Ear 2 Analyzing the feature points of the user's terminal screen when the line of sight deviates from a certain angle, or when the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value Artificial Intelligence and generating a warning message or an alarm to a corresponding user terminal so that attention-focused learning is performed.

상기 학습 콘텐츠 서버(100)는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공한다. The learning content server 100 provides a function of recognizing a QR code as a recognition code when using a smartphone.

상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버(100)로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비한다. The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server 100 is installed, and the educational content viewer is VOD media. A chat screen with the player is provided.

상기 사용자 단말은 The user terminal

비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어; A VOD media player that plays non-face-to-face lecture learning content;

강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈; 및 A chat module that transmits and receives chat data between the instructor and the learner; and

상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈; a face recognition module for recognizing a behavioral pattern of a face in the front camera image of the user terminal and recognizing feature points of the eye2/nose/ear2 face;

얼굴 영상이 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부를 포함한다. If the face image deviates from the screen by more than a certain angle (when the distance between the eyes and ears and the distance between the nose and ears in the corresponding direction exceeds a certain standard depending on whether the 3 points of the eye/nose are closer to the 2 points of the ears at both ends), an alarm is set. Include a learner's alarm generating unit that generates or outputs a warning message.

상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,

상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 사용자 단말의 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 영상의 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말에서 주의 집중 학습되도록 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력한다. The face recognition module extracts a face object using a frontal face recognition algorithm for a face photo of a learner of a standard size that has been size-corrected/angle-corrected during non-face-to-face online learning, recognizes a facial behavior pattern, and recognizes the outline of the learner's face The facial feature points of Eye2/Nose/Ear2 are extracted, and the Euclidean distance (d) of the facial feature points of Eye2/Nose/Ear2 is between the left/right ear and the central point (pupil) of the left/right eye, respectively. and similarity are calculated, compared with specific points of the user's face photo in the face photo DB, whether the line of sight is out of sight, and according to whether the 3 points of the eye/nose are closer to the 2 points of the ears at both ends, it is moved to the right/left. Detects head movement, detects face patterns related to gaze deviation, and detects facial contours when recognizing faces, or when it is out of a certain angle or more from the screen of the user terminal (3 points of eyes/nose are close to 2 points of ears at both ends) If the eye-to-ear distance or nose-to-ear distance in the corresponding direction exceeds a certain standard value) Recognizes the facial behavior pattern of the video captured by the camera of the user terminal, and detects the right eye according to the angle at which the front face is turned left and right Since the distance between the right ear and the distance between the left eye and the left ear are different, an alarm is generated or a warning message is output to the corresponding user terminal so that the user terminal can focus on learning.

상기 학습 콘텐츠 서버(100)는 The learning content server 100

WWW 서버; WWW server;

상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부; a control unit controlling to provide online learning content to the user terminal;

상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부; a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;

상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부; A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;

상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부; a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;

상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부; a learning content provider connected to the controller and providing the online learning content to the user terminal;

상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버; a chatting server connected to the control unit and transmitting and receiving chatting data between the instructor and the learner;

상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기의 크기 보정/회전/각도 보정을 통해 정면 얼굴 사진을 생성하고 서버의 데이터베이스에 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부; It is connected to the control unit, receives a picture taken by a camera of a test taker from a user terminal, generates a front face picture through size correction/rotation/angle correction of a standard size, and user information stored in a database of a server and a standard size front face picture. a supervisor confirmation unit that compares and confirms eligibility for online learning by a supervisor in a supervisor terminal;

상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및a face recognition unit connected to the control unit, recognizing the outline of the learner's face and facial feature points of the eyes 2/nose/ear 2 using a face recognition module in the user terminal, and receiving a face recognition result from the user terminal; and

응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB를 포함한다. Test information DB for storing test papers, written answers, and scoring results of test taker terminals; It includes a candidate DB and a face DB that store candidate information and a standard size frontal face picture.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버(111)를 더 포함한다. Additionally, the learning content server 100 is connected to the controller 102 and further includes a chatting server 111 that transmits and receives chatting data between the instructor and the learner.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 강사와 학습자의 리포트 파일 첨부가 가능한 쪽지 데이터를 송수신하는 쪽지 보내기/받기 제공부를 더 포함한다. Additionally, the learning content server 100 is connected to the control unit 102 and further includes a send/receive note providing unit for transmitting/receiving note data to which the instructor and the learner can attach a report file.

추가적으로, 학습 콘텐츠 서버(100)는 상기 제어부(102)에 연결되며, 학습 데이터 파일을 송수신하는 FTP 서버를 더 포함한다.Additionally, the learning content server 100 is connected to the controller 102 and further includes an FTP server for transmitting and receiving learning data files.

비대면 온라인 학습에서, 강사는 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 복수의 학습자 단말들로 질의 응답 채팅 데이터를 송수신한다. In non-face-to-face online learning, the instructor's terminal (supervisor terminal) transmits and receives question-and-answer chatting data to a plurality of learner terminals in a 1:N manner through the learning content server 100.

비대면 온라인 학습에서, 시간과 장소에 상관없이, 온라인 학습 시에 학습 콘텐츠 서버(100)를 통해 강사 단말은 학습자 단말로 제공된 교육 콘텐츠 viewer의 온라인 학습 메모 공간(shared workspace)에 밑줄을 긋거나 텍스트, 그림, 사진, 음성 녹음을 통해 강사의 발언권 제어(floor control)에 따라 강사의 단말(감독관 단말)과 복수의 학습자 단말들로 리포트/학습 파일이 첨부된 파일 보내기/받기, 쪽지 보내기/받기를 제공한다.In non-face-to-face online learning, regardless of time and place, through the learning content server 100 during online learning, the instructor terminal underlines or texts the online learning memo space (shared workspace) of the educational content viewer provided to the learner terminal Sending/receiving files with report/learning files attached to the instructor's terminal (supervisor's terminal) and multiple learner terminals according to the instructor's floor control through drawings, photos, and voice recordings, and sending/receiving notes. to provide.

비대면 온라인 학습에서, 비대면 강의 시에 강사의 단말(감독관 단말)은 학습 콘텐츠 서버(100)를 통해 1:N 방식으로 동시에 복수의 학습자 단말들로 교육 콘텐츠 viewer의 공유 작업 공간(shared workspace)에 글씨/그래픽 필기/메모를 쓰고 표시된다. In non-face-to-face online learning, during non-face-to-face lectures, the instructor's terminal (supervisor terminal) is a shared workspace of the educational content viewer with multiple learner terminals simultaneously in a 1:N manner through the learning content server 100 Text/graphic notes/memos are written and displayed on the screen.

추가적으로, 온라인 시험 또는 UBT 시험 시에, 학습 콘텐츠 서버(100)는 응시자 정보들과 응시자의 현장 정면 얼굴 사진, 감독관 정보를 시험 관리부를 구비하는 학습 콘텐츠 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료시 응시자 단말로부터 시험관리부를 구비하는 학습 콘텐츠 서버(100)로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함한다. Additionally, during the online test or UBT test, the learning content server 100 stores and manages the candidate information, the candidate's on-site front face photo, and supervisor information in the database of the learning content server having the test management unit, and manages the online test or At the time of the UBT test, after storing the test paper writing answers in each test taker terminal for a certain test time, at the end of the test, the test taker terminal receives and stores them from the test taker terminal to the learning content server 100 having a test management unit, and the scoring results of the test takers' test paper writing answers are stored. A step of providing the information to the test taker terminal is further included.

추가적으로, 온라인 및 UBT 시험은 2지/3지/4지/5지 선다 객관식 시험 및 응시자 단말의 필기체 인식부를 사용하여 스타일러스 펜의 필기체를 인식하여 문자들로 변환하여 필기체 문자를 인식하는 주관식 시험을 포함한다. In addition, the online and UBT tests include a 2nd/3rd/4th/5th multiple-choice multiple-choice test and a subjective test in which the handwriting of a stylus pen is recognized and converted into characters using the handwriting recognition unit of the test taker terminal to recognize handwritten characters. include

또한, 상기 방법은 사용자 단말의 카메라 영상의 사용자의 얼굴 움직임을 [텍스트 A]와 같이 프레임 단위로 저장하면서 정의된 일정 프레임 또는 시간 또는 횟수를 차감하다가 0이 되는 시점에 응시자 단말로 경고 메시지를 표출/노출하거나, 감독관 기기 또는 부정행위 검출 이미지를 서버로 보낸 후, 경고 트리거 횟수를 초기화하여 다음 움직임부터 다시 차감을 시작하는 단계를 포함한다.In addition, the method displays a warning message to the test taker terminal at the time when the user's facial movement of the camera image of the user terminal is stored in units of frames, such as [Text A], after subtracting a defined frame or time or number of times, and then becomes 0. / After exposing or sending a supervisory device or cheating detection image to the server, resetting the number of warning triggers and starting the deduction again from the next movement.

[텍스트 A] - 응시자 단말의 태블릿 PC에 저장되는 얼굴의 행동 패턴 정보 (예시. 서울대학교 치과대학 학습자의 얼굴 패턴 데이터): 일자, 시간, 움직인 각도/거리 및 위상(좌우) 등의 정보를 매 프레임 또는 시간당 저장하고, 이를 바탕으로 사용자에게 경고 메시지를 보이고, 감독관 확인 및 응시자 얼굴인식 부정행위 검출 - 학습 콘텐츠 서버의 시스템에 해당 RAW Data를 전송하여 후처리 한다.[Text A] - Facial behavior pattern information stored on the tablet PC of the test taker terminal (Ex. Face pattern data of Seoul National University dental school learners): information such as date, time, movement angle/distance, and phase (left and right) It is saved every frame or hourly, and based on this, a warning message is shown to the user, and the supervisor checks and the candidate's face recognition cheating is detected. - The corresponding RAW data is transmitted to the learning content server system for post-processing.

200519094106,0.02,R200519094106,0.02,R

200519094111,0.03,R200519094111,0.03,R

200519094120,0.42,R200519094120,0.42,R

200519094148,0.01,R200519094148,0.01,R

200519094150,0.21,R200519094150,0.21,R

200519094155,0.22,R200519094155,0.22,R

200519094158,0.09,R200519094158,0.09,R

200519094209,0.11,L200519094209,0.11,L

200519094214,0.09,R200519094214,0.09,R

200519094216,0.10,R200519094216,0.10,R

200519094219,0.09,R200519094219,0.09,R

200519094224,0.01,L200519094224,0.01,L

본 발명의 웹 브라우저 기반의 비대면 학습에서 인공지능을 사용한 주의집중 학습 시스템 및 방법은 비대면 학습에서 사용자 단말의 교육 콘텐츠 viewer는 미디어 재생부와 안면윤곽선 인식부 모듈을 구비하고, 학습 콘텐츠 서버(ubcloud 서버)에 연동된 사용자 단말의 정면 카메라에 포커싱 된 비대면 강의 학습 콘텐츠에 시선을 바로보고 주의 집중교육되도록 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점 5점 척도 특징점들을 인식하는 안면 인식을 통해 일정 각도로 시선이 빗나갈 경우 소리와 메시징 기술을 사용하여 해당 사용자 단말로 알람 또는 경고 메시지를 발생하며, 비대면 온라인 학습에서 웹브라우저 기반의 ubcloud 인공지능 사용한 주의집중 학습을 제공한다. In the web browser-based non-face-to-face learning system and method of the present invention, in the non-face-to-face learning, the educational content viewer of the user terminal is provided with a media playback unit and a facial contour recognition module, and a learning content server ( ubcloud server) to directly look at the non-face-to-face lecture learning contents focused on the front camera of the user terminal linked to the user terminal, and recognize the facial contour and eye 2 / nose / ear 2 facial feature points on a 5-point scale so that attention is focused on the learning content When the gaze is diverted at a certain angle through facial recognition, an alarm or warning message is generated to the user terminal using sound and messaging technology, and attentional learning using web browser-based ubcloud artificial intelligence is provided in non-face-to-face online learning. .

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통해 수행될 수 있는 프로그램 명령 형태로 구현되고, 컴퓨터 판독 가능 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 기록 매체는 프로그램 명령, 데이터 파일, 데이터 구조를 단독으로 또는 조합하여 포함할 수 있다. 컴퓨터 판독 가능 기록 매체는 스토리지, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 저장 매체에 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치가 포함될 수 있다. 프로그램 명령의 예는 컴파일러에 의해 만들어지는 것과, 기계어 코드 뿐만 아니라 인터프리터를 사용하여 컴퓨터에 의해 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상기 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로써 작동하도록 구성될 수 있다.Embodiments according to the present invention are implemented in the form of program instructions that can be executed through various computer means, and can be recorded in a computer readable recording medium. The computer readable recording medium may include program instructions, data files, and data structures alone or in combination. Computer-readable recording media include storage, hard disks, magnetic media such as floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - A hardware device configured to store and execute program instructions in storage media such as magneto-optical media, ROM, RAM, flash memory, etc. may be included. Examples of program instructions may include those produced by a compiler, machine language codes as well as high-level language codes that can be executed by a computer using an interpreter. The hardware device may be configured to operate as one or more software modules to perform the operations of the present invention.

이상에서 설명한 바와 같이, 본 발명의 방법은 프로그램으로 구현되어 컴퓨터의 소프트웨어를 이용하여 읽을 수 있는 형태로 기록매체(CD-ROM, RAM, ROM, 메모리 카드, 하드 디스크, 광자기 디스크, 스토리지 디바이스 등)에 저장될 수 있다. As described above, the method of the present invention is implemented as a program and can be read using computer software on a recording medium (CD-ROM, RAM, ROM, memory card, hard disk, magneto-optical disk, storage device, etc.) ) can be stored in

본 발명의 구체적인 실시예를 참조하여 설명하였지만, 본 발명은 상기와 같이 기술적 사상을 예시하기 위해 구체적인 실시 예와 동일한 구성 및 작용에만 한정되지 않고, 본 발명의 기술적 사상과 범위를 벗어나지 않는 한도 내에서 다양하게 변형하여 실시될 수 있으며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.Although described with reference to specific embodiments of the present invention, the present invention is not limited to the same configuration and operation as the specific embodiments to illustrate the technical idea as described above, and within the limit that does not deviate from the technical spirit and scope of the present invention It can be implemented with various modifications, and the scope of the present invention should be determined by the claims described later.

100: 학습 콘텐츠 서버 101: WWW 서버
102: 제어부 103: 회원 등록부
104: 사용자 인증부 105: 학습 콘텐츠 제공부
106: QR 코드 제공부 107: 얼굴인식부(안면윤곽선 인식)
109: 시험 관리부 111: 채팅 서버
300, 310, 311: 사용자 단말
100: learning content server 101: WWW server
102: control unit 103: member registration unit
104: user authentication unit 105: learning content providing unit
106: QR code providing unit 107: face recognition unit (facial contour recognition)
109: test management department 111: chat server
300, 310, 311: user terminal

Claims (14)

비대면 온라인 강의 학습 콘텐츠를 제공하는 학습 콘텐츠 서버; 및
상기 학습 콘텐츠 서버에 접속하여 교육 콘텐츠 viewer 프로그램을 구동하며, 비대면 온라인 학습에서 사용자 단말의 정면 카메라 영상 데이터의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하는 안면인식 모듈과 음성 인식 모듈을 구비하며, AI 안면인식/동작인식 소리 재생 기술을 사용하여 학습 콘텐츠를 인공지능 주의 집중 학습하도록 교육 콘텐츠 viewer가 설치된 사용자 단말을 포함하고,
상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며,
상기 학습 콘텐츠 서버 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
A learning content server that provides non-face-to-face online lecture learning content; and
A face recognition module that connects to the learning content server and runs an educational content viewer program, recognizing facial contours and eye 2 / nose / ear 2 face feature points of the front camera image data of the user terminal in non-face-to-face online learning It has a voice recognition module, and includes a user terminal with an educational content viewer installed so that artificial intelligence attention-focused learning of learning content using AI face recognition / motion recognition sound reproduction technology,
The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology,
The learning content server or the user terminal analyzes the eye2/nose/ear2 face feature points of the online learner's face image detected by the camera in the user terminal of each learner, and when the gaze is off at a certain angle or the eye-ear distance , When the distance in the corresponding direction of the nose-to-ear distance exceeds a certain standard, an attentional learning system in web browser-based non-face-to-face learning generates a warning message or an alarm to the corresponding user terminal so that artificial intelligence attentional learning occurs.
제1항에 있어서,
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The learning content server provides a function of recognizing a QR code as a recognition code when using a smartphone, an attentional learning system in web browser-based non-face-to-face learning.
제1항에 있어서,
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server is installed, and the educational content viewer chats with a VOD media player. A web browser-based attention learning system in non-face-to-face learning with a screen.
제1항에 있어서,
상기 사용자 단말은
비대면 온라인 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어;
강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈;
상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하는 안면인식 모듈; 및
화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The user terminal
A VOD media player that plays non-face-to-face online lecture learning content;
A chat module that transmits and receives chat data between the instructor and the learner;
a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and face feature points of eyes 2/nose/ear 2; and
If the screen deviates from the screen by more than a certain angle (in case the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value depending on whether the 3 eye/nose points get closer to the 2 ears at both ends), an alarm is sent to the user terminal A learner's alarm generating unit for generating or outputting a warning message;
Attentional learning system in non-face-to-face learning based on web browsers.
제4항에 있어서,
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식 시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 4,
The face recognition module extracts a face object using a frontal face recognition algorithm for a face photo of a learner of a standard size that has been size-corrected/angle-corrected during non-face-to-face online learning, recognizes a facial behavior pattern, and recognizes the outline of the learner's face The facial feature points of Eye2/Nose/Ear2 are extracted, and the Euclidean distance (d) of the facial feature points of Eye2/Nose/Ear2 is between the left/right ear and the central point (pupil) of the left/right eye, respectively. and similarity are calculated, compared with specific points of the user's face photo in the face photo DB, whether the line of sight is out of sight, and according to whether the 3 points of the eye/nose are closer to the 2 points of the ears at both ends, it is moved to the right/left. Detects head movement, detects face patterns related to line of sight deviation, and detects facial contours when facial contours are not recognized during face recognition, or when it is out of a certain angle or more from the screen If the eye-to-ear distance and nose-to-ear distance in the corresponding direction exceed a certain standard value) Recognize the facial behavior pattern captured by the camera of the user terminal, and measure the distance between the right eye and the right ear according to the angle at which the front face is turned left and right. An attentional learning system in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message to a corresponding user terminal because the distance between the left eye and the left ear is different.
제1항에 있어서,
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 강사와 학습자의 채팅 데이터를 송수신하는 채팅 서버;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기의 크기 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진을 생성하고 서버의 데이터베이스에 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 상기 사용자 단말의 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포한하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 1,
The learning content server
WWW server;
a control unit controlling to provide online learning content to the user terminal;
a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;
A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;
a learning content provider connected to the controller and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;
a chatting server connected to the control unit and transmitting and receiving chatting data between the instructor and the learner;
It is connected to the control unit, receives a photograph taken by a camera of a candidate from a user terminal, generates a standard size frontal face picture through standard size size correction / rotation / angle correction, and compares user information stored in a database of a server with standard size. a supervisor confirmation unit that compares frontal face photos and confirms eligibility for online learning by a supervisor in a supervisor terminal;
a face recognition unit that is connected to the control unit and recognizes the outline of the learner's face and facial feature points of eyes 2/nose/ear 2 using the face recognition module of the user terminal, and receives a face recognition result from the user terminal; and
Test information DB for storing test papers, written answers, and scoring results of test taker terminals; a candidate DB and a face DB that store candidate information and a standard size frontal face picture;
Attentional learning system in web browser-based non-face-to-face learning, including.
제6항에 있어서,
상기 학습 콘텐츠 서버는 응시자 단말과 감독관 단말로 시험 프로그램(App)과 시험지를 제공하며, 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험 시간 이내에 각각의 응시자 단말에 시험지 작성 답안을 저장후 시험 종료시 시험관리부를 구비하며, 이를 학습 콘텐츠 서버로 전송되며, 응시자들의 시험지 작성 답안, 채점 결과, 감독관 정보와 응시자 현황 정보를 저장하여 관리하는 시험 관리부를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 시스템.
According to claim 6,
The learning content server provides a test program (App) and test papers to the test taker terminal and supervisor terminal, manages test taker information, on-site face photos of the test taker, and supervisor information, and each within a certain test time during an online test or UBT test. A test management unit is provided at the end of the test after storing test paper writing answers in the test taker's terminal, which is transmitted to the learning content server, and a test management unit that stores and manages test takers' test paper writing answers, scoring results, supervisor information, and test taker status information. Including web browser-based non-face-to-face learning system for attention-focused learning.
(a) 사용자 단말로부터 학습자 정보와 표준 크기의 정면 얼굴 사진을 학습 콘텐츠 서버가 등록받아 저장하는 단계;
(b) 상기 학습 콘텐츠 서버가 사용자 정보와 표준 크기의 정면 얼굴 사진에 대응하는 QR 코드를 발급하는 단계;
(c) 교육 콘텐츠 viewer 프로그램과 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하는 안면인식 모듈을 구비하는 사용자 단말에서 정면 카메라 영상 데이터의 정면 얼굴인식 알고리즘을 사용하여 카메라의 전면 얼굴 사진의 인식 결과를 상기 학습 콘텐츠 서버로 수신받아 기 등록된 학습자 정보와 정면 얼굴 사진과 그 얼굴 특징점들을 비교하여 학습자 본인 여부를 확인하는 단계;
(d) 상기 학습 콘텐츠 서버로부터 학습 콘텐츠를 기 등록된 회원의 사용자 단말로 제공하는 단계; 및
(e) 상기 안면인식 모듈은 AI 기반 안면윤곽선 인식 기술로써 posenet 알고리즘을 사용하며, 상기 학습 콘텐츠 서버 또는 상기 사용자 단말은 각 학습자의 사용자 단말에서 카메라로 검출된 온라인 학습자의 얼굴 영상의 눈2/코/귀2 얼굴의 특징점들을 분석하여 시선이 일정 각도로 벗어난 경우 또는 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우 인공지능 주의 집중학습이 되도록 해당 사용자 단말로 경고 메시지 또는 알람을 발생하는 단계;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
(a) receiving and storing learner information and a standard-sized frontal face photo from a user terminal in a learning content server;
(b) issuing, by the learning content server, a QR code corresponding to user information and a standard size frontal face picture;
(c) In a user terminal equipped with an educational content viewer program and a face recognition module that recognizes facial contours and eye 2/nose/ear 2 facial feature points, the front face recognition algorithm of the front camera image data is used to detect the front face of the camera. Receiving a face photo recognition result from the learning content server and comparing pre-registered learner information with a frontal face photo and its facial feature points to confirm whether the learner is himself or not;
(d) providing learning content from the learning content server to a user terminal of a pre-registered member; and
(e) The facial recognition module uses the posenet algorithm as an AI-based facial contour recognition technology, and the learning content server or the user terminal uses the eyes 2/nose of the online learner's face image detected by the camera in each learner's user terminal. /Ear 2 analyzes facial feature points and sends a warning message to the corresponding user terminal for artificial intelligence attention-focused learning when the line of sight deviates at a certain angle or when the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value or generating an alarm;
Attentional learning method in non-face-to-face learning based on web browsers.
제8항에 있어서,
상기 학습 콘텐츠 서버는 스마트폰을 사용시에 인식 코드로써 QR 코드를 인식하는 기능을 제공하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 8,
The learning content server provides a function of recognizing a QR code as a recognition code when using a smartphone, an attentional learning method in web browser-based non-face-to-face learning.
제8항에 있어서,
상기 사용자 단말은 정면 카메라를 구비하는 태블릿 PC, 스마트폰, PC 중 어느 하나의 단말을 사용하며, 상기 학습 콘텐츠 서버로부터 다운로드된 상기 교육 콘텐츠 viewer가 설치되며, 상기 교육 콘텐츠 viewer는 VOD 미디어 플레이어와 채팅 화면을 구비하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 8,
The user terminal uses any one of a tablet PC, a smartphone, and a PC having a front camera, and the educational content viewer downloaded from the learning content server is installed, and the educational content viewer chats with a VOD media player. An attentional learning method in web browser-based non-face-to-face learning having a screen.
제8항에 있어서,
상기 사용자 단말은
비대면 강의 학습 콘텐츠를 재생하는 VOD 미디어 플레이어;
강사와 학습자와의 채팅 데이터를 송수신하는 채팅 모듈;
상기 사용자 단말의 정면 카메라 영상의 얼굴의 행동 패턴을 인식하고 얼굴의 윤곽선과 눈2/코/귀2 얼굴의 특징점들을 인식하는 안면인식 모듈; 및
화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 해당 사용자 단말로 알람을 발생하거나 또는 경고 메시지를 출력하는 학습자의 알람 발생부;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 8,
The user terminal
A VOD media player that plays non-face-to-face lecture learning content;
A chat module that transmits and receives chat data between the instructor and the learner;
a face recognition module for recognizing a facial behavior pattern of the front camera image of the user terminal and recognizing face outlines and feature points of the eye2/nose/ear2 face; and
If the screen deviates from the screen by more than a certain angle (in case the eye-to-ear distance or the nose-to-ear distance in the corresponding direction exceeds a certain standard value depending on whether the 3 eye/nose points get closer to the 2 ears at both ends), an alarm is sent to the user terminal A learner's alarm generating unit for generating or outputting a warning message;
Attentional learning method in non-face-to-face learning based on web browsers.
제11항에 있어서,
상기 안면인식 모듈은 비대면 온라인 학습 시에 크기 보정/각도 보정된 표준 크기의 학습자의 얼굴 사진에 대하여 정면 얼굴인식 알고리즘을 사용하여 얼굴 객체를 추출하고 얼굴 행동 패턴을 인식하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 특징점들을 추출하며, 눈2/코/귀2의 얼굴의 특징점들의 각각 좌측/우측 귀와 좌측/우측 눈의 중심점(동공)과의 유클리디안 거리(d)와 유사도(similarity)를 계산하고, 얼굴사진 DB의 사용자의 얼굴 사진의 특정점들과 비교하여 시선 이탈 여부를 확인하며, 눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 오른쪽/왼쪽으로 머리 이동을 감지하고 시선 이탈과 관련된 얼굴 패턴을 검출하며, 얼굴 인식시에 안면윤곽선 인식이 안되는 경우, 화면으로부터 일정 각도 이상으로 벗어난 경우(눈/코 3점이 양 끝 귀 2점에 가까워지는 지에 따라 눈과 귀의 거리, 코와 귀의 거리의 해당 방향의 거리가 일정 기준치를 넘는 경우) 사용자 단말의 카메라로 촬영되는 얼굴 행동 패턴을 인식하여 전면 얼굴이 좌우로 돌아간 각도에 따라 우측 눈과 우측 귀의 거리와 좌측 눈과 좌측 귀의 거리가 달라지므로 해당 사용자 단말에서 알람을 발생하거나 또는 경고 메시지를 출력하는, 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 11,
The face recognition module extracts a face object using a frontal face recognition algorithm for a face photo of a learner of a standard size that has been size-corrected/angle-corrected during non-face-to-face online learning, recognizes a facial behavior pattern, and recognizes the outline of the learner's face The feature points of Eye 2/Nose/Ear 2 are extracted, and the Euclidean distance (d) and similarity between the central point (pupil) of the left/right ear and the left/right eye of the feature points of the face of Eye 2/Nose/Ear 2, respectively. (similarity) is calculated, and compared with specific points of the user's face photo in the face photo DB, whether the line of sight is out of sight is checked, and the head is moved to the right/left depending on whether the 3 points of the eyes/nose are closer to the 2 points of the ears at both ends. and detects a face pattern related to gaze deviation, and if the face contour is not recognized during face recognition, if it is out of a certain angle or more from the screen (eye and nose 3 points are closer to the 2 ears at both ends If the distance in the corresponding direction of the distance between the ears and the nose and ears exceeds a certain standard value) Recognizes the facial behavior pattern captured by the camera of the user terminal, and the distance between the right eye and the right ear and the left eye according to the angle at which the front face is turned left and right An attentional learning method in web browser-based non-face-to-face learning that generates an alarm or outputs a warning message at a corresponding user terminal because the distance between the ear and the left ear is different.
제8항에 있어서,
상기 학습 콘텐츠 서버는
WWW 서버;
상기 사용자 단말로 온라인 학습 콘텐츠를 제공하도록 제어하는 제어부;
상기 제어부에 연결되며, 회원 정보를 등록받아 ID/Passwd를 저장하여 관리하는 회원 등록부;
상기 제어부에 연결되며, QR 코드/Passwd 또는 ID/Passwd 또는 개인 인증서를 사용하여 인증하는 사용자 인증부;
상기 제어부에 연결되며, 상기 사용자 단말로 상기 온라인 학습(Learning) 콘텐츠를 제공하는 학습 콘텐츠 제공부;
상기 제어부에 연결되며, 사용자 정보에 대응하는 QR 코드를 발급하고 관리하는 QR 코드 관리부;
상기 제어부에 연결되며, 사용자 단말로부터 카메라의 응시자의 촬영 사진을 수신받아 표준 크기의 크기 보정/회전/각도 보정을 통해 표준 크기의 정면 얼굴 사진을 생성하고 서버의 데이터베이스에 저장된 사용자 정보와 표준 크기의 정면 얼굴 사진을 비교하여 감독관 단말에서 감독관이 확인하여 온라인 학습 자격을 확인하는 감독관 확인부;
상기 제어부에 연결되며, 사용자 단말에서 안면인식 모듈을 사용하여 학습자의 얼굴의 윤곽선과 눈2/코/귀2의 얼굴의 특징점들을 인식하고, 사용자 단말로부터 얼굴 인식 결과를 수신받는 얼굴 인식부; 및
응시자 단말들의 시험지와 작성 답안, 채점 결과를 저장하는 시험 정보DB; 응시자 정보와 표준 크기의 정면 얼굴 사진을 저장하는 응시자DB와 얼굴 DB;
를 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.
According to claim 8,
The learning content server
WWW server;
a control unit controlling to provide online learning content to the user terminal;
a member registration unit that is connected to the control unit and stores and manages ID/Passwd by receiving registered member information;
A user authentication unit that is connected to the control unit and authenticates using a QR code/Passwd or ID/Passwd or personal certificate;
a learning content provider connected to the controller and providing the online learning content to the user terminal;
a QR code management unit connected to the control unit and issuing and managing a QR code corresponding to user information;
It is connected to the control unit, receives a photograph taken by a camera of a candidate from a user terminal, generates a standard size frontal face picture through standard size size correction / rotation / angle correction, and compares user information stored in a database of a server with standard size. a supervisor confirmation unit that compares frontal face photos and confirms eligibility for online learning by a supervisor in a supervisor terminal;
a face recognition unit connected to the control unit, recognizing the outline of the learner's face and facial feature points of the eyes 2/nose/ear 2 using a face recognition module in the user terminal, and receiving a face recognition result from the user terminal; and
Test information DB for storing test papers, written answers, and scoring results of test taker terminals; a candidate DB and a face DB that store candidate information and a standard size frontal face picture;
Attentional learning method in non-face-to-face learning based on web browsers.
제8항에 있어서,
상기 학습 콘텐츠 서버는 응시자 정보들과 응시자의 현장 얼굴 사진, 감독관 정보를 시험 서버의 데이터베이스에 저장하여 관리하며, 온라인 시험 또는 UBT 시험시에 일정 시험시간 동안 각각의 응시자 단말에 시험지 작성 답안을 저장 후 시험 종료시 응시자 단말로부터 시험관리부를 구비하는 학습 콘텐츠 서버로 전송받아 저장하며, 응시자들의 시험지 작성 답안의 채점 결과를 응시자 단말로 제공하는 단계를 더 포함하는 웹 브라우저 기반의 비대면 학습에서 주의집중 학습 방법.

According to claim 8,
The learning content server stores and manages the candidate information, the candidate's on-site face picture, and the supervisor information in the database of the test server, and stores the test paper preparation answer in each candidate terminal during a certain test time during the online test or UBT test. Attentional learning method in web browser-based non-face-to-face learning, further comprising receiving and storing the test taker terminal to a learning content server having a test management unit at the end of the test, and providing the scoring results of the test takers' answers to the test taker terminal to the test taker terminal. .

KR1020230021899A 2020-10-08 2023-02-20 Cathexis learning system and method using AI in an untact learning based on Web browser KR20230053553A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020230021899A KR20230053553A (en) 2020-10-08 2023-02-20 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020240015437A KR20240040683A (en) 2020-10-08 2024-01-31 Cathexis learning system and method using AI in an untact learning based on Web browser

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200130051A KR20220046853A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230021899A KR20230053553A (en) 2020-10-08 2023-02-20 Cathexis learning system and method using AI in an untact learning based on Web browser

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020200130051A Division KR20220046853A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020240015437A Division KR20240040683A (en) 2020-10-08 2024-01-31 Cathexis learning system and method using AI in an untact learning based on Web browser

Publications (1)

Publication Number Publication Date
KR20230053553A true KR20230053553A (en) 2023-04-21

Family

ID=81211938

Family Applications (3)

Application Number Title Priority Date Filing Date
KR1020200130051A KR20220046853A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020230021899A KR20230053553A (en) 2020-10-08 2023-02-20 Cathexis learning system and method using AI in an untact learning based on Web browser
KR1020240015437A KR20240040683A (en) 2020-10-08 2024-01-31 Cathexis learning system and method using AI in an untact learning based on Web browser

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020200130051A KR20220046853A (en) 2020-10-08 2020-10-08 Cathexis learning system and method using AI in an untact learning based on Web browser

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020240015437A KR20240040683A (en) 2020-10-08 2024-01-31 Cathexis learning system and method using AI in an untact learning based on Web browser

Country Status (1)

Country Link
KR (3) KR20220046853A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102645421B1 (en) 2023-06-13 2024-03-11 주식회사 에듀클라우드 System for learning and managing foreign language using artificial intelligence based digital human and learner analysis

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102103521B1 (en) 2018-01-12 2020-04-28 상명대학교산학협력단 Artificial intelligence deep-learning based video object recognition system and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102103521B1 (en) 2018-01-12 2020-04-28 상명대학교산학협력단 Artificial intelligence deep-learning based video object recognition system and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102645421B1 (en) 2023-06-13 2024-03-11 주식회사 에듀클라우드 System for learning and managing foreign language using artificial intelligence based digital human and learner analysis

Also Published As

Publication number Publication date
KR20220046853A (en) 2022-04-15
KR20240040683A (en) 2024-03-28

Similar Documents

Publication Publication Date Title
Labayen et al. Online student authentication and proctoring system based on multimodal biometrics technology
KR102593624B1 (en) Online Test System using face contour recognition AI to prevent the cheating behaviour and method thereof
US20150379253A1 (en) User Identity Authentication Techniques for On-Line Content or Access
WO2021077382A1 (en) Method and apparatus for determining learning state, and intelligent robot
KR20240040683A (en) Cathexis learning system and method using AI in an untact learning based on Web browser
KR20230169880A (en) Cathexis learning system and method using AI in an untact learning based on Web browser
CN114298497A (en) Evaluation method and device for classroom teaching quality of teacher
CN114616565A (en) Living body detection using audio-visual disparity
Villa et al. A survey of biometric and machine learning methods for tracking students’ attention and engagement
Chou Presentation attack detection based on score level fusion and challenge-response technique
KR102581415B1 (en) UBT system using face contour recognition AI to prevent the cheating behaviour and method thereof
KR102615709B1 (en) Online Test System using face contour recognition AI to prevent the cheating behavior by using a front camera of examinee terminal installed audible video recording program and an auxiliary camera and method thereof
KR20230013236A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using speech recognition and method thereof
KR20230110681A (en) Online Test System using face contour recognition AI to prevent the cheating behaviour by using a front camera of examinee terminal and an auxiliary camera and method thereof
US11715330B2 (en) Liveness detection in an interactive video session
Seneviratne et al. Student and lecturer performance enhancement system using artificial intelligence
KR20230007250A (en) UBT system using face contour recognition AI and method thereof
Singh et al. A cheating detection system in online examinations based on the analysis of eye-gaze and head-pose
CN115132027A (en) Intelligent programming learning system and method based on multi-mode deep learning
Mothukuri et al. Invigilated online assessment: Various ways to minimize unauthorized help
US20230026929A1 (en) Information processing apparatus, information processing method, and program
KR20240078489A (en) Learning attention system and method by using face recognition supervisor technologies in ubiquitous based learning platform
KR20240077680A (en) Blended learning system and method based on AI
CN113256129A (en) Concentration degree analysis method and system and computer readable storage medium
Sakthivel et al. Online Education Pedagogy Approach

Legal Events

Date Code Title Description
A107 Divisional application of patent
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application
E601 Decision to refuse application
E801 Decision on dismissal of amendment