KR102383457B1 - Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same - Google Patents

Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same Download PDF

Info

Publication number
KR102383457B1
KR102383457B1 KR1020210069216A KR20210069216A KR102383457B1 KR 102383457 B1 KR102383457 B1 KR 102383457B1 KR 1020210069216 A KR1020210069216 A KR 1020210069216A KR 20210069216 A KR20210069216 A KR 20210069216A KR 102383457 B1 KR102383457 B1 KR 102383457B1
Authority
KR
South Korea
Prior art keywords
learning
learner
data
event information
unit
Prior art date
Application number
KR1020210069216A
Other languages
Korean (ko)
Inventor
조용상
Original Assignee
주식회사 아이스크림에듀
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이스크림에듀 filed Critical 주식회사 아이스크림에듀
Priority to KR1020210069216A priority Critical patent/KR102383457B1/en
Application granted granted Critical
Publication of KR102383457B1 publication Critical patent/KR102383457B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Abstract

The present invention provides an artificial intelligence tutoring system that remotely connects a learner's first terminal and a teacher's second terminal to support teaching and learning in a non-face-to-face environment, the system including: a sensor unit for detecting first event information of the learner in real time; a control unit that communicates with the first and second terminals, a web, and an external server by establishing a network, obtains second event information of at least one of the learner's content consumption amount, learning time, and test result from the first terminal, and outputs a preset notification signal according to at least one piece of event information among the first and second event information; a notification unit provided in the first and second terminals and visually displaying the notification signal on an arbitrary screen according to the notification signal output from the control unit. The first event information is biometric information of the learner. Customized learning and teacher work support in a non-face-to-face environment are enabled, so that a more active and efficient teaching and learning environment can be provided.

Description

교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템 및 이의 제어방법{ACTIVE ARTIFICIAL INTELLIGENCE TUTORING SYSTEM THAT SUPPORT TEACHING AND LEARNING AND METHOD FOR CONTROLLING THE SAME}ACTIVE ARTIFICIAL INTELLIGENCE TUTORING SYSTEM THAT SUPPORT TEACHING AND LEARNING AND METHOD FOR CONTROLLING THE SAME

본 발명은 교사에게 학습자의 학습정보는 물론, 학습자의 생체정보가 동시에 제공되도록 하고, 그 데이터가 실시간으로 축적 및 갱신되도록 한 구성을 통해 스스로 진화되어 강화된 비대면 환경에서의 맞춤형 학습과 교사의 업무지원이 가능하게 하며, 보다 능동적이고 효율적인 교수 및 학습환경을 제공할 수 있는 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템 및 이의 제어방법에 관한 것이다.The present invention provides the teacher with the learner's learning information as well as the learner's bio-information at the same time, and the data is accumulated and updated in real time through a configuration that evolves and strengthens customized learning in a non-face-to-face environment and the teacher's It relates to an active AI tutoring system that supports teaching and learning, which enables business support and provides a more active and efficient teaching and learning environment, and a control method thereof.

일반적으로, 인공지능(AI) 비서는 사용자가 발화하는 명령어의 의도를 파악해서 수행하고, 주변기기를 제어하는 음성 인터페이스의 편리성이 주요 특징인 반면, 인공지능 튜터링 시스템은 학습자에게 교사 및 강사의 개입이 필요한 상황을 스스로 파악하여 상황에 맞는 진단과 처방을 제공하는 맥락 중심의 능동적인 반응이 주요 특징이다.In general, an artificial intelligence (AI) assistant recognizes and executes the intention of commands uttered by the user, and the convenience of a voice interface to control peripheral devices is the main feature, whereas an artificial intelligence tutoring system provides learners with the intervention of teachers and instructors. Its main characteristic is the context-oriented active response that provides diagnosis and prescription appropriate to the situation by self-aware of this necessary situation.

현재, 이러한 인공지능 튜터링에 대한 기술이 포함된 국내 에듀테크(Education Technology)시장은 확대되고 있으나 그 성장세는 세계시장 대비 낮고, 영세사업자 비중이 높다.Currently, the domestic education technology market, which includes technology for artificial intelligence tutoring, is expanding, but its growth rate is low compared to the global market, and the proportion of small businesses is high.

예컨대, 소수의 대형사업자들에게 매출이 집중되는 한편, 전체 사업자 수의 절반을 차지하는 영세사업자의 매출은 1.6%에 불과해 산업 내 양극화가 존재하고, 이를 해결하기 위해 대형 에듀테크 기업은 기존 에듀테크 스타트업을 인수하여 인공지능 기술, 로봇기술을 활용한 서비스를 출시하며, 유망 에듀테크 스타트업을 직접 발굴 및 지원하며 새로운 기회를 모색하고 있다.For example, while sales are concentrated on a small number of large businesses, the sales of small businesses, which account for half of the total number of businesses, are only 1.6%, so there is polarization in the industry. Up, it launches services using artificial intelligence technology and robot technology, and seeks new opportunities by directly discovering and supporting promising edutech startups.

이에 따라, 에듀테크 스타트업은 기술력을 바탕으로 맞춤형 학습 서비스, 게임기반 학습, 외국어 교육, 코딩 교육 등 다양한 분야에서 성장하고 있으며, 학습자의 성취도, 학습이력 등 빅데이터를 분석해 능력을 진단하고 맞춤형 학습을 제공하는 AI(인공지능) 활용이 가장 두드러지게 나타나고 있다.Accordingly, Edutech startups are growing in various fields such as customized learning services, game-based learning, foreign language education, and coding education based on their technological prowess. The use of artificial intelligence (AI) is the most prominent.

특히, 최근 코로나19로 인해 개학이 연기되고, 비대면 교육에 대한 관심이 높아짐에 따라 업계는 에듀테크 확산을 위해 발빠르게 대처하고 있으며, 국내 교육서비스 및 에듀테크 스타트업은 코로나19로 영향을 받는 학생들에게 자사 서비스 무료 이용 혜택을 주며 고객 유치에 나서고 있다.In particular, as the start of school has been postponed due to the recent Corona 19 and interest in non-face-to-face education is growing, the industry is responding quickly to the spread of edutech, and domestic educational services and edutech startups are students affected by Corona 19. They are trying to attract customers by giving them free use of their services.

앞으로도, 세계 에듀테크 시장규모가 2025년 3,420억 달러로 예상되어 2018년 1,530억 달러 대비 2배 이상 확대될 것이며, 기업가치가 10억 달러 이상인 상장기업도 100개 이상으로 크게 늘어날 전망이다.In the future, the global edtech market is expected to reach $342 billion in 2025, more than double that of $153 billion in 2018, and the number of listed companies with a corporate value of more than $1 billion is expected to increase significantly to more than 100.

이러한 가운데, 종래 상용화되었던 맞춤형 학습 기술들은 학습 콘텐츠 간의 연계에 의존하거나, 틀린 문제의 개수를 단순하게 세어서 취약한 개념을 진단하는 정도에 그쳐, 학습자의 학습 능력 진단이 정교하지 않은 문제점이 존재하였다.Among these, conventionally commercialized customized learning technologies rely on linkages between learning contents or merely diagnose a weak concept by simply counting the number of wrong problems.

즉, 개인화된 맞춤형 학습을 제공하고자 하는 경우에도, 정확하지 않은 학습 능력 진단에 근거하게 됨으로써, 맞춤형 학습 시스템의 효율성 및 신뢰성을 확보하지 못하는 한계점이 있었다.That is, even when it is intended to provide personalized customized learning, it is based on an inaccurate diagnosis of learning ability, so there is a limitation in that the efficiency and reliability of the customized learning system cannot be secured.

따라서, 상기와 같은 종래기술의 문제점을 해결하여 보다 편리하고 경제적이며, 신속하고 정확한 교수 및 학습환경을 제공할 수 있는 능동형 인공지능 튜터링 시스템 및 이의 제어방법에 대한 니즈가 높아지는 실정이다.Accordingly, there is an increasing need for an active AI tutoring system and a control method thereof that can provide a more convenient, economical, quick and accurate teaching and learning environment by solving the problems of the prior art as described above.

대한민국 등록특허공보 제10-2056822호(발명의 명칭: 학습 서비스 제공 방법 및 그 장치)Republic of Korea Patent Publication No. 10-2056822 (Title of the invention: learning service providing method and device therefor)

따라서, 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 교사에게 학습자의 학습정보는 물론, 학습자의 생체정보가 동시에 제공되도록 하고, 그 데이터가 실시간으로 축적 및 갱신되도록 한 구성을 통해 스스로 진화되어 강화된 비대면 환경에서의 맞춤형 학습과 교사의 업무지원이 가능하게 하며, 보다 능동적이고 효율적인 교수 및 학습환경이 이루어질 수 있는 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템 및 이의 제어방법을 제공하는데 목적이 있다.Accordingly, the present invention has been devised to solve the above problems, and through a configuration in which the learner's learning information as well as the learner's bio-information are provided to the teacher at the same time, and the data is accumulated and updated in real time, Provides an active AI tutoring system and its control method that enable customized learning and teacher work support in an evolved and enhanced non-face-to-face environment, and support teaching and learning that can create a more active and efficient teaching and learning environment there is a purpose to

다만, 본 발명에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제들로 제한되지 않으며, 언급하지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the technical problems to be achieved in the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned are clearly to those of ordinary skill in the art to which the present invention belongs from the description below. can be understood

상기와 같은 목적을 달성하기 위한 기술적 수단인 본 발명의 일 실시예에 따른 학습자의 제1 단말과 교사의 제2 단말을 원격 연결하여 비대면 환경에서의 교수와 학습을 지원하는 인공지능 튜터링 시스템에 있어서, 상기 학습자의 제1 이벤트 정보를 실시간으로 검출하는 센서부; 상기 제1,2 단말 및 웹, 외부 서버와 네트워크를 구축하여 통신하고, 상기 제1 단말로부터 학습자의 콘텐츠 소비량, 학습시간, 시험결과 중 적어도 하나의 제2 이벤트 정보를 획득하며, 상기 제1,2 이벤트 정보 중 적어도 하나의 이벤트 정보에 따라 미리 설정된 알림신호를 출력하는 제어부; 및 상기 제1,2 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 알림부를 포함할 수 있고, 상기 제1 이벤트 정보는, 상기 학습자의 생체정보일 수 있다.An artificial intelligence tutoring system that supports teaching and learning in a non-face-to-face environment by remotely connecting the learner's first terminal and the teacher's second terminal according to an embodiment of the present invention, which is a technical means for achieving the above object. In claim 1, The learner's first event information in real time for detecting the sensor unit; Establishing and communicating with the first and second terminals, the web, and an external server, and acquiring second event information of at least one of the learner's content consumption, learning time, and test results from the first terminal, a control unit for outputting a preset notification signal according to at least one of the two event information; and a notification unit provided in the first and second terminals to visually display on an arbitrary screen according to the notification signal output from the control unit, wherein the first event information may be biometric information of the learner there is.

또한, 상기 제어부는, 상기 이벤트 정보를 데이터화하는 데이터 생성부; 상기 데이터 생성부에 의해 생성된 상기 이벤트 정보의 데이터를 기록하고, 상기 제2 단말에 의해 미리 지정된 학습도 평가 데이터를 저장하고 관리하는 데이터 베이스부; 상기 데이터 베이스부에 기록되는 상기 이벤트 정보의 데이터를 시간의 흐름에 따라 비교 분석하여 변화값을 산출하고, 상기 산출된 변화값을 상기 학습도 평가 데이터와 매칭시켜 임의의 학습도 평가정보를 생성하는 데이터 분석부; 및 상기 데이터 분석부로부터 생성된 학습도 평가정보에 대응하는 알림신호가 출력되도록 제어하는 알림신호 출력부를 포함할 수 있고, 상기 데이터 베이스부에는, 상기 이벤트 정보의 데이터가 실시간으로 축적 및 갱신될 수 있다.In addition, the control unit, the data generation unit for converting the event information into data; a database unit for recording the data of the event information generated by the data generating unit, and storing and managing the learning degree evaluation data previously specified by the second terminal; Comparing and analyzing the data of the event information recorded in the database unit over time to calculate a change value, and matching the calculated change value with the learning degree evaluation data to generate arbitrary learning degree evaluation information data analysis unit; and a notification signal output unit for controlling to output a notification signal corresponding to the learning degree evaluation information generated from the data analysis unit, and in the database unit, data of the event information can be accumulated and updated in real time there is.

또한, 상기 센서부는, 상기 학습자를 촬영하는 이미지 센서일 수 있고, 상기 제1 이벤트 정보는, 상기 학습자의 안면, 안구, 동공, 눈꺼풀 중 적어도 어느 하나의 이미지일 수 있으며, 상기 센서부로부터 제1 이벤트 정보가 검출될 경우, 상기 데이터 생성부는, 미리 저장된 이미지 프로세싱 프로그램을 통해 상기 제1 이벤트 정보의 픽셀값을 데이터로 가질 수 있다.In addition, the sensor unit may be an image sensor for photographing the learner, and the first event information may be an image of at least one of the learner's face, eyeballs, pupils, and eyelids. When event information is detected, the data generator may have a pixel value of the first event information as data through a pre-stored image processing program.

또한, 상기 센서부는, 상기 학습자의 음성을 감지하는 음성센서를 더 포함할 수 있고, 상기 제1 이벤트 정보는, 상기 학습자의 억양, 발음, 목소리 높낮이와 크기 중 적어도 어느 하나의 음향을 더 포함할 수 있다.In addition, the sensor unit may further include a voice sensor for detecting the learner's voice, and the first event information may further include at least one of the learner's intonation, pronunciation, voice pitch and volume. can

또한, 상기 알림부는, 상기 제1 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 미리 설정된 음향을 출력하는 음향출력부를 더 포함할 수 있고, 상기 음성센서 및 음향출력부는, 음성인식 SDK(인터페이스)를 탑재할 수 있다.In addition, the notification unit may further include a sound output unit that is provided in the first terminal and outputs a preset sound according to the notification signal output from the control unit, and the voice sensor and the sound output unit include a voice recognition SDK ( interface) can be installed.

한편, 상기와 같은 목적을 달성하기 위한 기술적 방법인 본 발명의 일 실시예에 따른 학습자의 제1 단말과 교사의 제2 단말을 원격 연결하여 비대면 환경에서의 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템의 제어방법에 있어서, a) 센서부가 학습자의 제1 이벤트 정보를 실시간으로 검출하는 단계; b) 제어부가 상기 제1,2 단말 및 웹, 외부 서버와 네트워크를 구축하여 통신하고, 상기 제1 단말로부터 학습자의 콘텐츠 소비량, 학습시간, 시험결과 중 적어도 하나의 제2 이벤트 정보를 획득하는 단계; c) 상기 제어부가 상기 제1,2 이벤트 정보 중 적어도 하나의 이벤트 정보에 따라 미리 설정된 알림신호를 출력하는 단계; 및 d) 알림부가 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 단계를 포함할 수 있다.On the other hand, an active artificial intelligence that supports teaching and learning in a non-face-to-face environment by remotely connecting the learner's first terminal and the teacher's second terminal according to an embodiment of the present invention, which is a technical method for achieving the above object. A method for controlling a tutoring system, comprising: a) detecting, by a sensor unit, first event information of a learner in real time; b) the control unit establishes and communicates with the first and second terminals, the web, and an external server, and acquiring second event information of at least one of the learner's content consumption amount, learning time, and test result from the first terminal ; c) outputting, by the control unit, a preset notification signal according to at least one of the first and second event information; and d) the notification unit visually displaying the notification signal on an arbitrary screen according to the notification signal output from the control unit.

또한, 상기 d)단계는, d-1) 상기 알림부의 음향출력부가 상기 제어부로부터 출력된 알림신호에 따라 미리 설정된 음향을 출력하는 단계를 더 포함할 수 있다.In addition, the step d) may further include: d-1) the sound output unit of the notification unit outputs a preset sound according to the notification signal output from the control unit.

또한, 상기 c)단계의 알림신호를 출력함에 있어서는, c-1) 상기 제어부의 데이터 생성부가 상기 이벤트 정보를 데이터화하는 단계; c-2) 상기 제어부의 데이터 베이스부가 상기 c-1)단계로부터 생성된 상기 이벤트 정보의 데이터를 기록하고, 상기 제2 단말에 의해 미리 지정된 학습도 평가 데이터를 저장하고 관리하는 단계; c-3) 상기 제어부의 데이터 분석부가 상기 c-2)단계로부터 기록되는 상기 이벤트 정보의 데이터를 시간의 흐름에 따라 비교 분석하여 변화값을 산출하고, 상기 산출된 변화값을 상기 학습도 평가 데이터와 매칭시켜 임의의 학습도 평가정보를 생성하는 단계; 및 c-4) 상기 제어부의 알림신호 출력부가 상기 c-3)단계로부터 생성된 상기 학습도 평가정보에 대응하는 알림신호가 출력되도록 제어하는 단계를 포함할 수 있다.In addition, in outputting the notification signal of step c), the method may include: c-1) converting the event information into data by a data generator of the control unit; c-2) recording the data of the event information generated in step c-1) by the database unit of the control unit, and storing and managing the learning degree evaluation data specified in advance by the second terminal; c-3) the data analysis unit of the control unit compares and analyzes the data of the event information recorded from step c-2) over time to calculate a change value, and use the calculated change value as the learning degree evaluation data generating arbitrary learning degree evaluation information by matching with ; and c-4) controlling the notification signal output unit of the control unit to output a notification signal corresponding to the learning degree evaluation information generated in step c-3).

본 발명은 교사에게 학습자의 학습정보는 물론, 학습자의 생체정보가 동시에 제공되도록 하고, 그 데이터가 실시간으로 축적 및 갱신되도록 한 구성을 통해 스스로 진화되어 강화된 비대면 환경에서의 맞춤형 학습과 교사의 업무지원이 가능하게 하며, 보다 능동적이고 효율적인 교수 및 학습환경을 제공할 수 있다.The present invention provides the teacher with the learner's learning information as well as the learner's bio-information at the same time, and the data is accumulated and updated in real time through a configuration that evolves and strengthens customized learning in a non-face-to-face environment and the teacher's It enables work support and can provide a more active and efficient teaching and learning environment.

또한, 본 발명에 따르면, 비대면 환경에서 학습자의 지식수준을 예측하고, 최적화된 학습 모델과 교강사의 학습지도 모델을 추천하는 AI 튜터링 시스템의 핵심 기술의 제품화를 기대할 수 있다.In addition, according to the present invention, it can be expected to commercialize the core technology of the AI tutoring system that predicts the learner's knowledge level in a non-face-to-face environment and recommends an optimized learning model and a teacher's learning guidance model.

또한, 본 발명에 따르면, 학습자의 행동 모델과 안면 방향 및 시선 추적 기술 등 생체정보를 활용한 이상행동 탐지 핵심 기술의 제품화를 기대할 수 있다.In addition, according to the present invention, it can be expected to commercialize a core technology for detecting abnormal behavior using biometric information such as a learner's behavior model and facial direction and eye tracking technology.

또한, 본 발명에 따르면, 행동모델과 생체정보를 활용하여 보다 높은 집중도를 유지하면서 보다 적은 시간에 최대의 학습효과를 달성할 수 있는 학습습관을 형성할 수 있다.In addition, according to the present invention, it is possible to form a learning habit that can achieve the maximum learning effect in less time while maintaining a higher concentration by utilizing the behavior model and biometric information.

또한, 본 발명에 따르면, 비대면 환경에서 생체정보를 기반으로 한 본인 인증과 서술형 평가를 포함한 자동채점 기술의 제품화를 기대할 수 있다.In addition, according to the present invention, the commercialization of automatic scoring technology including self-authentication and narrative evaluation based on biometric information in a non-face-to-face environment can be expected.

또한, 본 발명에 따르면, 음성인식 인터페이스와 AI 튜터링 시스템이 참조하는 멀티모달 데이터세트 기반의 맥락을 분리하여 글로벌향 AI 튜터링 서비스 플랫폼으로 활용할 수 있다.In addition, according to the present invention, it can be used as a global AI tutoring service platform by separating the context based on the multimodal dataset referenced by the voice recognition interface and the AI tutoring system.

또한, 본 발명에 따르면, 학습자의 취약점을 진단하고 추천 모델을 제공하는 멀티모달 데이터 네트워크를 글로벌향으로 구축함으로써, 다양한 음성인식 SDK/API와 연동되는 사업화 기회를 확대시킬 수 있다.In addition, according to the present invention, by establishing a multi-modal data network that diagnoses learners' weaknesses and provides a recommendation model in a global direction, it is possible to expand the commercialization opportunities linked with various voice recognition SDKs/APIs.

또한, 본 발명에 따르면, 학습 이벤트 데이터 표준을 준수하는 학습관리플랫폼(LMS)에 학습자의 행동모델과 생체정보를 활용한 이상행동 탐지 기술을 SaaS형 서비스로 제공할 수 있다.In addition, according to the present invention, it is possible to provide a learning management platform (LMS) that complies with the learning event data standard, an abnormal behavior detection technology using the learner's behavior model and biometric information as a SaaS type service.

또한, 본 발명에 따르면, 비대면 교육 환경에서 필수적으로 요구되는 학습에서의 효율성과 평가에서의 공정성, 객관성, 신뢰성을 담보할 수 있는 AI 기반의 에듀테크 기술을 제공할 수 있다.In addition, according to the present invention, it is possible to provide an AI-based edutech technology that can ensure efficiency in learning, which is essential in a non-face-to-face educational environment, and fairness, objectivity, and reliability in evaluation.

또한, 본 발명에 따르면, 학업 스트레스로 인해 학습에 대한 두려움과 위압감을 호소하는 학습자들에게 친구 같은 디지털 동반자 서비스를 제공함으로써, 사회문제를 보다 해소할 수 있다.In addition, according to the present invention, it is possible to further solve social problems by providing a digital companion service such as a friend to learners who complain of fear and intimidation due to academic stress.

다만, 본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the effects obtainable in the present invention are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be able

도 1은 본 발명의 실시예에 따른 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템의 외부구성 및 사용예를 나타낸 도면.
도 2는 상기 능동형 인공지능 튜터링 시스템의 전자적인 구성을 개략적으로 나타낸 블록도.
도 3은 본 발명의 실시예에 따른 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템의 제어방법을 나타낸 흐름도.
도 4는 도 3에 따른 알림신호 출력단계의 구성을 나타낸 흐름도.
도 5는 본 발명과 관련하여, 학습습관이 학업 성취도에 미치는 영향을 나타낸 분석표.
도 6은 본 발명과 관련하여, 학습자의 학습상태 이상징후가 발견될 경우의 학습자에게 제공되는 디스플레이를 나타낸 사용예시도.
도 7은 본 발명과 관련하여, 학습도 평가정보가 알림부에 디스플레이되는 일례를 나타낸 사용예시도.
도 8은 본 발명과 관련한 시스템의 처리과정을 능동과 수동으로 구분하여 도시한 흐름도.
도 9는 상기 능동형 인공지능 튜터링 시스템의 음성인식 SDK와 데이터 베이스부가 활용되는 모습을 나타낸 예시도.
도 10은 상기 능동형 인공지능 튜터링 시스템의 학습 플랫폼과 글로벌 음성인식 SDK가 연동되는 일례를 나타낸 개념도.
도 11 내지 도 13은 본 발명과 관련하여, 학습도 평가정보가 알림부에 디스플레이되는 다른 일례를 나타낸 사용예시도.
1 is a view showing an external configuration and use example of an active artificial intelligence tutoring system supporting teaching and learning according to an embodiment of the present invention.
Figure 2 is a block diagram schematically showing the electronic configuration of the active artificial intelligence tutoring system.
3 is a flowchart illustrating a control method of an active artificial intelligence tutoring system supporting teaching and learning according to an embodiment of the present invention.
4 is a flowchart showing the configuration of a notification signal output step according to FIG.
5 is an analysis table showing the effect of study habits on academic achievement in relation to the present invention.
6 is an exemplary view showing a display provided to a learner when abnormal symptoms of the learner's learning state are found in relation to the present invention;
7 is an exemplary view showing an example in which learning degree evaluation information is displayed in a notification unit in relation to the present invention.
8 is a flowchart showing the processing process of the system related to the present invention divided into active and passive.
9 is an exemplary diagram illustrating a state in which the voice recognition SDK and the database unit of the active artificial intelligence tutoring system are utilized.
10 is a conceptual diagram illustrating an example in which the learning platform of the active artificial intelligence tutoring system and the global voice recognition SDK are linked.
11 to 13 are diagrams showing another example in which learning degree evaluation information is displayed in the notification unit in relation to the present invention.

이하에서는, 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명에 관한 설명은 구조적 내지 기능적 설명을 위한 실시예에 불과하므로, 본 발명의 권리범위는 본문에 설명된 실시예에 의하여 제한되는 것으로 해석되어서는 아니 된다. 즉, 실시예는 다양한 변경이 가능하고 여러 가지 형태를 가질 수 있으므로 본 발명의 권리범위는 기술적 사상을 실현할 수 있는 균등물들을 포함하는 것으로 이해되어야 한다. 또한, 본 발명에서 제시된 목적 또는 효과는 특정 실시예가 이를 전부 포함하여야 한다거나 그러한 효과만을 포함하여야 한다는 의미는 아니므로, 본 발명의 권리범위는 이에 의하여 제한되는 것으로 이해되어서는 아니 될 것이다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, since the description of the present invention is merely an embodiment for structural or functional description, the scope of the present invention should not be construed as being limited by the embodiment described in the text. That is, since the embodiment may have various changes and may have various forms, it should be understood that the scope of the present invention includes equivalents capable of realizing the technical idea. In addition, since the object or effect presented in the present invention does not mean that a specific embodiment should include all of them or only such effects, it should not be understood that the scope of the present invention is limited thereby.

본 발명에서 서술되는 용어의 의미는 다음과 같이 이해되어야 할 것이다.The meaning of the terms described in the present invention should be understood as follows.

"제1", "제2" 등의 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위한 것으로, 이들 용어들에 의해 권리범위가 한정되어서는 아니 된다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결될 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다고 언급된 때에는 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 한편, 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.Terms such as “first” and “second” are for distinguishing one component from another, and the scope of rights should not be limited by these terms. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component. When a component is referred to as being “connected to” another component, it may be directly connected to the other component, but it should be understood that other components may exist in between. On the other hand, when it is mentioned that a certain element is "directly connected" to another element, it should be understood that the other element does not exist in the middle. Meanwhile, other expressions describing the relationship between elements, that is, "between" and "between" or "neighboring to" and "directly adjacent to", etc., should be interpreted similarly.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함하는 것으로 이해되어야 하고, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expression is to be understood to include the plural expression unless the context clearly dictates otherwise, and terms such as "comprise" or "have" are not intended to refer to the specified feature, number, step, action, component, part or any of them. It is intended to indicate that a combination exists, and it should be understood that it does not preclude the possibility of the existence or addition of one or more other features or numbers, steps, operations, components, parts, or combinations thereof.

여기서 사용되는 모든 용어들은 다르게 정의되지 않는 한, 본 발명이 속하는 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한 이상적이거나 과도하게 형식적인 의미를 지니는 것으로 해석될 수 없다.All terms used herein have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs, unless otherwise defined. Terms defined in the dictionary should be interpreted as being consistent with the meaning of the context of the related art, and cannot be interpreted as having an ideal or excessively formal meaning unless explicitly defined in the present invention.

도 1은 본 발명의 실시예에 따른 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템의 외부구성 및 사용예를 나타낸 도면이고, 도 2는 상기 능동형 인공지능 튜터링 시스템의 전자적인 구성을 개략적으로 나타낸 블록도이며, 도 3은 본 발명의 실시예에 따른 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템의 제어방법을 나타낸 흐름도이고, 도 4는 도 3에 따른 알림신호 출력단계의 구성을 나타낸 흐름도이며, 도 5는 본 발명과 관련하여, 학습습관이 학업 성취도에 미치는 영향을 나타낸 분석표이고, 도 6은 본 발명과 관련하여, 학습자의 학습상태 이상징후가 발견될 경우의 학습자에게 제공되는 디스플레이를 나타낸 사용예시도이며, 도 7은 본 발명과 관련하여, 학습도 평가정보가 알림부에 디스플레이되는 일례를 나타낸 사용예시도이고, 도 8은 본 발명과 관련한 시스템의 처리과정을 능동과 수동으로 구분하여 도시한 흐름도이며, 도 9는 상기 능동형 인공지능 튜터링 시스템의 음성인식 SDK와 데이터 베이스부가 활용되는 모습을 나타낸 예시도이고, 도 10은 상기 능동형 인공지능 튜터링 시스템의 학습 플랫폼과 글로벌 음성인식 SDK가 연동되는 일례를 나타낸 개념도이며, 도 11 내지 도 13은 본 발명과 관련하여, 학습도 평가정보가 알림부에 디스플레이되는 다른 일례를 나타낸 사용예시도이다.1 is a diagram showing an external configuration and use example of an active AI tutoring system supporting teaching and learning according to an embodiment of the present invention, and FIG. 2 is a block schematically showing the electronic configuration of the active AI tutoring system 3 is a flowchart illustrating a control method of an active artificial intelligence tutoring system supporting teaching and learning according to an embodiment of the present invention, and FIG. 4 is a flowchart showing the configuration of the notification signal output step according to FIG. 5 is an analysis table showing the effect of learning habits on academic achievement in relation to the present invention, and FIG. 6 is a display provided to the learner when abnormal symptoms of the learner's learning state are found in relation to the present invention. 7 is an exemplary view showing an example in which learning degree evaluation information is displayed in the notification unit in relation to the present invention, and FIG. It is a flowchart, and FIG. 9 is an exemplary diagram showing the state in which the voice recognition SDK and database part of the active artificial intelligence tutoring system are utilized, and FIG. 10 is the learning platform of the active artificial intelligence tutoring system and the global voice recognition SDK are linked It is a conceptual diagram illustrating an example, and FIGS. 11 to 13 are diagrams illustrating use of another example in which learning evaluation information is displayed in the notification unit in relation to the present invention.

도 1 및 도 2에 도시한 바와 같이, 본 발명에 따른 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템(100)은 제1 단말(110), 제2 단말(120), 센서부(130), 웹(140), 외부 서버(150), 제어부(160) 및 알림부(170)를 포함하여 구성할 수 있다.1 and 2, the active AI tutoring system 100 supporting teaching and learning according to the present invention includes a first terminal 110, a second terminal 120, a sensor unit 130, It can be configured to include the web 140 , the external server 150 , the control unit 160 , and the notification unit 170 .

단, 도 1 및 도 2에 도시된 구성요소들이 본 발명을 위해 필수적인 최소한의 구성일뿐, 이보다 더 부가적인 구성요소들을 갖는 인공지능 튜터링 시스템이 구현될 수 있다.However, the components shown in FIGS. 1 and 2 are only the minimum components essential for the present invention, and an artificial intelligence tutoring system having more additional components than this can be implemented.

상기 제1 단말(110)은 키보드, 패드, 마우스 등 다양한 공지의 입력기기(미도시)를 포함하여 구성된 것으로, 본 발명의 바람직한 실시예에 따르면, 학습자(L)에게 위치하여 상기 학습자(L)의 후술될 제2 이벤트 정보(E2)가 웹(140), 외부 서버(150) 및 제어부(160)에 입력되도록 하는 입력환경을 제공한다.The first terminal 110 is configured to include various well-known input devices (not shown) such as a keyboard, a pad, and a mouse. According to a preferred embodiment of the present invention, it is located at the learner L and the learner L An input environment is provided in which the second event information E2 to be described later is input to the web 140 , the external server 150 , and the control unit 160 .

또한, 상기 제2 단말(120)은 상술한 제1 단말(110)과 원격 통신할 수 있도록 구성된 것으로, 그 구성요소는 상기 제1 단말(110)과 동일하게 가질 수 있으며, 본 발명에 따르면, 교사(T)에게 위치하여 상기 교사(T)가 후술될 학습도 평가 데이터(D2)를 상기 웹(140), 외부 서버(150) 및 제어부(160)에 입력시킬 수 있는 입력환경을 제공한다.In addition, the second terminal 120 is configured to be able to communicate remotely with the above-described first terminal 110, and its components may have the same components as those of the first terminal 110, and according to the present invention, It is located in the teacher T and provides an input environment in which the teacher T can input the learning level evaluation data D2 to be described later to the web 140 , the external server 150 and the control unit 160 .

여기서, 상기 제1,2 단말(110, 120)은 복수개로 구성될 수도 있으며, 바람직하게는, 태블릿이 적용될 수 있으나, 이에 한정되지 않고, PC, 스마트폰 등이 적용될 수 있다.Here, the first and second terminals 110 and 120 may be configured in plurality, and preferably, a tablet may be applied, but is not limited thereto, and a PC, a smartphone, etc. may be applied.

이러한 상기 제1,2 단말(110, 120)의 구성은 일반적으로 게재된 통상의 단말장치에 해당하므로, 세부 구성은 도면에 미도시 하였음은 물론, 그에 대한 더 구체적인 설명은 생략하기로 한다.Since the configuration of the first and second terminals 110 and 120 generally corresponds to a published general terminal device, the detailed configuration is not shown in the drawings, and a more detailed description thereof will be omitted.

상기 센서부(130)는 학습자(L)의 제1 이벤트 정보(E1)를 실시간으로 검출하는 기능을 수행하는 것으로서, 상기 학습자(L)의 신체에 대한 움직임을 감지할 수 있도록 상기 제1 단말(110)에 위치시키는 것이 바람직하다.The sensor unit 130 performs a function of detecting the first event information E1 of the learner L in real time, and the first terminal ( 110) is preferred.

즉, 본 발명에서 상기 제1 이벤트 정보(E1)는 학습자(L)의 생체정보를 의미할 수 있고, 상기 센서부(130)는 학습자(L)의 모습, 상태를 촬영하는 이미지 센서인 것이 바람직하며, 이에 따라, 상기 제1 이벤트 정보(E1)는 학습자(L)의 안면, 안구, 동공, 눈꺼풀 중 적어도 어느 하나의 이미지가 될 수 있다.That is, in the present invention, the first event information E1 may mean the biometric information of the learner L, and the sensor unit 130 is preferably an image sensor that captures the shape and state of the learner L. Accordingly, the first event information E1 may be an image of at least one of the face, eyeballs, pupils, and eyelids of the learner L.

이때, 상기 센서부(130)는 CMOS형 카메라 또는 CCD 카메라가 바람직하나, 이에 한정되지 않고, 스피드돔 카메라, 핀홀 카메라, 팬틸트줌 카메라 등이 사용될 수도 있으며, 이는 본 발명의 기술적 범위 내에서 해당관련분야의 통상지식을 가진 당업자에 의해 다양하게 변경설계될 수 있다.At this time, the sensor unit 130 is preferably a CMOS camera or a CCD camera, but is not limited thereto, and a speed dome camera, a pinhole camera, a pan/tilt zoom camera, etc. may be used, which is within the technical scope of the present invention. It can be variously modified and designed by those skilled in the art.

나아가, 상기 센서부(130)는 야간에도 촬영이 가능하도록 적외선 카메라가 부가적으로 구비될 수도 있다.Furthermore, the sensor unit 130 may be additionally provided with an infrared camera to enable shooting even at night.

한편, 상기 센서부(130)는 학습자(L)의 억양, 발음, 목소리 높낮이와 크기 등 음향과 관련된 생체정보까지도 검출할 수 있도록 상기 학습자(L)의 음성을 감지하는 음성센서(131)를 더 포함하여 구성할 수도 있다.On the other hand, the sensor unit 130 further includes a voice sensor 131 that detects the learner's voice so as to detect even sound-related biometric information such as the learner's intonation, pronunciation, voice pitch and size, etc. It can also be configured to include

이때, 상기 음성센서(131)는 음성을 전기신호로 변환하는 음성인식 SDK(인터페이스)가 탑재되도록 구성한 마이크로폰(microphone) 모듈인 것이 바람직하고, 그 종류는 카본형, 리본(벨로시티)형, 동전(다이나믹)형, 압전(크리스탈)형, 콘덴서형 등 음성을 감지할 수 있는 본 발명의 기술적 범위 내에서 당업자가 자유롭게 취급 사용할 수 있다.At this time, the voice sensor 131 is preferably a microphone module configured to be equipped with a voice recognition SDK (interface) that converts voice into electrical signals, and the type is carbon type, ribbon (velocity) type, or coin. (dynamic) type, piezoelectric (crystal) type, condenser type, etc. within the technical scope of the present invention capable of detecting voice, those skilled in the art can freely handle and use.

상기 웹(140)은 텍스트, 그래픽, 이미지, 음향, 비디오 등 다양한 멀티미디어를 지원할 수 있도록 구성된 인터넷 서비스로서, 본 발명에 따르면, 상기 제1,2 단말(110, 120)과 연결되어 상기 제1,2 단말(110, 120)을 각각 이용하는 학습자(L) 및 교사(T)에게 다양한 공지의 교육용 콘텐츠가 제공되도록 구성할 수 있다.The web 140 is an Internet service configured to support various multimedia such as text, graphic, image, sound, and video. According to the present invention, the web 140 is connected to the first and second terminals 110 and 120 and the first, It can be configured to provide various publicly known educational contents to the learner L and the teacher T who use the two terminals 110 and 120, respectively.

상기 외부 서버(150)는 상술한 웹(140)에 대응되도록 구성되어 상기 제1,2 단말(110, 120), 웹(140) 및 제어부(160)와 네트워크를 형성하는 것이 바람직하고, 상기 웹(140)과 연동하여 제어부(160)에 미리 설정된 프로그램을 서비스하는 기능을 수행한다.Preferably, the external server 150 is configured to correspond to the above-described web 140 to form a network with the first and second terminals 110 and 120 , the web 140 and the control unit 160 , and the web In conjunction with 140 , a function of servicing a program preset in the control unit 160 is performed.

여기서, 상기 프로그램은 교육과 관련된 각종 데이터로 이루어진 교육용 프로그램일 수 있으며, 이는 공지의 기술로서, 해당관련분야의 통상지식을 가진 당업자에 의해 자유롭게 변경설계될 수 있음은 물론이다.Here, the program may be an educational program consisting of various data related to education, which is a well-known technology and can be freely changed and designed by those skilled in the art with common knowledge in the relevant field.

상기 제어부(160)는 웹(140) 및 외부 서버(150)에 대응되는 교육용 프로그램을 형성하면서 상기 제1,2 이벤트 정보(E1, E2)에 따라 능동적으로 반응하여, 상기 제1 단말(110)을 사용하는 학습자(L)에게는 학습을, 상기 제2 단말(120)을 사용하는 교사(T)에게는 교수를 지원하기 위한 교육용 제어서버로서, 바람직하게는, 상기 제1,2 단말(110, 120), 웹(140) 및 외부 서버(150)와 네트워크를 구축하여 상호 통신하도록 구성되는 것이 바람직하다.The control unit 160 actively reacts according to the first and second event information E1 and E2 while forming an educational program corresponding to the web 140 and the external server 150, and the first terminal 110 As an educational control server for supporting learning to a learner L using the , and teaching to a teacher T using the second terminal 120, ), it is preferable to establish a network with the web 140 and the external server 150 to communicate with each other.

이러한 상기 제어부(160)는 본 발명에 따르면, 상기 제1 단말(110)로부터 입력되어 상기 웹(140) 및 외부 서버(150)를 통해 서비스되는 학습자(L)의 콘텐츠 소비량, 학습시간, 시험결과 중 적어도 하나의 제2 이벤트 정보(E2)를 획득하며, 상기 제1,2 이벤트 정보(E1, E2) 중 적어도 하나의 이벤트 정보(E)에 따라 미리 설정된 알림신호를 출력하는 기능을 수행하는데, 더 구체적으로는, 상기 도 2를 참조하여, 데이터 생성부(161), 데이터 베이스부(162), 데이터 분석부(163) 및 알림신호 출력부(164)를 포함하여 구성될 수 있다.According to the present invention, the control unit 160 is input from the first terminal 110 and is serviced through the web 140 and the external server 150 of the learner L's content consumption, learning time, and test result. Acquires at least one second event information (E2) from among the first and second event information (E1, E2) performing a function of outputting a preset notification signal according to at least one event information (E), More specifically, referring to FIG. 2 , it may be configured to include a data generation unit 161 , a database unit 162 , a data analysis unit 163 , and a notification signal output unit 164 .

상기 데이터 생성부(161)는 전술한 이벤트 정보(E)를 후술될 데이터 베이스부(162)가 인식가능하게 변환하는 기능을 수행하는 것으로, 상기 이벤트 정보(E)를 데이터화하여 임의의 이벤트 정보 데이터(D1)를 생성하도록 구성될 수 있다.The data generating unit 161 performs a function of converting the above-described event information (E) so that the database unit 162 to be described later can recognize it, and converts the event information (E) into data to obtain arbitrary event information data. (D1) may be configured to generate.

예컨대, 상기 센서부(130)로부터 제1 이벤트 정보(E1')가 검출되고, 이 제1 이벤트 정보(E1')가 상기 학습자(L)의 이미지일 경우, 상기 데이터 생성부(161)는 미리 저장된 이미지 프로세싱 프로그램을 통해 상기 제1 이벤트 정보(E1')의 픽셀값을 데이터로 갖도록 구성할 수 있다.For example, when the first event information E1' is detected from the sensor unit 130 and the first event information E1' is an image of the learner L, the data generation unit 161 may A pixel value of the first event information E1' may be configured to be data through a stored image processing program.

즉, 이때, 이벤트 정보 데이터(D1')는 픽셀값인 것이다.That is, at this time, the event information data D1' is a pixel value.

여기서, 상기 이미지 프로세싱 프로그램은 픽셀을 분석하여 백터로 정의된 화소들의 물체 및 신체부위의 색상, 음영, 위치, 크기 등을 인식하거나, 물체 또는 신체부위의 경계선 및 윤곽선 등의 에지, 윤곽에 근사하는 선분, 곡선 등을 구하여 인식할 수도 있고, 상기 이미지 내에 존재하는 모서리점을 포함한 불변인 특징점을 추출하여 인식을 수행할 수도 있다.Here, the image processing program analyzes pixels to recognize the color, shade, location, size, etc. of the object and body part of the pixels defined as a vector, or to approximate the edge and outline of the object or body part boundary and outline Recognition may be performed by obtaining a line segment, a curve, or the like, or may be recognized by extracting an invariant feature point including a corner point existing in the image.

이러한 이미지 프로세싱 프로그램은 일반적인 공지의 기술로서, 해당관련분야의 통상지식을 가진 당업자에 의해 다양한 변경설계가 가능함은 물론이다.Such an image processing program is a commonly known technology, and various modifications and designs are possible by those skilled in the art having ordinary knowledge in the relevant field.

한편, 상기 센서부(130)로부터 제1 이벤트 정보(E1")가 검출되고, 이 제1 이벤트 정보(E1")가 상기 학습자(L)의 음성일 경우, 상기 데이터 생성부(161)는 미리 저장된 사운드 프로세싱 프로그램을 통해 상기 제1 이벤트 정보(E1")의 음파값을 데이터로 갖도록 구성할 수도 있다.On the other hand, when the first event information E1 ″ is detected from the sensor unit 130 and the first event information E1 ″ is the voice of the learner L, the data generation unit 161 is configured in advance. It may be configured to have the sound wave value of the first event information E1″ as data through a stored sound processing program.

즉, 이때의 이벤트 정보 데이터(D1")는 음파값이 된다.That is, the event information data D1" at this time becomes a sound wave value.

여기서, 상기 사운드 프로세싱 프로그램 또한, 일반적으로 게재된 통상의 공지기술이므로, 이에 한정되지 않고, 성문인식 프로그램, 주파수 분석 프로그램 등 다양한 공지의 음향처리 프로그램이 적용될 수 있으며, 본 발명에 따른 상기 음성센서(131)의 음성인식 SDK(인터페이스)가 적용될 수도 있다.Here, the sound processing program is also a commonly published known technology, so it is not limited thereto, and various well-known sound processing programs such as voiceprint recognition programs and frequency analysis programs can be applied, and the voice sensor ( 131) of the speech recognition SDK (interface) may be applied.

상기 데이터 베이스부(162)는 데이터 생성부(161)에 의해 생성된 이벤트 정보 데이터(D1)를 기록하고, 상기 제2 단말(120)에 의해 미리 지정된 학습도 평가 데이터(D2)를 저장하고 관리하는 구성으로, 상기 이벤트 정보 데이터(D1)가 실시간으로 축적 및 갱신될 수 있고, 바람직하게는, 보안강화를 위해 공지의 데이터 네트워크 샌드박스가 적용될 수 있다.The database unit 162 records the event information data (D1) generated by the data generation unit (161), stores and manages the learning degree evaluation data (D2) specified in advance by the second terminal (120) In this configuration, the event information data D1 can be accumulated and updated in real time, and preferably, a well-known data network sandbox can be applied for security enhancement.

예컨대, 상기 학습도 평가 데이터(D2)는 실시간 단위적으로 변화하는 이벤트 정보 데이터(D1)에 대응되도록 구성하여, 상기 교사(T)가 학습자(L)의 학습도를 평가하기 위한 지표가 되는 데이터로서, 상기 교사(T)가 사용하는 제2 단말(120)의 입력기기(미도시)를 통해 입력되면서 미리 지정될 수 있으며, 상기 웹(140) 및 외부 서버(150)에도 입력되어 미리 지정될 수 있다.For example, the learning level evaluation data (D2) is configured to correspond to the event information data (D1) that changes in units of real-time, so that the teacher (T) is an index for evaluating the learning level of the learner (L). As an example, the teacher T may be specified in advance while being input through an input device (not shown) of the second terminal 120 used by the teacher T, and may be input to the web 140 and the external server 150 to be specified in advance. can

이때, 상기 학습도 평가 데이터(D2)는 도 9의 (b)를 참조하여, 학습과정에서 발생하는 학습행동과 패턴, 교과 이해수준, 학습량의 기간별 총량과 패턴, 성적의 통계적 분포 및 추이와 원인 그리고 그에 대한 처방 등을 정량화한 데이터, 학습 3종(학습전략, 학습동기, 학습 부적응), 진로/적성 1종(흥미, 적성), 성격/인성 4종(대인 환경, 학업 스트레스, 자존감, 정서행동) 총 8종의 정서에 대한 진단검사 유형을 기록한 데이터 등을 포함하는 것이 바람직하다.At this time, the learning degree evaluation data (D2) is the learning behavior and patterns occurring in the learning process with reference to FIG. And quantified data on prescriptions, 3 types of learning (learning strategy, learning motivation, learning maladjustment), 1 type of career/aptitude (interesting, aptitude), 4 types of personality/personality (interpersonal environment, academic stress, self-esteem, emotion) Behavior) It is desirable to include data recording the types of diagnostic tests for a total of eight emotions.

이러한 상기 학습도 평가 데이터(D2)는 본 발명에 따르면, 국제표준(IMS Caliper) 기반으로 정량화될 수 있고, 상기 웹(140) 또는 외부 서버(150)에서 현재 상용화되고 있는 AI 분석 서비스 프로그램 "홈런 AI 생활기록부" 의 공유를 통해 추출될 수도 있으며, 본 발명의 기술적 범위 내에서 해당관련분야의 당업자에 의해 다양하게 변경설계가 가능함은 물론이다.According to the present invention, the learning level evaluation data (D2) can be quantified based on the international standard (IMS Caliper), and the AI analysis service program "Home Run" currently being commercialized in the web 140 or external server 150 It can also be extracted through sharing of "AI life record", and it is of course possible to change design in various ways by those skilled in the relevant field within the technical scope of the present invention.

상기 홈런 AI 생활기록부는 (주)아이스크림에듀에서 제공하는 학습 분석 서비스로서, IMS Global Learning Consortium에서 IMS Caliper Analytics 1.1 표준 인증을 받았으며, 학습자(L)의 학습현황, 학습패턴, 공부습관 등을 분석하여 월별로 요약하여 e포트폴리오 형태의 시각적 자료로 학습자(L) 및 교사(T)에게 제공하는 기술이다.The home run AI life record is a learning analysis service provided by Ice Cream Edu, and has been certified by the IMS Caliper Analytics 1.1 standard from the IMS Global Learning Consortium. It is a technology that is summarized by month and provided to learners (L) and teachers (T) as visual data in the form of an e-portfolio.

상기 데이터 분석부(163)는 데이터 베이스부(162)에 기록되는 상기 이벤트 정보 데이터(D1)를 시간의 흐름에 따라 비교 분석하여 변화값을 산출하고, 상기 산출된 변화값을 상기 학습도 평가 데이터(D2)와 매칭시켜 임의의 학습도 평가정보(I)를 생성하도록 구성될 수 있다.The data analysis unit 163 compares and analyzes the event information data D1 recorded in the database unit 162 over time to calculate a change value, and use the calculated change value as the learning degree evaluation data. It may be configured to generate any learning degree evaluation information (I) by matching with (D2).

여기서, 상기 학습도 평가정보(I)는 복수개의 학습도 평가 데이터(D2)로 이루어져, 도 6의 (a)와 같은 퀴즈 메시지 형태, 도 6의 (b)와 같은 경고 메시지 형태, 도 7의 (a)와 (b) 및 도 11 내지 도 13과 같은 e포트폴리오 형태의 시각적 자료로 제공될 수 있는 정보로서, 상기 학습도 평가 데이터(D2)의 집약체이다.Here, the learning level evaluation information (I) consists of a plurality of learning level evaluation data (D2), in the form of a quiz message as shown in (a) of FIG. 6, a warning message form as shown in FIG. As information that can be provided as visual data in the form of an e-portfolio, such as (a) and (b) and FIGS. 11 to 13 , it is an aggregate of the learning degree evaluation data D2.

좀 더 구체적으로, 본 발명에 따른 상기 데이터 분석부(163)의 실시예를 각각 구분하여 설명하면 다음과 같다.More specifically, each of the embodiments of the data analysis unit 163 according to the present invention will be separately described as follows.

제1 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값에 대응하여 상기 학습자(L)의 동공 픽셀 위치값의 변화값이 지속적으로 산출되는 경우, 상기 데이터 분석부(163)는 학습자(L)가 "학습모드에 진입하여 정상적으로 집중하면서 학습 페이스를 따라가고 있다" 고 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the first embodiment, the data analysis unit 163 continuously calculates the change value of the pupil pixel position value of the learner L in response to the change value of the learning time or the content consumption amount among the event information data D1 In this case, the data analysis unit 163 may determine that the learner L is "entering the learning mode and is following the learning pace while concentrating normally", matching the corresponding learning degree evaluation data D2 It is possible to generate the learning degree evaluation information (I).

제2 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출(학습모드 진입)되나, 상기 학습자(L)의 신체 일부 중 적어도 하나에 대한 픽셀 위치값의 변화값이 산출되지 않는(변화값 = 0) 경우, 상기 데이터 분석부(163)는 학습자(L)의 "자리이탈" 로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the second embodiment, the data analysis unit 163 continuously calculates the change value of the learning time or content consumption among the event information data D1 (entering the learning mode), but among the body parts of the learner L When the change value of the pixel position value for at least one is not calculated (change value = 0), the data analysis unit 163 may determine that the learner L is out of place, and the corresponding learning degree By matching the evaluation data (D2), it is possible to generate the learning degree evaluation information (I).

제3 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출(학습모드 진입)되나, 상기 학습자(L)의 동공 픽셀 위치값의 변화값이 산출되지 않는(변화값 = 0) 경우와, 상기 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출(학습모드 진입)되나, 상기 학습자(L)의 동공 또는 안면에 대한 픽셀 위치값의 변화값이 미리 설정된 객체위치 픽셀값(화면상의 객체 이미지 위치 픽셀값)의 영역을 초과하여 산출되는 경우, 상기 데이터 분석부(163)는 학습자(L)의 "집중도 하락" 으로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the third embodiment, the data analysis unit 163 continuously calculates the change value of the learning time or content consumption among the event information data D1 (entering the learning mode), but the pupil pixel position of the learner L In the case where the change value of the value is not calculated (change value = 0), the change value of the learning time or content consumption among the event information data D1 is continuously calculated (entering the learning mode), but the learner L When the change value of the pixel position value for the pupil or the face is calculated to exceed the preset area of the object position pixel value (the object image position pixel value on the screen), the data analysis unit 163 determines the It can be determined as "decreased concentration", and the learning degree evaluation information (I) can be generated by matching the corresponding learning degree evaluation data (D2).

이때, 상기 "집중도 하락"에 대한 제3 실시예는 후술될 알림부(170)를 통해 상기 도 6의 (a)와 같이 디스플레이될 수 있다.In this case, the third embodiment of the “intensity drop” may be displayed as shown in FIG. 6( a ) through the notification unit 170 , which will be described later.

제4 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값은 급격히 감소하고, 시험결과의 변화값은 급격히 증가하는 경우, 상기 데이터 분석부(163)는 학습자(L)의 "불성실한 문제풀이" 로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the fourth embodiment, when the change value of the learning time or content consumption among the event information data D1 in the data analysis unit 163 sharply decreases and the change value of the test result rapidly increases, the data analysis unit 163 may be determined as "unfaithful problem solving" of the learner L, and the learning level evaluation information I may be generated by matching the corresponding learning level evaluation data D2.

이때, 상기 "불성실한 문제풀이"에 대한 제4 실시예는 상기 알림부(170)를 통해 상기 도 6의 (b)와 같이 디스플레이될 수 있다.At this time, the fourth embodiment of the "unfaithful problem solving" may be displayed through the notification unit 170 as shown in FIG. 6(b).

제5 실시예로는, 상기 학습자(L)의 오답노트 관련 콘텐츠가 생성된 이후, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 오답노트 관련 콘텐츠 소비량의 변화값이 산출되지 않는(변화값 = 0) 경우, 상기 데이터 분석부(163)는 학습자(L)의 "오답노트 미확인" 으로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the fifth embodiment, after the content related to the incorrect answer note of the learner L is generated, the change value of the content consumption related to the incorrect answer note among the event information data D1 in the data analysis unit 163 is not calculated ( If the change value = 0), the data analysis unit 163 may determine that the learner L's "incorrect answer note is not confirmed", and matches the learning level evaluation data D2 corresponding to this to match the learning level evaluation information (I) ) can be created.

여기서, 본 발명에 따르면, 상기 오답노트 관련 콘텐츠는, 상기 데이터 베이스부(162)에서 생성가능하게 구성되는 것이 바람직하며, 오답노트를 확인하는 학습습관의 중요성은 성취 수준에 따른 학업성취에 대한 다중 회귀분석 결과(출처:‘비대면 학습 환경에서 초등학생의 학습 습관이 학업 성취도에 미치는 영향에 대한 학습 분석’, 아이스크림에듀)를 나타낸 도 5의 표에서 P 부분을 참조하여 알 수 있다.Here, according to the present invention, it is preferable that the content related to the incorrect answer note is configured to be created in the database unit 162, and the importance of the learning habit of checking the incorrect note is multiple for academic achievement according to the achievement level. It can be seen by referring to part P in the table of FIG. 5 showing the results of the regression analysis (source: 'Learning analysis on the effect of elementary school students' learning habits on academic achievement in a non-face-to-face learning environment', Ice Cream Edu).

제6 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출(학습모드 진입)되고, 상기 학습자(L)의 안면 픽셀 위치값의 변화값이 지속적으로 산출(학습공간 출석)되나, 상기 학습자(L)의 안구 픽셀 크기값의 변화값이 일정시점 기준으로 불규칙하게 산출되거나, 상기 학습자(L)의 동공 픽셀 위치값의 변화값이 일정시간 산출되지 않는 경우, 상기 데이터 분석부(163)는 학습자(L)의 "졸음 상태" 로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the sixth embodiment, the change value of the learning time or content consumption among the event information data D1 in the data analysis unit 163 is continuously calculated (entering the learning mode), and the position of the facial pixel of the learner L The change value of the value is continuously calculated (learning space attendance), but the change value of the eye pixel size value of the learner L is irregularly calculated based on a certain point in time, or the change in the pupil pixel position value of the learner L When the value is not calculated for a certain period of time, the data analysis unit 163 may determine that the learner L is in a "drowsiness state", and matches the learning level evaluation data D2 corresponding to the learning level evaluation information ( I) can be created.

제7 실시예로는, 상기 데이터 분석부(163)에서 이벤트 정보 데이터(D1) 중 상기 학습자(L)의 눈, 입 윤곽에 대한 픽셀 위치값의 변화값과, 상기 학습자(L)의 안면 픽셀에 대한 음영값 또는 색상값의 변화값과, 상기 학습자(L)의 음성에 대한 음파값의 변화값이 일정기간의 평균 변화값 영역에서 벗어나 산출되는 경우, 상기 데이터 분석부(163)는 학습자(L)의 "우울 상태" 또는 "분노 상태" 로 판단할 수 있으며, 이에 대응하는 학습도 평가 데이터(D2)를 매칭시켜 학습도 평가정보(I)를 생성할 수 있다.In the seventh embodiment, in the event information data D1 in the data analysis unit 163 , the change value of pixel position values for the eye and mouth outlines of the learner L and the facial pixels of the learner L When the change value of the shade value or color value for , and the change value of the sound wave value for the learner's voice are calculated out of the average change value region for a certain period of time, the data analysis unit 163 is the learner ( L) can be determined as the "depressed state" or "anger state", and the learning degree evaluation information I can be generated by matching the corresponding learning degree evaluation data D2.

상기 알림신호 출력부(164)는 상술한 데이터 분석부(163)로부터 생성된 상기 학습도 평가정보(I)에 대응하는 알림신호가 출력되도록 제어하는 구성으로, 바람직하게는, 상기 알림부(170)에 텍스트 또는 이미지의 형태로 표시가능한 알림신호를 출력한다.The notification signal output unit 164 is configured to control so that a notification signal corresponding to the learning degree evaluation information (I) generated from the above-described data analysis unit 163 is output, preferably, the notification unit 170 ) to output a notification signal that can be displayed in the form of text or image.

상기 알림부(170)는 제어부(160)의 상기 알림신호 출력부(164)로부터 출력되는 알림신호에 따라 미리 설정된 텍스트와 이미지를 임의의 화면 상에 시각적으로 디스플레이하는 것으로, 바람직하게는, 상기 학습자(L)의 제1 단말(110), 상기 교사(T)의 제2 단말(120)에 각각 구비되도록 구성하는 것이 바람직하다.The notification unit 170 visually displays preset text and images on an arbitrary screen according to the notification signal output from the notification signal output unit 164 of the control unit 160, preferably, the learner It is preferable to configure so that the first terminal 110 of (L) and the second terminal 120 of the teacher (T) are respectively provided.

이러한 상기 알림부(170)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함하여 구성될 수 있다.The notification unit 170 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED), and a flexible display. It may be configured to include at least one of a flexible display and a three-dimensional display (3D display).

또한, 상기 알림부(170)는 제어부(160)의 상기 알림신호 출력부(164)로부터 출력되는 알림신호에 따라 미리 설정된 음향을 출력하는 음향출력부(171)를 더 포함할 수 있다.In addition, the notification unit 170 may further include a sound output unit 171 that outputs a preset sound according to a notification signal output from the notification signal output unit 164 of the control unit 160 .

상기 음향출력부(171)는 제1 단말(110)에 구비되는 것이 바람직하고, 본 발명에 따르면, 상기 음성센서(131)와는 개별적으로 음성인식 SDK(인터페이스)를 탑재할 수도 있다.The sound output unit 171 is preferably provided in the first terminal 110, and according to the present invention, a voice recognition SDK (interface) may be mounted separately from the voice sensor 131 .

즉, 상기 음성센서(131) 및 음향출력부(171)는 공지의 AI 스피커 구성을 취할 수 있으며, 나아가, 본 발명과의 구성 간 연결관계에 의해 AI 튜터모듈을 구성할 수 있게 된다.That is, the voice sensor 131 and the sound output unit 171 may have a known AI speaker configuration, and furthermore, an AI tutor module may be configured by a connection relationship between the configurations with the present invention.

또한, 상기 음성센서(131) 및 음향출력부(171)는 각각 탑재된 음성인식 SDK(인터페이스)를 통해 상기 도 9의 (a)와 같이, 멀티턴이 가능한 프로세스가 이루어질 수 있으며, 상기 도 9의 (b)와 같이, 상기 음성인식 SDK(인터페이스)를 통해 전사된 학습자(L)의 음성에 대한 비정형 데이터(텍스트)를 상기 데이터 베이스부(162)에 축적할 수도 있다.In addition, the voice sensor 131 and the sound output unit 171 can perform a multi-turn process, as shown in FIG. 9 (a), through the respectively mounted voice recognition SDK (interface). As shown in (b) of (b), unstructured data (text) of the learner L's voice transcribed through the voice recognition SDK (interface) may be accumulated in the database unit 162 .

나아가, 상기 음성센서(131) 및 음향출력부(171)는 다국어 지원이 가능하도록 구글 또는 아마존의 음성인식 SDK, 네이버 클로바 API 등 다양한 공지의 글로벌 음성인식 SDK/API가 적용될 수 있으며, 이에 대한 프로세스 개념은 도 10에 나타낸 것과 같이 이루어질 수 있다.Furthermore, the voice sensor 131 and the sound output unit 171 may apply various well-known global voice recognition SDKs/APIs such as Google or Amazon's voice recognition SDK and Naver Clova API to enable multi-language support, and the process for this The concept may be as shown in FIG. 10 .

더불어, 본 발명의 바람직한 실시예에 따른 도면에서는, 상기 음성센서(131) 및 음향출력부(171)를 상기 제1 단말(110)에 위치 및 구비되도록 한 것으로 도시하였으나, 이에 한정되지 않고, 상기 교사(T)에게도 그 기능이 일부 제공되도록 상기 제2 단말(120)에도 위치 및 구비되도록 구성할 수 있으며, 이는 본 발명에서의 도면에서는 생략(미도시)하였다.In addition, in the drawings according to a preferred embodiment of the present invention, the voice sensor 131 and the sound output unit 171 are shown to be positioned and provided in the first terminal 110, but the present invention is not limited thereto. It can be configured to be positioned and provided in the second terminal 120 so that some of its functions are also provided to the teacher T, which is omitted (not shown) in the drawings in the present invention.

상술한 본 발명의 구성 간 결합관계에 의하여, 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템(100)은 상기 도 8의 (a)에 도시된 바와 같이, 학습모드 실행영역 진입시에는 학습 중 상시 실행되며 개입이 필요한 순간 각 구성의 기능이 능동적으로 동작할 수 있게 되고, 상기 도 8의 (b)에 도시된 바와 같이, 콘텐츠 입력모드 실행영역 진입시에는 상기 학습자(L)의 아이콘 터치(입력신호) 또는 음성명령에 의해 각 구성의 기능이 수동적으로 실행될 수 있게 된다.According to the coupling relationship between the configurations of the present invention described above, the active AI tutoring system 100 supporting teaching and learning is always executed during learning when entering the learning mode execution area, as shown in FIG. 8 (a). At the moment when intervention is required, the functions of each component can be actively operated. As shown in FIG. 8(b), when entering the content input mode execution area, the learner L's icon touch (input signal) Alternatively, the function of each component can be manually executed by a voice command.

한편, 이와 같이 구성된 능동형 인공지능 튜터링 시스템(100)을 제어하는 방법은 도 3을 참조하여 제1 이벤트 정보 검출단계(S100), 제2 이벤트 정보 획득단계(S200), 알림신호 출력단계(S300) 및 알림부 디스플레이 단계(S400)를 포함하여 구성할 수 있다.On the other hand, the method of controlling the active artificial intelligence tutoring system 100 configured as described above is a first event information detection step (S100), a second event information acquisition step (S200), and a notification signal output step (S300) with reference to FIG. 3 . and a notification unit display step (S400).

상기 제1 이벤트 정보 검출단계(S100)에서는 센서부(130)가 상기 학습자(L)의 제1 이벤트 정보(E1)를 실시간으로 검출한다.In the first event information detection step S100 , the sensor unit 130 detects the first event information E1 of the learner L in real time.

상기 제2 이벤트 정보 획득단계(S200)에서는 제어부(160)가 상기 제1,2 단말(110, 120) 및 웹(140), 외부 서버(150)와 네트워크를 구축하여 통신하고, 상기 제1 단말(110, 120)로부터 학습자(L)의 콘텐츠 소비량, 학습시간, 시험결과 중 적어도 하나의 제2 이벤트 정보(E2)를 획득한다.In the second event information acquisition step (S200), the control unit 160 establishes a network and communicates with the first and second terminals 110 and 120, the web 140, and the external server 150, and the first terminal Second event information E2 of at least one of the learner L's content consumption amount, learning time, and test result is obtained from 110 and 120 .

상기 알림신호 출력단계(S300)는 제어부(160)가 상기 제1,2 이벤트 정보(E1, E2) 중 적어도 하나의 이벤트 정보(E)에 따라 미리 설정된 알림신호를 출력하는 단계로서, 도 4에 나타낸 바와 같이, 이벤트 정보 데이터 생성단계(S310), 데이터 관리단계(S320), 학습도 평가정보 생성단계(S330) 및 알림신호 출력제어단계(S340)를 포함하여 구성할 수 있다.The notification signal output step (S300) is a step in which the control unit 160 outputs a preset notification signal according to at least one event information E among the first and second event information E1 and E2, as shown in FIG. As shown, it can be configured to include an event information data generation step (S310), a data management step (S320), a learning degree evaluation information generation step (S330), and a notification signal output control step (S340).

좀 더 구체적으로, 상기 이벤트 정보 데이터 생성단계(S310)는 제어부(160)의 상기 데이터 생성부(161)가 이벤트 정보(E)를 데이터화한다.More specifically, in the event information data generation step ( S310 ), the data generation unit 161 of the control unit 160 converts the event information E into data.

상기 데이터 관리단계(S320)에서는 제어부(160)의 상기 데이터 베이스부(162)가 상기 이벤트 정보 데이터 생성단계(S310)로부터 생성된 상기 이벤트 정보 데이터(D1)를 기록하고, 상기 제2 단말(120)에 의해 미리 지정된 학습도 평가 데이터(D2)를 저장하고 관리한다.In the data management step (S320), the database unit 162 of the control unit 160 records the event information data D1 generated from the event information data generation step (S310), and the second terminal 120 ) stores and manages the degree of learning evaluation data (D2) specified in advance by.

상기 학습도 평가정보 생성단계(S330)에서는 제어부(160)의 상기 데이터 분석부(163)가 상기 데이터 관리단계(S320)로부터 기록되는 상기 이벤트 정보 데이터(D1)를 시간의 흐름에 따라 비교 분석하여 변화값을 산출하고, 상기 산출된 변화값을 상기 학습도 평가 데이터(D2)와 매칭시켜 임의의 학습도 평가정보(I)를 생성한다.In the learning degree evaluation information generation step (S330), the data analysis unit 163 of the control unit 160 compares and analyzes the event information data D1 recorded from the data management step S320 over time. A change value is calculated, and the calculated change value is matched with the learning degree evaluation data D2 to generate arbitrary learning degree evaluation information I.

상기 알림신호 출력제어단계(S340)에서는 제어부(160)의 상기 알림신호 출력부(164)가 상기 학습도 평가정보 생성단계(S330)로부터 생성된 상기 학습도 평가정보(I)에 대응하는 알림신호가 출력되도록 제어한다.In the notification signal output control step (S340), the notification signal output unit 164 of the control unit 160 is a notification signal corresponding to the learning level evaluation information (I) generated from the learning level evaluation information generating step (S330) is controlled to be output.

다음으로, 상기 알림부 디스플레이 단계(S400)에서는 알림부(170)가 상기 제어부(160)의 알림신호 출력부(164)로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이한다.Next, in the notification unit display step ( S400 ), the notification unit 170 visually displays on an arbitrary screen according to the notification signal output from the notification signal output unit 164 of the control unit 160 .

여기서, 상기 알림부 디스플레이 단계(S400)는 알림부(170)의 상기 음향출력부(171)가 제어부(160)의 상기 알림신호 출력부(164)로부터 출력된 알림신호에 따라 미리 설정된 음향을 출력하는 알림부 음향출력단계(S410)를 더 포함하여 구성할 수 있다.Here, in the notification unit display step (S400), the sound output unit 171 of the notification unit 170 outputs a preset sound according to the notification signal output from the notification signal output unit 164 of the control unit 160 It can be configured to further include a notification unit sound output step (S410).

상술한 바와 같이 개시된 본 발명의 바람직한 실시예들에 대한 상세한 설명은 당업자가 본 발명을 구현하고 실시할 수 있도록 제공되었다. 상기에서는 본 발명의 바람직한 실시예들을 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 본 발명의 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. 예를 들어, 당업자는 상술한 실시예들에 기재된 각 구성을 서로 조합하는 방식으로 이용할 수 있다. 따라서, 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다.The detailed description of the preferred embodiments of the present invention disclosed as described above is provided to enable any person skilled in the art to make and practice the present invention. Although the above has been described with reference to preferred embodiments of the present invention, it will be understood by those skilled in the art that various modifications and changes can be made to the present invention without departing from the scope of the present invention. For example, those skilled in the art can use each configuration described in the above-described embodiments in a way in combination with each other. Accordingly, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein.

본 발명은 본 발명의 정신 및 필수적 특징을 벗어나지 않는 범위에서 다른 특정한 형태로 구체화될 수 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니 되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 본 발명은 여기에 나타난 실시형태들에 제한되려는 것이 아니라, 여기서 개시된 원리들 및 신규한 특징들과 일치하는 최광의 범위를 부여하려는 것이다. 또한, 특허청구범위에서 명시적인 인용 관계가 있지 않은 청구항들을 결합하여 실시예를 구성하거나 출원 후의 보정에 의해 새로운 청구항으로 포함할 수 있다.The present invention may be embodied in other specific forms without departing from the spirit and essential characteristics of the present invention. Accordingly, the above detailed description should not be construed as restrictive in all respects but as exemplary. The scope of the present invention should be determined by a reasonable interpretation of the appended claims, and all modifications within the equivalent scope of the present invention are included in the scope of the present invention. The present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features disclosed herein. In addition, claims that are not explicitly cited in the claims can be combined to form an embodiment or included as a new claim by amendment after filing.

100 : 능동형 인공지능 튜터링 시스템 110 : 제1 단말
120 : 제2 단말 130 : 센서부
131 : 음성센서 140 : 웹
150 : 외부 서버 160 : 제어부
161 : 데이터 생성부 162 : 데이터 베이스부
163 : 데이터 분석부 164 : 알림신호 출력부
170 : 알림부 171 : 음향출력부
E1 : 제1 이벤트 정보 E2 : 제2 이벤트 정보
E : 제1,2 이벤트 정보 중 적어도 하나의 이벤트 정보
D1 : 이벤트 정보 데이터 D2 : 학습도 평가 데이터
I : 학습도 평가정보 L : 학습자
T : 교사
100: active artificial intelligence tutoring system 110: first terminal
120: second terminal 130: sensor unit
131: voice sensor 140: web
150: external server 160: control unit
161: data generation unit 162: database unit
163: data analysis unit 164: notification signal output unit
170: notification unit 171: sound output unit
E1: first event information E2: second event information
E: at least one event information among the first and second event information
D1: Event information data D2: Learning degree evaluation data
I: Learning level evaluation information L: Learner
T: teacher

Claims (8)

학습자의 제1 단말과 교사의 제2 단말을 원격 연결하여 비대면 환경에서의 교수와 학습을 지원하는 인공지능 튜터링 시스템에 있어서,
상기 학습자의 제1 이벤트 정보를 실시간으로 검출하는 센서부;
상기 제1,2 단말 및 웹, 외부 서버와 네트워크를 구축하여 통신하고, 상기 제1 단말로부터 학습자의 콘텐츠 소비량, 학습시간, 시험결과 중 적어도 하나의 제2 이벤트 정보를 획득하며, 상기 제1,2 이벤트 정보 중 적어도 하나의 이벤트 정보에 따라 미리 설정된 알림신호를 출력하는 제어부; 및
상기 제1,2 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 임의의 화면 상에 시각적으로 디스플레이하는 알림부를 포함하되,
상기 제1 이벤트 정보는, 상기 학습자의 생체정보인 것을 특징으로 하고,
상기 제어부는,
상기 이벤트 정보를 데이터화하는 데이터 생성부;
상기 데이터 생성부에 의해 생성된 상기 이벤트 정보의 데이터를 기록하고, 상기 제2 단말에 의해 미리 지정된 학습도 평가 데이터를 저장하고 관리하는 데이터 베이스부;
상기 데이터 베이스부에 기록되는 상기 이벤트 정보의 데이터를 시간의 흐름에 따라 비교 분석하여 변화값을 산출하고, 상기 산출된 변화값을 상기 학습도 평가 데이터와 매칭시켜 임의의 학습도 평가정보를 생성하는 데이터 분석부; 및
상기 데이터 분석부로부터 생성된 학습도 평가정보에 대응하는 알림신호가 출력되도록 제어하는 알림신호 출력부를 포함하되,
상기 데이터 베이스부에는, 상기 이벤트 정보의 데이터가 실시간으로 축적 및 갱신되고, 임의의 오답노트 관련 콘텐츠가 생성가능하게 구성되는 것을 특징으로 하며,
상기 센서부는, 상기 학습자를 촬영하는 이미지 센서인 것을 특징으로 하고,
상기 제1 이벤트 정보는, 상기 학습자의 안면, 안구, 동공, 눈꺼풀 중 적어도 어느 하나의 이미지인 것을 특징으로 하며,
상기 센서부로부터 검출된 제1 이벤트 정보가 상기 학습자의 이미지일 경우, 상기 데이터 생성부는, 미리 저장된 이미지 프로세싱 프로그램을 통해 상기 제1 이벤트 정보의 픽셀값을 데이터로 갖는 것을 특징으로 하고,
상기 센서부는, 상기 학습자의 음성을 감지하는 음성센서를 더 포함하는 것을 특징으로 하며,
상기 제1 이벤트 정보는, 상기 학습자의 억양, 발음, 목소리 높낮이와 크기 중 적어도 어느 하나의 음향을 더 포함하는 것을 특징으로 하고,
상기 센서부로부터 검출된 제1 이벤트 정보가 상기 학습자의 음성일 경우, 상기 데이터 생성부는, 미리 저장된 사운드 프로세싱 프로그램을 통해 상기 제1 이벤트 정보의 음파값을 데이터로 갖는 것을 특징으로 하며,
상기 학습도 평가 데이터는,
학습과정에서 발생하는 학습행동과 패턴, 교과 이해수준, 학습량의 기간별 총량과 패턴, 성적의 통계적 분포 및 추이와 원인 그리고 그에 대한 처방을 정량화한 데이터; 및
학습 3종(학습전략, 학습동기, 학습 부적응), 진로/적성 1종(흥미와 적성), 성격/인성 4종(대인 환경, 학업 스트레스, 자존감, 정서행동) 총 8종의 정서에 대한 진단검사 유형을 기록한 데이터를 포함하는 것을 특징으로 하고,
상기 데이터 분석부는,
상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값에 대응하여 상기 학습자의 동공 픽셀 위치값의 변화값이 지속적으로 산출되는 경우, 상기 학습자가 학습모드에 진입하여 정상적으로 집중하면서 학습 페이스를 따라가고 있다고 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하며,
상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출되나, 상기 학습자의 신체 일부 중 적어도 하나에 대한 픽셀 위치값의 변화값이 산출되지 않는 경우, 상기 학습모드에 진입된 상태에서의 상기 학습자의 자리이탈로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하고,
상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출되나, 상기 학습자의 동공 픽셀 위치값의 변화값이 산출되지 않는 경우와, 상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출되나, 상기 학습자의 동공 또는 안면에 대한 픽셀 위치값의 변화값이 미리 설정된 객체위치 픽셀값의 영역을 초과하여 산출되는 경우, 상기 학습모드에 진입된 상태에서의 상기 학습자의 집중도 하락으로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하며,
상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값은 급격히 감소하고, 시험결과의 변화값은 급격히 증가하는 경우, 상기 학습자의 불성실한 문제풀이로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하고,
상기 학습자의 오답노트 관련 콘텐츠가 생성된 이후, 상기 이벤트 정보의 데이터 중 오답노트 관련 콘텐츠 소비량의 변화값이 산출되지 않는 경우, 상기 학습자의 오답노트 미확인으로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하며,
상기 이벤트 정보의 데이터 중 학습시간 또는 콘텐츠 소비량의 변화값은 지속적으로 산출되고, 상기 학습자의 안면 픽셀 위치값의 변화값이 지속적으로 산출되나, 상기 학습자의 안구 픽셀 크기값의 변화값이 일정시점 기준으로 불규칙하게 산출되거나, 상기 학습자의 동공 픽셀 위치값의 변화값이 일정시간 산출되지 않는 경우, 상기 학습자가 학습공간에 출석하여 상기 학습모드에 진입된 상태에서의 상기 학습자의 졸음 상태로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하고,
상기 이벤트 정보의 데이터 중 상기 학습자의 눈, 입 윤곽에 대한 픽셀 위치값의 변화값과, 상기 학습자의 안면 픽셀에 대한 음영값 또는 색상값의 변화값과, 상기 학습자의 음성에 대한 음파값의 변화값이 일정기간의 평균 변화값 영역에서 벗어나 산출되는 경우, 상기 학습자의 우울 상태 또는 분노 상태로 판단하면서, 이에 대응하는 학습도 평가 데이터를 매칭시켜 학습도 평가정보를 생성하는 것을 특징으로 하며,
상기 알림부는,
상기 제1 단말에 구비되어, 상기 제어부로부터 출력된 알림신호에 따라 미리 설정된 음향을 출력하는 음향출력부를 더 포함하는 것을 특징으로 하고,
상기 음성센서 및 음향출력부는,
음성인식 SDK(인터페이스)를 탑재한 것을 특징으로 하는 교수와 학습을 지원하는 능동형 인공지능 튜터링 시스템.
In the artificial intelligence tutoring system that supports teaching and learning in a non-face-to-face environment by remotely connecting the learner's first terminal and the teacher's second terminal,
a sensor unit for detecting the learner's first event information in real time;
Establishing and communicating with the first and second terminals, the web, and an external server, and acquiring second event information of at least one of the learner's content consumption amount, learning time, and test result from the first terminal, a control unit for outputting a preset notification signal according to at least one event information of the 2 event information; and
A notification unit provided in the first and second terminals to visually display on an arbitrary screen according to the notification signal output from the control unit,
The first event information is characterized in that the biometric information of the learner,
The control unit is
a data generation unit that converts the event information into data;
a database unit for recording the data of the event information generated by the data generating unit, and storing and managing the learning degree evaluation data previously specified by the second terminal;
Comparing and analyzing the data of the event information recorded in the database unit over time to calculate a change value, and matching the calculated change value with the learning degree evaluation data to generate arbitrary learning degree evaluation information data analysis unit; and
A notification signal output unit for controlling to output a notification signal corresponding to the learning degree evaluation information generated from the data analysis unit is included,
In the database unit, the data of the event information is accumulated and updated in real time, and it is characterized in that it is configured to be able to generate any wrong answer note related content,
The sensor unit, characterized in that the image sensor for photographing the learner,
The first event information is characterized in that at least one image of the learner's face, eyeballs, pupils, and eyelids,
When the first event information detected from the sensor unit is the learner's image, the data generation unit has a pixel value of the first event information as data through a pre-stored image processing program,
The sensor unit, characterized in that it further comprises a voice sensor for detecting the learner's voice,
The first event information, characterized in that it further comprises at least one of the learner's intonation, pronunciation, voice pitch and volume,
When the first event information detected from the sensor unit is the learner's voice, the data generating unit is characterized in that it has a sound wave value of the first event information as data through a pre-stored sound processing program,
The learning degree evaluation data is,
Data quantifying learning behaviors and patterns occurring in the learning process, subject comprehension level, total amount and pattern of learning amount by period, statistical distribution, trend and cause of grades, and prescriptions; and
3 types of learning (learning strategy, learning motivation, learning maladjustment), 1 type of career/aptitude (interest and aptitude), 4 types of personality/personality (interpersonal environment, academic stress, self-esteem, emotional behavior) Diagnosis of 8 types of emotions characterized in that it contains data recording the type of examination,
The data analysis unit,
When the change value of the pupil pixel position value of the learner is continuously calculated in response to the change value of the learning time or content consumption among the data of the event information, the learner enters the learning mode and follows the learning pace while concentrating normally Determining that there is, matching the corresponding learning level evaluation data to generate learning level evaluation information,
Although the change value of the learning time or content consumption among the data of the event information is continuously calculated, when the change value of the pixel position value for at least one of the body parts of the learner is not calculated, in the state in which the learning mode is entered while judging that the learner is out of place, matching the corresponding learning level evaluation data to generate learning level evaluation information,
A case in which the change value of the learning time or content consumption among the data of the event information is continuously calculated, but the change value of the pupil pixel position value of the learner is not calculated, and the change of the learning time or the content consumption among the data of the event information The value is continuously calculated, but when the change value of the pixel position value for the pupil or the face of the learner is calculated beyond the preset object position pixel value area, the learner's concentration level in the state entering the learning mode Determining a decline, matching the corresponding learning level evaluation data to generate learning level evaluation information,
When the change value of learning time or content consumption among the data of the event information decreases rapidly and the change value of the test result increases rapidly, it is judged as the learner's insincere problem solving, and the corresponding learning degree evaluation data is matched to generate learning evaluation information,
After the learner's incorrect note-related content is created, if the change value of the incorrect note-related content consumption among the data of the event information is not calculated, it is determined that the learner's incorrect note-related content is unconfirmed, and the corresponding learning degree evaluation data is obtained. Matching generates learning evaluation information,
The change value of the learning time or content consumption among the data of the event information is continuously calculated, and the change value of the learner's facial pixel position value is continuously calculated, but the change value of the learner's eye pixel size value is based on a certain point in time is calculated irregularly, or when the change value of the pupil pixel position value of the learner is not calculated for a certain period of time, while determining that the learner is in a state of drowsiness in a state in which the learner attends the learning space and enters the learning mode, Match the corresponding learning level evaluation data to generate learning level evaluation information,
Among the data of the event information, a change value of a pixel position value for the learner's eyes and mouth outline, a change value of a shade value or a color value for the learner's face pixel, and a change in a sound wave value for the learner's voice When the value is calculated out of the range of the average change value for a certain period, it is determined that the learner is in a depressed state or an anger state, and the learning degree evaluation information is generated by matching the corresponding learning degree evaluation data,
The notification unit,
It is provided in the first terminal, characterized in that it further comprises a sound output unit for outputting a preset sound according to the notification signal output from the control unit,
The voice sensor and the sound output unit,
An active artificial intelligence tutoring system that supports teaching and learning, characterized in that it is equipped with a voice recognition SDK (interface).
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020210069216A 2021-05-28 2021-05-28 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same KR102383457B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210069216A KR102383457B1 (en) 2021-05-28 2021-05-28 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210069216A KR102383457B1 (en) 2021-05-28 2021-05-28 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same

Publications (1)

Publication Number Publication Date
KR102383457B1 true KR102383457B1 (en) 2022-04-08

Family

ID=81182922

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210069216A KR102383457B1 (en) 2021-05-28 2021-05-28 Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same

Country Status (1)

Country Link
KR (1) KR102383457B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007963A (en) * 2009-06-24 2011-01-13 Tokyo Denki Univ Remote learning system and remote learning method
JP2017162396A (en) * 2016-03-11 2017-09-14 富士通株式会社 Learning support program, learning support device and learning support method
KR102056822B1 (en) 2017-05-04 2019-12-17 주식회사 매스프레소 Method for providing learning service and apparatus thereof
KR20200001798A (en) * 2018-06-28 2020-01-07 이화여자대학교 산학협력단 Learning value decision method to determine learning value of learners' learning activities
KR20200144890A (en) * 2019-06-19 2020-12-30 오종현 E-learning concentration enhancing system and method
KR102258234B1 (en) * 2020-02-27 2021-05-31 주식회사 아이스크림에듀 personalized and adaptive learning method using artificial intelligence (AI) tutor interface, and system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011007963A (en) * 2009-06-24 2011-01-13 Tokyo Denki Univ Remote learning system and remote learning method
JP2017162396A (en) * 2016-03-11 2017-09-14 富士通株式会社 Learning support program, learning support device and learning support method
KR102056822B1 (en) 2017-05-04 2019-12-17 주식회사 매스프레소 Method for providing learning service and apparatus thereof
KR20200001798A (en) * 2018-06-28 2020-01-07 이화여자대학교 산학협력단 Learning value decision method to determine learning value of learners' learning activities
KR20200144890A (en) * 2019-06-19 2020-12-30 오종현 E-learning concentration enhancing system and method
KR102258234B1 (en) * 2020-02-27 2021-05-31 주식회사 아이스크림에듀 personalized and adaptive learning method using artificial intelligence (AI) tutor interface, and system

Similar Documents

Publication Publication Date Title
KR102383458B1 (en) Active artificial intelligence tutoring system that support management of learning outcome
US10643487B2 (en) Communication and skills training using interactive virtual humans
KR102398417B1 (en) A system that collects and analyzes multi-modal learning data based on learning analytics standard model
TW201830354A (en) Interactive and adaptive training and learning management system using face tracking and emotion detection with associated methods
US20150302866A1 (en) Speech affect analyzing and training
US11475788B2 (en) Method and system for evaluating and monitoring compliance using emotion detection
WO2017085714A2 (en) Virtual assistant for generating personal suggestions to a user based on intonation analysis of the user
JP6715410B2 (en) Evaluation method, evaluation device, evaluation program, and evaluation system
US20190371195A1 (en) Cognitive robotic assistance for education
JP7099377B2 (en) Information processing equipment and information processing method
CN108564073A (en) A kind of classroom environment middle school student Emotion identification method and device
Chiu et al. A bayesian classification network-based learning status management system in an intelligent classroom
Villegas-Ch et al. Identification of emotions from facial gestures in a teaching environment with the use of machine learning techniques
Ochoa Multimodal systems for automated oral presentation feedback: A comparative analysis
US20180005116A1 (en) Method and system for automatic real-time identification and presentation of analogies to clarify a concept
lonita Ciolacu et al. Education 4.0: an adaptive framework with artificial intelligence, raspberry Pi and wearables-innovation for creating value
KR102468551B1 (en) Active artificial intelligence tutoring system that support assessment and method for controlling the same
KR102383457B1 (en) Active artificial intelligence tutoring system that support teaching and learning and method for controlling the same
US20230105077A1 (en) Method and system for evaluating and monitoring compliance, interactive and adaptive learning, and neurocognitive disorder diagnosis using pupillary response, face tracking emotion detection
Wei Development and evaluation of an emotional lexicon system for young children
Utami et al. A Brief Study of The Use of Pattern Recognition in Online Learning: Recommendation for Assessing Teaching Skills Automatically Online Based
KR102515987B1 (en) Apparatus and method for detecting learners' participation in an untact online class
Hirt et al. Measuring emotions during learning: lack of coherence between automated facial emotion recognition and emotional experience
WO2022168180A1 (en) Video session evaluation terminal, video session evaluation system, and video session evaluation program
KR102465768B1 (en) A system that provides personalized and customized learning analysis

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant