KR20220053441A - Method, apparatus and computer program for evaluating lecture video using neural network - Google Patents

Method, apparatus and computer program for evaluating lecture video using neural network Download PDF

Info

Publication number
KR20220053441A
KR20220053441A KR1020200168033A KR20200168033A KR20220053441A KR 20220053441 A KR20220053441 A KR 20220053441A KR 1020200168033 A KR1020200168033 A KR 1020200168033A KR 20200168033 A KR20200168033 A KR 20200168033A KR 20220053441 A KR20220053441 A KR 20220053441A
Authority
KR
South Korea
Prior art keywords
lecture
neural network
image
feature vector
lecturer
Prior art date
Application number
KR1020200168033A
Other languages
Korean (ko)
Inventor
송종현
Original Assignee
송종현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 송종현 filed Critical 송종현
Publication of KR20220053441A publication Critical patent/KR20220053441A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/258Heading extraction; Automatic titling; Numbering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Tourism & Hospitality (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Human Resources & Organizations (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Disclosed is a neural network learning method for evaluating a lecture video. The method comprises: a step of obtaining a plurality of lecture videos and lecture evaluation information for each of the plurality of lecture videos; a step of performing pre-processing of the acquired lecture video; a step of obtaining lecture information on the lecture video; a step of extracting a feature vector by analyzing the pre-processed lecture video; a step of generating learning data by labeling lecture information, a feature vector, and lecture evaluation information on the lecture video; and a step of training a neural network for evaluating the lecture video based on the learning data.

Description

신경망을 이용한 강의 영상 평가 방법, 장치 및 컴퓨터 프로그램{Method, apparatus and computer program for evaluating lecture video using neural network}Method, apparatus and computer program for evaluating lecture video using neural network}

본 발명은 신경망(neural network)을 이용하여 강의자의 강의 영상에 대한 학습자의 예상 만족도, 강의 적정성 등을 평가하는 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.The present invention relates to a method, an apparatus, and a computer program for evaluating a learner's expected satisfaction with a lecture video of a lecturer, lecture appropriateness, etc. using a neural network.

또한, 본 발명은 상술한 신경망을 학습시키기 위한 방법, 장치 및 컴퓨터 프로그램에 관한 것이다.Further, the present invention relates to a method, an apparatus and a computer program for training the above-described neural network.

2019년 말에 중국에서부터 시작하여 전 세계에 확산된 코로나19(COVID-19)의 영향으로 인간의 생활양식 등에 큰 변화가 발생되었는데, 소비에 있어서 오프라인보다는 온라인을 선호하는 언택트(Un-tact) 소비문화 즉 비대면(非對面) 소비문화로 급격하게 이전되었다.Due to the impact of COVID-19, which started in China and spread around the world at the end of 2019, there was a big change in human lifestyle, etc. It has rapidly shifted to a consumption culture, that is, a non-face-to-face consumption culture.

특히, 교육기관들도 비대면 강의를 시행하면서, 강의자가 쌍방향 화상통신 플랫폼을 이용한 실시간 온라인 수업이나 영상 스트리밍 서비스 등을 이용해 녹화 강의 영상을 업로드하는 방식이 교습방법의 대부분을 차지하게 되었다. In particular, as educational institutions are also implementing non-face-to-face lectures, the method in which lecturers upload recorded lecture videos using real-time online classes using interactive video communication platforms or video streaming services has become the majority of teaching methods.

그러나 비대면 방식의 수업에 익숙하지 않은 기존의 교육자들은 온라인 수업에 효과적인 교습 방법을 찾는데 어려움을 겪으며, 이는 학습자의 흥미 감소와 학업성취도 저하로 이어질 수 있다는 문제를 안고 있다.However, existing educators who are not familiar with non-face-to-face classes have difficulties in finding effective teaching methods for online classes, which may lead to a decrease in learner interest and lower academic achievement.

상술한 종래의 문제점은 강의자의 강의 영상에 대한 학습자의 만족도, 흥미, 학업성취도 등을 미리 예측하여 평가할 수 있다면 해결될 수 있다. The above-described conventional problem can be solved if the learner's satisfaction, interest, academic achievement, etc. can be predicted and evaluated in advance with respect to the lecture video of the lecturer.

이에 따라, 본 발명은 신경망(neural network)을 이용하여 강의자의 강의 영상에 대한 학습자의 예상 만족도, 강의 적정성 등을 평가하는 방법, 장치 및 컴퓨터 프로그램을 제공하는 것을 목적으로 한다. Accordingly, an object of the present invention is to provide a method, apparatus, and computer program for evaluating the expected satisfaction of the learner with respect to the lecture video of the lecturer, the appropriateness of the lecture, etc. using a neural network.

또한, 본 발명은 상술한 신경망을 학습시키기 위한 방법, 장치 및 컴퓨터 프로그램을 제공하는 것을 목적으로 한다. Another object of the present invention is to provide a method, an apparatus, and a computer program for learning the above-described neural network.

상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 강의 영상을 평가하기 위한 신경망의 학습 방법은 다수의 강의 영상 및 상기 다수의 강의 영상 각각에 대한 강의 평가 정보를 획득하는 단계, 상기 획득된 강의 영상의 전처리를 수행하는 단계, 상기 강의 영상에 대한 강의 정보를 획득하는 단계, 상기 전처리된 강의 영상을 분석하여 특징 벡터를 추출하는 단계, 상기 강의 정보와 상기 특징 벡터와 상기 강의 평가 정보를 상기 강의 영상에 레이블링하여 학습데이터를 생성하는 단계 및 상기 학습데이터를 기초로 강의 영상을 평가하기 위한 신경망을 학습시키는 단계를 포함한다.A method for learning a neural network for evaluating a lecture image according to an embodiment of the present invention for achieving the above object includes obtaining a plurality of lecture images and lecture evaluation information for each of the plurality of lecture images, the obtained performing pre-processing of the lecture image, obtaining lecture information for the lecture image, analyzing the pre-processed lecture image to extract a feature vector, the lecture information, the feature vector, and the lecture evaluation information It includes the steps of generating learning data by labeling the lecture image, and training a neural network for evaluating the lecture image based on the learning data.

그리고, 상기 특징 벡터를 추출하는 단계는, 상기 강의 영상에서 상기 강의자의 외관에 관련된 시각 데이터를 분석하여 제1 특징 벡터를 추출하는 단계, 상기 강의 영상에서 상기 강의자의 음성에 관련된 청각 데이터를 분석하여 제2 특징 벡터를 추출하는 단계 및 상기 강의 영상에서 강의 내용과 관련된 강의 데이터를 분석하여 제3 특징 벡터를 추출하는 단계를 더 포함하고, 상기 학습데이터를 생성하는 단계는 추출된 제1 특징 벡터, 제2 특징 벡터 및 제3 특징 벡터를 상기 강의 영상에 레이블링 할 수 있다. The extracting of the feature vector may include extracting a first feature vector by analyzing visual data related to the appearance of the lecturer from the lecture image, analyzing auditory data related to the lecturer's voice from the lecture image. The method further includes extracting a second feature vector and extracting a third feature vector by analyzing lecture data related to lecture content from the lecture image, wherein the generating of the learning data includes the extracted first feature vector; The second feature vector and the third feature vector may be labeled on the lecture image.

또한, 상기 제1 특징 벡터를 추출하는 단계는, 강의자의 움직임, 강의자의 표정 및 강의자의 감정 중 적어도 하나의 특징값을 포함하는 제1 특징 벡터를 추출할 수 있다.In addition, the extracting of the first feature vector may include extracting a first feature vector including a feature value of at least one of a movement of a lecturer, an expression of the lecturer, and an emotion of the lecturer.

그리고, 상기 제2 특징 벡터를 추출하는 단계는, 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나의 특징값을 포함하는 제2 특징 벡터를 추출할 수 있다.In addition, the extracting of the second feature vector may include extracting a second feature vector including a feature value of at least one of a tone, a size, a rhythm, a tone, and a speed of the lecturer's voice.

또한, 강의자의 강의 내용에 사용된 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나 의 특징값을 포함하는 제3 특징 벡터를 추출할 수 있다.Also, it is possible to extract a third feature vector including a feature value of at least one of the difficulty of the vocabulary used in the lecture content of the lecturer, the richness of the vocabulary, the number of repetitions of the lecture keyword, the length of the sentence, and the duration of the lesson.

그리고, 상기 강의 정보는 상기 강의 영상의 강의 목적, 강의 대상, 강의 분위기, 강의 과목 및 강의 방식 중 적어도 하나를 포함할 수 있다.In addition, the lecture information may include at least one of a lecture purpose of the lecture video, a lecture subject, a lecture atmosphere, a lecture subject, and a lecture method.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 신경망 기반의 강의 영상을 평가하는 방법은 강의 영상을 평가하기 위해 신경망 학습 방법을 통해 신경망을 학습시키는 단계, 평가 대상이 되는 강의 영상을 입력 받는 단계, 및 상기 강의 영상에 대한 강의 정보를 입력 받는 단계, 상기 강의 정보 및 강의 영상을 상기 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출하는 단계를 포함한다.On the other hand, the method for evaluating a lecture image based on a neural network according to an embodiment of the present invention for achieving the above object includes learning a neural network through a neural network learning method to evaluate the lecture image, and a lecture image to be evaluated and receiving lecture information on the lecture image, and calculating expected lecture evaluation information by inputting the lecture information and lecture image into the learned neural network.

그리고, 상기 예상 강의 평가 정보를 산출하는 단계는, 상기 평가 대상이 되는 강의 영상에서 상기 강의자의 외관에 관련된 시각 데이터를 분석하여 제1 특징 벡터를 추출하는 단계, 상기 평가 대상이 되는 강의 영상에서 상기 강의자의 음성에 관련된 청각 데이터를 분석하여 제2 특징 벡터를 추출하는 단계, 상기 평가 대상이 되는 강의 영상에서 상기 강의자의 강의 내용을 분석하여 제3 특징 벡터를 추출하는 단계 및 상기 강의 정보 및 상기 제1 내지 제3 특징 벡터를 신경망에 입력하여 예상 강의 평가 정보를 산출하는 단계를 포함한다.The calculating of the expected lecture evaluation information may include extracting a first feature vector by analyzing visual data related to the appearance of the lecturer from the lecture image to be evaluated, and from the lecture image to be evaluated. extracting a second feature vector by analyzing auditory data related to the lecturer's voice; extracting a third feature vector by analyzing the lecture content of the lecturer from the lecture image to be evaluated; and the lecture information and the first and calculating predicted lecture evaluation information by inputting the first to third feature vectors into the neural network.

한편, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 신경망 기반의 강의 영상 평가 장치는 강의 영상을 평가하기 위해 신경망 학습 방법을 통해 학습된 신경망을 저장하는 신경망 모델 저장부, 평가 대상이 되는 강의 영상을 입력 받고, 상기 강의 영상에 대한 강의 정보를 입력 받는 입력부 및 상기 강의 정보 및 강의 영상을 상기 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출하는 AI 프로세서를 포함한다.On the other hand, the neural network-based lecture image evaluation apparatus according to an embodiment of the present invention for achieving the above object is a neural network model storage unit for storing a neural network learned through a neural network learning method in order to evaluate a lecture image, an evaluation target is and an input unit for receiving a lecture image to be received, receiving lecture information on the lecture image, and an AI processor for calculating expected lecture evaluation information by inputting the lecture information and the lecture image to the learned neural network.

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터가 판독 가능한 기록 매체에 저장된 프로그램은 상술한 신경망 학습 방법을 실행하기 위한 프로그램 코드가 기록될 수 있다. In addition, in the program stored in the computer-readable recording medium according to an embodiment of the present invention for achieving the above object, a program code for executing the above-described neural network learning method may be recorded.

또한, 상술한 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 컴퓨터가 판독 가능한 기록 매체에 저장된 프로그램은 상술한 신경망 기반의 강의 영상을 평가하기 위한 방법을 실행하기 위한 프로그램 코드가 기록될 수 있다. In addition, in the program stored in the computer-readable recording medium according to an embodiment of the present invention for achieving the above object, a program code for executing the method for evaluating the above-described neural network-based lecture image may be recorded. .

본 발명에 따르면, 강의자는 자신의 강의 영상을 미리 평가받을 수 있으며, 온라인 수업 상에서 더욱 효과적인 강의 전달법을 터득하기 위한 피드백 자료로 활용할 수 있다.According to the present invention, the lecturer can evaluate his/her lecture video in advance and use it as feedback data for learning a more effective lecture delivery method in an online class.

또한, 강의자의 강의 영상을 평가하는 주체를 사람이 아닌 인공지능으로 대체함으로써, 강의자의 강의가 공정하고 객관적인 방식으로 강의 평가가 진행되는 것을 담보할 수 있다. In addition, by replacing the subject who evaluates the lecture video of the lecturer with an artificial intelligence rather than a human, it is possible to ensure that the lecture evaluation of the lecturer is conducted in a fair and objective manner.

또한, 새롭게 열리는 강의를 준비하는 강의자는 강의 영상을 녹화하고, 이를 신경망에 입력함으로써, 학습자들의 예상 강의 평가를 미리 확인할 수 있다. In addition, a lecturer preparing for a newly opened lecture can record the lecture video and input it into the neural network, thereby confirming the learners' expected lecture evaluation in advance.

도 1은 본 발명의 일 실시예에 따른 신경망 기반의 강의 영상 평가 시스템을 나타낸 예시도이다.
도 2 및 도 3은 본 발명의 일 실시시예에 따른 강의 영상을 평가하기 위한 신경망 학습 방법을 나타낸 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 신경망 기반의 강의 영상을 평가하는 방법을 나타낸 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 유저 인터페이스를 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따른 강의 영상을 평가하기 위한 신경망을 나타낸 예시도이다.
도 7은 본 발명의 일 실시예에 따른 강의 영상 평가 장치의 구성을 나타낸 블록도이다.
1 is an exemplary diagram illustrating a neural network-based lecture image evaluation system according to an embodiment of the present invention.
2 and 3 are flowcharts illustrating a neural network learning method for evaluating a lecture image according to an embodiment of the present invention.
4 is a flowchart illustrating a method of evaluating a lecture image based on a neural network according to an embodiment of the present invention.
5 is an exemplary diagram illustrating a user interface according to an embodiment of the present invention.
6 is an exemplary diagram illustrating a neural network for evaluating a lecture image according to an embodiment of the present invention.
7 is a block diagram showing the configuration of a lecture image evaluation apparatus according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시 예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시 예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. In addition, all conditional terms and examples listed herein are, in principle, expressly intended only for the purpose of understanding the concept of the present invention, and it should be understood that they are not limited to the specifically enumerated embodiments and states as such. do.

또한, 본 발명의 원리, 관점 및 실시 예들뿐만 아니라 특정 실시 예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Moreover, it is to be understood that all detailed description reciting the principles, aspects, and embodiments of the invention, as well as specific embodiments, are intended to cover structural and functional equivalents of such matters. It should also be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.

따라서, 예를 들어, 본 명세서의 블럭도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the present invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on computer-readable media and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be

프로세서 또는 이와 유사한 개념으로 표시된 기능 블럭을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다.The functions of the various elements shown in the figures including a processor or functional blocks represented by similar concepts may be provided by the use of dedicated hardware as well as hardware having the ability to execute software in association with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, a single shared processor, or a plurality of separate processors, some of which may be shared.

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the clear use of terms presented as processor, control, or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.

본 명세서의 청구범위에서, 상세한 설명에 기재된 기능을 수행하기 위한 수단으로 표현된 구성요소는 예를 들어 상기 기능을 수행하는 회로 소자의 조합 또는 펌웨어/마이크로 코드 등을 포함하는 모든 형식의 소프트웨어를 포함하는 기능을 수행하는 모든 방법을 포함하는 것으로 의도되었으며, 상기 기능을 수행하도록 상기 소프트웨어를 실행하기 위한 적절한 회로와 결합된다. 이러한 청구범위에 의해 정의되는 본 발명은 다양하게 열거된 수단에 의해 제공되는 기능들이 결합되고 청구항이 요구하는 방식과 결합되기 때문에 상기 기능을 제공할 수 있는 어떠한 수단도 본 명세서로부터 파악되는 것과 균등한 것으로 이해되어야 한다.In the claims of this specification, a component expressed as a means for performing the function described in the detailed description includes, for example, a combination of circuit elements that perform the function or software in any form including firmware/microcode, etc. It is intended to include all methods of performing the functions of the device, coupled with suitable circuitry for executing the software to perform the functions. Since the present invention defined by these claims is combined with the functions provided by the various enumerated means and in a manner required by the claims, any means capable of providing the functions are equivalent to those contemplated from the present specification. should be understood as

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 다양한 실시 예에 대하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 신경망 기반의 강의 영상 평가 시스템(1000)을 나타낸 예시도이다.1 is an exemplary diagram illustrating a neural network-based lecture image evaluation system 1000 according to an embodiment of the present invention.

도 1을 참조하면, 신경망 기반의 강의 영상 평가 시스템(1000)은 강의 영상의 평가를 요청하는 사용자(10)와 강의 영상 평가 요청에 따라 해당 강의 영상을 평가하는 강의 영상 평가 장치(100)를 포함할 수 있다.Referring to FIG. 1 , the neural network-based lecture image evaluation system 1000 includes a user 10 requesting evaluation of a lecture image and a lecture image evaluation apparatus 100 for evaluating a corresponding lecture image according to a lecture image evaluation request. can do.

사용자(10)는 강의 영상 평가 장치(100)로 강의 영상에 대한 평가를 요청할 수 있다. 여기서, 사용자(10)는 해당 강의 영상에서 강의를 수행하는 주체로, 강의자, 교습자, 선생님, 교육자 등(이하, "강의자"로 통칭함)이거나, 또는 강의자의 강의 영상을 평가하는 상급자일 수 있다.The user 10 may request an evaluation of the lecture image from the lecture image evaluation apparatus 100 . Here, the user 10 is a subject who performs a lecture in the corresponding lecture image, and may be a lecturer, an instructor, a teacher, an educator, etc. (hereinafter, collectively referred to as a "lecturer"), or a supervisor who evaluates the lecture image of the lecturer. .

강의 영상 평가 장치(100)는 강의자(10)의 요청에 따라 신경망 기반으로 해당 강의 영상을 평가하고, 강의 평과 결과를 강의자(10)에게 제공할 수 있다. 여기서, 신경망은 강의 영상을 평가하기 위해 학습된 것으로, 강의 영상 평가 장치(100)에 의해 학습되거나 또는 강의 영상 평가 장치(100)가 아닌 외부서버나 장치에서 학습된 후 강의 영상 평가 장치(100)에 제공될 수 있다.The lecture image evaluation apparatus 100 may evaluate the lecture image based on the neural network at the request of the lecturer 10 , and provide the lecture evaluation result to the lecturer 10 . Here, the neural network is learned to evaluate a lecture image, and is learned by the lecture image evaluation apparatus 100 or is learned from an external server or device other than the lecture image evaluation apparatus 100, and then the lecture image evaluation apparatus 100 can be provided on

이하에서는 도 2를 참조하여 강의 영상을 평가하기 위한 신경망 학습 방법을 설명한다.Hereinafter, a neural network learning method for evaluating a lecture image will be described with reference to FIG. 2 .

도 2는 본 발명의 일 실시 예에 따른 강의 영상을 평가하기 위한 신경망 학습 방법을 나타낸 흐름도이다.2 is a flowchart illustrating a neural network learning method for evaluating a lecture image according to an embodiment of the present invention.

도 2를 참조하면, 강의 영상을 평가하기 위한 신경망 학습 방법은 다수의 강의 영상 및 이를 평가한 강의 평가 정보를 획득할 수 있다(S100). 일 예로, 획득하는 단계(S100)는 온라인 강의 플랫폼을 통해 다수의 강의 영상 및 상기 다수의 강의 영상 각각에 대한 강의 평가 정보를 획득할 수 있다. Referring to FIG. 2 , the neural network learning method for evaluating lecture images may acquire a plurality of lecture images and lecture evaluation information evaluated thereon ( S100 ). For example, in the acquiring step ( S100 ), a plurality of lecture images and lecture evaluation information for each of the plurality of lecture images may be obtained through an online lecture platform.

여기서, 온라인 강의 플랫폼은 온라인을 통해 학습자에게 강의 영상을 제공하는 플랫폼으로, 온라인 강의 플랫폼은 실시간 강의 영상 또는 녹화된 강의 영상을 학습자에게 제공할 수 있다. Here, the online lecture platform is a platform that provides lecture images to learners through online, and the online lecture platform may provide real-time lecture images or recorded lecture images to learners.

그리고, 강의 영상은 소정 시간 이상의 동영상일 수 있다. In addition, the lecture video may be a video for a predetermined time or longer.

또한, 강의 평가 정보는 강의 영상을 시청한 학습자가 해당 온라인 강의 플랫폼에 남긴 강의 영상에 대한 평가를 의미할 수 있다. 예를 들어, 강의 평가 정보에는 강의 영상을 시청한 학습자가 남긴 강의 영상에 대한 강의 평가 점수(별점, 숫자 등)나 강의 평가 텍스트 등이 포함될 수 있다.In addition, the lecture evaluation information may refer to an evaluation of the lecture video left by the learner who watched the lecture video on the corresponding online lecture platform. For example, the lecture evaluation information may include lecture evaluation scores (star points, numbers, etc.) for a lecture video left by a learner who watched the lecture video, or lecture evaluation text.

여기서, 강의 평가 점수는 학습자의 만족도 점수, 학습자에게 강의의 목적 대비 강의가 얼마나 적절하게 이루어졌는지를 나타내는 강의 적정성 점수 등을 포함할 수 있다.Here, the lecture evaluation score may include a learner's satisfaction score, a lecture adequacy score indicating how appropriate the lecture is for the purpose of the lecture to the learner, and the like.

또한, 강의 평가 텍스트는, 일 예로, "강의자의 움직임이 많아서 강의에 집중이 되지 않았다.", "강의자의 음성 속도가 느려 지루하였다.", "강의자가 분노한 감정이라 학습에 더욱 집중할 수 있었다." 등과 같은 강의에 대해 학습자가 적은 의견일 수 있다. In addition, the lecture evaluation text is, for example, "the lecturer was unable to concentrate on the lecture because there was a lot of movement", "the lecturer's voice speed was slow and boring." " There may be few opinions of the learner about the lecture, etc.

다음, 획득된 강의 영상의 전처리를 수행할 수 있다(S200). 구체적으로, 전처리 단계(S200)는 강의 영상에서 강의자 얼굴의 눈, 코, 입이 명확해지도록 전처리하고, 강의자의 음성을 배경 소리와 분리하여 강의자 음성이 강조되도록 전처리할 수 있다. 또한, 전처리 단계(S200)는 강의 영상에서 강의 내용에 관련된 텍스트가 강조되도록 전처리할 수 있다. 또한, 전처리 단계(S200)는 강의와 무관한 휴식시간, 교습자가 아닌 학습자가 발표·질문 하는 등 강의자의 강의력과 무관한 부분 등을 제거할 수 있다. Next, pre-processing of the acquired lecture image may be performed (S200). Specifically, in the pre-processing step S200, the eyes, nose, and mouth of the lecturer's face are pre-processed in the lecture image to be clear, and the lecturer's voice may be separated from the background sound to be pre-processed so that the lecturer's voice is emphasized. In addition, the pre-processing step S200 may pre-process so that text related to lecture content is emphasized in the lecture image. In addition, in the pre-processing step (S200), it is possible to remove parts irrelevant to the lecture ability of the lecturer, such as the break time irrelevant to the lecture, and the learner, not the instructor, makes a presentation and asks a question.

그리고, 강의 영상에 대한 강의 정보를 획득할 수 있다(S300). 여기서, 강의 정보는 해당 강의 영상에 대한 여러 정보에 대한 것으로, 학습데이터를 생성 및 관리하는 작업자에 의해 입력되는 정보일 수 있다. 다만, 다른 구현 예에 따르면, 강의 정보는 후술할 AI 프로세서의 학습을 통해 자동으로 부여될 수도 있다. Then, lecture information on the lecture image may be obtained (S300). Here, the lecture information relates to various pieces of information about the corresponding lecture image, and may be information input by a worker who creates and manages learning data. However, according to another implementation example, lecture information may be automatically provided through learning of an AI processor, which will be described later.

구체적으로, 강의 정보에는 해당 강의 영상의 강의 목적(예를 들어, 대학교 입시 강의, 전문 자격사 강의 등), 강의 대상(예를 들어 초등학생, 중학생, 고등학생, 대학생, 성인 등), 강의 분위기(예를 들어, 엄격함, 진지함, 유머러스함, 확신넘침, 긍정적 등), 강의 과목(예를 들어, 국어, 수학, 영어, 과학탐구, 사회탐구, 제2외국어 등) 및 강의 방식(요점 위주, 스토리 텔링 등)이 포함될 수 있다.Specifically, lecture information includes the lecture purpose of the lecture video (eg, university entrance exam lectures, lectures by qualified professionals, etc.), lecture subjects (eg elementary school students, middle school students, high school students, college students, adults, etc.), and lecture atmosphere (eg, For example, rigorous, serious, humorous, confident, positive, etc.), lecture subjects (eg, Korean, math, English, scientific research, social studies, second language, etc.) ) may be included.

다음, 전처리된 강의 영상을 분석하여 특징 벡터를 추출할 수 있다(S400). 여기서, 특징 벡터는 강의자의 외관, 강의자의 음성, 강의 내용에 관한 것일 수 있다.Next, a feature vector may be extracted by analyzing the pre-processed lecture image (S400). Here, the feature vector may relate to the appearance of the lecturer, the lecturer's voice, and lecture contents.

이와 관련하여 도 3을 추가로 참조하여 설명한다.In this regard, it will be further described with reference to FIG. 3 .

도 3을 참조하면, 강의 영상을 평가하기 위한 신경망 학습 방법의 특징 벡터를 추출하는 단계(S400)는 강의 영상에서 강의자의 외관에 관련된 시각 데이터를 분석하여 제1 특징 벡터를 추출할 수 있다(S410). Referring to FIG. 3 , in the step of extracting the feature vector of the neural network learning method for evaluating the lecture image ( S400 ), the first feature vector may be extracted by analyzing visual data related to the appearance of the lecturer from the lecture image ( S410 ). ).

여기서, 시각 데이터는 학습자가 강의 영상을 시청할 때, 강의자와 관련하여 시각으로 인지할 수 있는 데이터로써, 제1 특징 벡터는 강의자의 움직임(예를 들어, 제스처의 빈도, 제스처의 크기, 방향 등), 표정(예를 들어, 무표정, 웃는 표정, 우는 표정, 화난 표정, 놀란 표정 등) 및 감정(예를 들어, 행복, 분노, 경멸, 혐오, 공포, 슬픔, 놀라움 등) 중 적어도 하나에 대응되는 특징 값 일 수 있다. Here, the visual data is data that can be visually recognized in relation to the lecturer when the learner watches the lecture video, and the first feature vector is the lecturer's movement (eg, the frequency of the gesture, the size of the gesture, the direction, etc.) , corresponding to at least one of an expression (e.g., expressionless, smiling, crying, angry, surprised, etc.) and emotion (e.g., happiness, anger, contempt, disgust, fear, sadness, surprise, etc.) It may be a feature value.

즉, 제1 특징 벡터를 추출하는 단계(S410)는 강의 영상을 분석하여 강의자의 움직임, 강의자의 표정 및 강의자의 감정 중 적어도 하나의 특징값을 포함하는 제1 특징 벡터를 추출할 수 있다. 여기서, 제1 특징 벡터의 추출은 강의 영상에서 강의자의 움직임, 강의자의 표정 및 강의자의 감정 중 적어도 하나에 대응되는 특징 벡터를 추출하도록 학습된 신경망을 이용하여 수행될 수 있다. That is, in the step of extracting the first feature vector ( S410 ), the first feature vector including at least one feature value among the movement of the lecturer, the expression of the lecturer, and the emotion of the lecturer may be extracted by analyzing the lecture image. Here, the extraction of the first feature vector may be performed using a neural network trained to extract a feature vector corresponding to at least one of the lecturer's movement, the lecturer's expression, and the lecturer's emotions from the lecture image.

또한, 강의 영상에서 상기 강의자의 음성에 관련된 청각 데이터를 분석하여 제2 특징 벡터를 추출할 수 있다(S420). 여기서, 청각 데이터는 학습자가 강의 영상을 시청할 때, 청각으로 인지할 수 있는 데이터로써, 제2 특징 벡터는 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나에 대응되는 특징 값일 수 있다.In addition, a second feature vector may be extracted by analyzing auditory data related to the lecturer's voice from the lecture video (S420). Here, the auditory data is data that the learner can perceive as auditory when viewing the lecture video, and the second feature vector may be a feature value corresponding to at least one of tone, size, rhythm, tone, and speed of the lecturer's voice. .

즉, 제2 특징 벡터를 추출하는 단계(S420)는 강의 영상을 분석하여 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나의 특징값을 포함하는 제2 특징 벡터를 추출할 수 있다. 여기서, 제2 특징 벡터의 추출은 강의 영상에서 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나에 대응되는 특징 벡터를 추출하도록 학습된 신경망을 이용하여 수행될 수 있다. That is, in the step of extracting the second feature vector ( S420 ), a second feature vector including at least one feature value among the tone, size, rhythm, tone, and speed of the lecturer's voice may be extracted by analyzing the lecture video. . Here, the extraction of the second feature vector may be performed using a neural network trained to extract a feature vector corresponding to at least one of tone, size, rhythm, tone, and speed of the lecturer's voice from the lecture image.

또한, 강의 영상에서 상기 강의자의 강의 내용을 분석하여 제3 특징 벡터를 추출할 수 있다(S430). 여기서, 강의 내용은 강의자가 학습자에게 강의를 통해 전달하고자 하는 내용에 관한 것으로, 제3 특징 벡터는 강의 내용에 사용된 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나에 대응되는 특징 값 일 수 있다.In addition, a third feature vector may be extracted by analyzing the lecture content of the lecturer from the lecture video (S430). Here, the lecture content relates to the content that the lecturer wants to deliver to the learner through the lecture, and the third feature vector is the difficulty of the vocabulary used in the lecture content, the richness of the vocabulary, the number of repetitions of the lecture keyword, the length of the sentence, and the class It may be a feature value corresponding to at least one of the durations.

즉, 제3 특징 벡터를 추출하는 단계(S430)는 강의 내용에 사용된 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나를 분석하여 강의 영상으로부터 강의자의 강의 내용에 관련된 제3 특징 벡터를 추출할 수 있다. 여기서, 제3 특징 벡터의 추출은 강의 영상에서 강의자의 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나에 대응되는 특징 벡터를 추출하도록 학습된 신경망을 이용하여 수행될 수 있다. That is, the step of extracting the third feature vector ( S430 ) is performed by analyzing at least one of the difficulty of the vocabulary used in the lecture content, the richness of the vocabulary, the number of repetitions of the lecture keyword, the length of the sentence, and the duration of the lesson from the lecture video. A third feature vector related to the lecture content of the lecturer may be extracted. Here, the extraction of the third feature vector is a neural network trained to extract a feature vector corresponding to at least one of the lecturer's vocabulary difficulty, vocabulary richness, number of repetitions of lecture keywords, sentence length, and class duration from the lecture image. can be performed using

다시, 도 2를 참조하면, 입력된 강의 정보와 추출된 특징 벡터와 강의 평가 정보를 해당 강의 영상에 레이블링(labeling)하여 학습데이터를 생성할 수 있다(S500). 여기서 추출된 특징 벡터는 추출된 제1 특징 벡터, 제2 특징 벡터 및 제3 특징 벡터를 의미할 수 있다.Again, referring to FIG. 2 , learning data may be generated by labeling the input lecture information, the extracted feature vector, and the lecture evaluation information on the corresponding lecture image ( S500 ). Here, the extracted feature vector may mean the extracted first feature vector, the second feature vector, and the third feature vector.

그리고, 생성된 학습데이터를 이용하여 신경망을 학습시킬 수 있다(S600).Then, the neural network may be trained using the generated learning data (S600).

여기서, 신경망은 생물학의 신경망을 모방한 통계학적 모델로서, 학습 과정을 통해 문제 해결 능력을 가질 수 있다. Here, the neural network is a statistical model that mimics the neural network of biology, and may have problem-solving ability through a learning process.

이러한 신경망의 파라미터들은 학습 데이터를 이용한 학습 과정을 통해 조정될 수 있다.The parameters of such a neural network can be adjusted through a learning process using learning data.

여기서, 신경망은 딥러닝(deep learning) 방식으로 학습될 수 있다. 딥러닝 방식이란 여러 비선형 변환 기법의 조합을 통해 높은 수준의 추상화를 시도하는 기계 학습 알고리즘을 의미한다. Here, the neural network may be trained by a deep learning method. The deep learning method refers to a machine learning algorithm that attempts high-level abstraction through a combination of several nonlinear transformation techniques.

일 예로, 본 발명에 따른 인공 신경망 모델은 지도 학습(supervised learning) 방식을 이용하여 학습시킬 수 있다. 또한, 본 발명에 따른 인공 신경망 모델은 지도 없이 학습 데이터를 이용하여 스스로 학습함으로써, 판단 기준을 발견하는 비지도 학습(unsupervised learning)을 통해 학습시킬 수 있다. 또한, 본 발명에 따른 인공 신경망 모델은 학습에 따른 상황 판단의 결과가 올바른지에 대한 피드백을 이용하여 강화 학습(reinforcement learning)을 통하여 학습시킬 수 있다. 또한, 본 발명에 따른 인공 신경망 모델은 오류 역전파법(error back-propagation) 또는 경사 하강법(gradient decent)을 포함하는 학습 알고리즘을 이용하여 학습시킬 수 있다.For example, the artificial neural network model according to the present invention may be trained using a supervised learning method. In addition, the artificial neural network model according to the present invention can learn through unsupervised learning for discovering a judgment criterion by self-learning using learning data without guidance. In addition, the artificial neural network model according to the present invention can be learned through reinforcement learning using feedback on whether the result of the situation determination according to learning is correct. In addition, the artificial neural network model according to the present invention can be trained using a learning algorithm including an error back-propagation method or a gradient decent method.

여기서, 신경망은 베이즈 뉴럴 네트워크(Bayes Neural Network : BNN), 합성곱 뉴럴 네트워크(Convolution Neural Network : CNN), 순환형 뉴럴 네트워크(Recurrent Neural Network : RNN), 딥 뉴럴 네트워크(Deep Neural Network : DNN) 중 하나의 구조로 형성될 수 있다.Here, the neural network includes a Bayes Neural Network (BNN), a Convolution Neural Network (CNN), a Recurrent Neural Network (RNN), and a Deep Neural Network (DNN). It may be formed in one of the structures.

이와 같은, 신경망은 강의 정보, 특징 벡터 및 강의 평가 정보를 포함하는 학습 데이터를 이용하여 다양한 입력 특징들과 출력값(예를 들어, 강의 평가 정보) 간의 상관성을 분석하여 학습될 수 있다. Such a neural network may be learned by analyzing correlations between various input features and output values (eg, lecture evaluation information) using learning data including lecture information, feature vectors, and lecture evaluation information.

일 예로, 어떤 학습자는 강의자의 분노한 감정에 대해 거북한 느낌을 느낄 수 있는 반면, 또 다른 학습자는 학습에 집중하는 계기가 될 수 있어서 긍정적인 평가를 내릴 수 있다. 이러한 강의 평가는 강의 대상, 강의 과목, 강의 목적 등과 같은 다양한 요소에 따라 달라질 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 신경망은 강의자의 감정과 다양한 입력값들 간의 상관성을 분석하여 학습될 수 있다. For example, one learner may feel uncomfortable with the instructor's angry feelings, while another learner may give a positive evaluation because it may be an opportunity to focus on learning. The evaluation of such a course may depend on various factors such as the subject of the lecture, the subject of the lecture, the purpose of the lecture, and the like. Accordingly, the neural network according to an embodiment of the present invention can be learned by analyzing the correlation between the emotion of the lecturer and various input values.

다른 예로, 어떤 학습자는 강의자의 움직임이 많으면 산만하다고 느껴 강의 평가 점수가 낮아질 수 있는 반면, 또 다른 학습자는 강의자의 움직임이 많으면 수업이 지루하지 않아 긍정적으로 평가를 내릴 수 있다. 이러한 강의 평가는 강의 대상, 강의 과목, 강의 목적 등과 같은 다양한 요소에 따라 달라질 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 신경망은 강의자의 움직임과 다양한 입력값들 간의 상관성을 분석하여 학습될 수 있다.As another example, one learner may feel that the lecture is distracting if there is a lot of movement, and the evaluation score of the lecture may be lowered, while another learner may give a positive evaluation if the lecture is not boring because the lecture is not boring if there is a lot of movement. The evaluation of such a course may depend on various factors such as the subject of the lecture, the subject of the lecture, the purpose of the lecture, and the like. Accordingly, the neural network according to an embodiment of the present invention can be learned by analyzing the correlation between the movement of the lecturer and various input values.

또 다른 예로, 어떤 학습자는 말하기의 속도가 느린 강사에 대하여 지루하다며 낮은 강의평가 점수를 부여할 수 있는 반면, 또 다른 학습자는 수업을 차근차근 이해할 수 있어 높은 강의 평가 점수를 부여할 수 있다. 이러한 강의 평가는 강의 대상, 강의 과목, 강의 목적 등과 같은 다양한 요소에 따라 달라질 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 신경망은 강의자의 말하기 속도와 다양한 입력값들 간의 상관성을 분석하여 학습될 수 있다.As another example, one learner may give a low lecture evaluation score to an instructor who speaks slowly because it is boring, while another learner may give a high lecture evaluation score because they can understand the lesson step by step. The evaluation of such a course may depend on various factors such as the subject of the lecture, the subject of the lecture, the purpose of the lecture, and the like. Accordingly, the neural network according to an embodiment of the present invention can be learned by analyzing the correlation between the lecturer's speaking speed and various input values.

또 다른 예로, 어떤 학습자는 강의자의 무표정함이 강의자와의 긍정적인 관계를 맺는데 방해가 되어 낮은 강의평가 점수를 부여할 수 있는 반면, 어떤 학습자는 크게 신경쓰는 요소가 아닐 수 있다. 이러한 강의 평가는 강의 대상, 강의 과목, 강의 목적 등과 같은 다양한 요소에 따라 달라질 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 신경망은 강의자의 표정과 다양한 입력값들 간의 상관성을 분석하여 학습될 수 있다.As another example, some learners may give a low lecture evaluation score because the teacher's expressionlessness interferes with forming a positive relationship with the lecturer, whereas some learners may not be very concerned about it. The evaluation of such a course may depend on various factors such as the subject of the lecture, the subject of the lecture, the purpose of the lecture, and the like. Accordingly, the neural network according to an embodiment of the present invention can be learned by analyzing the correlation between the facial expression of the lecturer and various input values.

또 다른 예로, 어떤 학습자는 강의자의 어휘가 풍부한 강사에 대하여 강의를 어렵게 한다며 낮은 강의평가 점수를 부여할 수 있는 반면, 또 다른 학습자는 교육의 질이 높인다고 하고 높은 강의평가 점수를 부여할 수 있다. 이러한 강의 평가는 강의 대상, 강의 과목, 강의 목적 등과 같은 다양한 요소에 따라 달라질 수 있다. 이에 따라, 본 발명의 일 실시 예에 따른 신경망은 강의자의 어휘 풍부도와 다양한 입력값들 간의 상관성을 분석하여 학습될 수 있다.As another example, one learner may give a low lecture evaluation score to an instructor with a rich vocabulary because it makes lectures difficult, while another learner may give a high lecture evaluation score to the lecturer because it improves the quality of education. The evaluation of such a course may depend on various factors such as the subject of the lecture, the subject of the lecture, the purpose of the lecture, and the like. Accordingly, the neural network according to an embodiment of the present invention can be learned by analyzing the correlation between the lecturer's vocabulary richness and various input values.

한편, 학습 데이터를 이용하여 학습된 신경망은 강의 정보 및 특징 벡터를 입력받아 예상 강의 평가 정보를 출력하는 신경망 모델로 학습될 수 있다. Meanwhile, the neural network learned using the learning data may be trained as a neural network model that receives lecture information and feature vectors and outputs expected lecture evaluation information.

여기서, 예상 강의 평가 정보는 강의 영상을 평가를 수치화한 예상 강의 평가 점수 및 강의 영상을 평가하여 피드백한 예상 강의 평가 피드백이 포함될 수 있다.Here, the expected lecture evaluation information may include an expected lecture evaluation score obtained by quantifying the evaluation of the lecture image and an expected lecture evaluation feedback obtained by evaluating the lecture image.

여기서, 예상 강의 평가 점수는 학습자의 예상 만족도나 강의의 목적 대비 강의가 얼마나 적절하게 이루어졌는지를 강의 적정성이 수치화된 것일 수 있으며, 예상 강의 평가 피드백은 예상 평가 점수에 영향을 준 요소에 대한 정보를 포함할 수 있다.Here, the expected lecture evaluation score may be a numerical value of how well the lecture was conducted relative to the expected satisfaction of the learner or the purpose of the lecture, and the expected lecture evaluation feedback provides information on factors that affected the expected evaluation score. may include

한편, 상술한 신경망 학습 방법은 추후 설명할 강의 영상 평가 장치(100)의 AI 프로세서(150)에 의해 수행될 수 있으며, 신경망 학습 방법으로 학습된 신경망은 강의 영상을 평가하는데 이용될 수 있다.Meanwhile, the above-described neural network learning method may be performed by the AI processor 150 of the lecture image evaluation apparatus 100 to be described later, and the neural network learned by the neural network learning method may be used to evaluate the lecture image.

이어서, 도 4 참조하여 신경망 기반의 강의 영상을 평가하는 방법에 대해서 설명한다.Next, a method of evaluating a neural network-based lecture image will be described with reference to FIG. 4 .

도 4는 본 발명의 일 실시예에 따른 신경망 기반의 강의 영상을 평가하는 방법을 나타낸 흐름도이다.4 is a flowchart illustrating a method of evaluating a lecture image based on a neural network according to an embodiment of the present invention.

도 4를 참조하면, 강의 영상 평가 장치(100)의 신경망 기반의 강의 영상을 평가하는 방법은 강의 영상을 평가하기 위한 신경망 학습 방법을 통해 신경망을 학습시킬 수 있다(S1000). 여기서, 신경망을 학습시키는 단계(S1000)에는 상술한 (S100)단계 내지 (S600)단계가 포함될 수 있다.Referring to FIG. 4 , the neural network-based method of evaluating the lecture image of the lecture image evaluation apparatus 100 may train the neural network through the neural network learning method for evaluating the lecture image ( S1000 ). Here, the step (S1000) of learning the neural network may include the above-described steps (S100) to (S600).

다음, 강의 영상 평가 장치(100)는 강의자(10)로부터 평가 대상이 되는 강의 영상을 입력 받을 수 있다(S2000). 구체적으로, 강의 영상 평가 장치(100)는 유저 인터페이스를 통해 강으ㅣ자(10)로부터 평가 대상이 되는 강의 영상을 입력 받을 수 있다. Next, the lecture image evaluation apparatus 100 may receive an evaluation target lecture image from the lecturer 10 (S2000). Specifically, the lecture image evaluation apparatus 100 may receive an evaluation target lecture image from the lecturer 10 through a user interface.

그리고, 강의 영상 평가 장치(100)는 강의자(10)로부터 강의 영상에 대한 강의 정보를 입력 받을 수 있다(S3000). 구체적으로, 강의 영상 평가 장치(100)는 유저 인터페이스를 통해 강의자(10)로부터 강의 영상에 대한 강의 정보를 입력 받을 수 있다. 이와 관련하여 도 5를 참조하여 설명한다.In addition, the lecture image evaluation apparatus 100 may receive lecture information on the lecture image from the lecturer 10 ( S3000 ). Specifically, the lecture image evaluation apparatus 100 may receive lecture information on the lecture image from the lecturer 10 through the user interface. In this regard, it will be described with reference to FIG.

도 5(a)를 참조하면, 강의 영상 평가 장치(100)는 도 5(a)와 같은 유저 인터페이스를 제공하고, 해당 유저 인터페이스를 통해 강의 영상 및 강의 정보를 사용자(10)로부터 입력 받을 수 있다. 여기서, 유저 인터페이스에는 평가를 위한 강의 영상 업로드 영역, 업로드된 강의 영상이 표시되는 영역, 강의 정보를 입력 받기 위한 영역 등이 포함될 수 있다.Referring to FIG. 5 ( a ), the lecture image evaluation apparatus 100 provides a user interface as shown in FIG. 5 ( a ), and can receive lecture images and lecture information from the user 10 through the user interface. . Here, the user interface may include a lecture image upload area for evaluation, an area in which the uploaded lecture image is displayed, an area for receiving lecture information, and the like.

다음, 강의 영상 평가 장치(100)는 사용자(10)로부터 입력 받은 강의 정보 및 강의 영상을 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출할 수 있다(S4000). Next, the lecture image evaluation apparatus 100 may calculate expected lecture evaluation information by inputting lecture information and lecture images received from the user 10 into the learned neural network ( S4000 ).

구체적으로, 신경망은 강의 영상을 분석하여 강의자의 움직임, 강의자의 표정 및 강의자의 감정 중 적어도 하나의 특징값을 포함하는 제1 특징 벡터를 추출할 수 있다. 또한, 신경망은 강의 영상을 분석하여 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나의 특징값을 포함하는 제2 특징 벡터를 추출할 수 있다. 또한, 신경망은 강의 영상에서 강의 내용에 사용된 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나의 특징값을 포함하는 제3 특징 벡터를 추출할 수 있다. Specifically, the neural network may analyze the lecture image to extract a first feature vector including a feature value of at least one of the lecturer's movement, the lecturer's facial expression, and the lecturer's emotion. Also, the neural network may analyze the lecture image to extract a second feature vector including a feature value of at least one of tone, size, rhythm, tone, and speed of the lecturer's voice. In addition, the neural network extracts a third feature vector including a feature value of at least one of the difficulty of the vocabulary used in the lecture content, the richness of the vocabulary, the number of repetitions of the lecture keyword, the length of the sentence, and the class duration from the lecture video. can

그리고, 강의 영상 평가 장치(100)는 사용자(10)로부터 입력 받은 강의 정보 및 추출된 제1 내지 제3 특징 벡터를 신경망에 입력하여 예상 강의 평가 정보를 산출할 수 있다In addition, the lecture image evaluation apparatus 100 may calculate expected lecture evaluation information by inputting lecture information received from the user 10 and the extracted first to third feature vectors into the neural network.

이러한 본 발명의 일 실시 예에 따른 신경망의 일 예시에 대해서는 도 6을 참조하여 설명한다.An example of such a neural network according to an embodiment of the present invention will be described with reference to FIG. 6 .

도 6은 본 발명의 일 실시예에 따른 강의 영상을 평가하기 위한 신경망을 나타낸 예시도이다.6 is an exemplary diagram illustrating a neural network for evaluating a lecture image according to an embodiment of the present invention.

도 6을 참조하면, 본 발명의 일 실시 예에 따른 신경망(30)은 복수의 합성곱 연산을 수행하는 레이어로 구성된 CNN(Convolution Neural Network) 모델로 구성될 수 있다.Referring to FIG. 6 , the neural network 30 according to an embodiment of the present invention may be configured as a Convolution Neural Network (CNN) model including layers that perform a plurality of convolution operations.

강의 영상 및 강의 정보가 학습된 신경망(30)에 입력되면, 신경망(30) 내부의 레이어들을 거치면서 특징 값들은 합성곱을 통해 강조될 수 있다.When the lecture image and lecture information are input to the learned neural network 30 , the feature values may be emphasized through convolution while passing through the inner layers of the neural network 30 .

다양한 특징 값들은 각각의 합성곱 레이어(Convolution layer) 별로 결정된 필터와의 연산을 통해 새로운 특징 맵의 형태로 출력되며, 레이어 별 반복 연산을 통해 생성된 최종 특징 맵은 완전 연결 레이어(Fully-connected layer)로 입력되어 평탄화 될 수 있다. 평탄화된 특징 정보를 기초로 예상 강의 평가 정보를 출력할 수 있다.Various feature values are output in the form of a new feature map through operation with a filter determined for each convolution layer, and the final feature map generated through iterative operation for each layer is a fully-connected layer ) and can be flattened. Estimated lecture evaluation information may be output based on the flattened characteristic information.

다음, 강의 영상 평가 장치(100)는 산출된 예상 강의 평가 정보를 표시할 수 있다(S5000). 구체적으로, 강의 영상 평가 장치(100)는 사용자(10)에게 예상 강의 평가 정보를 제공하기 위해 유저 인터페이스를 통해 예상 강의 평가 정보를 표시할 수 있다. 이와 관련하여 도 5를 참조하여 설명한다.Next, the lecture image evaluation apparatus 100 may display the calculated expected lecture evaluation information (S5000). Specifically, the lecture image evaluation apparatus 100 may display expected lecture evaluation information through a user interface in order to provide expected lecture evaluation information to the user 10 . In this regard, it will be described with reference to FIG.

도 5(b)를 참조하면, 강의 영상 평가 장치(100)는 도 5(b)와 같은 유저 인터페이스를 제공하고, 해당 유저 인터페이스를 통해 예상 강의 평가 정보를 사용자(10)에게 제공할 수 있다. 여기서, 유저 인터페이스에는 강의 영상에 대한 학습자의 예상 만족도, 강의 적정성이 표시될 수 있으며, 강의 영상을 키워드로 평가한 강의 키워드도 표시될 수 있다.Referring to FIG. 5B , the lecture image evaluation apparatus 100 may provide a user interface as shown in FIG. 5B , and may provide expected lecture evaluation information to the user 10 through the user interface. Here, the expected satisfaction of the learner with respect to the lecture video and the appropriateness of the lecture may be displayed on the user interface, and a lecture keyword obtained by evaluating the lecture image as a keyword may also be displayed.

또한, 강의자의 표정, 감정, 어휘 등과 관련하여 예상 강의 평가 피드백이 표시될 수 있다.In addition, expected lecture evaluation feedback may be displayed in relation to the lecturer's facial expression, emotion, vocabulary, and the like.

이하에서, 도 7을 참조하여 강의 영상 평가 장치(100)의 구성에 대해서 설명한다.Hereinafter, the configuration of the lecture image evaluation apparatus 100 will be described with reference to FIG. 7 .

도 7은 본 발명의 일 실시예에 따른 강의 영상 평가 장치(100)의 구성을 나타낸 블록도이다.7 is a block diagram showing the configuration of the lecture image evaluation apparatus 100 according to an embodiment of the present invention.

도 7을 참조하면, 강의 영상 평가 장치(100)는 디스플레이부(110), 입력부(120), 저장부(130), 유저 인터페이스 생성부(140) 및 AI 프로세서(150)로 구성될 수 있다.Referring to FIG. 7 , the lecture image evaluation apparatus 100 may include a display unit 110 , an input unit 120 , a storage unit 130 , a user interface generating unit 140 , and an AI processor 150 .

디스플레이부(110)에는 강의 영상 평가 장치(100)의 동작과 관련된 여러 데이터가 표시될 수 있다. 예를 들어, 디스플레이부(110)는 도 5에 도시된 바와 같은 유저 인터페이스를 표시할 수 있다.Various data related to the operation of the lecture image evaluation apparatus 100 may be displayed on the display unit 110 . For example, the display 110 may display a user interface as shown in FIG. 5 .

입력부(120)는 강의 영상 평가 장치(100)의 동작에 필요한 여러 데이터를 입력 받을 수 있다. 예를 들어, 입력부(120)는 강의 영상 및 강의 정보를 입력하는 사용자 입력을 수신할 수 있다.The input unit 120 may receive various data necessary for the operation of the lecture image evaluation apparatus 100 . For example, the input unit 120 may receive a user input for inputting lecture images and lecture information.

저장부(130)에는 강의 영상 평가 장치(100)의 동작에 필요한 여러 데이터가 저장될 수 있다. 구체적으로, 저장부(130)는 신경망 모델 저장부(132)와 동작 데이터 저장부(134)로 구분되어 여러 데이터가 저장될 수 있다.The storage unit 130 may store various data necessary for the operation of the lecture image evaluation apparatus 100 . Specifically, the storage unit 130 is divided into a neural network model storage unit 132 and a motion data storage unit 134 , and various data may be stored therein.

신경망 모델 저장부(132)에는 강의 영상을 평가하기 위해 학습된 신경망이 저장될 수 있다.The neural network model storage unit 132 may store a neural network learned to evaluate lecture images.

동작 데이터 저장부(134)에는 강의 영상을 평가하기 위해 필요한 여러 데이터가 저장될 수 있다. 예를 들어, 동작 데이터 저장부(130)에는 평가 대상이 되는 강의 영상, 해당 강의 영상의 강의 정보가 저장될 수 있다.The motion data storage 134 may store various data necessary for evaluating the lecture image. For example, the motion data storage unit 130 may store a lecture image to be evaluated and lecture information of the corresponding lecture image.

유저 인터페이스 생성부(140)는 사용자(10)에게 제공되는 유저 인터페이스를 생성하는 기능을 수행할 수 있다. 구체적으로, 유저 인터페이스 생성부(140)는 강의 영상이나 강의 정보를 입력 받기 위한 유저 인터페이스를 생성하거나 예상 강의 평가 정보를 제공하기 위한 유저 인터페이스를 생성할 수도 있다.The user interface generator 140 may perform a function of generating a user interface provided to the user 10 . Specifically, the user interface generating unit 140 may generate a user interface for receiving lecture images or lecture information, or may generate a user interface for providing expected lecture evaluation information.

예를 들어, 유저 인터페이스 생성부(140)는 도 5와 같이 유저 인터페이스를 생성할 수 있다.For example, the user interface generator 140 may generate a user interface as shown in FIG. 5 .

AI 프로세서(150)는 강의 영상 평가 장치(100)의 전반적인 동작을 제어하는 기능을 수행할 수 있다. 구체적으로, AI 프로세서(150)는 상술한 신경망 학습 방법, 학습된 신경망을 이용한 강의 영상 평가 방법을 수행할 수 있다. The AI processor 150 may perform a function of controlling the overall operation of the lecture image evaluation apparatus 100 . Specifically, the AI processor 150 may perform the above-described neural network learning method and a lecture image evaluation method using the learned neural network.

구체적으로, AI 프로세서(150)는 강의 영상을 평가하기 위한 신경망을 학습시킬 수 있다. 예를 들어, AI 프로세서(150)는 강의 영상 및 강의 영상을 평가한 강의 평가 정보를 획득하고, 획득된 강의 영상의 강의자 얼굴 및 음성을 강조하는 전처리를 수행한 후, 전처리된 강의 영상을 분석하여 특징 벡터를 추출할 수 있다. 이때, 특징 벡터는 상술한 제1 특징 벡터, 제2 특징 벡터 및 제3 특징 벡터일 수 있다. Specifically, the AI processor 150 may train a neural network for evaluating a lecture image. For example, the AI processor 150 obtains lecture evaluation information that evaluates lecture images and lecture images, performs pre-processing to emphasize the face and voice of the lecturer of the obtained lecture images, and analyzes the pre-processed lecture images. Feature vectors can be extracted. In this case, the feature vector may be the first feature vector, the second feature vector, and the third feature vector described above.

그리고, AI 프로세서(150)는 입력된 강의 정보와 추출된 특징 벡터와 강의 평가 정보를 강의 영상에 레이블링하여 학습데이터를 생성하고, 생성된 학습데이터를 기초로 강의 영상을 평가하기 위한 신경망을 학습시킬 수 있다. 이와 관련하여 도 2 내지 3을 참조하여 설명한 바, 구체적인 설명은 생략한다.Then, the AI processor 150 generates learning data by labeling the input lecture information, the extracted feature vector, and the lecture evaluation information on the lecture image, and trains a neural network for evaluating the lecture image based on the generated learning data. can In this regard, since it has been described with reference to FIGS. 2 to 3 , a detailed description thereof will be omitted.

또한, AI 프로세서(150)는 강의 정보 및 강의 영상을 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출할 수 있다. 이와 관련하여 도 4를 참조하여 설명한 바, 구체적인 설명은 생략한다.Also, the AI processor 150 may calculate expected lecture evaluation information by inputting lecture information and lecture images to the learned neural network. In this regard, since it has been described with reference to FIG. 4, a detailed description thereof will be omitted.

한편, 명세서 및 청구범위에서 "제 1", "제 2", "제 3" 및 "제 4" 등의 용어는, 만약 있는 경우, 유사한 구성요소 사이의 구분을 위해 사용되며, 반드시 그렇지는 않지만 특정 순차 또는 발생 순서를 기술하기 위해 사용된다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 시퀀스로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 마찬가지로, 여기서 방법이 일련의 단계를 포함하는 것으로 기술되는 경우, 여기에 제시된 그러한 단계의 순서는 반드시 그러한 단계가 실행될 수 있는 순서인 것은 아니며, 임의의 기술된 단계는 생략될 수 있고/있거나 여기에 기술되지 않은 임의의 다른 단계가 그 방법에 부가 가능할 것이다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성 요소로 명명될 수 있고, 유사하게 제2 구성 요소도 제1 구성 요소로 명명될 수 있다.Meanwhile, in the specification and claims, terms such as "first", "second", "third", and "fourth" are used to distinguish between similar elements, if any, and this is not necessarily the case. Used to describe a specific sequence or sequence of occurrences. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate, for example, in sequences other than those shown or described herein. Likewise, where methods are described herein as comprising a series of steps, the order of those steps presented herein is not necessarily the order in which those steps may be performed, and any described steps may be omitted and/or Any other steps not described may be added to the method. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component.

또한 명세서 및 청구범위의 "왼쪽", "오른쪽", "앞", "뒤", "상부", "바닥", "위에", "아래에" 등의 용어는, 설명을 위해 사용되는 것이며, 반드시 불변의 상대적 위치를 기술하기 위한 것은 아니다. 그와 같이 사용되는 용어는 여기에 기술된 본 발명의 실시예가, 예컨대, 여기에 도시 또는 설명된 것이 아닌 다른 방향으로 동작할 수 있도록 적절한 환경하에서 호환 가능한 것이 이해될 것이다. 여기서 사용된 용어 "연결된"은 전기적 또는 비 전기적 방식으로 직접 또는 간접적으로 접속되는 것으로 정의된다. 여기서 서로 "인접하는" 것으로 기술된 대상은, 그 문구가 사용되는 문맥에 대해 적절하게, 서로 물리적으로 접촉하거나, 서로 근접하거나, 서로 동일한 일반적 범위 또는 영역에 있는 것일 수 있다. 여기서 "일실시예에서"라는 문구의 존재는 반드시 그런 것은 아니지만 동일한 실시예를 의미한다.Also, terms such as "left", "right", "front", "rear", "top", "bottom", "above", "below" in the specification and claims are used for descriptive purposes, It is not necessarily intended to describe an invariant relative position. It will be understood that the terms so used are interchangeable under appropriate circumstances to enable the embodiments of the invention described herein to operate otherwise than, for example, as shown or described herein. As used herein, the term “connected” is defined as being directly or indirectly connected in an electrical or non-electrical manner. Objects described herein as being "adjacent" to one another may be in physical contact with one another, in proximity to one another, or in the same general scope or area as appropriate for the context in which the phrase is used. The presence of the phrase “in one embodiment” herein refers to the same, but not necessarily, embodiment.

또한 명세서 및 청구범위에서 '연결된다', '연결하는', '체결된다', '체결하는', '결합된다', '결합하는' 등과 이런 표현의 다양한 변형들의 지칭은 다른 구성요소와 직접적으로 연결되거나 다른 구성요소를 통해 간접적으로 연결되는 것을 포함하는 의미로 사용된다. In addition, in the specification and claims, references to 'connected', 'connecting', 'fastened', 'fastening', 'coupled', 'coupled', etc., and various variations of these expressions, refer to other elements directly It is used in the sense of being connected or indirectly connected through other elements.

반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.On the other hand, when it is said that a certain element is "directly connected" or "directly connected" to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로써, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다.In addition, the suffixes "module" and "part" for components used in this specification are given or used in consideration of ease of writing the specification, and do not have distinct meanings or roles by themselves.

또한 본 명세서에서 사용된 용어들은 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "구성된다" 또는 "포함한다" 등의 용어는 명세서 상에 기재된 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.In addition, the terms used herein are for the purpose of describing the embodiments and are not intended to limit the present invention. As used herein, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the specification, some of which components or some steps are It should be construed that it may not include, or may further include additional components or steps.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 명세서를 통해 개시된 모든 실시예들과 조건부 예시들은, 본 발명의 기술 분야에서 통상의 지식을 가진 당업자가 독자가 본 발명의 원리와 개념을 이해하도록 돕기 위한 의도로 기술된 것으로, 당업자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다.So far, the present invention has been looked at with respect to preferred embodiments thereof. All embodiments and conditional examples disclosed through this specification have been described with the intention of helping those of ordinary skill in the art to understand the principles and concepts of the present invention, and those skilled in the art It will be understood that the present invention may be implemented in a modified form without departing from the essential characteristics of the present invention.

그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다. Therefore, the disclosed embodiments are to be considered in an illustrative rather than a restrictive sense. The scope of the present invention is indicated in the claims rather than the foregoing description, and all differences within the scope equivalent thereto should be construed as being included in the present invention.

한편, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 서버 또는 기기들에 제공될 수 있다. 이에 따라 각 장치들은 프로그램이 저장된 서버 또는 기기에 접속하여, 상기 프로그램을 다운로드 할 수 있다.Meanwhile, the method according to various embodiments of the present invention described above may be implemented as a program and provided to a server or devices. Accordingly, each device can download the program by accessing the server or device in which the program is stored.

또한, 상술한 본 발명의 다양한 실시 예들에 따른 방법은 프로그램으로 구현되어 다양한 비일시적 판독 가능 매체(non-transitory computer readable medium)에 저장되어 제공될 수 있다. 비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.In addition, the above-described method according to various embodiments of the present invention may be implemented as a program and stored in various non-transitory computer readable media to be provided. The non-transitory readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, cache, memory, and the like, and can be read by a device. Specifically, the various applications or programs described above may be provided by being stored in a non-transitory readable medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention pertains without departing from the gist of the present invention as claimed in the claims In addition, various modifications are possible by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100 : 강의 영상 평가 장치 110 : 디스플레이부
120 : 입력부 130 : 저장부
140 : 유저 인터페이스 생성부 150 : AI 프로세서
100: lecture image evaluation device 110: display unit
120: input unit 130: storage unit
140: user interface generator 150: AI processor

Claims (11)

강의 영상을 평가하기 위한 신경망의 학습 방법에 있어서,
다수의 강의 영상 및 상기 다수의 강의 영상 각각에 대한 강의 평가 정보를 획득하는 단계;
상기 획득된 강의 영상의 전처리를 수행하는 단계;
상기 강의 영상에 대한 강의 정보를 획득하는 단계;
상기 전처리된 강의 영상을 분석하여 특징 벡터를 추출하는 단계;
상기 강의 정보와 상기 특징 벡터와 상기 강의 평가 정보를 상기 강의 영상에 레이블링하여 학습데이터를 생성하는 단계; 및
상기 학습데이터를 기초로 강의 영상을 평가하기 위한 신경망을 학습시키는 단계;를 포함하는 신경망 학습 방법.
In the learning method of a neural network for evaluating a lecture image,
obtaining a plurality of lecture images and lecture evaluation information for each of the plurality of lecture images;
performing pre-processing of the obtained lecture image;
obtaining lecture information on the lecture video;
extracting a feature vector by analyzing the pre-processed lecture image;
generating learning data by labeling the lecture information, the feature vector, and the lecture evaluation information on the lecture image; and
A neural network learning method comprising a; learning a neural network for evaluating a lecture image based on the learning data.
제 1 항에 있어서,
상기 특징 벡터를 추출하는 단계는,
상기 강의 영상에서 상기 강의자의 외관에 관련된 시각 데이터를 분석하여 제1 특징 벡터를 추출하는 단계;
상기 강의 영상에서 상기 강의자의 음성에 관련된 청각 데이터를 분석하여 제2 특징 벡터를 추출하는 단계; 및
상기 강의 영상에서 강의 내용과 관련된 강의 데이터를 분석하여 제3 특징 벡터를 추출하는 단계;를 더 포함하고
상기 학습데이터를 생성하는 단계는 추출된 제1 특징 벡터, 제2 특징 벡터 및 제3 특징 벡터를 상기 강의 영상에 레이블링하는 것을 특징으로 하는 신경망 학습 방법.
The method of claim 1,
Extracting the feature vector comprises:
extracting a first feature vector by analyzing visual data related to the appearance of the lecturer from the lecture image;
extracting a second feature vector by analyzing auditory data related to the lecturer's voice from the lecture image; and
and extracting a third feature vector by analyzing lecture data related to lecture contents from the lecture image.
The generating of the learning data comprises labeling the extracted first feature vector, second feature vector, and third feature vector on the lecture image.
제 2 항에 있어서,
상기 제1 특징 벡터를 추출하는 단계는,
강의자의 움직임, 강의자의 표정 및 강의자의 감정 중 적어도 하나의 특징값을 포함하는 제1 특징 벡터를 추출하는 것을 특징으로 하는 신경망 학습 방법.
3. The method of claim 2,
The step of extracting the first feature vector,
A method for learning a neural network, comprising extracting a first feature vector including at least one of a movement of a lecturer, an expression of the lecturer, and an emotion of the lecturer.
제 2 항에 있어서,
상기 제2 특징 벡터를 추출하는 단계는, 강의자의 음성의 톤, 크기, 리듬, 음색 및 속도 중 적어도 하나의 특징값을 포함하는 제2 특징 벡터를 추출하는 것을 특징으로 하는 신경망 학습 방법.
3. The method of claim 2,
The extracting of the second feature vector comprises extracting a second feature vector including a feature value of at least one of tone, size, rhythm, tone, and speed of the lecturer's voice.
제 2 항에 있어서,
강의자의 강의 내용에 사용된 어휘의 난이도, 어휘의 풍부도, 강의 키워드의 반복 횟수, 문장의 길이 및 수업 지속 시간 중 적어도 하나 의 특징값을 포함하는 제2 특징 벡터를 추출하는 것을 특징으로 하는 신경망 학습 방법.
3. The method of claim 2,
A neural network characterized by extracting a second feature vector including a feature value of at least one of the difficulty of the vocabulary used in the lecture content of the lecturer, the richness of the vocabulary, the number of repetitions of the lecture keyword, the length of the sentence, and the duration of the lesson How to learn.
제 1 항에 있어서,
상기 강의 정보는 상기 강의 영상의 강의 목적, 강의 대상, 강의 분위기, 강의 과목 및 강의 방식 중 적어도 하나를 포함하는 것을 특징으로 하는 신경망 학습 방법.
The method of claim 1,
The lecture information is a neural network learning method, characterized in that it includes at least one of a lecture purpose of the lecture video, a lecture subject, a lecture atmosphere, a lecture subject, and a lecture method.
신경망 기반의 강의 영상을 평가하는 방법에 있어서,
강의 영상을 평가하기 위해 신경망 학습 방법을 통해 신경망을 학습시키는 단계;
평가 대상이 되는 강의 영상을 입력 받는 단계;
상기 강의 영상에 대한 강의 정보를 입력 받는 단계;
상기 강의 정보 및 강의 영상을 상기 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출하는 단계;를 포함하는 강의 영상 평가 방법.
In a method for evaluating a lecture image based on a neural network,
training a neural network through a neural network learning method to evaluate a lecture image;
receiving a lecture video to be evaluated;
receiving lecture information on the lecture video;
The lecture image evaluation method comprising; inputting the lecture information and the lecture image to the learned neural network to calculate expected lecture evaluation information.
제 7 항에 있어서,
상기 예상 강의 평가 정보를 산출하는 단계는,
상기 평가 대상이 되는 강의 영상에서 상기 강의자의 외관에 관련된 시각 데이터를 분석하여 제1 특징 벡터를 추출하는 단계;
상기 평가 대상이 되는 강의 영상에서 상기 강의자의 음성에 관련된 청각 데이터를 분석하여 제2 특징 벡터를 추출하는 단계;
상기 평가 대상이 되는 강의 영상에서 상기 강의자의 강의 내용을 분석하여 제3 특징 벡터를 추출하는 단계; 및
상기 강의 정보 및 상기 제1 내지 제3 특징 벡터를 신경망에 입력하여 예상 강의 평가 정보를 산출하는 단계;를 포함하는 강의 영상 평가 방법.
8. The method of claim 7,
Calculating the expected lecture evaluation information includes:
extracting a first feature vector by analyzing visual data related to the appearance of the lecturer from the lecture image to be evaluated;
extracting a second feature vector by analyzing auditory data related to the lecturer's voice from the lecture image to be evaluated;
extracting a third feature vector by analyzing the lecture content of the lecturer from the lecture image to be evaluated; and
and calculating expected lecture evaluation information by inputting the lecture information and the first to third feature vectors into a neural network.
신경망 기반의 강의 영상 평가 장치에 있어서,
강의 영상을 평가하기 위해 신경망 학습 방법을 통해 학습된 신경망을 저장하는 신경망 모델 저장부;
평가 대상이 되는 강의 영상을 입력 받고, 상기 강의 영상에 대한 강의 정보를 입력 받는 입력부; 및
상기 강의 정보 및 강의 영상을 상기 학습된 신경망에 입력하여 예상 강의 평가 정보를 산출하는 AI 프로세서;를 포함하는 신경망 기반의 강의 영상 평가 장치.
In the neural network-based lecture image evaluation apparatus,
a neural network model storage unit for storing a neural network learned through a neural network learning method to evaluate a lecture image;
an input unit for receiving a lecture image to be evaluated and receiving lecture information on the lecture image; and
An AI processor for calculating expected lecture evaluation information by inputting the lecture information and the lecture image to the learned neural network; a neural network-based lecture image evaluation apparatus comprising a.
제 1 항 내지 제 6 항 중 어느 한 항에 기재된 강의 영상을 평가하기 위한 신경망 학습 방법을 실행하기 위한 프로그램 코드가 기록된 컴퓨터가 판독 가능한 기록 매체에 기록된 프로그램.A program recorded in a computer-readable recording medium in which a program code for executing a neural network learning method for evaluating a lecture image according to any one of claims 1 to 6 is recorded. 제 7 항 내지 제 8 항 중 어느 한 항에 기재된 신경망 기반의 강의 영상을 평가하기 위한 방법을 실행하기 위한 프로그램 코드가 기록된 컴퓨터가 판독 가능한 기록 매체에 기록된 프로그램.A program recorded on a computer-readable recording medium in which a program code for executing a method for evaluating a neural network-based lecture image according to any one of claims 7 to 8 is recorded.
KR1020200168033A 2020-10-22 2020-12-04 Method, apparatus and computer program for evaluating lecture video using neural network KR20220053441A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20200137378 2020-10-22
KR1020200137378 2020-10-22

Publications (1)

Publication Number Publication Date
KR20220053441A true KR20220053441A (en) 2022-04-29

Family

ID=81428995

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200168033A KR20220053441A (en) 2020-10-22 2020-12-04 Method, apparatus and computer program for evaluating lecture video using neural network

Country Status (1)

Country Link
KR (1) KR20220053441A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102642267B1 (en) * 2022-12-09 2024-02-29 김철중 Segmentation of lecture content and purchase platform service method, device and system for segmented lecture content
KR20240086859A (en) * 2022-12-09 2024-06-19 주식회사 청교 Method, device and system for providing lecture content based on analysis of learning participation in online lectures

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102642267B1 (en) * 2022-12-09 2024-02-29 김철중 Segmentation of lecture content and purchase platform service method, device and system for segmented lecture content
KR20240086859A (en) * 2022-12-09 2024-06-19 주식회사 청교 Method, device and system for providing lecture content based on analysis of learning participation in online lectures

Similar Documents

Publication Publication Date Title
US10643487B2 (en) Communication and skills training using interactive virtual humans
Schodde et al. Adaptive robot language tutoring based on Bayesian knowledge tracing and predictive decision-making
US20170169715A1 (en) User state model adaptation through machine driven labeling
Spaulding et al. A social robot system for modeling children's word pronunciation
CN110275987B (en) Intelligent teaching consultant generation method, system, equipment and storage medium
Lee et al. Multimodality of ai for education: Towards artificial general intelligence
Hieu et al. Identifying learners’ behavior from videos affects teaching methods of lecturers in Universities
US20170039876A1 (en) System and method for identifying learner engagement states
US11037460B2 (en) Cognitive robotic assistance for education
English et al. Recognition of gestural behaviors expressed by humanoid robotic platforms for teaching affect recognition to children with autism-a healthy subjects pilot study
KR20220053441A (en) Method, apparatus and computer program for evaluating lecture video using neural network
Alshammari et al. Robotics utilization in automatic vision-based assessment systems from artificial intelligence perspective: A systematic review
CN116862287A (en) Multi-mode English speech capability assessment method
Cangelosi et al. Embodied language and number learning in developmental robots
De Wit et al. The design and observed effects of robot-performed manual gestures: A systematic review
Sarrafzadeh et al. See me, teach me: Facial expression and gesture recognition for intelligent tutoring systems
CN117078053A (en) System and method for analyzing user communication
Trampas Extracting learning analytics from game based learning sessions generated by multimodal data sources.
Adewole et al. Dialogue-based simulation for cultural awareness training
RU2751759C2 (en) Software and hardware complex of the training system with automatic assessment of the student's emotions
Bura et al. ML Based Comprehensive Application to Enhance Soft Skills
Weldemariam Integrating Machine Learning Into the K-12 Curriculum: The Case for Finland
US20230237922A1 (en) Artificial intelligence-driven avatar-based personalized learning techniques
Latorraca Neurosciences inform second language acquisition. Upgrading EFL educational settings with social modeling and observational
Goenka et al. Enhancing number sense of dyscalculia learners by pedagogical agents: a review

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application