KR102299563B1 - Method And Apparatus for Providing Untact Class by using Virtual Teaching Assistant Robot - Google Patents
Method And Apparatus for Providing Untact Class by using Virtual Teaching Assistant Robot Download PDFInfo
- Publication number
- KR102299563B1 KR102299563B1 KR1020210021124A KR20210021124A KR102299563B1 KR 102299563 B1 KR102299563 B1 KR 102299563B1 KR 1020210021124 A KR1020210021124 A KR 1020210021124A KR 20210021124 A KR20210021124 A KR 20210021124A KR 102299563 B1 KR102299563 B1 KR 102299563B1
- Authority
- KR
- South Korea
- Prior art keywords
- face
- learner
- class
- learning
- providing device
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 230000002996 emotional effect Effects 0.000 claims abstract description 39
- 238000004891 communication Methods 0.000 claims abstract description 23
- 230000008451 emotion Effects 0.000 claims description 133
- 239000000284 extract Substances 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 11
- 238000005516 engineering process Methods 0.000 claims description 11
- 230000014509 gene expression Effects 0.000 claims description 10
- 230000007935 neutral effect Effects 0.000 claims description 5
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 230000000306 recurrent effect Effects 0.000 claims description 3
- 230000008921 facial expression Effects 0.000 claims 2
- 230000004044 response Effects 0.000 description 48
- 238000013503 de-identification Methods 0.000 description 28
- 238000010801 machine learning Methods 0.000 description 23
- 239000000463 material Substances 0.000 description 17
- 230000000694 effects Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000013519 translation Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 230000006397 emotional response Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008909 emotion recognition Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000013589 supplement Substances 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 230000001149 cognitive effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 239000012925 reference material Substances 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 208000025721 COVID-19 Diseases 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003442 weekly effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
- G06Q50/205—Education administration or guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
-
- G06Q50/30—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/02—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail using automatic reactions or user delegation, e.g. automatic replies or chatbot-generated messages
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Tourism & Hospitality (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Educational Administration (AREA)
- Entrepreneurship & Innovation (AREA)
- Economics (AREA)
- Educational Technology (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- Primary Health Care (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- Electrically Operated Instructional Devices (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
본 발명의 일 실시예는 가상 조교 로봇을 이용한 비대면 수업 제공 방법 및 장치에 관한 것이다. An embodiment of the present invention relates to a method and apparatus for providing a non-face-to-face class using a virtual assistant robot.
이하에 기술되는 내용은 단순히 본 실시예와 관련되는 배경 정보만을 제공할 뿐 종래기술을 구성하는 것이 아니다.The content described below merely provides background information related to the present embodiment and does not constitute the prior art.
네트워크를 기반으로 한 원격 교육은 학교에서 교실 교육을 대처하기 위한 수단으로 사용되어 왔다. 원격 교육은 참여하는 학생 수를 제한하지 않고, 학생들이 집 또는 외부 공간에서 수업에 참석할 수 있도록 한다. Network-based distance education has been used in schools as a means of coping with classroom education. Distance education does not limit the number of students participating, but allows students to attend classes at home or in an off-site space.
일반적인 원격 교육은 학생들과 선생님 간에는 제한된 대화만이 가능하다. 예컨대, 온라인으로 제공된 수업에서, 수업 참가자들 간에 대화가 불가능하다. 제한된 대화가 가능한 경우에는, 대화(예컨대, 차트 메시지)와 비디오 및 오디오 프로그램과 선생님에 의해 삽입된 다른 코멘트를 포함하는 전체 수업내용을 기록하는 것이 어렵다. 수업시간 중에 하나를 미스한 학생들과 수업시간 중에 발생된 토론을 모두 보기를 희망하는 학생들에게 불평을 유발시킨다. 또한, 그것은 수업시간 중에 특정 화제와 관련된 토론을 다시 보기를 원하는 학생들에게 불평을 유발시킨다.In general distance education, only limited dialogue between students and teachers is possible. For example, in a class provided online, conversation between class participants is impossible. When limited dialogue is possible, it is difficult to record the entire lesson, including dialogue (eg, chart messages) and video and audio programs and other comments inserted by the teacher. It causes complaints from students who miss one during class and those who wish to see all of the discussions that took place during class. It also causes complaints from students who want to revisit discussions related to a particular topic in class.
더불어, COVID-19에 대응하기 위하여 대학에서 등교에 의한 집합수업을 지양하고 원격수업(실시간, 녹화 등)이나 과제물 활용 수업을 실시하고 있다. ZOOM, WebEX를 통한 실시간 강의, 수업자료 녹화를 통한 녹화 강의에 따라 강의자와 학습자 모두 변화하는 수업 형태에 맞춰 비대면 학습을 실시하고 있다. In addition, in order to respond to COVID-19, universities are avoiding group classes by attending school, and are conducting remote classes (real-time, recording, etc.) or classes using homework. In accordance with real-time lectures through ZOOM and WebEX, and recorded lectures through recording of class materials, both lecturers and learners are conducting non-face-to-face learning in accordance with the changing class format.
상용화된 화상 강의(회의) 솔루션은 기술적인 발전에도 불구하고 소프트웨어, 하드웨어 또는 네트워크 장애로 인해 품질 저하 및 딜레이로 인해 원활한 전송에 한계가 있다. 또한, 학습적인 측면에서 출석 처리 기능 미제공, 불필요한 채팅이나 파일 공유의 무분별한 사용으로 교수자와 학습자 모두에게 혼란을 초래하는 문제가 있다.
종래의 강의자와 학습자간의 교육을 수행하는 기술은 미국공개특허 제US2014/0335497호에 개시되어 있다.Commercial video lecture (conference) solutions have limitations in smooth transmission due to quality degradation and delays due to software, hardware, or network failures despite technological advancements. In addition, in terms of learning, there is a problem of causing confusion to both instructors and learners by not providing attendance processing function and indiscriminate use of unnecessary chatting or file sharing.
A conventional technique for performing education between a lecturer and a learner is disclosed in US Patent Publication No. US2014/0335497.
본 실시예는 비대면 수업에 있어서, 강의자와 학습자 간의 소통을 보완하는 가상 조교 로봇(Virtual Teaching Assistant Robot)을 이용하여 학습자와 강의자 모두에 대해 개별 학습 관리, 그룹 학습 관리, 학교생월 지원 및 학습정서 케어를 지원하도록 하는 가상 조교 로봇을 이용한 비대면 수업 제공 방법 및 장치를 제공하는 데 목적이 있다.In this embodiment, in non-face-to-face class, individual learning management, group learning management, school life support, and learning emotion for both learners and lecturers by using a virtual teaching assistant robot that complements communication between the lecturer and the learner An object of the present invention is to provide a method and apparatus for providing a non-face-to-face class using a virtual assistant robot to support care.
본 실시예의 일 측면에 의하면, 강의자 단말기로부터 입력받은 강의 계획서를 기반으로 학습 과제별 비대면 개인 채팅방 및 과제별 비대면 그룹 채팅방을 개설하는 채팅방 개설부; 학습 과제별 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방 내에 학습자 단말기와 함께 가상 조교 로봇을 참여시키고, 상기 가상 조교 로봇을 이용하여 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방으로부터 입력되는 텍스트 정보를 수집하는 수집부; 상기 텍스트 정보를 분석한 분석결과를 생성하는 분석부; 상기 분석결과를 기반으로 학습자별 사용자 패턴을 생성하는 사용자 패턴 생성부; 상기 분석결과를 기반으로 감성 정보를 분류하는 감성 분류부; 및 상기 가상 조교 로봇을 이용하여 상기 분석결과, 상기 학습자별 사용자 패턴 및 상기 감성 정보를 기반으로 비대면 수업을 지원하도록 하는 비대면 수업 지원부를 포함하는 것을 특징으로 하는 비대면 수업 제공장치를 제공한다.According to an aspect of this embodiment, based on the lecture plan received from the lecturer terminal, a chat room opening unit for opening a non-face-to-face private chat room for each study task and a non-face-to-face group chat room for each task; In the non-face-to-face personal chat room and the non-face-to-face group chat room for each learning task, a virtual assistant robot is engaged together with a learner terminal, and the text information input from the non-face-to-face personal chat room and the non-face-to-face group chat room is obtained using the virtual assistant robot. a collecting unit to collect; an analysis unit generating an analysis result of analyzing the text information; a user pattern generator for generating a user pattern for each learner based on the analysis result; an emotion classification unit for classifying emotion information based on the analysis result; and a non-face-to-face class support unit configured to support a non-face-to-face class based on the analysis result, the learner-specific user pattern, and the emotional information using the virtual assistant robot. .
이상에서 설명한 바와 같이 본 실시예에 의하면, 비대면 수업에 있어서, 강의자와 학습자 간의 소통을 보완하는 가상 조교 로봇(Virtual Teaching Assistant Robot)을 이용하여 학습자와 강의자 모두에 대해 개별 학습 관리, 그룹 학습 관리, 학교생월 지원 및 학습정서 케어를 지원하도록 하는 효과가 있다.As described above, according to this embodiment, in the non-face-to-face class, individual learning management and group learning management for both the learner and the lecturer using a virtual teaching assistant robot that supplements communication between the lecturer and the learner , it has the effect of supporting school life support and learning emotional care.
도 1은 본 실시예에 따른 비대면 수업 시스템을 나타낸 도면이다.
도 2는 본 실시예에 따른 비대면 수업 제공장치를 개략적으로 나타낸 도면이다.
도 3은 본 실시예에 따른 가상 조교 로봇을 이용한 수업중 학습자 그룹 채팅을 나타낸 도면이다.
도 4는 본 실시예에 따른 가상 조교 로봇을 이용한 질의 그룹핑 및 강의 참고 자료에 대한 학습 보조를 나타낸 도면이다.
도 5는 본 실시예에 따른 가상 조교 로봇을 이용한 조별 과제에 대한 학습 보조를 나타낸 도면이다.
도 6은 본 실시예에 따른 가상 조교 로봇을 이용한 수업 관련 활동 및 퀴즈 제공을 나타낸 도면이다.
도 7은 본 실시예에 따른 가상 조교 로봇을 이용하여 강의자에게 수업 알람을 발생하는 화면을 나타낸 도면이다.1 is a view showing a non-face-to-face class system according to the present embodiment.
2 is a diagram schematically illustrating an apparatus for providing a non-face-to-face class according to the present embodiment.
3 is a diagram illustrating a learner group chatting during class using the virtual assistant robot according to the present embodiment.
4 is a diagram illustrating a study aid for query grouping and lecture reference materials using the virtual assistant robot according to the present embodiment.
5 is a view showing a learning aid for a group task using the virtual assistant robot according to the present embodiment.
6 is a diagram illustrating class-related activities and provision of quizzes using the virtual assistant robot according to the present embodiment.
7 is a view showing a screen for generating a class alarm to the lecturer using the virtual assistant robot according to the present embodiment.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, this embodiment will be described in detail with reference to the accompanying drawings.
도 1은 본 실시예에 따른 비대면 수업 시스템을 나타낸 도면이다.1 is a view showing a non-face-to-face class system according to the present embodiment.
본 실시예에 따른 비대면 수업 시스템은 비대면 수업 제공장치(110), 학습자 단말기(130), 강의자 단말기(140)를 포함한다. 비대면 수업 시스템에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The non-face-to-face class system according to the present embodiment includes a non-face-to-face
비대면 수업 제공장치(110)는 하드웨어적으로 통상적인 웹서버(Web Server) 또는 네트워크 서버와 동일한 하드웨어 모듈을 포함한다. 비대면 수업 제공장치(110)는 웹서버 또는 네트워크 서버의 형태로 구현될 수 있다.The non-face-to-face
비대면 수업 제공장치(110)는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 경유하여 불특정 다수 클라이언트 또는 다른 서버와 통신한다. 비대면 수업 제공장치(110)는 클라이언트 또는 다른 웹서버의 작업수행 요청에 대응하는 작업 결과를 도출하여 제공하는 컴퓨터 시스템, 컴퓨터 소프트웨어(웹서버 프로그램)를 의미한다.The non-face-to-face
비대면 수업 제공장치(110)는 전술한 웹서버 프로그램 이외에, 웹서버상에서 동작하는 일련의 응용 프로그램(Application Program) 또는 장치 내부에 구축되어 있는 각종 데이터베이스를 포함하는 넓은 개념으로 이해되어야 할 것이다.The non-face-to-face
비대면 수업 제공장치(110)는 강의자 단말기(140)로부터 강의 자료, 강의 보조자료를 수신한 후 학습 스케쥴에 따라 학습자 단말기(130)로 강의 자료, 강의 보조자료를 전달한다. 비대면 수업 제공장치(110)는 학습 스케쥴에 따라 강의자 단말기(140)로 강의 자료를 요청한다. 비대면 수업 제공장치(110)는 강의자 단말기(140)로부터 강의 자료, 강의 보조자료를 수신한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습 스케쥴에 따라 학습자 단말기(130)로 강의 자료, 강의 보조자료를 학습자 단말기(130)의 개인별 또는 그룹별로 제공한다. 비대면 수업 제공장치(110)는 학습 스케쥴에 따라 강의를 진행하도록 하고, 가상 조교 로봇(120)을 이용하여 강의별 채팅 정보를 수집한다.The non-face-to-face
비대면 수업 제공장치(110)는 수집된 강의별 채팅 정보를 분석하여 채팅 분석 결과를 생성한 후 채팅 분석 결과 중 질의 내용만을 추출한다. 비대면 수업 제공장치(110)는 질의 내용 중 중복 내용을 확인하고, 중복 질의 내용을 하나의 질의로 취합한 질의 취합 데이터를 생성한다. 비대면 수업 제공장치(110)는 질의 취합 데이터 중 기 설정된 길이 이상을 갖는 문장을 선별한 후 기 설정된 문장 또는 단어 수 이내로 요약한 질의 요약 데이터를 생성한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 질의 요약 데이터를 강의자 단말기(140)로 전달한다.The non-face-to-face
비대면 수업 제공장치(110)는 강의별 채팅 정보를 분석한다. 비대면 수업 제공장치(110)는 채팅 분석 결과를 기반으로 그룹 채팅 내에서 참여율이 적거나 참여한 대화의 콘텍스트가 다른 학습자를 추출한다. 비대면 수업 제공장치(110)는 강의별로 가상 조교 로봇(120)을 이용하여 참여율이 적거나 참여한 대화의 콘텍스트가 다른 학습자에 대응하는 학습자 단말기(130)로 학습 참여 독려 메시지를 전송한다.The non-face-to-face
비대면 수업 제공장치(110)는 강의별(강의 내 팀플방별) 채팅 정보를 분석한다. 비대면 수업 제공장치(110)는 수집된 강 강의별(강의 내 팀플방별) 채팅 정보를 분석한 채팅 분석 결과 중 수업외 내용만을 추출한다. 비대면 수업 제공장치(110)는 수업외 내용을 분석하여 도움 또는 지원을 필요로 하는 문장을 선별한다. 비대면 수업 제공장치(110)는 도움 또는 지원을 필요로 하는 문장의 내용을 확인한다. 비대면 수업 제공장치(110)는 도움 또는 지원을 필요로 하는 문장에 대응하는 카테고리를 선별한다. 비대면 수업 제공장치(110)는 해당 카테고리에 대응하는 수업외 지원 정보(예컨대, 아르바이트 정보)를 추출한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 도움 또는 지원을 필요로 하는 문장을 입력한 학습자 단말기(130)로 수업외 지원 정보를 전송한다.The non-face-to-face
비대면 수업 제공장치(110)는 강의별(강의 내 팀플방별) 채팅 정보를 분석한다. 비대면 수업 제공장치(110)는 수집된 강의별(강의 내 팀플방별) 채팅 정보를 분석한 채팅 분석 결과를 생성한다. 비대면 수업 제공장치(110)는 채팅 분석 결과를 기반으로 신규 팀플 그룹을 구성하기 위해 개인별 학습정서(성향)이 맞는 개인 학습자를 선별한다. 비대면 수업 제공장치(110)는 그룹 채팅에 개인별 학습정서(성향)이 맞는 개인 학습자를 스터디 그룹을 추천하거나 채팅 그룹을 추천하는 메시지를 전송하는 학습정서 케어를 수행한다. The non-face-to-face
비대면 수업 제공장치(110)는 과제별 그룹 채팅 방 내의 학습자 단말기(130)로부터 입력된 채팅 내용을 기반으로 각 학습자별 사용자 패턴을 생성한다. 비대면 수업 제공장치(110)는 각 학습자별 사용자 패턴을 기반으로 EKMAN model 감성분류를 활용하여 UNESCO 정의 학습정서를 분류한다.The non-face-to-face
비대면 수업 제공장치(110)는 과제별 그룹 채팅방에 입력된 텍스트 기반으로 해당 채팅방 내의 각 구성원의 사용자 특징/패턴을 인식하고, 영역별 감성사전 구축을 위한 그래프를 기반으로 사용자 특징/패턴별 학습정서를 분류한다.The non-face-to-face
비대면 수업 제공장치(110)는 외국어 학습이라는 특정 도메인에 대한 단어들의 중요도와 빈도수를 측정한 후 도메인 감성 어휘 목록을 구축한다. 비대면 수업 제공장치(110)는 도메인 감성지수를 산출하여 도메인 감성어휘를 활용한 도메인 맞춤형 감성사전을 구축한다. 비대면 수업 제공장치(110)는 과제별 그룹 채팅 방 내의 학습자 단말기(130)들로부터 입력된 대화를 기반으로 과제 참여도, 자주 사용하는 단어, 이모지, 해시태그 등을 분석한다. 비대면 수업 제공장치(110)는 과제 참여도, 자주 사용하는 단어, 이모지, 해시태그 중 적어도 하나 이상의 정보를 지식베이스에 적용하여 감성을 분류한다.The non-face-to-face
비대면 수업 제공장치(110)는 과제별 그룹 채팅방 내에 학습자 단말기(130)로부터 입력받은 오디오 내의 파장 변화와 학습자가 채팅에 입력하는 문장을 기반으로 학습자별 정서를 파악한다.The non-face-to-face
비대면 수업 제공장치(110)는 과제별 그룹 채팅방 내에 학습자 단말기(130)로부터 비디오, 오디오가 미입력되는 경우, 텍스트만을 기반으로 각 학습자별 정서 및 감성을 파악한다. 비대면 수업 제공장치(110)는 정서 정보를 파악하기 위해, 과제별 그룹 채팅방 내에 학습자 단말기(130)로부터 입력된 텍스트의 단어마다 정서-감성 정보를 이용하여 특정 감성 사전을 구축한다.When video and audio are not input from the
비대면 수업 제공장치(110)는 과제별 그룹 채팅방 내에서 학습자 단말기(130)와 가상 조교 로봇(120) 간의 의사소통을 하면서 입력받은 텍스트의 문맥에 따라 학습자의 감정 변화를 파악한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 멀티 턴 상황에서 변화하는 감정을 이해한다. 비대면 수업 제공장치(110)는 계층적 RNN(Recurrent Neural Network)를 이용하여 학습자 단말기(130)와 가상 조교 로봇(120) 간의 의사소통을 하면서 입력받은 텍스트의 문맥에 따라 변화하는 감정 상태를 이해한다.The non-face-to-face
비대면 수업 제공장치(110)는 과제별 그룹 채팅방 내에 외국어 텍스트가 입력된 경우, 네트워크로 연결된 번역모듈을 이용하여 외국어 텍스트를 한국어 텍스트로 번역한 후 학습 데이터를 이용한다. 비대면 수업 제공장치(110)는 번역 모듈을 이용하여 기계학습으로 번역을 수행한 경우, 번역한 한국어 텍스트에 노이즈가 포함되거나, 상황, 문맥에 따른 완벽한 번역 문장이 아닐 수 있다. 비대면 수업 제공장치(110)는 한국어 특화 토크나이징 모듈이 결합된 언어 모델을 기반으로 번역된 문장의 품질을 향상시켜서 학습 데이터로 이용한다.When a foreign language text is input in the group chat room for each task, the non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 제공하기 위한 서비스 환경으로 학습 내용, 학습 참여자의 수준, 대화의 주제 등에 따라 대화의 내용이 유동적으로 변화하므로 대화에서 능동적으로 감성을 표현해야 하기 위해 감성 요소를 EKMAN 감성 및 중립인 7개의 감성(중립, 분노, 공포, 혐오, 행복, 슬픔, 놀람)으로 분류하고 대화 상황을 온톨로지 트리를 이용하여 체계화한다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에서 수집한 대화 텍스트(Text), 음성(Voice)을 저장한다. 비대면 수업 제공장치(110)는 수집한 텍스트, 음성을 분석하여 학습자의 감정 정보를 7개의 감성(중립, 분노, 공포, 혐오, 행복, 슬픔, 놀람)으로 분류한다.The non-face-to-face
비대면 수업 제공장치(110)는 분류된 감성 정보를 학습정서(Academic Emotion)의 4개 영역(성취 정서(Achievement Emotion), 인식론적 정서(Epistemic Emotion), 토픽 정서(Topic Emotion), 사회적 정서(Social Emotion))으로 재매핑한다.Non-face-to-face
비대면 수업 제공장치(110)는 감성 정보를 기반으로 확인한 성취 정서(Achievement Emotion), 인식론적 정서(Epistemic Emotion), 토픽 정서(Topic Emotion), 사회적 정서(Social Emotion) 중 하나 이상의 정보를 기반으로 학습성취, 도전학습, 주제학습, 상호작용 상의 불편사항을 인지한다. 비대면 수업 제공장치(110)는 불편사항을 기반으로 학습 가이드를 진행한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습정서(Academic Emotion)로 “어렵다”, “흥미롭다”, “생소하다”, “이상하다”, “어, 왜 이렇지?” 등의 정서 표현과 “적극적 질문”, “과제 미제출” 등의 학습 인지적 활동을 포함한 수업 중 발생하는 학습자의 정서를 인지한다.The non-face-to-face
비대면 수업 제공장치(110)는 분류된 감성 정보를 성취 정서(Achievement Emotion), 인식론적 정서(Epistemic Emotion), 토픽 정서(Topic Emotion), 사회적 정서(Social Emotion) 중 하나 이상의 정서에 매핑하여 학습정서를 파악한다.The non-face-to-face
성취 정서(Achievement Emotion)는 학습 성취 활동 결과에 따른 성공, 실패에 대한 감정을 의미한다. 다시 말해, 비대면 수업 제공장치(110)는 성취 활동으로 인한 성공 또는 실패에 대한 감정을 성취 정서로 분류한다. 비대면 수업 제공장치(110)는 학습의 즐거운 감정, 성공과 관련된 희망/자부심 감정, 실패에 대한 불안한 감정을 성취 정서로 분류한다.Achievement emotion refers to the emotion of success or failure according to the result of learning achievement activity. In other words, the non-face-to-face
인식론적 정서(Epistemic Emotion)는 새로운 과제에 대한 놀라움, 호기심, 혼란/좌절 이후 문제가 해결되었을 때 기쁨과 같이 인지적 활동으로 인해 발생하는 학습 과정에 대한 감정을 의미한다. 다시 말해, 비대면 수업 제공장치(110)는 새롭고, 비일상적 지식 학습 과정에서 발생하는 감정을 인식론적 정서로 분류한다. 비대면 수업 제공장치(110)는 새로운 과제에 대한 놀라운 감정, 호기심에 대한 감정, 두려운 감정, 혼란한 감정을 인식론적 정서로 분류한다.Epistemic emotion refers to emotions about the learning process that occur due to cognitive activities, such as surprise, curiosity, and joy when a problem is solved after confusion/frustration at a new task. In other words, the non-face-to-face
토픽 정서(Topic Emotion)는 수업에서 제시된 긍정/부정적인 주제에 자신의 감정을 투영한 감정을 의미한다. 다시 말해, 비대면 수업 제공장치(110)는 수업에서 제시된 주제와 관련된 감정을 토픽 정서로 분류한다. 비대면 수업 제공장치(110)는 자료에 묘사된 인물의 감정에 공감, 긍정/부정하는 감정 모두를 토픽 정서로 분류한다.Topic Emotion refers to the emotion that one's emotions are projected on the positive/negative topics presented in the class. In other words, the non-face-to-face
사회적 정서(Social Emotion)는 수업, 강의자, 학습자와의 상호작용에서 발생하는 감정을 의미한다. 다시 말해, 비대면 수업 제공장치(110)는 수업, 강의자, 동료와 관련된 상호작용, 그룹 학습에서의 감정을 사회적 정서로 분류한다. 비대면 수업 제공장치(110)는 사랑, 동정, 동경, 존경, 경멸, 시기, 분노, 사회적 불안에 대한 감정을 사회적 정서로 분류한다.Social emotion refers to the emotions that arise from interactions with class, lecturers, and learners. In other words, the non-face-to-face
비대면 수업 제공장치(110)는 학습 분석(Learning Analytics)을 수행하여 문장검사, 문장 쓰기 연습, 데일리 퀴즈, FLEX 등 학습자에게 제공되는 자료와 학습자 정보, 활동, 학습이력, 성향 등을 종합해 취약점 분석 및 문제를 추천한다.The non-face-to-face
비대면 수업 제공장치(110)는 오디오 채팅(Audio Chat)으로 사용자 음성 기반, 보이스톡으로 플랫폼 내에서 음성 대화를 지원한다.The non-face-to-face
비대면 수업 제공장치(110)는 지능형 대화 서비스를 위한 NLU(Natural Language Understanding) 기술을 가상 조교 로봇(120)에 적용한다. 비대면 수업 제공장치(110)는 학습자와 강의자 간의 소통을 위한 실시간 피드백을 가상 조교 로봇(120)에 반영한다. The non-face-to-face
비대면 수업 제공장치(110)는 학습자와 챗봇 대화를 위한 NLG(Natural Language Generation) 기술을 가상 조교 로봇(120)에 적용한다. 비대면 수업 제공장치(110)는 학습 그룹과 교육자 소통을 위한 실시간 피드백을 가상 조교 로봇(120)에 반영한다. 비대면 수업 제공장치(110)는 학습 그룹과 챗봇 대화를 위한 NLG 기술을 가상 조교 로봇(120)에 적용한다.The non-face-to-face
비대면 수업 제공장치(110)는 비대면 학습 환경에 학습자 불안감을 해결하기 위해, 과제별 그룹 채팅방 내에 입력된 텍스트의 문맥 중 “어렵다”, “흥미롭다”, “생소하다”, “이상하다”, “어, 왜 이렇지?” 등의 정서 표현과 “적극적 질문”, “과제 미제출” 등 학습자의 정서를 파악한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학습자의 반응을 파악하고, 획득한 정서 데이터를 분석하여 강의자 단말기(140)로 전송한다. 강의자 단말기(140)는 정서 데이터를 기반으로 강의 내용을 설계하거나 보완하는 자료로 활용할 수 있다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학습자 단말기(130)로 비대면 학습 후 퀴즈를 제공하여 학습자의 이해 수준을 파악함과 동시에, 학습자가 추가적인 질문이 가능하도록 유도한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학습자들이 편안하게 질의할 수 있도록 한다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 개인 학습 지도뿐 아니라 학습자 그룹을 지도한다. 비대면 수업 제공장치(110)는 학습자 그룹 속에서 “다른 학습자의 반응을 근거로 학습자 본인이 나의 수준을 직간접적으로 파악”할 수 있도록 돕는다. 비대면 수업 제공장치(110)는 학습자 본인이 스스로의 수준을 파악하는 것과 동시에 가상 조교 로봇(120)을 이용하여 학습자 정서를 파악한다. 비대면 수업 제공장치(110)는 감성에 기반을 둔 반응을 분석하여 학습자의 보다 적극적인 활동을 독려한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습자 대화 문맥, 학습자별 특성을 고려한 기계학습 기반으로 감성을 인지한다. 비대면 수업 제공장치(110)는 학습자별 특성 정보를 임베딩한 정서적 응답을 기반으로 모델 구현하고 학습한다. 비대면 수업 제공장치(110)는 감성 추론기를 이용하여 멀티 에이전트 시스템에서 에이전트 간 상호작용으로 발생하는 사건에 따라 감성을 추론한다. 비대면 수업 제공장치(110)는 학습자 개인마다 발생한 상황의 해석에 따라 달라지도록 하며, 학습자의 상황별 해석에 따라 각 개인의 목표, 예상, 학습을 적응적으로 조절한다. 비대면 수업 제공장치(110)는 각각 학습자 관점에 따라 다른 내부모델(예컨대, 현재 총 24개의 감성 형태)을 가지도록 한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습자의 상호작용과 정서적 요인을 증대시키기 위한 소셜 에이전트 매칭 기술을 이용하여 학습자별 특성을 고려한 소셜 그룹을 생성한다. 비대면 수업 제공장치(110)는 학습자 특성 분류, 프로파일 분석(Profile Analyzer), 프로파일 학습(Profile Learner), 필터링(Filtering)의 단계를 거쳐서 생성된 소셜 그룹을 추천한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습자의 특성을 분류하기 위해 학생 정보(성별, 나이, 지역, 전공, 이수과목, 성적), 관심사 정보(일반적인 관심사 정보, 자기소개), 기계 학습 정보(참여도, 질의응답, 감성인지)를 취득한다. 비대면 수업 제공장치(110)는 프로파일 분석을 위해 "학생정보"를 규칙 기반으로 분류한다. 비대면 수업 제공장치(110)는 "관심사 정보"를 기계학습 기반으로 분류한다.The non-face-to-face
비대면 수업 제공장치(110)는 프로파일 학습을 위해 프로파일 분석에서 분류된 정보와 학습자의 감성 인지 정보를 기계학습 기반으로 학습한다. 비대면 수업 제공장치(110)는 필터링을 위해 학습된 정보를 규칙 및 기계학습 기반으로 분류하여 추천한다. 비대면 수업 제공장치(110)는 추천된 매칭 그룹의 피드백을 프로파일 학습으로 지속적으로 학습하여 학습자의 정서, 감성을 충족하는 행동을 활성화하도록 한다.The non-face-to-face
학습자 단말기(130)와 강의자 단말기(140)는 사용자의 키 조작에 따라 네트워크를 경유하여 음성 또는 데이터 통신을 수행하는 전자 기기를 의미한다. 학습자 단말기(130)와 강의자 단말기(140)는 네트워크를 경유하여 비대면 수업 제공장치(110)와 통신하기 위한 프로그램 또는 프로토콜을 저장하기 위한 메모리, 해당 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비한다. The
학습자 단말기(130)와 강의자 단말기(140)는 스마트폰(Smart Phone), 태블릿(Tablet), 랩톱(Laptop), 개인용 컴퓨터(PC: Personal Computer), 개인 휴대 단말기(PDA: Personal Digital Assistant), 휴대형 멀티미디어 플레이어(PMP: Portable Multimedia Player), 무선 통신 단말기(Wireless Communication Terminal), 미디어 플레이어 등과 같은 전자 기기일 수 있다. The
학습자 단말기(130)와 강의자 단말기(140)는 각종 기기 또는 유무선 네트워크와 통신을 수행하기 위한 통신 모뎀 등의 통신 장치, 각종 프로그램과 데이터를 저장하기 위한 메모리, 프로그램을 실행하여 연산 및 제어하기 위한 마이크로프로세서 등을 구비하는 다양한 장치이다. 적어도 일 실시예에 따르면, 메모리는 램(Random Access Memory: RAM), 롬(Read Only Memory: ROM), 플래시 메모리, 광 디스크, 자기 디스크, 솔리드 스테이트 디스크(Solid State Disk: SSD) 등의 컴퓨터로 판독 가능한 기록/저장매체일 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 명세서상에 기재된 동작과 기능을 하나 이상 선택적으로 수행하도록 프로그램될 수 있다. 적어도 일 실시예에 따르면, 마이크로프로세서는 전체 또는 부분적으로 특정한 구성의 주문형반도체(Application Specific Integrated Circuit: ASIC) 등의 하드웨어로써 구현될 수 있다.The
도 2는 본 실시예에 따른 비대면 수업 제공장치를 개략적으로 나타낸 도면이다.2 is a diagram schematically illustrating an apparatus for providing a non-face-to-face class according to the present embodiment.
본 실시예에 따른 비대면 수업 제공장치(110)는 채팅방 개설부(210), 수집부(220), 비식별화부(222), 지능형 대화 솔루션 제공부(224), 피드백 반영부(226), 자연어 응답부(228), 분석부(230), 사용자 패턴 생성부(240), 감성 분류부(250), 질의 내용 요약부(260), 비대면 수업 지원부(270)를 포함한다. 비대면 수업 제공장치(110)에 포함된 구성요소는 반드시 이에 한정되는 것은 아니다.The non-face-to-face
비대면 수업 제공장치(110)에 포함된 각 구성요소는 장치 내부의 소프트웨어적인 모듈 또는 하드웨어적인 모듈을 연결하는 통신 경로에 연결되어 상호 간에 유기적으로 동작할 수 있다. 이러한 구성요소는 하나 이상의 통신 버스 또는 신호선을 이용하여 통신한다.Each component included in the non-face-to-face
도 2에 도시된 비대면 수업 제공장치(110)의 각 구성요소는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 소프트웨어적인 모듈, 하드웨어적인 모듈 또는 소프트웨어와 하드웨어의 결합으로 구현될 수 있다.Each component of the non-face-to-face
채팅방 개설부(210)는 강의자 단말기(140)로부터 입력받은 강의 계획서를 기반으로 학습 과제별 비대면 개인 채팅방 및 과제별 비대면 그룹 채팅방을 개설한다.The chat
수집부(220)는 학습 과제별 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 학습자 단말기(130)와 함께 가상 조교 로봇(120)을 참여시킨다. 수집부(220)는 가상 조교 로봇(120)을 이용하여 비대면 개인 채팅방 및 비대면 그룹 채팅방으로부터 입력되는 텍스트 정보를 수집한다. The
비식별화부(222)는 텍스트 정보에 대해 데이터 비식별화를 수행한 비식별화 정보를 생성한다. 비식별화부(222)는 자동 비식별화가 선택되면, 일차적으로 텍스트 정보로부터 정규 표현식을 이용하여 이메일, 전화번호, 아이디, 비밀번호 중 적어도 하나 이상을 포함하는 중요 개인 정보를 제1 비식별화 대상으로 선정한다. 비식별화부(222)는 이차적으로 텍스트 정보로부터 패턴 매칭, 개체명 사전 및 인식기를 이용하여 회사명, 기관명, 줄임말 및 축약어 중 적어도 하나 이상을 포함하는 제2 비식별화 대상으로 선정한다. 비식별화부(222)는 제1 비식별화 대상, 제2 비식별화 대상에 대한 비식별화를 수행한다.The
비식별화부(222)는 수동 비식별화가 선택되면, 텍스트 정보로부터 수동 비식별화 명령에 따라 기 구축된 비식별화 가이드라인을 기반으로 수동 치환된 데이터에 대해서만 비식별화 대상으로 선정하여 비식별화를 수행한다.When manual de-identification is selected, the
지능형 대화 솔루션 제공부(224)는 지능형 대화 솔루션을 기반으로 비식별화 정보에 대한 자연어 질의를 실시간으로 이해한 자연어 이해결과를 생성한다. 지능형 대화 솔루션 제공부(224)는 비식별화 정보에 대해 학습자 질의 도메인, 의도 분류, 실시간 학습자 유사 질의 탐색을 수행하는 지능형 대화 솔루션을 제공한다.The intelligent dialogue
지능형 대화 솔루션 제공부(224)는 비식별화 정보를 학습자 질의 도메인 및 의도 분류 체계에 따라 분류한 분류 정보를 생성한다. 지능형 대화 솔루션 제공부(224)는 분류 정보 내의 대화 문맥을 고려하여 학습자 질의를 심층 이해한 자연어 심층 이해결과를 자연어 이해결과에 반영한다. 지능형 대화 솔루션 제공부(224)는 분류 정보를 기반으로 학습자별 특성을 고려하여 학습자 질의를 심층 이해한 학습자 심층 이해결과를 자연어 이해결과에 반영한다. 지능형 대화 솔루션 제공부(224)는 분류 정보, 자연어 심층 이행결과, 학습 심층 이해결과를 학습하여 학습자 질의 도메인 및 의도 분류 체계를 완성한다.The intelligent conversation
지능형 대화 솔루션 제공부(224)는 실시간 학습자 유사 질의를 탐색하기 위해 비식별화 정보 내의 학습자 질의가 입력으로 주어지면 학습된 분류 모델과 한국어 특화 토크나이징 모듈이 적재된 검색 엔진을 이용하여 기 설정된 시간(몇 초) 이내로 입력 질의문의 의미적 특징값을 추출한다.The intelligent dialogue
지능형 대화 솔루션 제공부(224)는 의미적 특징값을 기계학습 기반으로 학습자 질의 유사도(Similarity) 값을 측정한다. 지능형 대화 솔루션 제공부(224)는 유사도 값을 기준으로 특정 기준값(threshold)과 비교한 비교 결과를 생성한다.The intelligent conversation
지능형 대화 솔루션 제공부(224)는 비교결과가 특정 기준값보다 낮은 경우, 기 정의한 도메인 및 의도 분류 체계에 미존재하는 것으로 간주하여 학습자와의 대화를 이용하여 유사 질의를 추론한 후 유사 질의를 사례별로 묶어서 실시간으로 DB화하여 자연어 이해결과에 반영한다.When the comparison result is lower than a specific reference value, the intelligent dialogue
지능형 대화 솔루션 제공부(224)는 비교결과가 특정 기준값보다 크거나 동일한 경우, 기 정의한 도메인 및 의도 분류 체계에 존재하는 것으로 간주하여 실시간 유사 질의 DB에서 기 정의한 카테고리와 관련된 질의로 인덱싱하여 자연어 이해결과를 생성한다. 지능형 대화 솔루션 제공부(224)는 특정 기준값을 반복 수행한 성능 평가를 기반으로 산출된 최적값으로 설정한다.When the comparison result is greater than or equal to a specific reference value, the intelligent conversation
피드백 반영부(226)는 자연어 이해결과를 기반으로 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 참여한 학습자와 강의자 간의 소통에 필요한 실시간 피드백 정보로 출력한다.The
피드백 반영부(226)는 자연어 이해결과를 기반으로 학습자 질의에 대한 응답을 추출한다. 피드백 반영부(226)는 학습자의 질의에 대한 응답에 대응하는 학습자 특성 및 반응 분석 결과 생성한다. 피드백 반영부(226)는 학습자 특성 및 반응 분석 결과를 학습자와 강의자 간의 피드백 정보에 반영하여 출력하도록 한다.The
피드백 반영부(226)는 자연어 이해결과 중 학습자에 대한 질의에 대한 응답을 추출한다. 피드백 반영부(226)는 학습자 질의에 대한 응답 중 의미를 갖는 강의 내 중요 개념을 추출한다. 피드백 반영부(226)는 의미를 갖는 강의 내 중요 개념을 기반으로 학습자가 느끼는 강의 난이도, 교육 정도를 산출한다. 피드백 반영부(226)는 실시간 데이터베이스로부터 추출된 해당 학습자의 개인 또는 그룹 인지 여부에 따른 학습 유형, 해당 학습자가 사용하는 언어를 기반으로 한 선호 언어, 학습자가 선호하는 선호 개념을 기반으로 학습자별 특성을 파악한다. 피드백 반영부(226)는 학습자별 특성마다 학습자가 느끼는 강의 난이도, 교육 정도를 반영하여 학습자와 강의자 간의 피드백 정보를 출력한다.The
자연어 응답부(228)는 자연어 이해결과를 기반으로 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 참여한 학습자와 챗봇 간의 대화를 위해 학습자 질의에 대한 자연어 응답을 생성한 후 가상 조교 로봇(120)을 이용하여 출력하도록 한다.The natural
자연어 응답부(228)는 자연어 이해결과를 기반으로 학습자 질의에 대한 템플릿 기반 선질문과 응답 관련 목적 대화 지문을 생성한다. 자연어 응답부(228)는 템플릿 기반 선질문과 응답 관련 목적 대화 지문을 응답 생성 기술에 적용한 후 학습자와의 정서적 소통을 위한 기계학습으로 학습한 일반 대화 지문을 생성한다. 자연어 응답부(228)는 일반 대화 지문을 자연어 응답에 반영한다.The natural
자연어 응답부(228)는 템플릿 기반 선질문 및 응답 관련 목적 대화를 생성하기 위해 자연어 이해결과 내에서 대화 문맥과 학습자별 특성을 고려한 선질문을 이용하여 추가 대응 정보를 수집한다. 자연어 응답부(228)는 추가 대응 정보를 기반으로 질의 사례별 대응 템플릿을 정의한다.The natural
자연어 응답부(228)는 일반 대화 지문을 생성하기 위해 자연어 이해결과 내에서 대화 문맥과 학습자별 특성을 고려한 기계학습 기반으로 응답 문장 생성 모델을 구현한다. 자연어 응답부(228)는 기계학습 기반 감정 분석기를 이용하여 자연어 이해결과의 대화 내 문맥적 감정 상태를 파악한다. 자연어 응답부(228)는 기계학습 기반 학습자별 특성 정보를 임베딩한다. 자연어 응답부(228)는 정서적 소통을 위한 기계학습 기반 정서적 응답 생성 모델을 구현한다. 자연어 응답부(228)는 응답 문장 생성 모델, 문맥적 감정 상태, 학습자별 특성 정보, 정서적 응답 생성 모델을 기반으로 자연어 응답을 생성한다.The natural
분석부(230)는 비대면 개인 채팅방 및 비대면 그룹 채팅방으로부터 수집된 텍스트 정보를 분석한 분석결과를 생성한다. 분석부(230)는 비대면 개인 채팅방 및 비대면 그룹 채팅방으로부터 수집된 텍스트 정보가 외국어 텍스트인 경우, 네트워크로 연결된 번역모듈을 이용하여 외국어 텍스트를 한국어 텍스트로 번역한 번역문을 생성한 후 번역문을 학습 데이터로서 분석한다. 분석부(230)는 번역문에 대해 한국어 특화 토크나이징 모듈이 결합된 언어 모델을 적용하여 상황, 문맥에 따른 오역을 교정한다.The
사용자 패턴 생성부(240)는 분석결과를 기반으로 학습자별 사용자 패턴을 생성한다. 사용자 패턴 생성부(240)는 분석결과를 기반으로 출석율, 과제 수행률, 학습 시간 중 적어도 하나 이상의 학습 패턴을 산출한다. 사용자 패턴 생성부(240)는 분석결과를 기반으로 관심 분야, 적극성, 집중도 중 적어도 하나 이상의 학습 성향을 산출한다. 사용자 패턴 생성부(240)는 분석결과를 기반으로 성취도, 취약 분야, 우수 분야 중 적어도 하나 이상의 학습 성과를 산출한다. 사용자 패턴 생성부(240)는 학습 패턴, 학습 성향, 학습 성과를 조합하여 사용자 패턴을 생성한다.The
사용자 패턴 생성부(240)는 비대면 개인 채팅방으로부터 입력되는 개인 텍스트 정보를 분석한 분석결과를 기반으로 개인 학습자 패턴을 생성한다. 사용자 패턴 생성부(240)는 비대면 그룹 채팅방으로부터 입력되는 그룹 텍스트 정보를 분석한 분석결과를 기반으로 그룹 학습자 패턴을 생성한다. 비대면 수업 지원부(270)는 개인 학습자 패턴과 임계치 이상으로 동일한 패턴을 갖는 그룹 학습 패턴을 갖는 비대면 그룹 채팅방을 추출한다.The
감성 분류부(250)는 분석결과를 기반으로 감성 정보를 분류한다. 감성 분류부(250)는 분석결과에 포함된 긍정 단어, 중립 단어, 부정 단어의 빈도를 기반으로 사용자 감성을 긍정과 부정으로 분류한다. 감성 분류부(250)는 사용자 감성이 긍정인 경우 세부 감성으로 행복, 만족으로 분류한다. 감성 분류부(250)는 사용자 감성이 부정인 경우, 세부 감성으로 분노, 괴로움으로 분류한다.The
감성 분류부(250)는 분석결과를 기반으로 텍스트 정보에 포함된 단어의 빈도수를 측정한 결과를 기반으로 중요도를 산출한다. 감성 분류부(250)는 중요도를 기반으로 후 감성 어휘 목록을 구축한다. 감성 분류부(250)는 감성 어휘 목록별 감성지수를 산출하여 감성 어휘를 이용한 감성사전을 구축한다.The
감성 분류부(250)는 분석결과를 기반으로 텍스트 정보 내에 입력되는 자주 사용하는 단어, 이모지, 해시태그 중 적어도 하나 이상을 분석한다. 감성 분류부(250)는 감성 사전에 존재하는 감성 어휘와 매칭하여 감성 정보를 분류한다.The
감성 분류부(250)는 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에서 입력된 영상 데이터에서 객체를 검출한다. 감성 분류부(250)는 영상 데이터 내 객체의 얼굴 영역을 검출한다. 감성 분류부(250)는 얼굴 영역에서 표정을 인식한 후 표정의 변화를 인지한다 감성 분류부(250)는 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에서 입력된 오디오 데이터의 파장 변화를 인지한다. 감성 분류부(250)는 표정의 변화, 파장 변화, 분석결과를 기반으로 학습자별 정서 및 감성 정보를 분류한다.The
감성 분류부(250)는 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에서 가상 조교 로봇(120)과 학습자 간의 의사소통을 하면서 입력받은 텍스트의 문맥에 따라 학습자의 감정 변화를 계층적 RNN(Recurrent Neural Network)를 이용하여 파악한다.The
감성 분류부(250)는 비슷한 원인에 의해 결과로 생성되는 감성 군집으로 유형화한다. 감성 분류부(250)는 감성 군집을 대상으로 사건, 개체 및 에이전트별로 감성을 평가한다. 감성 분류부(250)는 감성을 평가할 때, 에이전트의 목표와 관련된 사건의 만족도, 에이전트, 다른 에이전트의 행위에 대한 승인 정도, 에이전트의 태도에서 관련된 대상을 좋아하는지 여부에 관한 평가를 수행하여 감성의 강도를 계산한다. 감성 분류부(250)는 감성의 강도를 기반으로 주어진 상황의 해석에 따라 특정 감성으로 분류한다.The
감성 분류부(250)는 분석결과를 기반으로 학습자 대화 문맥, 학습자별 특성을 고려한 기계학습 기반으로 감성을 인지한다. 감성 분류부(250)는 학습자별 특성 정보를 임베딩한 정서적 응답을 기반으로 모델을 구현한 후 학습한다.The
감성 분류부(250)는 감성 추론기를 이용하여 멀티 에이전트 시스템에서 에이전트 간 상호작용으로 발생하는 사건에 따라 감성을 추론한다. 감성 분류부(250)는 학습자 개인마다 발생한 상황의 해석에 따라 달라지도록 하며, 학습자의 상황별 해석에 따라 각 개인의 목표, 예상, 학습을 적응적으로 조절한다. 감성 분류부(250)는 각각 학습자 관점에 따라 서로 다른 내부 감성 모델(예컨대, 현재 총 24개의 감성 형태)을 생성한다.The
질의 내용 요약부(260)는 분석결과를 기반으로 텍스트 정보 중 질의 내용만을 추출한다. 질의 내용 요약부(260)는 질의 내용 중 중복 내용을 확인하여 중복 질의 내용을 하나의 질의로 취합한 질의 취합 데이터를 생성한다. 질의 내용 요약부(260)는 질의 취합 데이터 중 기 설정된 문장 길이 이상을 갖는 문장을 선별한 후 기 설정된 문장 또는 단어 수 이내로 요약한 질의 요약 데이터를 생성한다. The query
비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 분석결과, 학습자별 사용자 패턴 및 감성 정보를 기반으로 비대면 수업을 지원하도록 한다. 비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 질의 요약 데이터를 강의자 단말기(140)로 전달한다.The non-face-to-face
비대면 수업 지원부(270)는 분석결과를 기반으로 학습자별 문장 입력 횟수, 문장 길이, 텍스트 내용을 기반으로 학습 참여도를 산출한다. 비대면 수업 지원부(270)는 학습 참여도를 기반으로 참여율이 가장 적은 학습자를 추출한다. 비대면 수업 지원부(270)는 학습 과제별로 가상 조교 로봇(120)을 이용하여 참여율이 가장 적은 학습자에 대응하는 학습자 단말기로 학습 참여 독려 메시지를 전송한다.The non-face-to-face
비대면 수업 지원부(270)는 분석결과를 기반으로 텍스트 정보 중 수업외 내용만을 추출한다. 비대면 수업 지원부(270)는 수업외 내용을 분석하여 도움 또는 지원을 필요로 하는 문장만을 선별한다. 비대면 수업 지원부(270)는 도움 또는 지원을 필요로 하는 문장에 대응하는 카테고리를 선정한다. 비대면 수업 지원부(270)는 해당 카테고리(도움 또는 지원을 필요로 하는 문장에 대응하는 카테고리)에 대응하는 수업외 지원 정보(예컨대, 아르바이트 정보)를 추출한다. 비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 도움 또는 지원을 필요로 하는 문장을 입력한 학습자 단말기(130)로 수업외 지원 정보를 전송하도록 한다.The non-face-to-face
비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 비대면 개인 채팅방에 존재하는 개인 학습자에 대응하는 학습자 단말기(130)로 개인 학습자 패턴과 임계치 이상으로 동일한 패턴을 갖는 그룹 학습 패턴을 갖는 비대면 그룹 채팅방의 참여를 추천한다.The non-face-to-face
비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 기 정의한 대표적인 감성에 따라 학습자의 감성을 인지하여 질의 상황의 해석에 맞는 적절한 응답과 정서적 표현을 생성한다.The non-face-to-face
비대면 수업 지원부(270)는 지능형 대화 서비스를 위해 NLU(Natural Language Understanding) 기술을 가상 조교 로봇(120)에 적용하여, 가상 조교 로봇(120)이 학습자와 강의자 간의 소통을 위한 실시간 피드백을 제공하도록 한다. 비대면 수업 지원부(270)는 지능형 대화 서비스를 위해 NLG(Natural Language Generation) 기술을 가상 조교 로봇(120)에 적용하여, 학습자와 가상 조교 로봇(120) 간의 소통을 위한 실시간 피드백을 제공하도록 한다.The non-face-to-face
비대면 수업 지원부(270)는 분석결과를 기반으로 텍스트 정보 내에 정서적 표현(어렵다”, “흥미롭다”, “생소하다”, “이상하다”, “어, 왜 이렇지?”, “적극적 질문”, “과제 미제출”)을 추출한다. 비대면 수업 지원부(270)는 정서적 표현을 분석한 정서 데이터를 강의자 단말기(140)로 전송하여, 강의자 단말기(140)에서 정서 데이터를 기반으로 강의 내용을 설계하거나 보완하도록 한다.The non-face-to-face
비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 학습자 단말기(130)로 비대면 학습 후 퀴즈를 제공하여 학습자의 이해 수준을 파악함과 동시에, 학습자가 추가적인 질문이 가능하도록 유도한다.The non-face-to-face
비대면 수업 지원부(270)는 가상 조교 로봇(120)을 이용하여 개인 학습 지도뿐 아니라 학습자 그룹을 지도하며, 학습자 그룹 속에서 다른 학습자의 반응을 근거로 학습자 본인이 자신의 수준을 직간접적으로 파악하도록 한다.The non-face-to-face
비대면 수업 지원부(270)는 학습자 본인이 스스로 자신의 수준을 파악하는 것과 동시에 가상 조교 로봇(120)을 이용하여 학습자 정서를 파악한다. 비대면 수업 지원부(270)는 학습자 정서를 기반으로 학습자의 적극적인 활동을 독려한다.The non-face-to-face
비대면 수업 지원부(270)는 학습자의 상호작용과 정서적 요인을 증대시키기 위한 소셜 에이전트 매칭 기술을 이용하여 학습자별 특성을 고려한 소셜 그룹을 생성한다. 비대면 수업 지원부(270)는 학습자 특성 분류, 프로파일 분석(Profile Analyzer), 프로파일 학습(Profile Learner), 필터링(Filtering)의 단계를 거쳐서 생성된 소셜 그룹을 비대면 개인 채팅방에 존재하는 개인 학습자에게 추천한다.The non-face-to-face
비대면 수업 지원부(270)는 학습자의 특성을 분류하기 위해 성별, 나이, 지역, 전공, 이수과목, 성적 중 적어도 하나 이상을 포함하는 학생 정보, 일반적인 관심사 정보, 자기소개 중 적어도 하나 이상을 포함하는 관심사 정보, 참여도, 질의응답, 감성인지 중 적어도 하나 이상을 포함하는 기계 학습 정보를 취득한다. 비대면 수업 지원부(270)는 학생 정보를 규칙 기반으로 분류한다. 비대면 수업 지원부(270)는 관심사 정보를 기계학습 기반으로 분류하는 프로파일 분석을 수행한다.The non-face-to-face
비대면 수업 지원부(270)는 프로파일 분석 과정에서 분류된 정보와 학습자의 감성 인지 정보를 기계학습 기반으로 프로파일 학습을 수행한다. 비대면 수업 지원부(270)는 프로파일 학습을 수행한 정보를 규칙 및 기계학습 기반으로 필터링한다.The non-face-to-face
도 3은 본 실시예에 따른 가상 조교 로봇을 이용한 수업중 학습자 그룹 채팅을 나타낸 도면이다.3 is a diagram illustrating a learner group chatting during class using the virtual assistant robot according to the present embodiment.
도 3에 도시된 바와 같이, 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 수업 중 질의 내용을 수집한다.As shown in FIG. 3 , the non-face-to-face
비대면 수업 제공장치(110)는 학습 스케쥴에 따라 학습자 단말기(130)로 강의 자료, 강의 보조자료를 학습자 단말기(130)의 개인별 또는 그룹별로 제공한다. 비대면 수업 제공장치(110)는 학습 스케쥴에 따라 강의를 진행하도록 하고, 가상 조교 로봇(120)을 이용하여 강의별 채팅 정보를 수집한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습자 시나리오로서, 가상 조교 로봇(120)을 이용하여 수업 중 그룹 채팅으로 자유롭게 학생들의 토론을 지원한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학습자들이 그룹 채팅에서 나누었던 대화를 기반으로 질의를 그룹핑하여 강의자 단말기(140)로 전달한다.The non-face-to-face
도 4는 본 실시예에 따른 가상 조교 로봇을 이용한 질의 그룹핑 및 강의 참고 자료에 대한 학습 보조를 나타낸 도면이다.4 is a diagram illustrating a study aid for query grouping and lecture reference materials using the virtual assistant robot according to the present embodiment.
도 4에 도시된 바와 같이, 비대면 수업 제공장치(110)는 강의자 시나리오로서, 가상 조교 로봇(120)을 이용하여 매주차 강의에서 일어난 학생 그룹 질의를 강의자 단말기(140)로 전달한다.As shown in FIG. 4 , the non-face-to-face
비대면 수업 제공장치(110)는 수집된 강의별 채팅 정보를 분석하여 채팅 분석 결과를 생성한 후 채팅 분석 결과 중 질의 내용만을 추출한다. 비대면 수업 제공장치(110)는 질의 내용 중 중복 내용을 확인하고, 중복 질의 내용을 하나의 질의로 취합한 질의 취합 데이터를 생성한다. 비대면 수업 제공장치(110)는 질의 취합 데이터 중 기 설정된 길이 이상을 갖는 문장을 선별한 후 기 설정된 문장 또는 단어 수 이내로 요약한 질의 요약 데이터를 생성한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 질의 요약 데이터를 강의자 단말기(140)로 전달한다.The non-face-to-face
강의자 단말기(140)는 가상 조교 로봇(120)으로부터 질의 요약 데이터 수신한 후 남은 강의를 진행하는 데 참조할 수 있다. 강의자 단말기(140)는 휴강 안내를 가상 조교 로봇(120)에게 전달할 수 있다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)으로부터 휴강 안내 정보를 수신한 후 해당 과제별 채팅방으로 전달한다.The
비대면 수업 제공장치(110)는 강의자 단말기(140)로부터 입력받은 강의 계획서를 기반으로 학습 과제별 비대면 개인 채팅방 및 과제별 비대면 그룹 채팅방을 개설한다. 비대면 수업 제공장치(110)는 학습 과제별 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 학습자 단말기(130)와 함께 가상 조교 로봇(120)을 참여시키고, 가상 조교 로봇(120)을 이용하여 학습자 단말기(130)로부터 입력되는 텍스트 정보를 수집한다. The non-face-to-face
비대면 수업 제공장치(110)는 텍스트 정보에 대해 데이터 비식별화를 수행한 비식별화 정보를 생성한다. 비대면 수업 제공장치(110)는 1차적으로 텍스트 정보로부터 정규 표현식을 이용하여 이메일, 전화번호, 아이디, 비밀번호 중 적어도 하나 이상을 포함하는 중요 개인 정보를 제1 비식별화 대상으로 선정한다. 비대면 수업 제공장치(110)는 2차적으로 텍스트 정보로부터 패턴 매칭, 개체명 사전 및 인식기를 이용하여 회사명, 기관명, 줄임말 및 축약어 중 적어도 하나 이상을 포함하는 제2 비식별화 대상으로 선정한다. 비대면 수업 제공장치(110)는 제1 비식별화 대상, 제2 비식별화 대상에 대한 비식별화를 수행한다.The non-face-to-face
비대면 수업 제공장치(110)는 수동 비식별화가 선택되면 텍스트 정보로부터 수동 비식별화 명령에 따라 기 구축된 비식별화 가이드라인을 기반으로 수동 치환된 데이터에 대해서만 비식별화 대상으로 선정하여 비식별화를 수행한다.When manual de-identification is selected, the non-face-to-face
비대면 수업 제공장치(110)는 지능형 대화 솔루션을 기반으로 비식별화 정보에 대한 자연어 질의를 실시간으로 이해한 자연어 이해결과를 생성한다. 비대면 수업 제공장치(110)는 비식별화 정보에 대해 학습자 질의 도메인, 의도 분류, 실시간 학습자 유사 질의 탐색을 수행하는 지능형 대화 솔루션을 제공한다.The non-face-to-face
비대면 수업 제공장치(110)는 비식별화 정보를 학습자 질의 도메인 및 의도 분류 체계에 따라 분류한 분류 정보를 생성한다. 비대면 수업 제공장치(110)는 분류 정보 내의 대화 문맥을 고려하여 학습자 질의를 심층 이해한 자연어 심층 이해결과를 자연어 이해결과에 반영한다. 비대면 수업 제공장치(110)는 분류 정보를 기반으로 학습자별 특성을 고려하여 학습자 질의를 심층 이해한 학습자 심층 이해결과를 자연어 이해결과에 반영한다. 비대면 수업 제공장치(110)는 분류 정보, 자연어 심층 이행결과, 학습 심층 이해결과를 학습하여 학습자 질의 도메인 및 의도 분류 체계를 완성한다.The non-face-to-face
비대면 수업 제공장치(110)는 실시간 학습자 유사 질의를 탐색하기 위해 비식별화 정보 내의 학습자 질의가 입력으로 주어지면 학습된 분류 모델과 한국어 특화 토크나이징 모듈이 적재된 검색 엔진을 이용하여 기 설정된 시간(몇 초) 이내로 입력 질의문의 의미적 특징값을 추출한다. 비대면 수업 제공장치(110)는 의미적 특징값을 기계학습 기반으로 학습자 질의 유사도(Similarity) 값을 측정한다. 비대면 수업 제공장치(110)는 유사도 값을 기준으로 특정 기준값(threshold)과 비교한 비교 결과를 생성한다. 비대면 수업 제공장치(110)는 비교결과가 특정 기준값보다 낮은 경우, 기 정의한 도메인 및 의도 분류 체계에 미존재하는 것으로 간주하여 학습자와의 대화를 이용하여 유사 질의를 추론한 후 유사 질의를 사례별로 묶어서 실시간으로 DB화하여 자연어 이해결과에 반영한다. 비대면 수업 제공장치(110)는 비교결과가 특정 기준값보다 크거나 동일한 경우, 기 정의한 도메인 및 의도 분류 체계에 존재하는 것으로 간주하여 실시간 유사 질의 DB에서 기 정의한 카테고리와 관련된 질의로 인덱싱하여 자연어 이해결과를 생성한다. 비대면 수업 제공장치(110)는 특정 기준값을 반복 수행한 성능 평가를 기반으로 산출된 최적값으로 설정한다.The non-face-to-face
도 5는 본 실시예에 따른 가상 조교 로봇을 이용한 조별 과제에 대한 학습 보조를 나타낸 도면이다.5 is a view showing a learning aid for a group task using the virtual assistant robot according to the present embodiment.
도 5에 도시된 바와 같이, 비대면 수업 제공장치(110)는 학습자 시나리오로서, 수업 외 조별과제를 지원한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 이번 학기 조별과제 수행을 위하여, 축적된 학생 데이터를 토대로 팀을 구성하고 활동 시작을 알린다.As shown in FIG. 5 , the non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학습 과제에 대응하는 조장, 조원을 선별한다. 비대면 수업 제공장치(110)는 조장, 조원에 대응하는 학습자 단말기(130)를 선별한 후 하나의 그룹 채팅방으로 초대한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 조장과 조원들과 합의하여 역할별 과제를 수행하도록 과제 수행을 보조한다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 그룹 채팅방 내에서 참여가 저조한 팀원을 독려한다. 비대면 수업 제공장치(110)는 조별 그룹 채팅 정보를 취합하여 분석한다. 비대면 수업 제공장치(110)는 채팅 분석 결과를 기반으로 그룹 채팅 내에서 참여율이 가장 적은 조원을 추출한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 참여율이 가장 적은 학습자에 대응하는 학습자 단말기(130)로 학습 참여 독려 메시지를 전송한다.The non-face-to-face
예컨대, 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 그룹 채팅방 내에서 기 설정된 시간(예컨대, 약 12 시간) 동안 아무런 멘트를 입력하지 않는 학습자를 선별한다. 비대면 수업 제공장치(110)는 선별된 참여 저조 팀원으로 참여 독려 메시지를 전송한다.For example, the non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 그룹 채팅방 내에 시험에 대한 안내를 전송한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 그룹 채팅방 내에 시험에 대한 공지를 전송한다.The non-face-to-face
비대면 수업 제공장치(110)는 자연어 이해결과를 기반으로 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 참여한 학습자와 챗봇 간의 대화를 위해 학습자 질의에 대한 자연어 응답을 생성한 후 가상 조교 로봇을 이용하여 출력하도록 한다.The non-face-to-face
비대면 수업 제공장치(110)는 자연어 이해결과를 기반으로 학습자 질의에 대한 템플릿 기반 선질문과 응답 관련 목적 대화 지문을 생성한다. 비대면 수업 제공장치(110)는 템플릿 기반 선질문과 응답 관련 목적 대화 지문을 응답 생성 기술에 적용한다. 비대면 수업 제공장치(110)는 학습자와의 정서적 소통을 위한 기계학습으로 학습한 일반 대화 지문을 생성한다. 비대면 수업 제공장치(110)는 일반 대화 지문을 자연어 응답에 반영한다.The non-face-to-face
비대면 수업 제공장치(110)는 템플릿 기반 선질문 및 응답 관련 목적 대화를 생성하기 위해 자연어 이해결과 내에서 대화 문맥과 학습자별 특성을 고려한 선질문을 이용하여 추가 대응 정보를 수집한다. 비대면 수업 제공장치(110)는 추가 대응 정보를 기반으로 질의 사례별 대응 템플릿을 정의한다.The non-face-to-face
비대면 수업 제공장치(110)는 일반 대화 지문을 생성하기 위해 자연어 이해결과 내에서 대화 문맥과 학습자별 특성을 고려한 기계학습 기반으로 응답 문장 생성 모델을 구현한다. 비대면 수업 제공장치(110)는 기계학습 기반 감정 분석기를 이용하여 자연어 이해결과의 대화 내 문맥적 감정 상태를 파악한다. 비대면 수업 제공장치(110)는 기계학습 기반 학습자별 특성 정보를 임베딩한다. 비대면 수업 제공장치(110)는 정서적 소통을 위한 기계학습 기반 정서적 응답 생성 모델을 구현한다. 비대면 수업 제공장치(110)는 응답 문장 생성 모델, 문맥적 감정 상태, 학습자별 특성 정보, 정서적 응답 생성 모델을 기반으로 자연어 응답을 생성한다. The non-face-to-face
도 6은 본 실시예에 따른 가상 조교 로봇을 이용한 수업 관련 활동 및 퀴즈 제공을 나타낸 도면이다.6 is a diagram illustrating class-related activities and provision of quizzes using the virtual assistant robot according to the present embodiment.
도 6에 도시된 바와 같이, 비대면 수업 제공장치(110)는 학습자 시나리오로서, 수업 외 지원을 수행한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 학사 일정 안내, 스터디 정보 등 학교 생활에 필요한 사항들을 종합 지원한다.As shown in FIG. 6 , the non-face-to-face
비대면 수업 제공장치(110)는 조별 그룹 채팅방마다 학습 스케쥴에 따라 강의 자료, 강의 보조자료를 전달한다. 비대면 수업 제공장치(110)는 학습 스케쥴에 따라 해당 강의일이 도래하기 기 설정된 일정(예컨대, 3일) 전에 강의 자료 안내 멘트를 조별 그룹 채팅방으로 전달한다.The non-face-to-face
비대면 수업 제공장치(110)는 학습 스케쥴에 따라 해당 강의일 도래하기 기 설정된 일정(예컨대, 2일) 전에 강의 목차 내용을 조별 그룹 채팅방으로 전달한다. 비대면 수업 제공장치(110)는 학습 스케쥴에 따라 해당 강의일이 도래하기 기 설정된 일정(예컨대, 1일) 전에 강의 자료, 강의 보조자료를 전달한다.The non-face-to-face
비대면 수업 제공장치(110)는 조별 그룹 채팅 정보를 분석한다. The non-face-to-face
비대면 수업 제공장치(110)는 수집된 조별 그룹 채팅 정보를 분석한 채팅 분석 결과 중 수업외 내용만을 추출한다. 비대면 수업 제공장치(110)는 수업외 내용을 분석하여 도움 또는 지원을 필요로 하는 문장을 선별한다. 비대면 수업 제공장치(110)는 도움 또는 지원을 필요로 하는 문장의 내용을 확인한다. 비대면 수업 제공장치(110)는 도움 또는 지원을 필요로 하는 문장에 대응하는 카테고리를 선별한다. 비대면 수업 제공장치(110)는 해당 카테고리에 대응하는 수업외 지원 정보(예컨대, 아르바이트 정보)를 추출한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 도움 또는 지원을 필요로 하는 문장을 입력한 학습자 단말기(130)로 수업외 지원 정보를 전송한다.The non-face-to-face
비대면 수업 제공장치(110)는 조별 그룹 채팅 정보를 분석한다. 비대면 수업 제공장치(110)는 수집된 조별 그룹 채팅 정보를 분석한 채팅 분석 결과를 생성한다. 비대면 수업 제공장치(110)는 채팅 분석 결과를 기반으로 그룹 채팅에 참여하지 않은 개인 학습자를 선별한다. 비대면 수업 제공장치(110)는 그룹 채팅에 참여하지 않은 개인 학습자로 스터디 그룹을 추천하거나 채팅 그룹을 추천하는 메시지를 전송하는 학습정서를 케어한다. The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 조별 그룹 채팅방으로 강의 주차별 퀴즈(과제)를 출력한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 조별 그룹 채팅방으로 주차별 퀴즈 마감일을 공지한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 조별 그룹 채팅방 참여한 학습자 단말기(130)로부터 퀴즈에 대응하는 답안(과제 결과물)을 입력받는다. 비대면 수업 제공장치(110)는 학습자 단말기(130)로부터 수신된 퀴즈에 대응하는 답안(과제 결과물)에 대한 정답을 확인한 후 개인 채팅방으로 채점 결과를 전송한다. 비대면 수업 제공장치(110)는 채점 결과에 틀린 문제에 대한 해설을 볼 수 있는 링크를 첨부한다.The non-face-to-face
비대면 수업 제공장치(110)는 수업과 연관된 과제 및 퀴즈 등 활동에 대한 학습자의 참여를 독려한다. 비대면 수업 제공장치(110)는 객관식 과제를 자동 채점하여 결과를 학습자에게 즉시 제공한다. 비대면 수업 제공장치(110)는 학습자들이 입력한 주관식 과제를 취합한 후 강의자에게 전달한다.The non-face-to-face
비대면 수업 제공장치(110)는 자연어 이해결과를 기반으로 비대면 개인 채팅방 및 비대면 그룹 채팅방 내에 참여한 학습자와 강의자 간의 소통에 필요한 실시간 피드백 정보로 출력한다. The non-face-to-face
비대면 수업 제공장치(110)는 자연어 이해결과를 기반으로 학습자 질의에 대한 응답을 추출한다. 비대면 수업 제공장치(110)는 학습자의 질의에 대한 응답에 대응하는 학습자 특성 및 반응 분석 결과 생성한다. 비대면 수업 제공장치(110)는 학습자 특성 및 반응 분석 결과를 학습자와 강의자 간의 피드백 정보에 반영하여 출력하도록 한다.The non-face-to-face
비대면 수업 제공장치(110)는 자연어 이해결과 중 학습자에 대한 질의에 대한 응답을 추출한다. 비대면 수업 제공장치(110)는 학습자 질의에 대한 응답 중 의미를 갖는 강의 내 중요 개념을 추출한다. 비대면 수업 제공장치(110)는 의미를 갖는 강의 내 중요 개념을 기반으로 학습자가 느끼는 강의 난이도, 교육 정도를 산출한다. 비대면 수업 제공장치(110)는 실시간 데이터베이스로부터 추출된 해당 학습자의 개인 또는 그룹 인지 여부에 따른 학습 유형, 해당 학습자가 사용하는 언어를 기반으로 한 선호 언어, 학습자가 선호하는 선호 개념을 기반으로 학습자별 특성을 파악한다. 비대면 수업 제공장치(110)는 학습자별 특성마다 학습자가 느끼는 강의 난이도, 교육 정도를 반영하여 학습자와 강의자 간의 피드백 정보를 출력한다.The non-face-to-face
도 7은 본 실시예에 따른 가상 조교 로봇을 이용하여 강의자에게 수업 알람을 발생하는 화면을 나타낸 도면이다.7 is a view showing a screen for generating a class alarm to the lecturer using the virtual assistant robot according to the present embodiment.
도 7에 도시된 바와 같이, 비대면 수업 제공장치(110)는 강의자 시나리오로서, 강의자에게 수업 알람을 발생시킨다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 강의자로 하여금 수업이 있음을 인지하고 사전 준비를 할 수 있도록 지원한다.As shown in FIG. 7 , the non-face-to-face
비대면 수업 제공장치(110)는 학습 스케쥴에 따라 강의가 시작하기 전에 알림을 강의자 단말기(140)로 전송한다. 비대면 수업 제공장치(110)는 강의 계획서를 기반으로 이번 차수 강의 내용을 림을 강의자 단말기(140)로 전송한다. 비대면 수업 제공장치(110)는 전차 진도를 파악한 후 강의자 단말기(140)로 전송한다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 강의자 단말기(140)로 진도 상황을 안내한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 강의자 단말기(140)로 이번 차수 강의 내용을 요약해서 전달한다. 비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 강의자 단말기(140)로 마지막 강의 내용을 캡쳐하여 전달한다.The non-face-to-face
비대면 수업 제공장치(110)는 가상 조교 로봇(120)을 이용하여 강의자가 수업을 편안하게 진행할 수 있도록 도와준다.The non-face-to-face
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and various modifications and variations will be possible by those skilled in the art to which this embodiment belongs without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiments are intended to explain rather than limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the equivalent range should be interpreted as being included in the scope of the present embodiment.
110: 비대면 수업 제공장치
120: 가상 조교 로봇
130: 학습자 단말기
140: 강의자 단말기
210: 채팅방 개설부
220: 수집부
230: 분석부
240: 사용자 패턴 생성부
250: 가성 분류부
260: 질의 내용 요약부
270: 비대면 수업 지원부110: non-face-to-face class providing device
120: virtual assistant robot
130: learner terminal
140: lecturer terminal
210: chat room opening section
220: collection unit
230: analysis unit
240: user pattern generation unit
250: false classification unit
260: query content summary part
270: Non-face-to-face class support department
Claims (7)
학습 과제별 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방 내에 학습자 단말기와 함께 가상 조교 로봇을 참여시키고, 상기 가상 조교 로봇을 이용하여 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방으로부터 입력되는 텍스트 정보를 수집하는 수집부;
상기 텍스트 정보를 분석한 분석결과를 생성하는 분석부;
상기 분석결과를 기반으로 학습자별 사용자 패턴을 생성하는 사용자 패턴 생성부;
상기 분석결과를 기반으로 감성 정보를 분류하는 감성 분류부; 및
상기 가상 조교 로봇을 이용하여 상기 분석결과, 상기 학습자별 사용자 패턴 및 상기 감성 정보를 기반으로 비대면 수업을 지원하도록 하는 비대면 수업 지원부
를 포함하되, 상기 감성 분류부는 상기 분석결과를 기반으로 상기 텍스트 정보에 포함된 단어의 빈도수를 측정한 결과를 기반으로 중요도를 산출하고, 상기 중요도를 기반으로 감성 어휘 목록을 구축하고, 상기 감성 어휘 목록별 감성지수를 산출하여 감성 사전을 구축하고, 상기 분석결과를 기반으로 상기 텍스트 정보 내에서 자주 사용하는 단어, 이모지, 해시태그 중 적어도 하나 이상을 분석한 후 상기 감성 사전에 존재하는 감성 어휘와 매칭하여 상기 감성 정보를 분류하며, 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방 내에서 입력된 영상 데이터에서 객체를 검출하고, 상기 객체의 얼굴 영역을 검출한 후 상기 얼굴 영역에서 표정을 인식한 후 상기 표정의 변화를 인지하며, 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방 내에서 입력된 오디오 데이터의 파장 변화를 인지하며, 상기 표정의 변화, 상기 파장 변화, 상기 분석결과를 기반으로 학습자별 정서 및 상기 감성 정보를 분류하며, 상기 비대면 개인 채팅방 및 상기 비대면 그룹 채팅방 내에서 상기 가상 조교 로봇과 학습자 간의 의사소통을 하면서 입력받은 텍스트의 문맥에 따라 학습자의 감정 변화를 계층적 RNN(Recurrent Neural Network)를 이용하여 파악하며,
상기 비대면 수업 지원부는 지능형 대화 서비스를 위해 NLU(Natural Language Understanding) 기술을 상기 가상 조교 로봇에 적용하여 상기 가상 조교 로봇이 학습자와 강의자 간의 소통을 위한 실시간 피드백을 제공하도록 하거나, NLG(Natural Language Generation) 기술을 상기 가상 조교 로봇에 적용하여 상기 학습자와 상기 가상 조교 로봇 간의 소통을 위한 실시간 피드백을 제공하도록 하도록 하는 것을 특징으로 하는 비대면 수업 제공장치.A chat room opening unit for opening a non-face-to-face private chat room for each study task and a non-face-to-face group chat room for each task based on the syllabus received from the lecturer's terminal;
In the non-face-to-face personal chat room and the non-face-to-face group chat room for each learning task, a virtual assistant robot is engaged together with a learner terminal, and text information input from the non-face-to-face personal chat room and the non-face-to-face group chat room is obtained using the virtual assistant robot. a collecting unit to collect;
an analysis unit generating an analysis result of analyzing the text information;
a user pattern generator for generating a user pattern for each learner based on the analysis result;
an emotion classification unit for classifying emotion information based on the analysis result; and
A non-face-to-face class support unit that supports non-face-to-face classes based on the analysis result, the learner-specific user pattern and the emotional information using the virtual assistant robot
Including, wherein the sentiment classification unit calculates importance based on a result of measuring the frequency of words included in the text information based on the analysis result, builds a sentiment vocabulary list based on the importance, and the sentiment vocabulary A sentiment dictionary is constructed by calculating the emotional index for each list, and after analyzing at least one of frequently used words, emojis, and hashtags in the text information based on the analysis result, the sentiment vocabulary existing in the sentiment dictionary Classifies the emotional information by matching with , detects an object from the video data input in the non-face-to-face personal chat room and the non-face-to-face group chat room, detects the face region of the object, and recognizes the expression in the face region After recognizing the change in the facial expression, recognizing the wavelength change of the audio data input in the non-face-to-face personal chat room and the non-face-to-face group chat room, each learner based on the change in the facial expression, the wavelength change, and the analysis result Classify emotion and the emotional information, and hierarchical RNN (Recurrent) Neural Network) is used to identify
The non-face-to-face class support unit applies NLU (Natural Language Understanding) technology to the virtual assistant robot for intelligent conversation service so that the virtual assistant robot provides real-time feedback for communication between learners and lecturers, or NLG (Natural Language Generation) ) technology is applied to the virtual assistant robot to provide real-time feedback for communication between the learner and the virtual assistant robot.
상기 사용자 패턴 생성부는,
상기 분석결과를 기반으로 출석율, 과제 수행률, 학습 시간 중 적어도 하나 이상의 학습 패턴을 산출하고, 상기 분석결과를 기반으로 관심 분야, 적극성, 집중도 중 적어도 하나 이상의 학습 성향을 산출하고, 상기 분석결과를 기반으로 성취도, 취약 분야, 우수 분야 중 적어도 하나 이상의 학습 성과를 산출한 후 상기 학습 패턴, 상기 학습 성향, 상기 학습 성과를 조합하여 상기 사용자 패턴을 생성하는 것을 특징으로 하는 비대면 수업 제공장치.According to claim 1,
The user pattern generation unit,
Based on the analysis result, at least one learning pattern of attendance rate, task performance rate, and learning time is calculated, and based on the analysis result, at least one learning tendency of interest, activeness, and concentration is calculated, and the analysis result is A non-face-to-face class providing apparatus, characterized in that after calculating at least one learning result among achievement, weak field, and excellent field based on the combination of the learning pattern, the learning tendency, and the learning result, the user pattern is generated.
상기 감성 분류부는,
상기 분석결과에 포함된 긍정 단어, 중립 단어, 부정 단어의 빈도를 기반으로 사용자 감성을 긍정과 부정으로 분류하고, 상기 사용자 감성이 긍정인 경우 세부 감성으로 행복, 만족으로 분류하고, 상기 사용자 감성이 부정인 경우, 세부 감성으로 분노, 괴로움으로 분류하는 것을 특징으로 하는 비대면 수업 제공장치.3. The method of claim 2,
The emotion classification unit,
User emotion is classified into positive and negative based on the frequency of positive words, neutral words, and negative words included in the analysis result, and when the user emotion is positive, it is classified into happiness and satisfaction as detailed emotions, and the user emotion is In the case of negative, non-face-to-face class providing device, characterized in that it is classified into anger and suffering as detailed sensibility.
상기 분석결과를 기반으로 상기 텍스트 정보 중 질의 내용만을 추출하고, 상기 질의 내용 중 중복 내용을 확인하여 중복 질의 내용을 하나의 질의로 취합한 질의 취합 데이터를 생성하고, 상기 질의 취합 데이터 중 기 설정된 문장 길이 이상을 갖는 문장을 선별한 후 기 설정된 문장 또는 단어 수 이내로 요약한 질의 요약 데이터를 생성하는 질의 내용 요약부
를 추가로 포함하며, 상기 비대면 수업 지원부는 상기 가상 조교 로봇을 이용하여 상기 질의 요약 데이터를 강의자 단말기로 전달하는 것을 특징으로 하는 비대면 수업 제공장치.4. The method of claim 3,
Extracting only the query contents from the text information based on the analysis result, checking the duplicate contents among the query contents to generate query aggregate data in which the duplicate query contents are combined into one query, and a preset sentence among the query collection data A query content summary unit that selects sentences having a length or more and generates query summary data summarized within a preset number of sentences or words
In addition, the non-face-to-face class providing device, characterized in that the non-face-to-face class support unit transmits the query summary data to the lecturer terminal using the virtual assistant robot.
상기 비대면 수업 지원부는,
상기 분석결과를 기반으로 학습자별 문장 입력 횟수, 문장 길이, 텍스트 내용을 기반으로 학습 참여도를 산출하고, 상기 학습 참여도를 기반으로 참여율이 가장 적은 학습자를 추출한 후 학습 과제별로 상기 가상 조교 로봇을 이용하여 참여율이 가장 적은 학습자에 대응하는 학습자 단말기로 학습 참여 독려 메시지를 전송하는 것을 특징으로 하는 비대면 수업 제공장치.5. The method of claim 4,
The non-face-to-face class support department,
Based on the analysis result, the learning participation rate is calculated based on the number of sentence input per learner, the sentence length, and the text content, and the learner with the lowest participation rate is extracted based on the learning participation rate, and then the virtual assistant robot is used for each learning task. A non-face-to-face class providing device, characterized in that it transmits a message encouraging participation in learning to a learner terminal corresponding to a learner with the lowest participation rate by using it.
상기 비대면 수업 지원부는,
상기 분석결과를 기반으로 상기 텍스트 정보 중 수업외 내용만을 추출한 후
상기 수업외 내용을 분석하여 도움 또는 지원을 필요로 하는 문장만을 선별하고, 상기 도움 또는 지원을 필요로 하는 문장에 대응하는 카테고리를 선정하고,
해당 카테고리에 대응하는 수업외 지원 정보를 추출하며, 상기 가상 조교 로봇을 이용하여 상기 도움 또는 지원을 필요로 하는 문장을 입력한 학습자 단말기로 상기 수업외 지원 정보를 전송하도록 하는 것을 특징으로 하는 비대면 수업 제공장치.6. The method of claim 5,
The non-face-to-face class support department,
After extracting only non-class content from the text information based on the analysis result
Selecting only sentences requiring help or support by analyzing the out-of-class content, selecting a category corresponding to the sentences requiring help or support,
Non-face-to-face, characterized in that the out-of-class support information corresponding to the corresponding category is extracted, and the out-of-class support information is transmitted to the learner terminal in which the sentence requiring the help or support is input using the virtual assistant robot class provider.
상기 사용자 패턴 생성부는 상기 비대면 개인 채팅방으로부터 입력되는 개인 텍스트 정보를 분석한 분석결과를 기반으로 개인 학습자 패턴을 생성하고, 상기 비대면 그룹 채팅방으로부터 입력되는 그룹 텍스트 정보를 분석한 분석결과를 기반으로 그룹 학습자 패턴을 생성하고,
상기 비대면 수업 지원부는 상기 개인 학습자 패턴과 임계치 이상으로 동일한 패턴을 갖는 그룹 학습 패턴을 갖는 비대면 그룹 채팅방을 추출하고, 상기 가상 조교 로봇을 이용하여 상기 비대면 개인 채팅방에 존재하는 개인 학습자에 대응하는 학습자 단말기로 상기 개인 학습자 패턴과 임계치 이상으로 동일한 패턴을 갖는 그룹 학습 패턴을 갖는 비대면 그룹 채팅방의 참여를 추천하는 것을 특징으로 하는 비대면 수업 제공장치.
7. The method of claim 6,
The user pattern generation unit generates a personal learner pattern based on the analysis result of analyzing the personal text information input from the non-face-to-face personal chat room, and based on the analysis result of analyzing the group text information input from the non-face-to-face group chat room create a group learner pattern,
The non-face-to-face class support unit extracts a non-face-to-face group chat room having a group learning pattern having the same pattern as the individual learner pattern or more than a threshold, and responds to individual learners existing in the non-face-to-face personal chat room using the virtual assistant robot Non-face-to-face class providing device, characterized in that it recommends participation in a non-face-to-face group chat room having a group learning pattern having the same pattern as the individual learner pattern or more than a threshold with a learner terminal.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200157656 | 2020-11-23 | ||
KR20200157656 | 2020-11-23 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR102299563B1 true KR102299563B1 (en) | 2021-09-08 |
KR102299563B9 KR102299563B9 (en) | 2022-06-10 |
Family
ID=77787784
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210021124A KR102299563B1 (en) | 2020-11-23 | 2021-02-17 | Method And Apparatus for Providing Untact Class by using Virtual Teaching Assistant Robot |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102299563B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102502345B1 (en) * | 2022-04-11 | 2023-02-23 | 주식회사 글로벌폰유학 | System for foreign language practice |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010146561A (en) * | 2008-12-19 | 2010-07-01 | Xerox Corp | System and method for recommending educational resource |
US20140335497A1 (en) * | 2007-08-01 | 2014-11-13 | Michael Gal | System, device, and method of adaptive teaching and learning |
KR20160082078A (en) * | 2014-12-30 | 2016-07-08 | 한국전자통신연구원 | Education service system |
-
2021
- 2021-02-17 KR KR1020210021124A patent/KR102299563B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140335497A1 (en) * | 2007-08-01 | 2014-11-13 | Michael Gal | System, device, and method of adaptive teaching and learning |
JP2010146561A (en) * | 2008-12-19 | 2010-07-01 | Xerox Corp | System and method for recommending educational resource |
KR20160082078A (en) * | 2014-12-30 | 2016-07-08 | 한국전자통신연구원 | Education service system |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102502345B1 (en) * | 2022-04-11 | 2023-02-23 | 주식회사 글로벌폰유학 | System for foreign language practice |
Also Published As
Publication number | Publication date |
---|---|
KR102299563B9 (en) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Plough et al. | Interactional competence: Genie out of the bottle | |
Oplatka | Understanding Emotion in Educational and Service Organizations through Semi-Structured Interviews: Some Conceptual and Practical Insights. | |
Douglas | Assessing languages for specific purposes | |
KR102313561B1 (en) | Method And Apparatus for Providing Untact Language Assessment by Using Virtual Tutor Robot | |
Li et al. | Technology-enhanced reflection and teacher development: A student teacher's journey | |
KR102299563B1 (en) | Method And Apparatus for Providing Untact Class by using Virtual Teaching Assistant Robot | |
Tootell | Decentring research practice | |
Ibrahim et al. | Common ground in AAC: how children who use AAC and teaching staff shape interaction in the multimodal classroom | |
Noskova et al. | Educational interactions quality in e-learning environment | |
Chandler | Adapting voice-centred relational method to understand students’ experiences of synchronous online tuition | |
Jensen | Corrective feedback to spoken errors in adult ESL classrooms | |
Bertilsson et al. | Queering EFL Teaching: Opportunities and Challenges According to Preservice Teachers | |
Cherrez | Examining the Impact of Technology-Mediated Oral Communicative Tasks on Students' Willingness to Communicate and Communicative Performance | |
Railianova | Methods of foreign language remote teaching | |
Krivich | Learner strategies when listening to teacher talk in EMI settings | |
Popal | Using Communication Accommodation in Political Communications | |
Alt | A human factors approach to synchronous online English language teaching | |
Taguchi | Collecting and Analyzing L2 Pragmatics Data | |
Kenney | Deaf peer tutors and deaf tutees as pairs in a college writing center | |
Weir | Perceptions, Potholes, and Possibilities of Using Digital Voice Assistants to Differentiate Instructions | |
Data et al. | 9 Collecting and Analyzing L2 | |
Jiménez Ariza | Exploring EFL student's metacognitive strategies when coping with speaking activities in a communication class: a colombian context case study | |
Worthington et al. | Listening | |
Howerton-Fox | Teacher language awareness in a Swedish bilingual school for the deaf: Two portraits of grammar knowledge in practice | |
Zhang | A Comparative Study of the Beliefs about and Practices of Secondary School Mathematics in England and China concerning Teacher Questioning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
G170 | Re-publication after modification of scope of protection [patent] | ||
G170 | Re-publication after modification of scope of protection [patent] |