KR102294735B1 - 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템 - Google Patents

인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템 Download PDF

Info

Publication number
KR102294735B1
KR102294735B1 KR1020210039218A KR20210039218A KR102294735B1 KR 102294735 B1 KR102294735 B1 KR 102294735B1 KR 1020210039218 A KR1020210039218 A KR 1020210039218A KR 20210039218 A KR20210039218 A KR 20210039218A KR 102294735 B1 KR102294735 B1 KR 102294735B1
Authority
KR
South Korea
Prior art keywords
student
speaking
learning
level
content
Prior art date
Application number
KR1020210039218A
Other languages
English (en)
Inventor
김명수
Original Assignee
(주)에이피아이넥스트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)에이피아이넥스트 filed Critical (주)에이피아이넥스트
Priority to KR1020210039218A priority Critical patent/KR102294735B1/ko
Application granted granted Critical
Publication of KR102294735B1 publication Critical patent/KR102294735B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Educational Technology (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

일실시에에 따르면, 장치에 의해 수행되는, 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하는 방법에 있어서, 제1 강사 계정으로 로그인된 제1 강사 단말로부터 강의실 개설 요청이 수신되면, 상기 제1 강사 계정을 통해 확인된 수업 정보를 기초로, 제1 강사와 제1 학생과의 일대일 수업을 위한 강의실 페이지를 생성하고, 상기 강의실 페이지를 상기 제1 강사 단말로 제공하는 단계; 상기 강의실 페이지가 생성되면, 제1 학생 계정으로 로그인된 제1 학생 단말로 수업 참여 알림 메시지를 전송하는 단계; 상기 제1 학생 단말로부터 상기 강의실 페이지에 대한 입장 요청이 수신되면, 상기 강의실 페이지를 상기 제1 학생 단말로 제공하여, 상기 강의실 페이지를 통해 상기 제1 강사 단말과 상기 제1 학생 단말이 연결되어 스피킹 수업이 진행되도록 제어하는 단계; 상기 스피킹 수업이 진행되는 동안, 상기 제1 강사의 질문에 대한 상기 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성하는 단계; 상기 스피킹 수업이 종료되면, 상기 답변 정보를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로 상기 제1 학생의 스피킹 실력을 분석하는 단계; 상기 스피킹 실력의 분석 결과를 통해 피드백이 필요한 것으로 판단되면, 상기 제1 학생의 스피킹에 대한 발음, 강세, 억양, 어휘 및 유창성 중 적어도 하나의 스피킹 취약점을 확인하는 단계; 및 상기 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 상기 제1 학생 단말로 제공하는 단계를 포함하는, 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법이 제공된다.

Description

인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROVIDING SPEAKING ANALYSIS CONTENT USING FEEDBACK BASED ON ARTIFICIAL INTELLIGENCE}
아래 실시예들은 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하는 기술에 관한 것이다.
온라인을 통한 외국어 학습에 대한 수요 증가에 따라 다양한 형태의 외국어 학습용 온라인 서비스들이 제공되고 있다.
즉, 외국어 말하기 연습을 위해 제공되는 온라인 서비스들은 대부분 원어민 강사를 네트워크를 통해 학습자와 중계하는 방식을 통해 이루어지고 있다.
이에 따라, 원어민 강사와의 화상 대화를 통한 말하기 연습은 학습자가 원어민 강사의 음성을 청취할 수 있어야 원활하게 진행되기 때문에, 외국어 듣기 실력이 부족한 학습자들은 말하기 연습의 기회를 충분히 제공받지 못한다는 문제가 있다.
또한, 수업을 통해서만 실력을 향상시키는데 한계가 있기 때문에, 수업 이후 제공되는 피드백을 이용하여 스피킹 실력을 향상시키고자 하는 요구가 증대되고 있다.
따라서, 학생의 스피킹 실력을 파악하고, 스피킹 실력에 따라 피드백을 제공하여, 학생의 스피킹 실력을 빠르게 향상시킬 수 있는 기술의 구현이 필요하다.
한국등록특허 제10-2019306호(2019.09.06) 한국등록특허 제10-1318377호(2013.10.16) 한국공개특허 제10-2014-0031497호(2014.03.13) 한국공개특허 제10-2014-0004531호(2014.01.13)
일실시예에 따르면, 스피킹 수업이 진행되는 동안, 제1 강사의 질문에 대한 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성하고, 스피킹 수업이 종료되면, 답변 정보를 인공 신경망에 적용하여, 인공 신경망의 출력을 기초로 제1 학생의 스피킹 실력을 분석하고, 스피킹 실력의 분석 결과를 통해 피드백이 필요한 것으로 판단되면, 제1 학생의 스피킹에 대한 발음, 강세, 억양, 어휘 및 유창성 중 적어도 하나의 스피킹 취약점을 확인하고, 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 제1 학생 단말로 제공하는 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.
본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.
일실시예에 따르면, 장치에 의해 수행되는, 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하는 방법에 있어서, 제1 강사 계정으로 로그인된 제1 강사 단말로부터 강의실 개설 요청이 수신되면, 상기 제1 강사 계정을 통해 확인된 수업 정보를 기초로, 제1 강사와 제1 학생과의 일대일 수업을 위한 강의실 페이지를 생성하고, 상기 강의실 페이지를 상기 제1 강사 단말로 제공하는 단계; 상기 강의실 페이지가 생성되면, 제1 학생 계정으로 로그인된 제1 학생 단말로 수업 참여 알림 메시지를 전송하는 단계; 상기 제1 학생 단말로부터 상기 강의실 페이지에 대한 입장 요청이 수신되면, 상기 강의실 페이지를 상기 제1 학생 단말로 제공하여, 상기 강의실 페이지를 통해 상기 제1 강사 단말과 상기 제1 학생 단말이 연결되어 스피킹 수업이 진행되도록 제어하는 단계; 상기 스피킹 수업이 진행되는 동안, 상기 제1 강사의 질문에 대한 상기 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성하는 단계; 상기 스피킹 수업이 종료되면, 상기 답변 정보를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로 상기 제1 학생의 스피킹 실력을 분석하는 단계; 상기 스피킹 실력의 분석 결과를 통해 피드백이 필요한 것으로 판단되면, 상기 제1 학생의 스피킹에 대한 발음, 강세, 억양, 어휘 및 유창성 중 적어도 하나의 스피킹 취약점을 확인하는 단계; 및 상기 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 상기 제1 학생 단말로 제공하는 단계를 포함하는, 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법이 제공된다.
상기 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법은, 상기 스피킹 실력의 분석 결과가 피드백이 필요한 것으로 판단되면, 상기 제1 학생의 답변 중 문장 별로 누락된 단어(Missing Words), 잘못된 문법(Wrong Grammar), 문장의 단편(Sentence Fragment), 잘못된 어휘(Wrong Vocabulary) 및 잘못된 발음(Wrong Pronunciation)이 있는지 여부를 확인하는 단계; 상기 제1 학생과 상기 제1 강사의 대화 스크립트가 담긴 제2 학습 콘텐츠를 상기 제1 학생 단말로 제공하는 단계; 및 상기 대화 스크립트에 대한 내용이 표시될 때, 상기 제1 학생의 답변 중 누락된 단어가 있는 것으로 확인되면, 누락된 단어에 대해 교정된 내용이 제1 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 문법이 있는 것으로 확인되면, 잘못된 문법에 대해 교정된 내용이 제2 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 문장의 단편이 있는 것으로 확인되면, 문장의 단편에 대해 교정된 내용이 제3 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 어휘가 있는 것으로 확인되면, 잘못된 어휘에 대해 교정된 내용이 제4 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 발음이 있는 것으로 확인되면, 잘못된 발음에 대해 교정된 내용이 제5 색으로 표시되도록 제어하는 단계를 더 포함할 수 있다.
상기 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법은, 상기 강의실 페이지에 대한 입장 요청을 수신하기 이전에, 상기 제1 학생 계정을 통해 상기 제1 학생이 레벨 테스트를 진행하였는지 여부를 확인하는 단계; 상기 제1 학생이 레벨 테스트를 진행하지 않은 것으로 확인되면, 레벨 테스트 페이지를 상기 제1 학생 단말로 제공하는 단계; 상기 제1 학생이 레벨 테스트를 진행한 것으로 확인되면, 레벨 테스트 결과에 따라 상기 제1 학생의 레벨을 평가하는 단계; 및 상기 제1 학생의 레벨이 제1 레벨로 평가되면, 상기 제1 레벨에 상응하는 제1 난이도를 통해 스피킹 수업이 진행되도록, 상기 제1 레벨에 대한 알림 메시지를 상기 제1 강사 단말로 전송하는 단계를 더 포함할 수 있다.
상기 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법은, 상기 스피킹 실력의 분석 결과를 기초로, 상기 제1 학생의 학습도를 산출하는 단계; 상기 제1 학생의 학습도가 미리 설정된 제1 기준치 보다 높은지 여부를 확인하는 단계; 상기 제1 학생의 학습도가 상기 제1 기준치 보다 높은 것으로 확인되면, 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석하는 단계; 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석되면, 상기 제1 레벨 보다 높은 제2 레벨에 상응하는 제2 난이도를 통해 다음 스피킹 수업이 진행되도록, 상기 제1 학생의 레벨을 상기 제2 레벨로 변경하는 단계; 상기 제1 학생의 학습도가 상기 제1 기준치 보다 낮은 것으로 확인되면, 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과하지 못한 것으로 분석하는 단계; 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과하지 못한 것으로 분석되면, 상기 제1 학생의 학습도가 미리 설정된 제2 기준치 보다 높은지 여부를 확인하는 단계; 상기 제1 학생의 학습도가 상기 제2 기준치 보다 높은 것으로 확인되면, 상기 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석하는 단계; 상기 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석되면, 상기 제1 학습 콘텐츠에 대한 학습 추천 메시지를 상기 제1 학생 단말로 전송하는 단계; 상기 제1 학생의 학습도가 상기 제2 기준치 보다 낮은 것으로 확인되면, 상기 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석하는 단계; 및 상기 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석되면, 상기 제2 학습 콘텐츠에 대한 학습 추천 메시지를 상기 제1 학생 단말로 전송하는 단계를 더 포함할 수 있다.
상기 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법은, 난이도 별로 제공되는 동영상 콘텐츠에 대한 제작 요청을 복수의 강사 단말로 전송하는 단계; 상기 동영상 콘텐츠의 제작 요청에 상응하여, 상기 제1 강사 단말로부터 제1 동영상 콘텐츠를 수신하는 단계; 상기 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는지 여부를 확인하는 단계; 상기 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있지 않은 것으로 확인되면, 상기 제1 동영상 콘텐츠를 새로 생성된 1차 저작물로 판정하는 단계; 상기 제1 동영상 콘텐츠가 1차 저작물로 판정되면, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자를 나타내는 제1 저작자 정보로 등록하는 단계; 상기 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는 것으로 확인되면, 상기 제1 동영상 콘텐츠의 원저작자 정보와 상기 제1 강사 계정의 정보가 일치하는지 여부를 확인하는 단계; 상기 제1 동영상 콘텐츠의 원저작자 정보와 상기 제1 강사 계정의 정보가 일치하지 않는 것으로 확인되면, 상기 제1 동영상 콘텐츠를 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물로 판정하는 단계; 상기 제1 동영상 콘텐츠가 2차 저작물로 판정되면, 상기 제1 동영상 콘텐츠의 원저작자 정보를 통해 상기 제2 동영상 콘텐츠의 저작자 정보를 확인하고, 상기 제2 동영상 콘텐츠의 저작자 정보로 제2 강사 계정의 정보가 등록되어 있는 것이 확인되면, 상기 제2 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제2 저작자를 나타내는 제2 저작자 정보로 등록하고, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하는 단계; 상기 동영상 콘텐츠의 제작 요청에 상응하여, 상기 제1 강사 단말로부터 제1 파트 콘텐츠를 수신하고, 제3 강사 계정이 로그인된 제3 강사 단말로부터 제2 파트 콘텐츠를 수신하는 단계; 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠를 결합하여 상기 제1 동영상 콘텐츠를 생성하는 단계; 상기 제1 동영상 콘텐츠에서 상기 제1 파트 콘텐츠가 차지하는 비율인 제1 비율을 획득하고, 상기 제1 동영상 콘텐츠에서 상기 제2 파트 콘텐츠가 차지하는 비율인 제2 비율을 획득하는 단계; 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠 각각에 원저작자 정보가 등록되어 있는지 여부를 확인하는 단계; 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠에 원저작자 정보가 등록되어 있지 않은 것으로 확인되면, 상기 제1 동영상 콘텐츠를 1차 저작물로 판정하는 단계; 상기 제1 동영상 콘텐츠가 1차 저작물로 판정되고 상기 제1 비율이 상기 제2 비율 보다 큰 것으로 확인되면, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 상기 제3 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하는 단계; 상기 제1 동영상 콘텐츠가 1차 저작물로 판정되고 상기 제1 비율이 상기 제2 비율 보다 작은 것으로 확인되면, 상기 제3 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하는 단계; 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠에 원저작자 정보가 등록되어 있는 것으로 확인되면, 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠에 등록되어 있는 원저작자 정보와 상기 제1 강사 계정의 정보 및 상기 제3 강사 계정의 정보 중 어느 하나가 일치하는지 여부를 확인하는 단계; 상기 제1 파트 콘텐츠 및 상기 제2 파트 콘텐츠에 등록되어 있는 원저작자 정보와 상기 제1 강사 계정의 정보 및 상기 제3 강사 계정의 정보가 모두 일치하지 않는 것으로 확인되면, 상기 제1 동영상 콘텐츠를 상기 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물로 판정하는 단계; 상기 제1 동영상 콘텐츠가 2차 저작물로 판정되고 상기 제1 비율이 상기 제2 비율 보다 큰 것으로 확인되면, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 상기 제3 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하고, 상기 제2 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제3 저작자를 나타내는 제3 저작자 정보로 등록하는 단계; 및 상기 제1 동영상 콘텐츠가 2차 저작물로 판정되고 상기 제1 비율이 상기 제2 비율 보다 작은 것으로 확인되면, 상기 제3 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 상기 제1 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하고, 상기 제2 강사 계정의 정보를 상기 제1 동영상 콘텐츠의 제3 저작자 정보로 등록하는 단계를 더 포함할 수 있다.
일실시예에 따르면, 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 제공하고, 교정된 내용이 상이한 색으로 표시된 대화 스크립트가 담긴 제2 학습 콘텐츠를 제공함으로써, 스피킹 실력에 따라 피드백을 제공하여, 학생의 스피킹 실력을 빠르게 향상시킬 수 있도록, 효과적인 도움을 줄 수 있다.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.
도 1은 일실시예에 따른 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하기 위한 시스템의 구성을 개략적으로 나타낸 도면이다.
도 2는 일실시예에 따른 온라인을 통해 스피킹 수업이 진행되도록 제어하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 스피킹 처방전이 담긴 제1 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 4는 일실시예에 따른 스피킹 처방전이 제공된 화면을 도시한 도면이다.
도 5는 일실시예에 따른 인공 신경망의 학습을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 대화 스크립트가 담긴 제2 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 대화 스크립트가 제공된 화면을 도시한 도면이다.
도 8은 일실시예에 따른 레벨 테스트를 통해 수업 난이도를 설정하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 학습도에 따라 학습 콘텐츠를 추천하는 과정을 설명하기 위한 순서도이다.
도 10은 일실시예에 따른 동영상 콘텐츠의 저작자 정보를 등록하는 과정을 설명하기 위한 순서도이다.
도 11은 일실시예에 따른 공동 저작자를 통해 제1 동영상 콘텐츠를 생성하는 과정을 설명하기 위한 도면이다.
도 12는 실시예에 따른 1차 저작물에 대한 공동 저작자 정보를 등록하는 과정을 설명하기 위한 도면이다.
도 13은 일실시예에 따른 2차 저작물에 대한 공동 저작자 정보를 등록하는 과정을 설명하기 위한 도면이다.
도 14는 일실시예에 따른 장치의 구성의 예시도이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.
도 1은 일실시예에 따른 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하기 위한 시스템의 구성을 개략적으로 나타낸 도면이다.
도 1을 참조하면, 일실시예에 따른 시스템은 통신망을 통해 서로 통신 가능한 복수의 강사 단말(100), 복수의 학생 단말(200) 및 장치(300)를 포함할 수 있다.
먼저, 통신망은 유선 및 무선 등과 같이 그 통신 양태를 가리지 않고 구성될 수 있으며, 서버와 서버 간의 통신과 서버와 단말 간의 통신이 수행되도록 다양한 형태로 구현될 수 있다.
복수의 강사 단말(100) 각각과 복수의 학생 단말(200) 각각은 통신 기능을 갖춘 연산 장치로 구현될 수 있으며, 예를 들면, 휴대전화기, 데스크톱 PC, 랩탑 PC, 태블릿 PC, 스마트폰 등으로 구현될 수 있으나, 이에 제한되지는 않으며, 외부 서버와 연결될 수 있는 다양한 형태의 통신 장치로 구현될 수도 있다.
복수의 강사 단말(100)은 온라인을 통해 스피킹 수업을 진행하는 강사들이 사용하는 단말로, 제1 강사가 사용하는 제1 강사 단말(110), 제2 강사가 사용하는 제2 강사 단말(120) 등을 포함할 수 있으며, 복수의 학생 단말(200)은 온라인을 통해 스피킹 수업에 참여하기 위한 학생들이 사용하는 단말로, 제1 학생이 사용하는 제1 학생 단말(210), 제2 학생이 사용하는 제2 학생 단말(220) 등을 포함할 수 있다.
이하에서는 설명의 편의상, 제1 강사 단말(110) 및 제1 학생 단말(210)의 동작을 위주로 설명하지만, 제2 강사 단말(120) 등의 다른 강사 단말에서 제1 강사 단말(110)의 동작을 대신 수행하고, 제2 학생 단말(220) 등의 다른 학생 단말에서 제1 학생 단말(210)의 동작을 대신 수행할 수 있는 것은 물론이다.
복수의 강사 단말(100) 각각과 복수의 학생 단말(200) 각각은 장치(300)에서 제공하는 웹 페이지, 애플리케이션 등을 통해 장치(300)로 접속할 수 있다.
장치(300)는 강사와 학생들 사이에 온라인을 통한 스피킹 수업이 진행될 수 있도록 플랫폼을 제공할 수 있다.
장치(300)는 인공 지능 기반의 레벨 테스트와 스피킹 처방전(Speaking Prescription) 프로그램을 통한 학습 성과 모니터링 서비스를 제공할 수 있다. 즉, 레벨 테스트 및 스피킹 처방전 솔루션인 스피킹 처방전 프로그램에 인공지능을 적용하여 수강생들의 학습 성과를 정교하게 평가하고 모니터링 가능한 시스템을 제공할 수 있다.
장치(300)는 스피킹 처방전을 통해 학습 콘텐츠를 제공하여, 발음, 강세, 억양, 어휘, 유창성 등 스피킹에 대한 처방전이 담긴 영상을 제공할 수 있다.
장치(300)는 인공지능을 기반으로 수업 영상을 분석하여, 대화 패턴의 상세 분석 결과를 통해, 학생에게 유용한 표현과 단어를 제안할 수 있다.
장치(300)는 대화 스크립트 및 교정 가이드를 제공하여, 강사와 학생의 대화 내용 전체와 교정된 내용을 텍스트로 확인할 수 있도록 스크립트를 제공할 수 있다.
장치(300)는 상세 평가 리포트를 제공하여, 학생의 평가 리포트가 개별로 제공되어, 향상된 영어 실력을 한 눈에 확인할 수 있도록 리포트를 제공할 수 있다.
장치(300)는 인공지능 기반의 레벨 테스트 및 스피킹 처방전 프로그램을 제공할 수 있다. 예를 들어, 학생들에게 월 1회 자가 진단을 할 수 있는 스피킹 처방전 프로그램을 제공할 수 있다.
장치(300)는 학생의 스피킹 실력을 여러가지 기준에 따라 분석할 수 있으며, 학생의 취약한 스피킹 부분을 바로 잡아주는 연습을 할 수 있도록, 스피킹 취약점에 대한 처방전이 담긴 학습 콘텐츠를 제공할 수 있다.
장치(300)는 강사와의 1:1 맞춤형 수업을 제공하는 동시에, 수업 이후 자가 진단의 기회까지 제공하여, 학생들의 수업 참여 흥미를 높이는데 기여할 수 있다.
도 2는 일실시예에 따른 온라인을 통해 스피킹 수업이 진행되도록 제어하는 과정을 설명하기 위한 순서도이다.
도 2를 참조하면, 먼저, S201 단계에서, 장치(300)는 스피킹 수업 홈페이지에 로그인된 사용자 계정이 제1 강사 계정인지 여부를 확인할 수 있다. 로그인된 사용자 계정을 확인한 결과, 제1 강사 계정으로 로그인된 것이 확인되면, 장치(300)는 강사 전용 홈페이지를 제1 강사 계정이 로그인된 제1 강사 단말(110)로 제공할 수 있다.
강사 전용 홈페이지 상에서 온라인 강의실 개설을 위한 인터페이스가 선택되면, S202 단계에서, 장치(300)는 제1 강사 단말(110)로부터 강의실 개설 요청을 수신할 수 있다.
S203 단계에서, 장치(300)는 제1 강사 계정을 통해 확인된 수업 정보를 기초로, 제1 강사와 제1 학생과의 일대일 수업을 위한 강의실 페이지를 생성하고, 생성된 강의실 페이지를 제1 강사 단말(110)로 제공할 수 있다.
구체적으로, 장치(300)는 데이터베이스에 식별자, 강의 시간, 수강 학생, 강의 난이도 등의 정보를 포함하는 수업 정보를 저장하여 강사 별로 관리할 수 있으며, 강사 계정을 통해 수업 정보가 확인되면, 현재 시간과 강의 시작 시간을 비교하여 강의실 개설이 필요한지 여부를 판단하고, 강의실 개설이 필요한 것으로 판단되면, 수업 정보를 통해 확인된 수강 학생과의 일대일 수업을 위한 강의실 페이지를 생성할 수 있다. 이때, 강의 난이도는 강의실 페이지 내에 표시될 수 있다.
장치(300)는 제1 강사 계정의 요청으로 강의실 페이지가 생성되면, 제1 강사 계정이 로그인된 제1 강사 단말(110)로 강의실 페이지를 제공하여, 제1 강사 계정이 강의실 내에 입장하도록 처리할 수 있다.
한편, S204 단계에서, 장치(300)는 스피킹 수업 홈페이지에 로그인된 사용자 계정이 학생 계정인지 여부를 확인할 수 있다. 로그인된 사용자 계정을 확인한 결과, 제1 학생 계정으로 로그인 된 것이 확인되면, 장치(300)는 학생 전용 홈페이지를 제1 학생 계정이 로그인된 제1 학생 단말(210)로 제공할 수 있다.
제1 학생 계정이 제1 학생 단말(210)을 통해 로그인되고, 제1 강사와 제1 학생과의 일대일 수업을 위한 강의실 페이지가 생성되면, S205 단계에서, 장치(300)는 제1 학생 계정으로 로그인된 제1 학생 단말(210)로 수업 참여 알림 메시지를 전송할 수 있다.
S206 단계에서, 장치(300)는 수업 참여 알림 메시지의 확인으로, 제1 학생 단말(210)로부터 강의실 페이지에 대한 입장 요청을 수신할 수 있다. 이때, 수업 참여 알림 메시지를 선택하는 것만으로, 강의실 페이지에 대한 입장 요청이 장치(300)로 전송될 수 있다.
S207 단계에서, 장치(300)는 제1 학생 단말(210)로부터 강의실 페이지에 대한 입장 요청이 수신되면, 강의실 페이지를 제1 학생 단말(210)로 제공하여, 제1 강사 계정이 입장되어 있는 강의실에 제1 학생 계정도 추가로 입장하도록 처리할 수 있다.
S208 단계에서, 장치(300)는 강의실 페이지를 통해 제1 강사 단말(110)과 제1 학생 단말(210)이 연결된 상태를 유지하도록 처리하여, 강의실 페이지를 통해 일대일 스피킹 수업이 진행되도록 제어할 수 있다.
도 3은 일실시예에 따른 스피킹 처방전이 담긴 제1 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이고, 도 4는 일실시예에 따른 스피킹 처방전이 제공된 화면을 도시한 도면이다.
도 3을 참조하면, 먼저 S301 단계에서, 장치(300)는 스피킹 수업이 진행되는 동안, 제1 강사의 질문에 대한 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성할 수 있다.
구체적으로, 장치(300)는 스피킹 수업이 진행되는 동안, 제1 강사의 질문에 대해 제1 학생이 답변하면, 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성할 수 있으며, 이때, 제1 학생의 모든 답변을 음성으로 녹음하여 답변 정보를 생성할 수 있고, 제1 강사의 요청으로 지정된 특정 질문에 대한 답변만 음성으로 녹음하여 답변 정보를 생성할 수도 있다.
S302 단계에서, 장치(300)는 스피킹 수업이 종료되면 최종적으로 확정된 답변 정보를 생성할 수 있으며, 답변 정보를 인공 신경망에 적용할 수 있다. 여기서, 인공 신경망은 답변 정보를 입력 받은 후, 스피킹 실력의 분석 결과를 출력하는 알고리즘일 수 있다. 인공 신경망은 도 5를 참조하여 후술되는 방법을 통해 학습될 수 있다.
S303 단계에서, 장치(300)는 인공 신경망의 출력을 기초로, 제1 학생의 스피킹 실력을 분석할 수 있다.
일실시예에 따르면, 인공 신경망은 답변 정보를 통해 스피킹 실력이 어느 정도인지 분석하도록 학습될 수 있다. 이를 통해, 인공 신경망은 답변 정보를 통해 학생의 스피킹 실력을 분석하여 분석 결과를 출력할 수 있다.
S304 단계에서, 장치(300)는 스피킹 실력의 분석 결과를 통해 제1 학생에게 피드백이 필요한지 여부를 판단할 수 있다.
구체적으로, 장치(300)는 스피킹 실력의 분석 결과를 통해 스피킹 취약점을 확인한 결과, 스피킹 취약점이 하나도 없는 것으로 확인되면, 제1 학생에게 피드백이 필요하지 않은 것으로 판단하고, 스피킹 취약점이 하나 이상 있는 것으로 확인되면, 제1 학생에게 피드백이 필요한 것으로 판단할 수 있다.
S304 단계에서 제1 학생에게 피드백이 필요한 것으로 판단되면, S305 단계에서, 장치(300)는 제1 학생의 스피킹에 대한 취약점을 확인할 수 있다. 이때, 장치(300)는 발음, 강세, 억양, 어휘 및 유창성 중 적어도 하나의 스피킹 취약점을 확인할 수 있다. 예를 들어, 스피킹 실력의 분석 결과를 통해 발음 부분이 미흡한 것으로 확인되면, 발음 부분을 스피킹 취약점으로 확인할 수 있다.
S306 단계에서, 장치(300)는 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 제1 학생 단말(210)로 제공할 수 있다. 이때, 도 4에 도시된 바와 같이, 스피킹 취약점에 대한 처방전이 제공될 수 있다.
즉, 장치(300)는 학생의 취약한 스피킹 부분을 바로 잡아주는 연습을 할 수 있도록, 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 제1 학생 단말(210)로 제공할 수 있다.
도 5는 일실시예에 따른 인공 신경망의 학습을 설명하기 위한 도면이다.
일실시예에 따르면, 인공 신경망은 학생의 답변을 음성으로 녹음한 답변 정보를 입력 받은 후, 학생의 답변에 대한 스피킹 실력을 분석하여 출력하는 알고리즘일 수 있다. 인공 신경망의 학습이 이루어지는 장치(300)는 학습된 인공 신경망을 이용하여 스피킹 실력을 분석하는 장치(300)와 동일한 장치일 수 있고, 별개의 장치일 수도 있다. 이하에서는 인공 신경망이 학습되는 과정을 설명한다.
먼저, S501 단계에서, 장치(300)는 답변 정보를 기초로 입력을 생성할 수 있다.
구체적으로, 장치(300)는 답변 정보에서 음성 인식을 통해 키워드를 추출하는 등의 전처리를 수행할 수 있다. 전처리가 수행된 답변 정보를 인공 신경망의 입력으로 그대로 사용하거나, 불필요한 정보를 제거하는 통상의 처리를 거쳐 입력을 생성할 수 있다.
S502 단계에서, 장치(300)는 인공 신경망에 입력을 적용할 수 있다. 인공 신경망은 강화 학습(reinforcement learning)에 따라 학습되는 인공 신경망일 수 있다. 인공 신경망은 강화 학습을 통해 추상적 추론을 출력하는데 적합한 Q-Network, DQN(Depp Q-Network), 또는 관계형 네트워크(relation network, RL) 구조일 수 있다.
강화 학습에 따라 학습되는 인공 신경망은 다양한 보상에 평가를 반영하여 갱신 및 최적화될 수 있다. 예를 들어, 제1 보상은 스피킹에 대한 발음이 정확할수록 스피킹 실력을 높게 평가하면 보상값이 높아질 수 있으며, 제2 보상은 스피킹에 대한 강세가 정확할수록 스피킹 실력을 높게 평가하면 보상값이 높아질 수 있으며, 제3 보상은 스피킹에 대한 억양이 정확할수록 스피킹 실력을 높게 평가하면 보상값이 높아질 수 있으며, 제4 보상은 스피킹에 대한 어휘가 정확할수록 스피킹 실력을 높게 평가하면 보상값이 높아질 수 있으며, 제5 보상은 스피킹에 대한 유창성이 높을수록 스피킹 실력을 높게 평가하면 보상값이 높아질 수 있다.
S503 단계에서, 장치(300)는 인공 신경망으로부터 출력을 획득할 수 있다. 인공 신경망의 출력은 답변 정보를 통해 스피킹 실력을 분석한 결과일 수 있다. 이때, 인공 신경망은 답변 정보를 통해 확인된 음성을 분석하여, 스피킹 실력이 어느 정도인지 파악되도록 스피킹 실력의 분석 결과를 출력할 수 있다.
S504 단계에서, 장치(300)는 인공 신경망의 출력을 평가하여 보상을 지급할 수 있다. 이때, 출력의 평가는 제1 보상, 제2 보상, 제3 보상, 제4 보상 및 제5 보상으로 나뉠 수 있다.
구체적으로 장치(300)는 스피킹에 대한 발음이 정확할수록 스피킹 실력을 높게 평가하면 제1 보상을 많이 수여하고, 스피킹에 대한 강세가 정확할수록 스피킹 실력을 높게 평가하면 제2 보상을 많이 수여하고, 스피킹에 대한 억양이 정확할수록 스피킹 실력을 높게 평가하면 제3 보상을 많이 수여하고, 스피킹에 대한 어휘가 정확할수록 스피킹 실력을 높게 평가하면 제4 보상을 많이 수여하고, 스피킹에 대한 유창성이 높을수록 스피킹 실력을 높게 평가하면 제5 보상을 많이 수여할 수 있다.
S505 단계에서, 장치(300)는 평가를 기초로 인공 신경망을 갱신할 수 있다.
구체적으로, 장치(300)는 인공 신경망이 답변 정보를 통해 스피킹 실력을 분석하는 환경(environment)에서, 보상값(reward)들의 합의 기대값(expectation)이 최대화되도록, 특정한 상태(state)들에서 취할 행동(action)들을 결정하는 정책(policy)을 최적화하는 과정을 통해 인공 신경망을 갱신할 수 있다.
한편, 정책을 최적화하는 과정은 보상들의 합의 기대값의 최대값 또는 Q-함수의 최대값을 추정하거나, Q-함수의 손실 함수(loss function)의 최소값을 추정하는 과정을 통해 이루어질 수 있다. 손실함수의 최소값의 추정은 확률적 경사하강법(stochastic gradient descent, SGD) 등을 통해 이루어질 수 있다. 정책을 최적화하는 과정은 이에 제한되는 것은 아니며, 강화 학습에서 사용하는 다양한 최적화 알고리즘들이 이용될 수 있다.
장치(300)는 상기와 같은 인공 신경망의 학습 과정을 반복함으로써, 인공 신경망을 점진적으로 갱신시킬 수 있다. 이를 통해, 장치(300)는 답변 정보를 통해 스피킹 실력의 분석 결과를 출력하는 인공 신경망을 학습시킬 수 있다.
즉, 장치(300)는 답변 정보를 통해 스피킹 실력을 분석할 때, 제1 보상, 제2 보상, 제3 보상, 제4 보상 및 제5 보상을 통한 강화 학습을 반영하여, 분석 기준을 조정함으로써, 인공 신경망을 학습시킬 수 있다.
도 6은 일실시예에 따른 대화 스크립트가 담긴 제2 학습 콘텐츠를 제공하는 과정을 설명하기 위한 순서도이고, 도 7은 일실시예에 따른 대화 스크립트가 제공된 화면을 도시한 도면이다.
도 6을 참조하면, 먼저 S601 단계에서, 장치(300)는 스피킹 실력의 분석 결과가 피드백이 필요한 것으로 판단되면, 제1 학생의 답변 중 문장 별로 누락된 단어(Missing Words), 잘못된 문법(Wrong Grammar), 문장의 단편(Sentence Fragment), 잘못된 어휘(Wrong Vocabulary) 및 잘못된 발음(Wrong Pronunciation)이 있는지 여부를 확인할 수 있다.
예를 들어, 제1 학생의 답변이 제1 문장과 제2 문장으로 구분되는 경우, 장치(300)는 제1 문장에서 항목 별로 잘못된 부분이 있는지 여부를 확인하고, 제2 문장에서 항목 별로 잘못된 부분이 있는지 여부를 확인할 수 있다.
S602 단계에서, 장치(300)는 제1 학생과 제1 강사의 대화 스크립트가 담긴 제2 학습 콘텐츠를 제1 학생 단말(210)로 제공할 수 있다. 이를 위해, 장치(300)는 제1 학생과 제1 강사와의 스피킹 수업이 종료되면, 스피킹 수업이 진행되는 동안 제1 학생과 제1 강사가 대화한 내용을 인식하여, 인식된 대화 내용을 기반으로 대화 스크립트를 생성할 수 있다.
제2 학습 콘텐츠 제공 시, 장치(300)는 도 7에 도시된 바와 같이, 스피킹 수업이 진행되는 동안 녹화된 영상과 대화 스크립트가 제1 학생 단말(210)의 화면에서 표시되도록 제어할 수 있다. 이때, 제1 학생 단말(210)의 화면에서 제1 영역(701)에는 스피킹 수업을 받는 학생의 영상이 표시되고, 제2 영역(702)에는 스피킹 수업을 진행하는 강사의 영상이 표시되고, 제3 영역(703)에는 학생과 강사의 대화 스크립트가 표시될 수 있다.
S603 단계에서, 장치(300)는 대화 스크립트에 대한 내용이 제1 학생 단말(210)의 화면에 표시될 때, 대화 스크립트 상에서 교정된 내용을 항목 별로 상이한 색으로 표시되도록 제어할 수 있다.
구체적으로, 장치(300)는 제1 학생의 답변 중 누락된 단어가 있는 것으로 확인되면, 누락된 단어에 대해 교정된 내용이 제1 색으로 표시되도록 제어하고, 제1 학생의 답변 중 잘못된 문법이 있는 것으로 확인되면, 잘못된 문법에 대해 교정된 내용이 제2 색으로 표시되도록 제어하고, 제1 학생의 답변 중 문장의 단편이 있는 것으로 확인되면, 문장의 단편에 대해 교정된 내용이 제3 색으로 표시되도록 제어하고, 제1 학생의 답변 중 잘못된 어휘가 있는 것으로 확인되면, 잘못된 어휘에 대해 교정된 내용이 제4 색으로 표시되도록 제어하고, 제1 학생의 답변 중 잘못된 발음이 있는 것으로 확인되면, 잘못된 발음에 대해 교정된 내용이 제5 색으로 표시되도록 제어할 수 있다.
예를 들어, 도 7의 (a)에 도시된 바와 같이, 제1 학생의 답변 중 누락된 단어, 잘못된 어휘 및 잘못된 발음이 한 문장에 있는 것으로 확인되면, 잘못된 어휘에 대해 교정된 내용이 제4 색으로 표시되도록 제어하고, 문장의 단편에 대해 교정된 내용이 제3 색으로 표시되도록 제어하고, 누락된 단어에 대해 교정된 내용이 제1 색으로 표시되도록 제어할 수 있다.
도 8은 일실시예에 따른 레벨 테스트를 통해 수업 난이도를 설정하는 과정을 설명하기 위한 순서도이다.
도 8을 참조하면, 먼저 S801 단계에서, 장치(300)는 제1 학생 계정을 통해 제1 학생의 레벨이 등록되어 있는지 여부를 확인할 수 있다.
S802 단계에서, 장치(300)는 제1 학생이 레벨 테스트를 진행하였는지 여부를 확인할 수 있다. 즉, 장치(300)는 제1 학생의 레벨이 등록되어 있는 것으로 확인되면, 제1 학생이 레벨 테스트를 진행한 것으로 확인하고, 제1 학생의 레벨이 등록되어 있지 않은 것으로 확인되면, 제1 학생이 레벨 테스트를 진행하지 않은 것으로 확인할 수 있다.
S802 단계에서 레벨 테스트를 진행하지 않은 것으로 확인되면, S803 단계에서, 장치(300)는 레벨 테스트 페이지를 제1 학생 단말(210)로 제공할 수 있다. 예를 들어, 장치(300)의 데이터베이스에는 학년별 레벨 테스트 페이지가 저장되어 있으며, 장치(300)는 제1 학생의 학년을 확인하여, 확인된 학년 전용의 레벨 테스트 페이지를 제1 학생 단말(210)로 제공할 수 있다.
S802 단계에서 레벨 테스트를 진행한 것으로 확인되거나, S803 단계에서 제공된 레벨 테스트 페이지를 통해 레벨 테스트가 진행되면, S804 단계에서, 장치(300)는 레벨 테스트의 결과를 획득하여 확인할 수 있다.
S805 단계에서, 장치(300)는 레벨 테스트의 결과에 따라 제1 학생의 레벨을 평가할 수 있다. 예를 들어, 레벨 테스트의 결과가 70점인 경우, 제1 학생의 레벨을 제1 레벨로 평가하고, 레벨 테스트의 결과가 80점인 경우, 제1 학생의 레벨을 제2 레벨로 평가하고, 레벨 테스트의 결과가 90점인 경우, 제1 학생의 레벨을 제3 레벨로 평가할 수 있다.
S806 단계에서, 장치(300)는 제1 학생의 레벨이 제1 레벨로 평가되면, 제1 레벨에 상응하는 제1 난이도를 통해 스피킹 수업이 진행되도록, 제1 레벨에 대한 알림 메시지를 제1 강사 단말(110)로 전송할 수 있다.
즉, 장치(300)는 제1 학생과 제1 강사의 스피킹 수업이 진행되기 전에, 제1 학생의 레벨이 어느 정도인지를 제1 강사에게 알려주어, 제1 학생의 레벨에 맞는 난이도를 통해 스피킹 수업이 진행되도록 처리할 수 있다.
도 9는 일실시예에 따른 학습도에 따라 학습 콘텐츠를 추천하는 과정을 설명하기 위한 순서도이다.
도 9를 참조하면, 먼저, S901 단계에서, 장치(300)는 레벨 테스트의 결과에 따라 제1 학생의 레벨을 제1 레벨로 평가할 수 있다.
S902 단계에서, 장치(300)는 제1 레벨에 상응하는 제1 난이도를 통해 스피킹 수업이 진행되도록 제어할 수 있다.
S903 단계에서, 장치(300)는 스피킹 수업이 종료되면, 스피킹 실력의 분석 결과를 획득하여, 스피킹 실력의 분석 결과를 기초로, 제1 학생의 학습도를 산출할 수 있다. 이때, 장치(300)는 스피킹 실력의 분석 결과를 통해, 스피킹 취약점으로 분류된 부분이 적을수록 제1 학생의 학습도를 높은 값으로 산출하고, 스피킹 취약점으로 분류된 부분이 많을수록 제1 학생의 학습도를 낮은 값으로 산출할 수 있다.
S904 단계에서, 장치(300)는 제1 학생의 학습도가 제1 기준치 보다 높은지 여부를 확인할 수 있다. 여기서, 제1 기준치는 실시예에 따라 상이하게 설정될 수 있다.
S904 단계에서 제1 학생의 학습도가 제1 기준치 보다 높은 것으로 확인되면, S905 단계에서, 장치(300)는 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석할 수 있다.
S906 단계에서, 장치(300)는 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석되면, 제1 학생의 레벨을 제1 레벨에서 제2 레벨로 변경할 수 있다. 즉, 장치(300)는 제1 학생의 레벨을 제1 레벨 보다 높은 제2 레벨로 변경하여, 제2 레벨에 상응하는 제2 난이도를 통해 다음 스피킹 수업이 진행되도록, 제1 학생의 레벨을 변경시킬 수 있다.
한편, S904 단계에서 제1 학생의 학습도가 제1 기준치 보다 낮은 것으로 확인되면, S907 단계에서, 장치(300)는 제1 난이도를 통해 진행된 스피킹 수업을 통과하지 못한 것으로 분석할 수 있다.
S908 단계에서, 장치(300)는 제1 학생의 학습도가 제2 기준치 보다 높은지 여부를 확인할 수 있다. 여기서, 제2 기준치는 제1 기준치 보다 낮은 값으로 설정될 수 있다.
S908 단계에서 제1 학생의 학습도가 제2 기준치 보다 높은 것으로 확인되면, S909 단계에서, 장치(300)는 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석할 수 있다. 즉, 제1 학생의 학습도가 제1 기준치 보다 낮고 제2 기준치 보다 높은 것으로 확인되면, 스피킹 취약점에 대한 처방전이 담긴 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석할 수 있다.
S910 단계에서, 장치(300)는 제1 학습 콘텐츠에 대한 학습 추천 메시지를 제1 학생 단말(210)로 전송할 수 있다. 즉, 제1 난이도를 통해 진행된 스피킹 수업에 대해, 제1 학습 콘텐츠를 통해 복습될 수 있도록, 학습 추천 메시지를 전송할 수 있다.
한편, S908 단계에서 제1 학생의 학습도가 제2 기준치 보다 낮은 것으로 확인되면, S911 단계에서, 장치(300)는 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석할 수 있다. 즉, 제1 학생의 학습도가 제2 기준치 보다 낮은 것으로 확인되면, 대화 스크립트가 담긴 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석할 수 있다.
S912 단계에서, 장치(300)는 제2 학습 콘텐츠에 대한 학습 추천 메시지를 제1 학생 단말(210)로 전송할 수 있다. 즉, 제1 난이도를 통해 진행된 스피킹 수업에 대해, 제2 학습 콘텐츠를 통해 복습될 수 있도록, 학습 추천 메시지를 전송할 수 있다.
도 10은 일실시예에 따른 동영상 콘텐츠의 저작자 정보를 등록하는 과정을 설명하기 위한 순서도이다.
먼저, 장치(300)는 스피킹 학습을 위해 난이도 별로 제공되는 동영상 콘텐츠에 대한 제작이 필요한 것으로 판단되면, 동영상 콘텐츠의 제작 요청을 복수의 강사 단말(100)로 전송할 수 있다.
S1001 단계에서, 장치(300)는 동영상 콘텐츠의 제작 요청에 상응하여, 제1 강사 계정이 로그인된 제1 강사 단말(110)로부터 제1 동영상 콘텐츠를 수신할 수 있다.
구체적으로, 장치(300)는 동영상 콘텐츠의 제작 요청에 따라 자체적으로 제작하여 생성된 콘텐츠를 제1 강사 단말(110)로부터 수신할 수 있고, 외부로부터 수신된 콘텐츠를 수정하여 생성된 콘텐츠를 제1 강사 단말(110)로부터 수신할 수 있다.
S1002 단계에서, 장치(300)는 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는지 여부를 확인할 수 있다.
예를 들어, 제1 동영상 콘텐츠가 1차 저작물인 경우에는 원저작자 정보가 등록되어 있지 않고, 제1 동영상 콘텐츠가 2차 저작물인 경우에는 원저작자 정보가 등록되어 있는데, 장치(300)는 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는지 여부를 확인할 수 있다.
일실시예에 따르면, 제1 동영상 콘텐츠가 1차 저작물인 경우, 제1 동영상 콘텐츠는 제1 동영상 콘텐츠에 대한 정보만을 포함하고, 제1 동영상 콘텐츠가 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물인 경우, 제1 동영상 콘텐츠는 제1 동영상 콘텐츠에 대한 정보, 제2 동영상 콘텐츠의 식별 정보, 제1 동영상 콘텐츠의 원저작자 정보로 제2 동영상 콘텐츠의 저작자 정보를 포함할 수 있다.
S1003 단계에서, 장치(300)는 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는지 여부를 판단할 수 있다.
S1003 단계에서 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있지 않은 것으로 확인되면, S1004 단계에서, 장치(300)는 제1 동영상 콘텐츠를 새로 생성된 1차 저작물로 판정할 수 있다.
S1005 단계에서, 장치(300)는 제1 동영상 콘텐츠가 1차 저작물로 판정되면, 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자를 나타내는 제1 저작자 정보로 등록할 수 있다. 이때, 장치(300)는 제1 강사 단말(110)에 로그인된 제1 강사 계정의 정보를 확인하여, 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록할 수 있다.
S1003 단계에서 제1 동영상 콘텐츠에 원저작자 정보가 등록되어 있는 것으로 확인되면, S1006 단계에서, 장치(300)는 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보가 일치하는지 여부를 확인할 수 있다.
S1007 단계에서, 장치(300)는 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보가 일치하는지 여부를 판단할 수 있다.
S1007 단계에서 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보가 일치하는 것으로 확인되면, S1004 단계에서, 장치(300)는 제1 동영상 콘텐츠를 1차 저작물로 판정할 수 있으며, 제1 동영상 콘텐츠의 원저작자 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록할 수 있다.
S1007 단계에서 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보가 일치하지 않는 것으로 확인되면, S1008 단계에서, 장치(300)는 제1 동영상 콘텐츠를 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물로 판정할 수 있다. 이때, 장치(300)는 제1 동영상 콘텐츠에 포함된 제2 동영상 콘텐츠의 식별 정보를 확인하여, 제1 동영상 콘텐츠가 제2 동영상 콘텐츠의 수정으로 생성된 것을 파악할 수 있다.
S1009 단계에서, 장치(300)는 제1 동영상 콘텐츠가 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물로 판정되면, 제1 동영상 콘텐츠의 원저작자 정보를 통해 제2 동영상 콘텐츠의 저작자 정보를 확인하고, 제2 동영상 콘텐츠의 저작자 정보로 어느 강사 계정의 정보가 등록되어 있는지 여부를 확인하여, 제2 동영상 콘텐츠의 저작자 정보로 제2 강사 계정의 정보가 등록되어 있는 것이 확인될 수 있다.
S1010 단계에서, 장치(300)는 제2 동영상 콘텐츠의 저작자 정보로 제2 강사 계정의 정보가 등록되어 있는 것이 확인되면, 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자를 나타내는 제2 저작자 정보로 등록하고, 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자를 나타내는 제1 저작자 정보로 등록할 수 있다.
즉, 장치(300)는 제2 동영상 콘텐츠를 수정하여 제1 동영상 콘텐츠를 제작한 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 원저작물인 제2 동영상 콘텐츠를 제작한 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록할 수 있다.
도 11은 일실시예에 따른 공동 저작자를 통해 제1 동영상 콘텐츠를 생성하는 과정을 설명하기 위한 도면이다.
도 11을 참조하면, 먼저, S1101 단계에서, 장치(300)는 제1 강사 계정이 로그인된 제1 강사 단말(110)로부터 제1 파트 콘텐츠를 수신할 수 있다.
S1102 단계에서, 장치(300)는 제3 강사 계정이 로그인된 제3 강사 단말로부터 제2 파트 콘텐츠를 수신할 수 있다.
일실시예에 따르면, 제1 동영상 콘텐츠는 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성될 수 있다. 예를 들어, 제1 동영상 콘텐츠가 1분짜리 강의 영상인 경우, 시작부터 40초까지 재생되는 영상은 제1 파트 콘텐츠고, 41초부터 종료까지 재생되는 영상은 제2 파트 콘텐츠일 수 있으며, 제1 파트 콘텐츠와 제2 파트 콘텐츠의 결합으로 제1 동영상 콘텐츠를 구성할 수 있다.
즉, 제1 동영상 콘텐츠는 복수의 파트 콘텐츠로 분절될 수 있으며, 사용자에 의해 파트 콘텐츠들의 생성 및 수정이 가능한 형식을 가질 수 있다. 각각의 파트 콘텐츠는 새로 생성되거나, 기존 콘텐츠의 일부 또는 전부를 수정하여 생성될 수 있다. 따라서, 원작자가 업로드한 원본 콘텐츠를 이용하여 다른 사용자가 2차 저작물을 생성하는 것이 가능해진다.
S1103 단계에서, 장치(300)는 제1 파트 콘텐츠 및 제2 파트 콘텐츠를 결합하여 제1 동영상 콘텐츠를 생성할 수 있다.
S1104 단계에서, 장치(300)는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 차지하는 비율인 제1 비율을 획득하고, 제1 동영상 콘텐츠에서 제2 파트 콘텐츠가 차지하는 비율인 제2 비율을 획득할 수 있다.
예를 들어, 제1 동영상 콘텐츠가 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성되어 있는 경우, 장치(300)는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 60%를 차지하고 있는 것으로 확인되면, 제1 비율을 60%로 획득하고, 제2 비율을 40%로 획득할 수 있다.
도 12는 실시예에 따른 1차 저작물에 대한 공동 저작자 정보를 등록하는 과정을 설명하기 위한 도면이다.
도 12를 참조하면, 먼저, S1201 단계에서, 장치(300)는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 차지하는 비율인 제1 비율을 획득하고, 제1 동영상 콘텐츠에서 제2 파트 콘텐츠가 차지하는 비율인 제2 비율을 획득할 수 있다.
S1202 단계에서, 장치(300)는 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보가 일치하는 것으로 확인되면, 제1 동영상 콘텐츠를 1차 저작물로 판정할 수 있다.
S1203 단계에서, 장치(300)는 제1 비율이 제2 비율 보다 큰지 여부를 판단할 수 있다.
S1203 단계에서 제1 비율이 제2 비율 보다 큰 것으로 확인되면, S1204 단계에서, 장치(300)는 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록할 수 있다.
즉, 장치(300)는 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성되어 있는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 차지하고 있는 비율이 더 높기 때문에, 제1 파트 콘텐츠를 제작한 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제2 파트 콘텐츠를 제작한 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록할 수 있다.
S1203 단계에서 제1 비율이 제2 비율 보다 작은 것으로 확인되면, S1205 단계에서, 장치(300)는 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록할 수 있다.
즉, 장치(300)는 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성되어 있는 제1 동영상 콘텐츠에서 제2 파트 콘텐츠가 차지하고 있는 비율이 더 높기 때문에, 제2 파트 콘텐츠를 제작한 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제1 파트 콘텐츠를 제작한 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록할 수 있다.
도 13은 일실시예에 따른 2차 저작물에 대한 공동 저작자 정보를 등록하는 과정을 설명하기 위한 도면이다.
도 13을 참조하면, 먼저, S1301 단계에서, 장치(300)는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 차지하는 비율인 제1 비율을 획득하고, 제1 동영상 콘텐츠에서 제2 파트 콘텐츠가 차지하는 비율인 제2 비율을 획득할 수 있다.
S1302 단계에서, 장치(300)는 제1 동영상 콘텐츠의 원저작자 정보와 제1 강사 계정의 정보 및 제3 강사 계정의 정보가 모두 일치하지 않는 것으로 확인되면, 제1 동영상 콘텐츠를 제2 동영상 콘텐츠의 수정으로 생성된 2차 저작물로 판정할 수 있다.
S1303 단계에서, 장치(300)는 제1 비율이 제2 비율 보다 큰지 여부를 판단할 수 있다.
S1303 단계에서 제1 비율이 제2 비율 보다 큰 것으로 확인되면, S1304 단계에서, 장치(300)는 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하고, 제2 동영상 콘텐츠의 저작자 정보로 확인된 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제3 저작자 정보로 등록할 수 있다.
즉, 장치(300)는 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성되어 있는 제1 동영상 콘텐츠에서 제1 파트 콘텐츠가 차지하고 있는 비율이 더 높기 때문에, 제1 파트 콘텐츠를 제작한 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제2 파트 콘텐츠를 제작한 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록한 후, 제1 동영상 콘텐츠의 원작인 제2 동영상 콘텐츠를 제작한 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제3 저작자 정보로 추가하여 등록할 수 있다.
S1303 단계에서 제1 비율이 제2 비율 보다 작은 것으로 확인되면, S1305 단계에서, 장치(300)는 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록하고, 제2 동영상 콘텐츠의 저작자 정보로 확인된 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제3 저작자 정보로 등록할 수 있다.
즉, 장치(300)는 제1 파트 콘텐츠 및 제2 파트 콘텐츠로 구성되어 있는 제1 동영상 콘텐츠에서 제2 파트 콘텐츠가 차지하고 있는 비율이 더 높기 때문에, 제2 파트 콘텐츠를 제작한 제3 강사 계정의 정보를 제1 동영상 콘텐츠의 제1 저작자 정보로 등록하고, 제1 파트 콘텐츠를 제작한 제1 강사 계정의 정보를 제1 동영상 콘텐츠의 제2 저작자 정보로 등록한 후, 제1 동영상 콘텐츠의 원작인 제2 동영상 콘텐츠를 제작한 제2 강사 계정의 정보를 제1 동영상 콘텐츠의 제3 저작자 정보로 추가하여 등록할 수 있다.
도 14는 일실시예에 따른 장치의 구성의 예시도이다.
일실시예에 따른 장치(300)는 프로세서(310) 및 메모리(320)를 포함한다. 프로세서(310)는 도 1 내지 도 13을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 13을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(300)를 이용하는 자 또는 단체는 도 1 내지 도 13을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.
메모리(320)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(320)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.
프로세서(310)는 프로그램을 실행하고, 장치(300)를 제어할 수 있다. 프로세서(310)에 의하여 실행되는 프로그램의 코드는 메모리(320)에 저장될 수 있다. 장치(300)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.
장치(300)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(320)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(310)는 메모리(320)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(300)와 학습된 인공 신경망을 이용하는 장치(300)는 동일할 수도 있고 개별적일 수도 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.

Claims (3)

  1. 장치에 의해 수행되는, 인공지능 기반의 피드백을 이용하여 스피킹 분석 콘텐츠를 제공하는 방법에 있어서,
    제1 강사 계정으로 로그인된 제1 강사 단말로부터 강의실 개설 요청이 수신되면, 상기 제1 강사 계정을 통해 확인된 수업 정보를 기초로, 제1 강사와 제1 학생과의 일대일 수업을 위한 강의실 페이지를 생성하고, 상기 강의실 페이지를 상기 제1 강사 단말로 제공하는 단계;
    상기 강의실 페이지가 생성되면, 제1 학생 계정으로 로그인된 제1 학생 단말로 수업 참여 알림 메시지를 전송하는 단계;
    상기 제1 학생 계정을 통해 상기 제1 학생이 레벨 테스트를 진행하였는지 여부를 확인하는 단계;
    상기 제1 학생이 레벨 테스트를 진행하지 않은 것으로 확인되면, 레벨 테스트 페이지를 상기 제1 학생 단말로 제공하는 단계;
    상기 제1 학생이 레벨 테스트를 진행한 것으로 확인되면, 레벨 테스트 결과에 따라 상기 제1 학생의 레벨을 평가하는 단계;
    상기 제1 학생의 레벨이 제1 레벨로 평가되면, 상기 제1 레벨에 상응하는 제1 난이도를 통해 스피킹 수업이 진행되도록, 상기 제1 레벨에 대한 알림 메시지를 상기 제1 강사 단말로 전송하는 단계;
    상기 제1 학생 단말로부터 상기 강의실 페이지에 대한 입장 요청이 수신되면, 상기 강의실 페이지를 상기 제1 학생 단말로 제공하여, 상기 강의실 페이지를 통해 상기 제1 강사 단말과 상기 제1 학생 단말이 연결되어 스피킹 수업이 진행되도록 제어하는 단계;
    상기 스피킹 수업이 진행되는 동안, 상기 제1 강사의 질문에 대한 상기 제1 학생의 답변을 음성으로 녹음하여 답변 정보를 생성하는 단계;
    상기 스피킹 수업이 종료되면, 상기 답변 정보를 인공 신경망에 적용하여, 상기 인공 신경망의 출력을 기초로 상기 제1 학생의 스피킹 실력을 분석하는 단계;
    상기 스피킹 실력의 분석 결과를 기초로, 상기 제1 학생의 학습도를 산출하는 단계;
    상기 제1 학생의 학습도가 미리 설정된 제1 기준치 보다 높은지 여부를 확인하는 단계;
    상기 제1 학생의 학습도가 상기 제1 기준치 보다 높은 것으로 확인되면, 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석하는 단계;
    상기 제1 난이도를 통해 진행된 스피킹 수업을 통과한 것으로 분석되면, 상기 제1 레벨 보다 높은 제2 레벨에 상응하는 제2 난이도를 통해 다음 스피킹 수업이 진행되도록, 상기 제1 학생의 레벨을 상기 제2 레벨로 변경하는 단계;
    상기 제1 학생의 학습도가 상기 제1 기준치 보다 낮은 것으로 확인되면, 상기 제1 난이도를 통해 진행된 스피킹 수업을 통과하지 못한 것으로 분석하는 단계;
    상기 제1 난이도를 통해 진행된 스피킹 수업을 통과하지 못한 것으로 분석되면, 상기 제1 학생의 학습도가 미리 설정된 제2 기준치 보다 높은지 여부를 확인하는 단계;
    상기 제1 학생의 학습도가 상기 제2 기준치 보다 높은 것으로 확인되면, 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석하는 단계;
    상기 제1 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석되면, 상기 제1 학습 콘텐츠에 대한 학습 추천 메시지를 상기 제1 학생 단말로 전송하고, 상기 제1 학생의 스피킹에 대한 발음, 강세, 억양, 어휘 및 유창성 중 적어도 하나의 스피킹 취약점을 확인하는 단계;
    상기 스피킹 취약점에 대한 처방전이 담긴 상기 제1 학습 콘텐츠를 상기 제1 학생 단말로 제공하는 단계;
    상기 제1 학생의 학습도가 상기 제2 기준치 보다 낮은 것으로 확인되면, 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석하는 단계;
    상기 제2 학습 콘텐츠를 이용한 학습이 필요한 것으로 분석되면, 상기 제2 학습 콘텐츠에 대한 학습 추천 메시지를 상기 제1 학생 단말로 전송하고, 상기 제1 학생의 답변 중 문장 별로 누락된 단어(Missing Words), 잘못된 문법(Wrong Grammar), 문장의 단편(Sentence Fragment), 잘못된 어휘(Wrong Vocabulary) 및 잘못된 발음(Wrong Pronunciation)이 있는지 여부를 확인하는 단계;
    상기 제1 학생과 상기 제1 강사의 대화 스크립트가 담긴 상기 제2 학습 콘텐츠를 상기 제1 학생 단말로 제공하는 단계; 및
    상기 대화 스크립트에 대한 내용이 표시될 때, 상기 제1 학생의 답변 중 누락된 단어가 있는 것으로 확인되면, 누락된 단어에 대해 교정된 내용이 제1 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 문법이 있는 것으로 확인되면, 잘못된 문법에 대해 교정된 내용이 제2 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 문장의 단편이 있는 것으로 확인되면, 문장의 단편에 대해 교정된 내용이 제3 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 어휘가 있는 것으로 확인되면, 잘못된 어휘에 대해 교정된 내용이 제4 색으로 표시되도록 제어하고, 상기 제1 학생의 답변 중 잘못된 발음이 있는 것으로 확인되면, 잘못된 발음에 대해 교정된 내용이 제5 색으로 표시되도록 제어하는 단계를 포함하는,
    인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법.
  2. 삭제
  3. 삭제
KR1020210039218A 2021-03-26 2021-03-26 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템 KR102294735B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210039218A KR102294735B1 (ko) 2021-03-26 2021-03-26 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210039218A KR102294735B1 (ko) 2021-03-26 2021-03-26 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템

Publications (1)

Publication Number Publication Date
KR102294735B1 true KR102294735B1 (ko) 2021-08-27

Family

ID=77504357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210039218A KR102294735B1 (ko) 2021-03-26 2021-03-26 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템

Country Status (1)

Country Link
KR (1) KR102294735B1 (ko)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104131A (ko) * 2012-03-13 2013-09-25 (주)제넥스웨이브 가상 세계에서의 영어강의 체험 방법
KR101318377B1 (ko) 2012-09-17 2013-10-16 비전워크코리아(주) 온라인을 통한 외국어 말하기 평가 시스템
KR20140004531A (ko) 2012-07-03 2014-01-13 (주)아이티씨교육 음성인식엔진을 이용한 몰입형 스피킹 테스트 통과 방식에 따른 외국어 학습 서비스 제공 방법
KR20140031497A (ko) 2012-09-03 2014-03-13 김희경 영어 스피킹 전문 학습제공방법
KR102019306B1 (ko) 2018-01-15 2019-09-06 김민철 네트워크 상의 어학 스피킹 수업 관리 방법 및 이에 사용되는 관리 서버
KR20200088073A (ko) * 2019-01-14 2020-07-22 김주혁 영어 말하기 평가 시스템 및 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130104131A (ko) * 2012-03-13 2013-09-25 (주)제넥스웨이브 가상 세계에서의 영어강의 체험 방법
KR20140004531A (ko) 2012-07-03 2014-01-13 (주)아이티씨교육 음성인식엔진을 이용한 몰입형 스피킹 테스트 통과 방식에 따른 외국어 학습 서비스 제공 방법
KR20140031497A (ko) 2012-09-03 2014-03-13 김희경 영어 스피킹 전문 학습제공방법
KR101318377B1 (ko) 2012-09-17 2013-10-16 비전워크코리아(주) 온라인을 통한 외국어 말하기 평가 시스템
KR102019306B1 (ko) 2018-01-15 2019-09-06 김민철 네트워크 상의 어학 스피킹 수업 관리 방법 및 이에 사용되는 관리 서버
KR20200088073A (ko) * 2019-01-14 2020-07-22 김주혁 영어 말하기 평가 시스템 및 방법

Similar Documents

Publication Publication Date Title
Bibauw et al. Discussing with a computer to practice a foreign language: Research synthesis and conceptual framework of dialogue-based CALL
US11551570B2 (en) Systems and methods for assessing and improving student competencies
US11206227B2 (en) Customer care training using chatbots
Mroz Seeing how people hear you: French learners experiencing intelligibility through automatic speech recognition
KR102302137B1 (ko) 외국어 학습장치 및 이를 이용하는 외국어 학습서비스 제공방법
Kim et al. Design principles and architecture of a second language learning chatbot
Cai et al. ASAT: AutoTutor script authoring tool
KR102035088B1 (ko) 스토리텔링 기반 멀티미디어 무인 원격 1:1 맞춤형 교육시스템
KR20200044388A (ko) 음성을 인식하는 장치 및 방법, 음성 인식 모델을 트레이닝하는 장치 및 방법
US11778095B2 (en) Objective training and evaluation
CN112740132A (zh) 简答题评分预测
Ramanarayanan et al. Human and Automated Scoring of Fluency, Pronunciation and Intonation During Human-Machine Spoken Dialog Interactions.
Gregori Evaluation of modern tools for an omscs advisor chatbot
Divekar et al. Interaction challenges in AI equipped environments built to teach foreign languages through dialogue and task-completion
KR20210003326A (ko) 제2언어로서의 한국어 습득을 위한 언어 학습 서비스 제공 시스템
KR101438088B1 (ko) 음성인식 및 문자전환 기술을 이용한 통역 테스트와 쓰기 테스트의 2차 피드백을 통한 외국어 학습 서비스 제공 방법
KR20190109651A (ko) 인공지능 기반의 음성 모방 대화 서비스 제공 방법 및 시스템
KR102410110B1 (ko) 한국어 학습 서비스 제공 방법
Sonderegger et al. Chatbot-mediated Learning: Conceptual Framework for the Design of Chatbot Use Cases in Education.
KR20210059995A (ko) 학습 기반의 외국어 말하기 평가 방법 및 그 시스템
KR102294735B1 (ko) 인공지능 기반 피드백을 이용한 스피킹 분석 콘텐츠 제공 방법, 장치 및 시스템
Ockey et al. Evaluating technology-mediated second language oral communication assessment delivery models
US11238750B2 (en) Evaluation of tutoring content for conversational tutor
JP2020515915A (ja) 人間の発話のきめ細かな評価による発話言語スキルの教育および評価
KR101944628B1 (ko) 화상 학습 기반의 일대일 외국어 학습 시스템

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant