KR101992370B1 - 말하기 학습방법 및 학습시스템 - Google Patents

말하기 학습방법 및 학습시스템 Download PDF

Info

Publication number
KR101992370B1
KR101992370B1 KR1020180046124A KR20180046124A KR101992370B1 KR 101992370 B1 KR101992370 B1 KR 101992370B1 KR 1020180046124 A KR1020180046124 A KR 1020180046124A KR 20180046124 A KR20180046124 A KR 20180046124A KR 101992370 B1 KR101992370 B1 KR 101992370B1
Authority
KR
South Korea
Prior art keywords
speech
text
vocabulary
learner
file
Prior art date
Application number
KR1020180046124A
Other languages
English (en)
Inventor
심여린
이비호
양회봉
Original Assignee
주식회사 스터디맥스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 스터디맥스 filed Critical 주식회사 스터디맥스
Priority to KR1020180046124A priority Critical patent/KR101992370B1/ko
Application granted granted Critical
Publication of KR101992370B1 publication Critical patent/KR101992370B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Administration (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Human Resources & Organizations (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

사용자 단말과 학습서버를 이용한 말하기 학습방법 및 학습 시스템을 개시한다. 실시예에 따른 말하기 학습방법은 (A) 사용자 단말에서 문제를 출력하는 단계; (B) 사용자 단말에서 출력된 문제에 대한 학습자의 스피치(speech)를 녹음하는 단계; (C) 학습서버에 학습자의 녹음된 스피치를 저장하고, 녹음된 답변을 텍스트로 변환하는 단계; (D) 사용자 단말에서 학습서버로부터 변환된 텍스트를 수신하고, 변환된 텍스트를 편집하는 단계; (E) 사용자 단말에서 편집된 텍스트를 수신하여 편집된 텍스트에 해당하는 스피치파일을 생성하는 단계; 및 (F) 사용자 단말에서 생성된 스피치파일을 저장하고 사용자 단말로 전송하는 단계; 를 포함한다.

Description

말하기 학습방법 및 학습시스템 {METHOD FOR LEARNING SPEAKING AND SYSTEM FOR LEARNING}
본 개시는 말하기 학습방법에 관한 것으로, 구체적으로 학습자의 스피치를 텍스트로 변환하고, 스피치 파일을 생성하는 말하기 학습방법 및 시스템에 관한 것이다.
본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.
외국어 구사능력은 입시나 취업에서 중요한 평가 기준이다. 최근에는 외국어 말하기 능력에 대한 관심이 높아지면서, 말하기 역량을 객관적으로 평가할 수 있도록 하는 토익 스피킹 등 다양한 공인시험까지 등장했다.
토익스피킹과 같은 공인영어 말하기 능력을 평가하는 시험은 일반적으로 학습자에게 영어로 질문을 하고 학습자의 영어 답변을 여러 항목으로 분석하여 학습자의 말하기 능력을 평가한다. 예컨대, 학습자의 영어 답변은 특정 질문에 대한 답변의 적절성, 내용 일관성, 답변의 완성도를 포함하는 논리성뿐만 아니라, 학습자가 발화하는 문장의 문법, 어휘, 발음, 억양과 강세를 포함하는 표현의 정확성 항목에 대해서도 평가 받게 된다. 따라서 공인 시험에 대비하기 위해서는 학습자가 자신이 발화하는 영어 문장 간 논리성과 영어로 말할 때의 표현력을 향상시키기 위한 훈련과 맞춤형 학습 컨텐츠가 필요하다. 특히, 말하기 영역에서는 문장 구성뿐만 아니라, 발음과 억양도 함께 원어민과 유사하도록 향상시켜야 하게 때문에 학습자가 발화한 음성파일을 직접 확인하고, 부족한 부분을 보완하며 지속적으로 훈련해야 할 필요가 있다.
하지만 종래의 외국어 말하기 학습방법은 일반적으로 원어민 선생님과 대화를 나누는 방식이 대부분이고, 자신이 발화하는 영어음성을 직접 확인 할 수 없는 경우가 대부분이다. 또한, 종래의 말하기 학습방법으로는 자신이 발화하는 영어 음성을 녹음하여 확인한다고 하더라도, 원어민 발음과 어떤 부분이 어떻게 다른지 정확히 분석해 줄 수 없다. 또한, 종래 말하기 학습방법으로는 학습자가 발화한 문장들의 논리적 개연성을 파악할 수 없기 때문에, 학습자가 특정 주제에 대해 영어로 말할 때 문장간 연관관계나 인과관계의 오류 등을 개선시켜 주지 못한다.
특히, 학습자 자신이 영어 음성을 녹음한 파일을 확인하고 문장과 표현을 개선시키기에는 학습자 영어 능력에 한계가 있기 때문에, 영어 말하기 능력을 향상시키기 위한 학습을 스스로 수행하기 어려운 실정이다.
1. 한국 특허등록 제10-1155441호(2012.06.05) 2. 한국 특허등록 제10-1313268호(2013.09.24)
실시예에 따른 말하기 학습방법 및 시스템은 학습자의 외국어 말하기 능력 향상을 위해, 학습자가 질문에 대답한 스피치를 텍스트로 변환하고, 변환된 텍스트의 오류를 수정하고, 오류가 수정된 텍스트에 대한 스피치 파일을 학습자에게 제공한다.
실시예에서는 수정된 어휘 해당하는 학습자의 선행녹음 중 가장 정확하게 발음된 음성데이터를 추출하고, 추출된 음성데이터의 출력시간을 스피치에 녹음된 어휘의 출력시간에 대응하도록 조정하여 스피치 파일을 생성한다.
실시예에 따른 사용자 단말과 학습서버를 이용한 말하기 학습 방법은 (A) 사용자 단말에서 문제를 출력하는 단계; (B) 사용자 단말에서 출력된 문제에 대한 학습자의 스피치(speech)를 녹음하는 단계; (C) 학습서버에 학습자의 녹음된 스피치를 저장하고, 녹음된 답변을 텍스트로 변환하는 단계; (D) 사용자 단말에서 학습서버로부터 변환된 텍스트를 수신하고, 변환된 텍스트를 편집하는 단계; (E) 사용자 단말에서 편집된 텍스트를 수신하여 4편집된 텍스트에 해당하는 스피치파일을 생성하는 단계; 및 (F) 사용자 단말에서 생성된 스피치파일을 저장하고 사용자 단말로 전송하는 단계; 를 포함한다.
다른 실시예에 따른 말하기 학습 시스템은 스피킹 문제를 출력하고, 출력된 문제에 대한 학습자의 스피치를 녹음하는 사용자 단말; 녹음된 스피치를 분석하여 학습자가 발화한 텍스트로 변환하고, 변환된 텍스트를 편집하고, 편집된 텍스트에 대한 스피치 파일을 생성하는 학습서버; 를 포함한다.
본 개시에서는 학습자의 스피치를 인공지능 기술을 이용하여 텍스트로 변환 후 편집하고, 편집된 텍스트에 해당하는 스피치 파일을 학습자에게 생성함으로써, 학습자에게 외국어 말하기 능력 향상에 필요한 최적화된 학습컨텐츠를 제공할 수 있다.
또한, 인공지능기술에 기반한 음성인식과 언어함의인식 기능을 통해 다양한 모범답안 텍스트에 대한 스피치 파일을 함께 제공함으로써, 학습자가 여러 컨텐츠를 학습하며 외국어 말하기 능력을 빠르게 향상 시킬 수 있도록 하고 편리하게 외국어 말하기 학습을 할 수 있도록 한다.
특히 본 개시에서는 4차 산업혁명의 핵심 기술 중 하나인 인공지능 프로그램을 이용하여 스피치를 텍스트로 변환할 뿐만 아니라, 다양한 모범답안 텍스트를 생성함으로써 다양한 말하기 학습 컨텐츠를 편리하게 생성할 수 있도록 한다.
본 발명의 효과는 상기한 효과로 한정되는 것은 아니며, 본 발명의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.
도 1은 실시예에 따른 말하기 학습시스템의 구성도
도 2a는 실시예에 따른 학습시스템의 신호 흐름도
도 2b는 다른 실시예에 따른 학습시스템의 신호 흐름도
도 3은 도 2a에 기재된 학습시스템 실시예에 따른 사용자 단말(200)의 데이터 처리 블록도
도 4는 실시예에 따른 학습서버(100)의 데이터 처리 블록을 나타낸 도면
도 5는 다른 실시예에 따른 학습시스템의 신호흐름도를 나타낸 도면
도 6은 도 5에 개시된 다른 실시예에 따른 학습시스템에 포함된 사용자 단말(200)의 데이터 처리구성을 나타낸 도면
도 7은 다른 실시예에 따른 텍스트 생성 서버(300)의 데이터 처리 구성을 나타낸 도면
도 8a 내지 도 8h는 실시예에 따른 학습시스템에서 디스플레이 되는 사용자 인터페이스 예를 나타낸 도면
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면부호는 동일 구성 요소를 지칭한다.
본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시 예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
도 1은 실시예에 따른 말하기 학습시스템의 구성도이다.
도 1을 참조하면, 말하기 학습시스템은 학습서버(100) 및 사용자 단말(200)을 포함하여 구성될 수 있다. 사용자 단말(200)은 질문을 출력하고 질문에 대한 학습자의 스피치를 입력받아 녹음한다. 이후, 학습서버(100)에서는 스피치 파일을 사용자 단말(200)로부터 전송 받아 스피치를 텍스트 파일로 전환하고, 텍스트 파일 편집 후 편집된 텍스트 파일에 해당하는 스피치 파일을 생성한다. 실시예에서 편집된 텍스트를 음성파일로 전환한 스피치 파일은 질문에 대한 예비 답안으로서 학습자가 특정 질문에 대한 답변을 준비하기 위한 학습자료로 이용 될 수 있다. 또한, 텍스트 파일의 편집은 사용자 단말(200)에서 수행되고 편집된 텍스트 파일을 학습서버(100)로 전달하여 학습서버(100)에서 편집된 텍스트 파일에 해당하는 스피치를 생성할 수 있다.
도 2a는 실시예에 따른 학습시스템의 신호 흐름도이다.
S21 단계에서는 사용자 단말(200)에서 스피치 문제를 오디오 파일로 출력하면, S23 단계에서 학습자가 문제에 대한 답변 스피치를 시작한다. S25 단계에서는 사용자 단말(200)에서 학습자의 스피치를 녹음하여 스피치 녹음 파일을 생성하고, S27 단계에서는 학습서버(100)으로 스피치 녹음파일을 전송한다.
S29 단계에서 학습서버(100)는 학습자 스피치 녹음파일을 수신하여 S31 단계에서 파일에 녹음된 학습자 음성을 분석한다. S33 단계에서는 학습자 음성 분석 결과에 따라 녹음된 음성을 텍스트로 변환하고, S35 단계에서는 변환된 텍스트와 스피치를 저장한다. S37 단계에서는 학습서버(100)에서 텍스트로 변환된 문장을 편집하면, S39 단계에서는 편집된 텍스트의 스피치를 생성한다. S41 단계에서는 편집된 텍스트에 해당하는 스피치 파일을 사용자 단말(200)로 전송하고, S43 단계에서는 사용자 단말에서 수신한 스피치 파일을 저장하여 말하기 학습 컨텐츠로 이용할 수 있도록 한다.
도 2b는 다른 실시예에 따른 학습시스템의 신호 흐름도이다.
도 2b에서는 학습시스템의 사용자 단말(100)에서 스피치 파일을 생성하고, 이를 평가하는 실시예를 설명한다. 학습 시스템을 다수의 사용자가 동시에 이용하는 경우 스피치 파일 생성 시간이 지연되고 에러발생 빈도가 높아지기 때문에, 다른 실시예에서는 스피치 파일을 사용자 단말(200)에서 생성하도록 하는 시스템을 설계할 수 있다.
S51 단계에서는 사용자 단말(200)에서 스피치 문제를 출력한다. 예컨대, 사용자 단말(200)은 학습서버(100)로부터 분산방식으로 전송된 말하기 학습 어플리케이션을 설치하고, 사용자 단말(200)에서 구동되는 어플리케이션을 이용하여 스피치 문장을 출력할 수 있다.
S52 단계에서는 사용자 단말에서 출력된 문제에 대한 학습자 스피치를 입력받아, S53 단계에서 학습자 스피치의 녹음 파일을 생성하고 S54 단계에서는 학습자 스피치 녹음 파일을 학습서버(100)로 전송한다.
S55 단계에서는 학습서버(100)에서 사용자 단말(200)에서 전송된 사용자 스피치 녹음파일을 수신하고, S56 단계에서 스피치 음성파일을 분석한다. S57 단계에서는 학습서버(100)에서 학습자 음성을 텍스트로 변환하여 S58 단계에서 사용자 단말(200)로 전송한다. 사용자 단말(200)은 S59 단계에서 스피치가 텍스트로 변환된 데이터를 수신하고, S60 단계에서는 스피치 파일을 편집한다. 예컨대, 사용자가 발화한 텍스트의 오류를 수정하거나 문장을 삭제 또는 추가하여 학습자가 발화한 텍스트를 편집할 수 있다.
S61 단계에서는 학습자가 발화한 텍스트를 분석하여 학습자의 스피치를 분석하고 평가한다. 예컨대, 발화싱크(Sync)정보가 포함된 발화 그래프를 생성하거나, 발음, 억양, 플로우, 문장간 개연성, 발화시간 분배 등 개별 발화 점수를 산출하여 학습자의 스피치를 평가할 수 있다. 학습자 별 발화 텍스트에 대한 평가 결과는 학습서버(100) 또는 사용자 단말(200)에 저장될 수 있고, 평가 결과를 사용자 단말(200)에서 출력하여 학습자가 자신의 말하기 수준을 객관적으로 파악할 수 있도록 한다.
S62 단계에서는 S60 단계에서 편집된 텍스트에 대한 개별 스피치를 합성한다. 예컨대, 텍스트가 수정 또는 편집되면, 수정된 어휘에 해당하는 음성데이터를 추출하고 추출된 음성데이터를 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트에 대한 스피치 파일을 생성할 수 있다.
S63 단계에서는 편집된 텍스트에 대한 개별 스피치 파일을 확인 및 출력한다. 이후, 학습서버(100)와 사용자 단말(200)에 저장하여 학습자가 말하기 학습 스피치 파일에 빠르게 접근할 수 있도록 한다.
도 3은 도 2a에 기재된 학습시스템 실시예에 따른 사용자 단말(200)의 데이터 처리 블록도이다.
도 3을 참조하면, 사용자 단말(200)은 출력부(210), 녹음파일 생성부(220) 및 통신부(230)를 포함하여 구성될 수 있다.
출력부(210)는 학습서버(100)에서 제공하는 학습 프로그램의 디스플레이 및 말하기 학습을 위한 질문을 오디오 파일로 출력한다. 녹음파일 생성부(220)는 학습자가 질문에 대한 답변 스피치를 시작하면, 스피치를 녹음하여 음성파일을 생성하고, 통신부(230)로 전달한다. 통신부(230)는 전달받은 스피치 녹음파일을 학습서버(100)로 송신하고 학습서버(100)로부터는 편집된 텍스트에 대한 스피치 파일을 수신하여 학습자에게 제공한다. 이외에 통신부(230)는 실시예에 따른 말하기 학습 시스템의 일련의 통신과정을 수행한다.
도 4는 실시예에 따른 학습서버(100)의 데이터 처리 블록을 나타낸 도면이다.
도 4를 참조하면, 학습서버(100)는 데이터베이스(110), 통신모듈(120), 텍스트 생성모듈(130), 스피치 생성모듈(140) 및 모범답안 텍스트 생성모듈(150)을 포함하여 구성될 수 있다. 학습자의 스피치를 텍스트로 전환하는 텍스트 생성모듈(130)은 분석부(131), 추출부(133) 및 편집부(135)를 포함하여 구성될 수 있고, 스피치 생성모듈(140)은 음성데이터 추출부(141), 싱크 조정부(143) 및 스피치 파일 생성부(145)를 포함하여 구성될 수 있고, 모범답안 텍스트 생성모듈(150)은 오류검출부(151) 및 모범답안 텍스트 생성부(153)를 포함하여 구성될 수 있다. 본 명세서에서 사용되는 '모듈' 이라는 용어는 용어가 사용된 문맥에 따라서, 소프트웨어, 하드웨어 또는 그 조합을 포함할 수 있는 것으로 해석되어야 한다. 예를 들어, 소프트웨어는 기계어, 펌웨어(firmware), 임베디드코드(embedded code), 및 애플리케이션 소프트웨어일 수 있다. 또 다른 예로, 하드웨어는 회로, 프로세서, 컴퓨터, 집적 회로, 집적 회로 코어, 센서, 멤스(MEMS; Micro-Electro-Mechanical System), 수동 디바이스, 또는 그 조합일 수 있다.
데이터베이스(110)에는 음성정보, 공인시험 기출문제, 모범답안 오디오 파일 등을 포함하는 외국어 학습 컨텐츠와, 학습자 선행녹음파일, 학습자 스피치 및 텍스트 파일을 포함하는 학습자 컨텐츠 등 실시예에 따른 말하기 학습 시스템에 필요한 일련의 데이터가 저장된다.
통신모듈(120)은 사용자 단말(120)로부터 학습자 스피치 녹음파일 수신하여 텍스트 모듈(130)로 전달한다.
텍스트 생성모듈(130)은 학습자의 녹음된 답변을 음성 인식하여 학습자의 스피치를 텍스트로 변환한다. 이를 위해 텍스트 생성모듈(130)의 분석부(131)는 음성인식 인공지능 프로그램을 통해 스피치 파일의 음성을 분석하고, 추출부(133)는 분석된 음성에 해당하는 텍스트를 추출하여, 학습자의 스피치를 텍스트로 변환한다.
편집부(135)는 변환된 텍스트에서 오류를 검출하여 수정하거나, 문장을 삭제하는 등 텍스트를 편집한다. 실시예에서 변환된 텍스트는 사용자 단말(200)에 출력되어 학습자에 의해 편집되거나, 학습서버(100)에서 자동으로 수행될 수 있다.
스피치 생성모듈(140)은 텍스트가 수정, 편집되면, 수정된 어휘에 해당하는 음성데이터를 추출하고 추출된 음성데이터를 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트에 대한 스피치 파일을 생성한다.
이를 위해, 스피치 생성모듈(140)의 음성 데이터 추출부(141)는 데이터베이스에 저장된 학습자의 선행답변 중, 수정된 어휘에 해당하는 음성데이터가 존재하는 경우, 수정된 어휘의 음성데이터를 추출한다. 이후, 음성데이터 추출부(141)는 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선별한다.
또한, 음성데이터 추출부(141)는 학습자의 선행답변 중, 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 동의어 등 수정된 어휘와 연관된 어휘의 음성데이터를 추출한다. 이후, 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선정한다.
싱크 조정부(143)는 편집 전 텍스트에 포함된 어휘의 음성데이터와 추출된 음성데이터의 출력시간을 비교한다. 편집 전 텍스트에 포함된 어휘의 음성데이터와 추출된 음성데이터의 출력시간이 일정시간이상 차이가 나는 경우, 추출된 음성데이터의 출력시간을 변경 전 어휘의 음성데이터 출력시간에 대응하도록 추출된 음성데이터의 출력시간을 조정한다.
스피치파일 생성부(145)는 출력시간이 조정된 음성데이터를 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트의 스피치 파일을 생성한다.
또한, 학습서버(100)는 녹음된 답변을 텍스트로 변환하고, 녹음된 답변의 발음과 악센트 및 억양의 정확도를 파악하여, 정확도에 매칭된 색으로 상기 텍스트에 포함된 어휘 각각을 디스플레이 할 수 있다.
또한 학습서버(100)는 변환된 텍스트의 오류를 수정하고 텍스트의 의미인식 후, 텍스트에 포함된 문장을 삭제하거나, 텍스트를 유도한 질문에 따라 텍스트에 학습문장 또는 어휘를 부가하여 모범답안텍스트를 생성하는 모범답안 텍스트 생성모듈(150)을 더 포함할 수 있다.
실시예에서 모범답안텍스트 생성모듈(150)의 오류검출부(151)는 텍스트 생성모듈(130)에서 편집된 텍스트 또는 스피치에서 변환된 텍스트의 오류를 검출한다. 이후, 모답답안텍스트생성부(153)는 인공지능 기반의 언어함의인식 프로그램을 이용하여 텍스트에 포함된 오류를 수정하고, 텍스트에 포함된 어휘를 다른 학습어휘로 변경하거나 인접한 문장과 논리적 개연성이 적은 문장을 삭제하여 모법답안 텍스트를 생성할 수 있다.
도 5는 다른 실시예에 따른 학습시스템의 신호흐름도를 나타낸 도면이다.
사용자 단말(200)은 학습서버(100)로부터 말하기 학습 프로그램을 분산방식으로 전달받아, 설치한다. S10 단계에서는 말하기 학습 프로그램 설치 후, 사용자 단말(200)에서 스피치 문제 오디오파일을 출력한다. S20 단계에서는 학습자가 문제의 답변을 스피치 하면, S30 단계에서는 사용자 단말(200)에 구비된 마이크 및 녹음장치로 학습자 스피치를 녹음한다. 이후 사용자 단말(200)은 녹음된 학습자 스피치를 텍스트 생성서버(300)로 전달하면, 텍스트 생성 서버(300)는 S40 단계에서 학습자 스피치 녹음파일을 수신한다. 이후, S50 단계에서는 스피치 녹음파일의 음성을 분석하고 S60 단계에서 학습자 음성을 텍스트로 변환한다. 실시예에서 학습자 스피치를 텍스트로 변환하는 과정은 사용자 단말(200)에서 모두 수행될 수 있다. 또한 도 5에 도시된 바와 같이, 텍스트 변환과정은 다른 서버(300)에서 처리될 수 있다.
텍스트 생성서버(300)에서 변환된 텍스트를 사용자 단말(200)로 전달하면, 사용자 단말(200)은 S70 단계에서 수신한 텍스트와 학습자의 스피치 파일을 저장하고, S80 단계에서는 수신한 텍스트에 포함된 문장을 편집한다. 예컨대, 텍스트에 포함된 문장을 삭제하거나 스펠링 및 문법적 오류를 수정할 수 있다.
S90 단계에서는 편집된 문장에 대한 스피치 파일을 생성하고, S100 단계에서는 생성된 스피치 파일을 저장한다.
도 6은 도 5에 개시된 다른 실시예에 따른 학습시스템에 포함된 사용자 단말(200)의 데이터 처리구성을 나타낸 도면이다.
도 6을 참조하면, 사용자 단말(200)은 데이터베이스(210), 출력부(220), 녹음파일 생성부(230), 통신부(250) 및 스피치 생성모듈(270)을 포함하여 구성될 수 있다. 데이터베이스(210)에는 문제출력과 편집된 텍스트의 스피치 생성에 필요한 학습컨텐츠 및 학습자 선행녹음파일을 포함하는 학습자 컨텐츠가 저장된다.
출력부(220)는 스피킹 문제를 출력하고 녹음파일 생성부(230)는 문제에 대한 학습자의 스피치를 녹음한다. 통신부(250)는 학습자의 스피치 녹음파일을 텍스트생성서버(300)로 전송하고 스피치가 변환된 텍스트 파일을 서버(300)로부터 수신한다. 실시예에서는 사용자 단말(200)에 스피치를 텍스트로 변환하는 블록을 포함하도록 구성하여 텍스트로 변환하는 과정을 사용자 단말(200)에서 수행할 수도 있다.
실시예에서 학습자의 스피치를 변환한 텍스트 파일은 학습자의 스피치를 분석하여 스피치에 포함된 어휘의 발음, 억양, 강세 등의 정확도에 따라 다른 각각의 어휘가 디스플레이 될 수 있다. 예컨대, 특정 어휘의 발음, 억양, 강세가 모두 정확하다면 녹색으로 표시하고, 어휘나 발음이 표준발음과 일정 수준 이상 차이가 나는 경우 적색으로 표시할 수 있다.
스피치 생성모듈(270)은 통신부(250)에서 텍스트 파일을 전달 받으면, 스피치 생성모듈(270)의 편집부(271)는 텍스트를 편집한다. 예컨대, 편집부(271)는 텍스트의 스펠링 또는 문법적 오류를 수정하거나 어휘를 수정할 수 있고 필요 없는 문장을 삭제할 수 있다.
음성데이터 추출부(273)는 수정된 데이터베이스(210)에 저장된 학습자의 선행답변 중, 수정된 어휘에 해당하는 음성데이터가 존재하는 경우, 수정된 어휘의 음성데이터를 추출한다. 이후, 음성데이터 추출부(273)는 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선별한다. 예컨대, 학습자 스피치를 변환한 텍스트가 “bisit to New York”이라면 'bisit' 을 수정하기 위해 기 저장된 학습자의 선행답변을 검색한다. 데이터베이스에 저장된 학습자의 선행답변으로 1)“visit there”2)“visit to there”3)“to visit New York” 등이 검색된 경우, 검색된 선행답변 1)내지 3)중 visit이 가장 정확하게 발음된 선행답변을 선택하고 선택된 선행답변에서 visit 에 해당하는 음성데이터를 추출할 수 있다.
또한, 음성데이터 추출부(273)는 학습자의 선행답변 중, 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 동의어 등 수정된 어휘와 연관된 어휘의 음성데이터를 추출한다. 이후, 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선정한다. 또한, 음성데이터 추출부(273)는 수정된 어휘에 대한 표준 음성이 데이터베이스에 존재하는 경우, 이를 추출하여 스피치 파일 생성에 이용할 수 있다.
싱크 조정부(275)는 변경 전 텍스트에 포함된 어휘의 음성데이터와 추출된 음성데이터의 출력시간을 비교한다. 싱크 조정부(275)는 변경 전 텍스트에 포함된 어휘의 음성데이터와 추출된 음성데이터의 출력시간이 일정시간이상 차이가 나는 경우, 추출된 음성데이터의 출력시간을 변경 전 어휘의 음성데이터 출력시간에 대응하도록 추출된 음성데이터의 출력시간을 조정한다. 예컨대, 선행답변 “visit” 의 출력 시간이 스피치에 녹음된 “bisit”보다 짧은 경우, 선행답변의 출력시간을 늘리는 방법 등으로 추출된 음성데이터의 싱크를 조정할 수 있다.
스피치 파일 생성부(277)는 출력시간이 조정된 음성데이터를 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트의 스피치 파일을 생성한다.
도 7은 다른 실시예에 따른 텍스트 생성 서버(300)의 데이터 처리 구성을 나타낸 도면이다.
도 7을 참조하면, 텍스트 생성서버(300)는 데이터베이스(310), 통신모듈(320), 텍스트 생성모듈(330) 및 모범답안 텍스트 생성모듈(340)를 포함하여 구성될 수 있고, 텍스트 생성모듈(330)은 분석부(331) 및 추출부(333)를 포함하여 구성될 수 있고, 모범답안 텍스트 생성모듈(340)는 오류검출부(341) 및 모범답안텍스트 생성부(343)를 포함하여 구성될 수 있다.
통신모듈(320)은 사용자 단말(100)로부터 수신한 학습자 스피치 녹음파일을 텍스트 생성모듈(330)로 전달한다.
텍스트 생성모듈(330)의 분석부(331)는 전달받은 녹음파일의 음성을 분석한다. 또한, 분석부(331)는 학습자 음성을 표준 발음과 비교하여 학습자의 발음, 억양, 강세 등 스피치 평가 요소의 정확도를 판단할 수 있다.
추출부(333)는 분석결과에 따라 학습자 스피치에 해당하는 텍스트를 추출하여 학습자 스피치를 텍스트로 변환한다. 또한 추출부(333)는 학습자 스피치에 포함된 각각의 어휘를 얼마나 정확하게 발음했는지에 따라 추출된 텍스트에 포함된 어휘 각각의 디스플레이 색을 선택할 수 있다.
텍스트 생성모듈(330)은 변환된 텍스트 파일을 통신모듈(320)로 전달하여 사용자 단말(200)에서 변환된 텍스트 파일을 확인할 수 있도록 한다.
실시예에서 텍스트 생성서버(300)는 모범답안 텍스트 생성모듈(300)을 더 포함할 수 있다.
모범답안 텍스트 생성모듈(330)의 오류검출부(341)는 텍스트 생성모듈(330)로부터 변환된 텍스트를 전달받아, 학습자 스피치에 포함된 오류를 검출한다. 이후 모범답안 텍스트 생성부(343)는 언어함의인식 인공지능 프로그램을 통해 텍스트에 포함된 어휘를 변경하거나, 문장을 삭제 또는 부가하여 출력된 질문에 대한 스피치 모범답안텍스트를 생성할 수 있다.
도 8a 내지 도 8h는 실시예에 따른 학습시스템에서 디스플레이 되는 사용자 인터페이스 예를 나타낸 도면이다.
도 8a를 참조하면, 사용자 단말(200)에서 영어 질문을 출력한다. 실시예에서 서버는 학습자가 대비하고자 하는 말하기 인증시험의 문제 유형에 따라 선별된 문제를 출력할 수 있다. 또한, 특정 질문에 대한 서브 질문이 함께 출력될 수 있다. 질문이 출력되면, 학습자는 질문을 듣고 도 8b에 도시된 인터페이스에 따라 학습자 스피치를 녹음한다. 실시예에서 학습자 스피치를 녹음하는 인터페이스는 페이지 설명(1), 서브질문(2), 마이크 상태 표시(3), 녹음종료 버튼(4) 및 최대 녹음 가능시간정보(5)를 디스플레이 하도록 구성될 수 있다.
학습자 스피치 녹음이 완료되면, 도 7c에 도시된 바와 같이 스피치 녹음파일은 버퍼에 저장된다. 이후, 스피치 파일이 분석되어, 텍스트로 변환된다. 도 8d에 도시된 바와 같이, 스피치를 텍스트로 변환하는 과정에서는 녹음된 학습자의 발음과 억양에 따라 추출된 텍스트가 그대로 출력되기 때문에, 학습자가 발음을 정확하게 하지 않은 단어도 학습자가 발화한 소리 그대로 텍스트로 변환된다. 도 8d를 참조하면, 실시예에서는 녹음된 음성을 토대로 텍스트를 추출하기 때문에, uld, bisit, pamous, it are 등 오류가 있는 그대로 텍스트로 변환되어 출력된다. 도 7d에 도시된 바와 같이, 실시예에서 발화 텍스트를 출력하는 인터페이스에는 디스플레이되는 화면을 설명하는 가이드 문장(1), 서브질문(2), 학습자의 녹음된 음성 파형(3), 녹음된 음성을 토대로 추출된 발화 텍스트(4), 다시 녹음하기 버튼(5) 및 다음페이지로 이동하는 버튼(6)이 함께 구성될 수 있다.
학습자는 변환된 텍스트를 확인하고 텍스트에 포함된 오류를 수정한다. 실시예에서는 도 8e에 도시된 바와 같이, 텍스트에 포함된 오류부분이 다른 색으로 디스플레이 되어 학습자가 직접 오류부분을 수정할 수 있도록 한다. 또한, 프로그램 자체에서 텍스트에 포함된 오류부분을 수정하고, 인공지능을 기반으로 모범답안 텍스트를 생성할 수도 있다. 실시예에서 텍스트가 디스플레이 되는 인터페이스는 학습자 스피치 녹음을 재생하는 버튼(1), 녹음된 음성의 위치 표시 바(2)를 포함하여 구성될 수 있고, 위치 표시 바에서 출력되는 영문이 발화 텍스트에서 다른 색으로 표시될 수 있다.
도 8f는 발화 텍스트에 포함된 오류를 학습자가 수정하는 과정을 나타내는 도면이다.
도 8f에 도시된 바와 같이, 학습자는 발화텍스트에 포함된 오류를 자신이 직접 수정할 수 있다. 예컨대, 수정팝업(1)이 디스플레이 되면, 학습자는 수정팝업(2)에 어휘를 입력하여 수정한다.
도 8g는 실시예에 따른 텍스트 및 편집된 텍스트의 디스플레이 예이다. 도 8g에 도시된 바와 같이, 학습자 스피치가 변환된 텍스트는 학습자 스피치의 발음, 억양, 강세 등의 정확도 및 평가 결과에 따라 각 어휘의 색깔이 다르게 표시될 수 있다. 변환된 텍스트는 학습자에 의해 직접 편집되거나 인공지능 프로그램을 통해, 오류가 수정되고 텍스트에 다른 어휘나 문장이 삽입되어 수정될 수 있다.
도 8g에 도시된 바와 같이, 실시예에서는 텍스트에서 수정된 부분이 다른 색으로 디스플레이 된다. 또한 수정된 텍스트가 영문 스피치 파일로 변환되면, 영문 스피치 파일이 재생되는 부분이 수정된 텍스트에서 어디인지 확인할 수 있도록 디스플레이한다.
도 8h는 학습시스템에서 말하기 평가결과를 디스플레이한 실시예를 나타낸 도면이다. 도 8h에 도시된 바와 같이, 실시예에서는 학습자의 스피치 녹음 파일을 분석하여 오류 및 문장 구성에 따라 말하기 레벨을 평가하고 학습자에게 모범답안 스피치 파일을 제공한다. 학습자는 공인영어 말하기 평가에 최적화된 모범답안의 스피치 파일을 반복적으로 청취하고 학습함으로써, 영어 말하기 실력을 빠르게 향상시킬 수 있다.
실시예에 따른 영어 말하기 학습 컨텐츠 생성 서버를 통해 학습자의 영어발화를 인공지능 기술을 이용하여 정확하게 분석하고, 개선된 모범답안의 텍스트와 영어 스피치 파일을 함께 제공함으로써, 학습자에게 영어 말하기 능력 향상에 필요한 최적화된 학습컨텐츠를 제공할 수 있다. 또한, 인공지능기술에 기반한 음성인식과 언어 함의인식 기능을 통해 학습자가 발화한 영어 문장을 패러프레이즈 한 다양한 모범답안 텍스트 및 영어 스피치 파일을 함께 제공함으로써, 학습자가 빠르게 영어 말하기 능력을 향상 시킬 수 있도록 하고 보다 편리하게 영어 말하기 학습을 할 수 있도록 한다. 특히 본 개시에서는 4차 산업혁명의 핵심 기술 중 하나인 인공지능 프로그램을 이용하여 학습자의 영어발화를 정확하게 분석하고, 개선된 모범답안의 텍스트와 영어 스피치 파일을 함께 제공함으로써, 학습자에게 영어 말하기 능력 향상에 필요한 최적화된 학습컨텐츠를 제공할 수 있다.
아울러, 인공지능기술에 기반한 음성인식과 언어 함의인식 기능을 통해 학습자가 발화한 영어 문장을 패러프레이즈 한 다양한 모범답안 텍스트 및 영어 스피치 파일을 함께 제공함으로써, 학습자가 빠르게 영어 말하기 능력을 향상 시킬 수 있도록 하고 보다 편리하게 영어 말하기 학습을 할 수 있도록 한다.
개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.
100: 학습서버
200: 사용자 단말

Claims (15)

  1. 사용자 단말과 학습서버를 이용한 말하기 학습 방법에 있어서,
    (A) 사용자 단말에서 문제를 출력하는 단계;
    (B) 사용자 단말에서 상기 출력된 문제에 대한 학습자의 스피치(speech)를 녹음하는 단계;
    (C) 학습서버에 상기 학습자의 녹음된 스피치를 저장하고, 상기 녹음된 답변을 텍스트로 변환하는 단계;
    (D) 사용자 단말에서 학습서버로부터 변환된 텍스트를 수신하고, 변환된 텍스트를 편집하는 단계;
    (E) 사용자 단말에서 편집된 텍스트를 수신하여 상기 편집된 텍스트에 해당하는 스피치파일을 생성하는 단계; 및
    (F) 사용자 단말에서 생성된 스피치파일을 저장하고 상기 학습서버로 전송하는 단계; 를 포함하고
    상기(E) 편집된 텍스트에 해당하는 스피치파일을 생성하는 단계; 는
    (E-1) 상기 텍스트를 수정한 경우, 수정된 어휘의 음성데이터를 추출하는 단계;
    (E-2) 상기 추출된 음성데이터를 상기 녹음된 스피치 파일의 수정 전 어휘가 출력되는 위치에 삽입하여 스피치 파일을 생성하는 단계; 를 포함하고
    상기 (E-1) 수정된 어휘의 음성데이터를 추출하는 단계; 는
    기 저장된 학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하는 경우, 상기 학습자의 선행답변에서 수정된 어휘의 음성데이터를 추출하는 단계; 및
    상기 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선정하는 단계; 를 포함하는 것을 특징으로 하는 말하기 학습방법.
  2. 삭제
  3. 삭제
  4. 제 1항에 있어서, 상기 (E-2) 스피치파일을 생성하는 단계; 는
    변경 전 어휘의 음성데이터와 상기 추출된 음성데이터의 출력시간을 비교하는 단계;
    변경 전 어휘의 음성데이터와 상기 추출된 음성데이터의 출력시간이 일정시간이상 차이가 나는 경우, 추출된 음성데이터의 출력시간이 상기 변경 전 어휘의 음성데이터 출력시간에 싱크 되도록 상기 추출된 음성데이터의 출력시간을 조정하는 단계; 및
    상기 출력시간이 조정된 음성데이터를 상기 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하는 단계; 를 포함하는 것을 특징으로 하는 말하기 학습방법.
  5. 제 1항에 있어서, 상기 (E-1) 수정된 어휘의 음성데이터를 추출하는 단계; 는
    학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 상기 수정된 어휘와 관련된 어휘의 음성데이터를 추출하는 단계; 및
    상기 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선정하는 단계; 를 포함하는 것을 특징으로 하는 말하기 학습방법.
  6. 제 1항에 있어서, 상기 (E-1) 수정된 어휘의 음성데이터를 추출하는 단계; 는
    학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 수정된 어휘에 해당하는 표준 음성데이터를 추출하는 것을 포함하는 것을 특징으로 하는 말하기 학습방법.
  7. 제 1항에 있어서, 상기 (C) 녹음된 답변을 텍스트로 변환하는 단계; 는
    상기 녹음된 답변의 발음과 악센트 및 억양의 정확도를 파악하는 단계;
    상기 정확도에 매칭된 색으로 상기 텍스트에 포함된 어휘 각각을 디스플레이 하는 단계; 를 포함하는 것을 특징으로 하는 말하기 학습방법.
  8. 말하기 학습 시스템에 있어서,
    스피킹 문제를 출력하고, 상기 출력된 문제에 대한 학습자의 스피치를 녹음하는 사용자 단말;
    상기 녹음된 스피치를 분석하여 학습자가 발화한 텍스트로 변환하고, 상기 변환된 텍스트를 편집하고, 편집된 텍스트에 대한 스피치 파일을 생성하는 학습서버; 를 포함하고
    상기 학습서버는
    상기 학습자의 녹음된 답변을 음성 인식하여 텍스트를 생성하는 텍스트 생성모듈;
    상기 텍스트가 수정되면, 수정된 어휘에 해당하는 음성데이터를 추출하고 상기 추출된 음성데이터를 상기 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트에 대한 스피치 파일을 생성하는 스피치 생성모듈; 을 포함하고,
    상기 스피치 생성모듈은
    학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하는 경우, 상기 수정된 어휘의 음성데이터를 추출하는 음성데이터 추출부;
    변경 전 텍스트에 포함된 어휘의 음성데이터와 상기 추출된 음성데이터의 출력시간을 비교하여 변경 전 텍스트에 포함된 어휘의 음성데이터와 상기 추출된 음성데이터의 출력시간이 일정시간이상 차이가 나는 경우, 추출된 음성데이터의 출력시간을 상기 변경 전 어휘의 음성데이터 출력시간에 대응하도록 상기 추출된 음성데이터의 출력시간을 조정하는 싱크 조정부; 및
    상기 출력시간이 조정된 음성데이터를 상기 녹음된 파일의 변경 전 어휘가 출력되는 위치에 삽입하여 편집된 텍스트의 스피치 파일을 생성하는 스피치 파일 생성부; 를 포함하는 것을 특징으로 하는 말하기 학습 시스템.
  9. 삭제
  10. 삭제
  11. 제 8항에 있어서, 상기 음성 데이터 추출부는
    상기 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선별하는 것을 특징으로 하는 말하기 학습시스템.
  12. 제 8항에 있어서, 상기 음성데이터 추출부는
    학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 상기 수정된 어휘와 연관된 어휘의 음성데이터를 추출하고, 상기 추출된 음성데이터 중 악센트 및 발음이 가장 정확한 음성데이터를 선정하는 것을 특징으로 하는 말하기 학습시스템.
  13. 제 8항에 있어서, 상기 음성데이터 추출부는
    학습자의 선행답변 중, 상기 수정된 어휘에 해당하는 음성데이터가 존재하지 않는 경우, 수정된 어휘에 해당하는 표준 음성데이터를 추출하는 것을 특징으로 하는 말하기 학습시스템.
  14. 제 8항에 있어서, 상기 학습서버는
    녹음된 답변을 텍스트로 변환하고, 상기 녹음된 답변의 발음과 악센트 및 억양의 정확도를 파악하여, 상기 정확도에 매칭된 색으로 상기 텍스트에 포함된 어휘 각각을 디스플레이 하는 출력모듈; 을 더 포함하는 것을 특징으로 하는 말하기 학습시스템.
  15. 제 8항에 있어서, 상기 학습서버는
    상기 변환된 텍스트의 오류를 수정하고 텍스트의 의미인식 후, 상기 텍스트에 포함된 문장을 삭제하거나, 상기 텍스트를 유도한 질문에 따라 텍스트에 학습문장 또는 어휘를 부가하여 모범답안텍스트를 생성하는 모범답안 텍스트 생성모듈; 을 더 포함하는 것을 특징으로 하는 말하기 학습시스템.
KR1020180046124A 2018-04-20 2018-04-20 말하기 학습방법 및 학습시스템 KR101992370B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180046124A KR101992370B1 (ko) 2018-04-20 2018-04-20 말하기 학습방법 및 학습시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180046124A KR101992370B1 (ko) 2018-04-20 2018-04-20 말하기 학습방법 및 학습시스템

Publications (1)

Publication Number Publication Date
KR101992370B1 true KR101992370B1 (ko) 2019-06-24

Family

ID=67056049

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180046124A KR101992370B1 (ko) 2018-04-20 2018-04-20 말하기 학습방법 및 학습시스템

Country Status (1)

Country Link
KR (1) KR101992370B1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225472B1 (ko) * 2019-11-05 2021-03-09 두산중공업 주식회사 인터뷰 코칭 장치 및 방법
KR102584078B1 (ko) * 2022-12-15 2023-10-04 에이블제이 주식회사 면접 피드백 제공 장치 및 방법
KR102601362B1 (ko) 2023-01-19 2023-11-10 염환아 어휘 사용 습관 기반 어학 능력 평가 및 학습 콘텐츠 제안 방법, 장치 및 시스템

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100701338B1 (ko) * 2006-05-08 2007-03-29 경남대학교 산학협력단 음성합성 기술을 이용한 원어민 운율 학습 방법
KR101155441B1 (ko) 2009-10-30 2012-06-13 이재권 동사구를 활용한 영어 말하기 학습법 및 그 교재
KR101313268B1 (ko) 2011-10-12 2013-09-30 정철 영어문장의 구성원리를 이용한 영어 말하기 능력 향상을 위한 영어학습교재
KR101318377B1 (ko) * 2012-09-17 2013-10-16 비전워크코리아(주) 온라인을 통한 외국어 말하기 평가 시스템
KR101819459B1 (ko) * 2016-08-17 2018-01-17 주식회사 소리자바 음성 인식 오류 수정을 지원하는 음성 인식 시스템 및 장치
KR20180012233A (ko) * 2017-12-19 2018-02-05 주식회사 지씨에스소프트 모바일 영어 학습 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100701338B1 (ko) * 2006-05-08 2007-03-29 경남대학교 산학협력단 음성합성 기술을 이용한 원어민 운율 학습 방법
KR101155441B1 (ko) 2009-10-30 2012-06-13 이재권 동사구를 활용한 영어 말하기 학습법 및 그 교재
KR101313268B1 (ko) 2011-10-12 2013-09-30 정철 영어문장의 구성원리를 이용한 영어 말하기 능력 향상을 위한 영어학습교재
KR101318377B1 (ko) * 2012-09-17 2013-10-16 비전워크코리아(주) 온라인을 통한 외국어 말하기 평가 시스템
KR101819459B1 (ko) * 2016-08-17 2018-01-17 주식회사 소리자바 음성 인식 오류 수정을 지원하는 음성 인식 시스템 및 장치
KR20180012233A (ko) * 2017-12-19 2018-02-05 주식회사 지씨에스소프트 모바일 영어 학습 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102225472B1 (ko) * 2019-11-05 2021-03-09 두산중공업 주식회사 인터뷰 코칭 장치 및 방법
KR102584078B1 (ko) * 2022-12-15 2023-10-04 에이블제이 주식회사 면접 피드백 제공 장치 및 방법
KR102601362B1 (ko) 2023-01-19 2023-11-10 염환아 어휘 사용 습관 기반 어학 능력 평가 및 학습 콘텐츠 제안 방법, 장치 및 시스템

Similar Documents

Publication Publication Date Title
US9177558B2 (en) Systems and methods for assessment of non-native spontaneous speech
US8272874B2 (en) System and method for assisting language learning
US8033831B2 (en) System and method for programmatically evaluating and aiding a person learning a new language
US6424935B1 (en) Two-way speech recognition and dialect system
US8202093B2 (en) System, method and device for language education through a voice portal
CN101105939A (zh) 发音指导方法
KR19990044575A (ko) 대화형 언어훈련용 장치
JP2001159865A (ja) 対話型語学指導のための方法および装置
WO2021074721A2 (en) System for automatic assessment of fluency in spoken language and a method thereof
KR101992370B1 (ko) 말하기 학습방법 및 학습시스템
KR20160008949A (ko) 음성 대화 기반의 외국어 학습 방법 및 이를 위한 장치
US8221126B2 (en) System and method for performing programmatic language learning tests and evaluations
Zechner et al. Towards automatic scoring of non-native spontaneous speech
JP2015011348A (ja) 音声認識を用いた外国語スピーキング能力の訓練及び評価方法並びにその装置
Inoue et al. A Study of Objective Measurement of Comprehensibility through Native Speakers' Shadowing of Learners' Utterances.
US8870575B2 (en) Language learning system, language learning method, and computer program product thereof
Ai Automatic pronunciation error detection and feedback generation for call applications
Cheng Unfamiliar accented English negatively affects EFL listening comprehension: It helps to be a more able accent mimic
Díez et al. A corpus-based study of Spanish L2 mispronunciations by Japanese speakers
Shea L2 proficiency and L2 dialect processing during study abroad
WO2006057896A2 (en) System and method for assisting language learning
Sigurgeirsson et al. Manual speech synthesis data acquisition-from script design to recording speech
US20080293021A1 (en) Foreign Language Voice Evaluating Method and System
Balogh et al. Workable models of standard performance in English and Spanish
KR20230091341A (ko) 말하기 언어학습 능력 평가 장치

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant