KR20090094577A - Method for evaluating spoken ability through computer-lead speech recognition - Google Patents

Method for evaluating spoken ability through computer-lead speech recognition Download PDF

Info

Publication number
KR20090094577A
KR20090094577A KR1020080019613A KR20080019613A KR20090094577A KR 20090094577 A KR20090094577 A KR 20090094577A KR 1020080019613 A KR1020080019613 A KR 1020080019613A KR 20080019613 A KR20080019613 A KR 20080019613A KR 20090094577 A KR20090094577 A KR 20090094577A
Authority
KR
South Korea
Prior art keywords
evaluation
answer
examinee
data
computer
Prior art date
Application number
KR1020080019613A
Other languages
Korean (ko)
Other versions
KR101004940B1 (en
Inventor
옥종석
이동한
Original Assignee
옥종석
이동한
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옥종석, 이동한 filed Critical 옥종석
Priority to KR1020080019613A priority Critical patent/KR101004940B1/en
Publication of KR20090094577A publication Critical patent/KR20090094577A/en
Application granted granted Critical
Publication of KR101004940B1 publication Critical patent/KR101004940B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Abstract

A method for evaluating computer-lead type speaking ability by using voice recognition is provided to calculate a score by a computer, thereby objectively, reliably and immediately evaluating speaking ability about a specific language of an examinee. A background image, a character and a background sound are outputted by a computer(S1). An interaction voice signal for speaking evaluation is outputted from a speaker(S2). An examinee gives an answer about the interaction voice signal for evaluation through a microphone(S3). It is determined whether the voice signal that the examinee answers is recognized(S4). If the voice signal is recognized, an answer of the examinee is stored in a database.

Description

음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법{METHOD FOR EVALUATING SPOKEN ABILITY THROUGH COMPUTER-LEAD SPEECH RECOGNITION}METHOD FOR EVALUATING SPOKEN ABILITY THROUGH COMPUTER-LEAD SPEECH RECOGNITION}

본 발명은 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법에 관한 것으로서, 특히 특정 언어의 말하기 능력을 컴퓨터 주도형으로 컴퓨터가 제시하는 방향으로 수험자가 대화 혹은 토론, 의견 등을 제시하면 컴퓨터가 데이터부에 저장되어있는 평가 준거에 따라 점수를 산출하여 수험자의 특정언어에 대한 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법에 관한 것이다.The present invention relates to a method of evaluating computer-driven speaking ability using speech recognition, and in particular, when the examinee presents a conversation, discussion, or opinion in a direction in which the computer presents the speaking ability of a specific language, The present invention relates to a method of evaluating computer-driven speaking ability using speech recognition, which can evaluate the examinee's speaking ability in a specific language on the fly by calculating scores according to stored evaluation criteria.

종래로부터 널리 사용되고 있는 기존의 말하기 평가는 주로 사람에 의해 이루어지고 사람에 의해 평가되어 왔으나 이러한 평가는 많은 시간이 소요된다는 문제점이 있고, 또 객관적인 평가와 채점자의 신뢰도, 다수의 수험자를 즉석에서 평가할 수 없다는 문제점이 있었다.Conventional speaking evaluation, which has been widely used in the past, has been mainly conducted by humans and has been evaluated by humans. However, this evaluation has a problem that it takes a lot of time, and also objective evaluations, scorers' reliability, and a large number of examinees can be evaluated on the fly. There was no problem.

이러한 문제점을 개선하기 위하여 최근 컴퓨터를 통해 수험자의 말하기 시도를 녹음하여 채점자에게 전달하여 채점을 하게 하는 방식이 많이 활용되어지고 있다. In order to improve such a problem, a method of recording an examinee's speaking attempt through a computer and delivering the score to a grader has been widely utilized.

그런데, 이러한 평가 또한 채점자의 주관에 의해 수험자의 점수가 결정될 여지가 여전히 남아있고 채점자 선정 및 채점 기간이 오래 소요되는 등의 문제점이 있을 뿐만 아니라, 수험자는 말하기 평가를 위한 질문에 수동적으로 답변만을 해야하고 수험자 자신의 의견을 피력하고 대화를 위한 상대방과의 협상 등이 결여되어있어 폐쇄성의 문제점이 있었다. 또한 채점 기준도 단순한 등급제로 구성되어 수험자의 수행 능력을 채점자의 느낌에 의한 선택으로 수험자의 점수가 결정되는 불합리한 점을 해소할 수 없다는 문제점이 있었다.However, this evaluation also has a problem that the score of the examinee is still determined by the scorer's supervision and the scorer selection and the scoring period takes a long time, and the examinee must only answer the question for the speech evaluation manually. There was a problem of closedness because the examinee expressed his opinion and lacked negotiation with the other party for dialogue. In addition, the grading criteria were also composed of a simple grading system, and there was a problem in that it was not possible to solve the unreasonable point of determining the examinee's score by selecting the examinee's performance by the scorer's feeling.

이러한 문제점을 해결하기 위해서 최근에 등장한 컴퓨터에 의한 말하기 능력평가는 컴퓨터에서 제시된 내용을 수험자가 단순히 읽고 따라하거나 문장을 반복하고, 짧은 답변 등으로 입력된 말하기 시도를 컴퓨터가 저장하여 수험자의 발음의 정확성, 문장의 오류 유무에 따라 점수가 결정되는 간접적인 말하기 평가도 선보이고 있으나, 이러한 말하기 평가 역시 수험자의 발음이나 문장의 오류 유무에 따라 점수를 등급제로 나누어 수험자가 컴퓨터가 요구하는 답변에 대한 정답과 오답, 발음의 정확성 만 으로 말하기 능력을 평가한다는 문제점이 있었다. 이러한 컴퓨터를 통한 말하기 능력 평가에서는 수험자의 대화의 논리성, 유창도, 말하기 전략의 사용, 적절한 어휘의 사용 등의 진정한 말하기 능력을 고려한 평가가 이루어지지 못하는 것이 단점으로 제기 되어왔다.In order to solve this problem, a recent computer-aided speech assessment is performed by the examinee by simply reading or following the information presented by the computer, repeating the sentence, and storing the speaking attempts with short answers. In addition, indirect speaking evaluations are shown in which scores are determined depending on whether or not a sentence is in error, but such speaking evaluation is divided into grades based on the examinee's pronunciation or sentence error. In addition, there was a problem of evaluating speaking ability only by pronunciation accuracy. In the evaluation of speaking ability through the computer, the disadvantage that the evaluation cannot be made considering the speaking ability such as the logic of the examinee's conversation, the fluency, the use of the speaking strategy and the use of the proper vocabulary has been raised.

이러한 문제점들을 해소하기 위하여 본 발명의 출원인들이 2000년과 4건(제0287227,0287228,0296271,0296272)을 등록받은 바 있으며, 2007년 06월 26일에 특허출원(특허출원번호 10-2007-0063336호)한 컴퓨터 주도형 대화장치 및 방법에서는 컴퓨터에 의하여 1:1 또는 다수와의 언어 대화를 주도하는 것으로서 컴퓨터가 대화를 유도하고 수험자가 컴퓨터의 유도에 따라 대화를 하도록 설계되어 있는 것을 더욱 발전시켜 말하기 능력 까지도 평가할 수 있는 시스템을 본 발명을 통하여 구축하게 되었다.In order to solve these problems, the applicants of the present invention have been registered in 2000 and 4 cases (0287227,0287228,0296271,0296272), and a patent application on June 26, 2007 (Patent Application No. 10-2007-0063336) In a computer-driven conversational device and method, a computer is used to induce 1: 1 or a large number of language conversations by the computer, and further develops that the computer is designed to induce a conversation and the examinee is designed to communicate according to the computer's induction. A system for evaluating even the capability was established through the present invention.

종래의 말하기 평가는 총괄적 채점 기준으로 수험자의 말하기 시도에 대한 느낌과 부분적 채점기준으로 발음, 유창성, 문법오류, 어휘 선택 등을 세분화하여 등급으로 표시하였으나 인간이 채점 하는 경우에 세분화된 부분을 정확하게 분석하는데 상당한 시간이 걸리고 채점자의 몸 상태, 기분 여하에 따라 점수가 달라지는 등의 객관적인 채점이 어려운 것이 사실이었다. 특히, 인간이 채점하는 경우에는 수험자에 대한 전체적인 인상으로 점수를 주는 총괄적 채점기준에 많이 의존하였고 부분적인 채점 기준에 의거하여 채점을 하기에는 수험자의 말하기를 녹음하여 일일이 세부적인 채점기준에 따라 점수를 산출하는데 엄청난 시간이 소요되어 무리가 따른 것이 사실이었다. 인간이 채점하는 경우 수험자의 말하기를 듣고 부분적 채점기준과 일일이 대조하여 점수를 등급화하는 것은 거의 불가능한 실정에 있다는 문제점이 있었다.Conventional speaking evaluation is based on the overall grading criteria for the examinee's feelings of speaking attempts and partial grading criteria, such as pronunciation, fluency, grammatical errors, and vocabulary selection. It was true that objective scoring was difficult, for example, it took a considerable amount of time, and the scores vary depending on the physical condition and mood of the grader. In particular, in the case of human grading, the scores are highly dependent on the overall grading criteria that give the overall impression to the examinees.In order to score based on the partial grading criteria, the scores of the examinees are recorded and the scores are calculated according to the detailed grading criteria. It took a lot of time to follow the crowd was true. When humans scored, there was a problem that it was almost impossible to grade the scores by listening to the examinees and comparing them with the partial grading criteria.

그러므로 인간이 채점하는 경우는 느낌과 수험자에 대한 인상, 분위기, 감 등에 의존하여 채점하므로 객관성을 유지할 수 없다는 문제점이 있을 뿐만 아니라, 최근에 등장한 컴퓨터에 의한 채점은 반대로 너무나 부분적인 채점에만 의존하는 경향이 있어 객관성을 유지할 수 없다는 문제점이 있었다. Therefore, in the case of human grading, the grading depends on feelings, impressions, moods, and feelings of the examinee, so that there is a problem in that objectivity cannot be maintained. In addition, recent grading by computers tends to rely only on partial grading. There was a problem that can not maintain objectivity.

또한, 컴퓨터에 의한 채점은 수험자의 발음의 정확성 답변의 정답과 오답, 문법적 오류 등을 기계적으로 분류하여 정확한 발음과 문법적으로 완벽한 문장은 정답으로 인식하고, 일부 오류를 내포한 문장은 오답으로 인식하여 일반적인 대화 상황에서 충분히 의사소통을 원할하게 할 수 있는 수험자의 경우에도 의사소통의 원할성, 대화의 논리성, 적절한 어휘의 사용, 유창도 등은 고려되지 못하고 정답과 오답, 오류의 유무, 발음의 정확도에 따라서 낮은 점수로 판정되는 문제점이 있었다.In addition, the scoring by the computer mechanically classifies the correct answer, wrong answer, grammatical error, etc. of the examinee's pronunciation, recognizes correct pronunciation and grammatically perfect sentences as correct answers, and recognizes sentences containing some errors as incorrect answers. Even in the case of the examinee who can communicate smoothly in a general conversation situation, the communication ability, the logic of the conversation, the use of proper vocabulary, the fluency, etc. are not considered. As a result, there was a problem of being judged with a low score.

본 발명은 상기 여러 가지 문제점을 해결하기 위하여 이루어진 것으로서, 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높은 평가결과를 즉석에서 도출할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가방법을 제공하는데 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above various problems, and compares the speaking input of the examinee with the evaluation criteria recorded in advance in the database of the data section to instantly evaluate the examinee's speaking ability of a specific language. The purpose of this study is to provide a computer-driven speech language learning ability evaluation method using speech recognition that can be derived.

본 발명의 다른 목적은 수험자의 말하기 시도가 데이터베이스에 저장되어있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 제공하는데 있다.It is another object of the present invention to consider the feelings, naturalness, and impression of the examinee's speaking attempt as an overall grading criterion in which the examinee's speaking attempt is stored in a database. Appropriateness, relevance of content, clarity of expression, fluency, etc.) are computer-driven speech using speech recognition that can be input into the database and summed up partial scores to quantify the total score. To provide a method for assessing abilities.

본 발명은 상기와 같은 목적을 달성하기 위하여 이루어진 것으로서, 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 컴퓨터에 의하여 말하기 평가용 배경영상ㆍ문자 및 배경음향을 표시부에 출력하는 배경영상ㆍ문자/배경음향 출력과정과; 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 스피커에서 출력하는 평가용 대화 음성신호 출력과정과; 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 평가용 대화 음성신호에 대한 답변을 수험자가 마이크를 통해 답변하는 답변과정과; 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하는 음성인식 판별과정과; 상기 음성인식 판별판별에서 수험자가 답변한 음성신호를 인식하였을 경우에 수험자의 답변을 제어부의 제어하에 상기 데이터부의 평가준거 데이터베이스에 저장된 평가준거 답변자료를 검색하는 답변자료 검색과정과; 상기 답변자료 검색과정에서 검색된 평가준거 답변자료와 수험자의 답변이 유사한지 여부를 판별하는 답변유사여부 판별과정과; 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부의 평가준거 데이터베이스에서 검색된 평가준거 답변자료와 유사할 경우에 적합한 답변으로 평가하는 적합답변 평가과정과; 상기 적합답변 평가과정의 적합답변 평가결과를 상기 데이터부의 평가결과 데이터베이스에 저장하는 평가결과 저장과정을 포함하는 것을 특징으로 한다. The present invention has been made to achieve the above object, and the computer-driven speech ability evaluation method using the speech recognition of the present invention includes a background image for outputting a background image, text and background sound for speech evaluation by a computer. Text / background sound output process; An evaluating dialogue voice signal output process for outputting a dialogue speech signal for speech evaluation from the speaker after the background image / text / background sound output process; An answering step in which the examinee answers the answer through the microphone after the voice signal is recognized in the evaluation dialogue voice signal output process; A voice recognition determining step of determining whether the examinee has recognized a voice signal answered by the examinee; An answer data search process of searching for an evaluation criterion answer data stored in an evaluation criterion database of the data part under the control of the controller when the answer of the examinee recognizes the voice signal answered by the examinee in the voice recognition discrimination; An answer similarity determination process for determining whether the evaluation reference answer data searched in the answer data search process and the examinee's answer are similar; A suitable answer evaluation step of evaluating an appropriate answer when the examinee's answer is similar to the evaluation criterion answer data retrieved from the evaluation criterion database of the data unit; And an evaluation result storage step of storing the evaluation result of the fit response of the fit response evaluation process in the evaluation result database of the data unit.

본 발명에 따른 음성인식을 활용한 컴퓨터 주도형 말하기 언어능력 평가방법 에 의하면, 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있을 뿐만 아니라, 수험자의 말하기 시도가 데이터부의 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있다는 등의 여러 가지 뛰어난 효과가 있다.According to the computer-driven speech language evaluation method using the voice recognition according to the present invention, by comparing the examinee's speaking input with the evaluation criteria recorded in the database of the data section in advance, the speaking ability of the examinee's specific language is highly objective and reliable. In addition to being able to evaluate on the fly, the examinee's attempt to speak is an overall scoring criterion stored in the database of the data section, taking into account the feelings, naturalities, and impressions of the examinee's attempts to speak, and analyzing analytic scoring criteria Accuracy, adequacy of vocabulary selection, relevance of content, clarity of expression, fluency, etc.) can be entered into the database based on the native speaker's speech utterance data, and the partial scores can be summed to quantify the total score. Excellent effect.

본 발명의 설명에 있어서, 수험자의 말하기 발화 능력을 평가하기 위한 데이터베이스의 구성은 총괄적 채점과 분석적 채점기준의 통합형인 채점기준에 의거하여 데이터베이스를 구축한다. 채점기준의 각 영역을 각 등급 간 1점씩을 0점에서 5점까지 부여하여 총 0점에서 60점 만점(시험의 성격과 목적에 따라 등급간의 점수를 차등화 하여 부여할 수 있다)으로 구성한다. 각 영역의 평가 세부 평가 기준은 아래와 같다. In the description of the present invention, the configuration of the database for evaluating the speaking utterance ability of the examinee establishes a database based on a scoring standard which is an integrated type of comprehensive scoring and analytical scoring criteria. Each area of the grading criteria is assigned one point between each grade, from 0 to 5 points, and consists of a total of 0 to 60 points (which can be graded between grades depending on the nature and purpose of the test). Evaluation criteria of each area are as follows.

총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상, 유창도, 논리성 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성, 과제 실현정도, 의미 전달을 위한 어휘와 문법 및 바꾸어 말하기 등의 전략을 구사하는 언어의 풍부함As a general grading standard, it considers the feelings, naturalness, impression, fluency, and logic of the examinee's attempt to speak in general, and analyzes the grading criteria (the accuracy or adequacy of the pronunciation, the grammatical accuracy, the relevance of the vocabulary selection, the relevance of the contents, the clarity of expression, Abundance of language using strategies such as fluency, task realization, vocabulary, grammar and transliteration to convey meaning

총괄적 채점 기준Comprehensive scoring

1) 수험자의 자연스러운 말하기 발화: 대화를 풀어가는 기법, 매너 등을 평가1) Natural speaking utterance of examinee: Evaluate conversational techniques, manners, etc.

2) 수험자의 말하기 논리성: 대화의 주제를 일관성있게 풀어가는 능력 평가2) the examinee's speaking logic: assessing the ability to consistently solve the subject of conversation

3) 대화를 풀어가는 유창성: 대화 중의 말하기 전략(바꾸어 말하기, 다시 말하기, 주저하는 시간)등을 고려하여 평가3) Fluency in conversation: evaluation in consideration of speaking strategies (speaking, respeaking, hesitating time) in conversation

분석적 채점 기준Analytical scoring criteria

1) 과제실현도 및 시간: 주어진 대화과제에 응답하고 해결하는 능력, 과제 실현 시간 등을 원어민 평균 과제 실현 시간과 비교1) Task realization and time: Comparing the ability to respond to and solve a given conversation task, task realization time, etc. with native speaker average task realization time

2) 대화 구사 전략(적절한 대화 구사 능력, 원할한 대화를 지속하기위한 연결사, 휴지기 등의 언어 발화 전략)2) Conversational Strategies (adequate conversational skills, verbalization strategies such as conjunctival to maintain a smooth conversation, rest period, etc.)

3) 문법의 정확성: 정답과 오답의 두단계 평가가 아닌 의미 전달 성취에 기준을 둔 평가3) Grammar accuracy: Evaluation based on achievement of meaning transfer, not two-step evaluation of correct and incorrect answers

5) 발음: 수험자가 하는 말의 명료성, 원어민의 발음과 비교하여 일반적 원어민 수준의 발음부터 의사소통에 영향을 미치는 지 여부에 따라 차등 등급5) Pronunciation: Differentiated grades depending on the clarity of the examinee's words and whether they affect the communication from general native speaker's level compared to the native speaker's pronunciation.

6) 유창성: 수험자가 하는 말의 속도, 리듬 및 주저함(hesitation)등을 기준으로 원어민의 데이터와 비교6) Fluency: Comparison with native speakers' data based on the examinee's speech rate, rhythm and hesitation

7) 핵심어휘 사용: 간단 명료한 핵심어휘 사용으로 신속한 의미 전달의 유무를 판단7) Use of core vocabulary: Judging whether or not to convey meaning quickly by using simple and clear core vocabulary

이하, 본 발명의 일실시예에 의한 본 발명의 음성인식을 활용한 컴퓨터 주도 형 말하기 언어학습 능력 평가장치에 관하여 첨부 도면에 의거하여 상세히 설명한다.Hereinafter, a computer-driven speaking language learning ability evaluation apparatus using speech recognition according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치를 개략적으로 도시한 블록도이고, 도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이다.1 is a block diagram schematically illustrating an apparatus for evaluating computer-driven speaking language learning ability using speech recognition according to an embodiment of the present invention, and FIG. 2 is a block diagram showing a detailed structure of a processor and a data unit in FIG. 1. to be.

도 1 및 도 2에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 컴퓨터가 주도하여 대화식 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부(10)와; 수험자의 요청에 따라 말하기 능력을 평가하도록 전체 동작을 제어하는 검색된 답변과 비교하여 답변하도록 제어하는 제어부(20)와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하여, 출력하는 처리부(30)와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호를 데이터베이스에 저장하는 데이터부(40)와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크(50)와; 평가를 위한 배경영상ㆍ문자를 여러 가지 컬러로 출력하는 표시부(60)와; 말하기에 대한 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부(70)와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커(80)와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부(90)로 구성되어 있다. 1 and 2, a computer-driven speaking ability evaluation apparatus using voice recognition according to an embodiment of the present invention is a program storage unit for storing a program provided to examinees who want to receive an interactive language evaluation led by a computer. 10; A control unit 20 for controlling the answer in response to the searched answer for controlling the overall operation to evaluate the speaking ability according to the examinee's request; A processing unit 30 for recognizing a voice signal and converting a response voice signal, a background sound signal, and a background image signal from corresponding data and outputting the corresponding data; A data unit 40 for storing the recognized voice signal, the voice signal to be output, the background sound signal, and the background image signal in a database; A microphone 50 for inputting the examinee's voice response signal or voice question signal; A display unit 60 for outputting a background image and text for evaluation in various colors; An input unit 70 for inputting an evaluation request command and data information for an evaluation request for speaking; A speaker 80 for outputting a speech signal and a background sound signal for evaluating speech; The communication unit 90 communicates with other computers by wire or wirelessly.

또한, 도 2에 도시한 바와 같이 상기 처리부(30)는 음성신호를 인식하고 데이터로 변환하는 음성인식부(31)와; 검색되어 제공되는 음성 데이터를 음성신호로 변환해서 출력하는 음성출력부(32)와; 검색되어 제공되는 배경음향 데이터를 오디오 신호로 변환하는 배경음향부(33)와; 검색되어 제공되는 배경영상 데이터또는 문자데이터를 영상신호로 변환하는 배경영상부(34)로 구성되어 있다. In addition, as shown in FIG. 2, the processor 30 includes a voice recognition unit 31 for recognizing a voice signal and converting the voice signal into data; A voice output unit 32 which converts the retrieved and provided voice data into a voice signal and outputs the voice signal; A background sound unit 33 for converting the searched and provided background sound data into an audio signal; The background image unit 34 converts the searched and provided background image data or text data into an image signal.

또한, 상기 데이터부(40)는 음성신호 데이터를 데이터화하여 저장하는 음성인식 데이터베이스(41)와; 음성출력 데이터를 저장하며 말하기 능력의 평가를 위하여 검색된 음성 데이터를 상기 제어부(20)에 출력하는 음성출력 데이터베이스(42)와; 말하기 능력 평가하기 위한 배경음향 데이터를 저장하고, 저장된 배경음향 데이터를 검색해서 상기 제어부(20)에 출력하는 배경음향 데이터베이스(43)와; 언어능력을 위한 배경영상 데이터를 저장하고, 저장된 배경영상 데이터를 검색해서 상기 제어부(20)에 출력하는 배경영상 데이터베이스(44)와; 수험자의 말하기 발화 능력을 평가하기 위한 평가준거(평가기준)를 저장함과 동시에, 상기 음성출력 데이터베이스(42)에 저장된 음성출력 데이터를 받아서 답변신호와 비교하여 비교결과를 상기 제어부(20)에 출력하는 평가준거 데이터베이스(45)와; 대화 소재데이터 또는 주제데이터를 저장하는 대화 소재ㆍ주제 데이터베이스(46)와, 수험자의 평가결과 데이터를 저장하는 평가결과 데이터베이스(47)로 구성되어 있다.In addition, the data unit 40 includes a voice recognition database 41 for storing voice signal data as data; A voice output database 42 for storing voice output data and outputting the retrieved voice data to the controller 20 for evaluation of the speaking ability; A background sound database (43) for storing background sound data for evaluating speaking ability, retrieving the stored background sound data, and outputting the stored background sound data to the controller (20); A background image database 44 for storing background image data for language ability, retrieving the stored background image data, and outputting the stored background image data to the controller 20; While storing the evaluation criteria (evaluation criteria) for evaluating the examinee's speech utterance ability, receiving the voice output data stored in the voice output database 42 and comparing the answer signal to output the comparison result to the control unit 20 An evaluation criteria database 45; It consists of a dialogue subject / topic database 46 which stores the dialogue subject data or the subject data, and the evaluation result database 47 which stores the examinee's evaluation result data.

다음에, 이와 같이 구성된 본 발명의 일실시예에 따른 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치의 작용 및 효과에 대하여 설명한다.Next, the operation and effects of the computer-driven speech language learning ability evaluation apparatus using the speech recognition according to the embodiment of the present invention configured as described above will be described.

먼저, 본 발명의 일실시예에 따른 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치는 수험자가 입력부(70)에서 언어평가를 시작하 고자 요청하는 평가 요청신호가 제어부(20)에 입력되면, 상기 제어부(20)에서는 프로그램 저장부(10)로부터 언어평가를 위한 해당 응용 프로그램을 로딩하여 수험자에게 언어평가 서비스를 제공하기 위한 대기상태가 된다. First, in a computer-driven speaking language learning ability evaluation apparatus using the voice recognition of the present invention according to an embodiment of the present invention, an evaluation request signal for the examinee requesting to start language evaluation at the input unit 70 is transmitted to the control unit 20. When input, the control unit 20 loads a corresponding application for language evaluation from the program storage unit 10, and becomes a standby state for providing a language evaluation service to the examinee.

이때 상기 제어부(20)는 통신부(90)를 감시하여 다른 수험(또는 학습)용 컴퓨터 또는 관리용 컴퓨터가 상기 통신부(90)에 접속되었는지 여부를 판별하고, 상기 판별결과 다른 수험용 컴퓨터 또는 관리용 컴퓨터와 접속되었을 경우에는 현재의 운용상태 정보와 관리용으로 필요한 운용정보를 상호 교환하며, 말하기 평가 진행에 따라 서로 필요한 정보를 교환하도록 주기적으로 제어한다. At this time, the control unit 20 monitors the communication unit 90 to determine whether another examination (or learning) computer or a management computer is connected to the communication unit 90, and as a result of the determination, the other examination computer or management computer When connected to a computer, the current operation status information and the operation information necessary for management are exchanged with each other, and the necessary information is periodically controlled as the speech evaluation progresses.

상기 제어부(20)는 말하기능력 평가서비스를 수험자에게 제공하기 위하여, 상기 데이터부(40)의 음성출력 데이터베이스(42), 배경음향 데이터베이스(43), 배경영상 데이터베이스(44)로부터 말하기 능력 평가서비스의 배경영상 신호와 배경음향 신호 및 텍스트(TEXT) 데이터로 이루어진 음성신호를 검색하여 상기 처리부(30)에 제공한다. The controller 20 provides the speaking ability evaluation service from the voice output database 42, the background sound database 43, and the background image database 44 of the data unit 40 to provide the examinee ability evaluation service to the examinee. An audio signal including a background image signal, a background sound signal, and text data is searched for and provided to the processor 30.

상기 처리부(30)는 제어부(20)로부터 제공된 배경영상 신호와 배경음향 신호 및 텍스트 데이터를 처리부(30)의 배경영상부(34), 배경음향부(33), 음성출력부(32)에 각각 제공하여, 상기 처리부(30)의 배경영상부(34)에서 배경영상 데이터를 배경영상 신호(문자 신호 포함)로 변환하고, 상기 처리부(30)의 배경음향부(33)에서 배경음향 데이터를 배경음향 신호로 변환하며, 상기 처리부(30)의 음성 데이터인 텍스트 데이터를 TTS(TEXT TO SPEECH) 기술에 의하여 음성신호로 변환한다. The processing unit 30 transmits the background image signal, the background sound signal, and the text data provided from the control unit 20 to the background image unit 34, the background sound unit 33, and the audio output unit 32 of the processing unit 30, respectively. The background image unit 34 of the processing unit 30 converts the background image data into a background image signal (including a text signal), and the background sound data of the background unit 33 of the processing unit 30 performs the background. The audio signal is converted into an audio signal, and the text data, which is the audio data of the processor 30, is converted into an audio signal by TTS (TEXT TO SPEECH) technology.

그리고, 상기 처리부(30)에 의하여 각각 변환된 영상신호 및 문자신호는 상 기 제어부(20)에서 출력하여 표시부(60)에 출력하여 표시부(60)에 영상화면을 표출함과 동시에, 상기 처리부(30)의 배경음향부(33)에서 변환된 배경음향 신호와 상기 처리부(30)의 음성출력부(32)에서 변환된 배경음성 신호는 스피커(80)에 각각 제공하여 음향 및 음성을 출력한다. The video signal and the text signal respectively converted by the processing unit 30 are output from the control unit 20 and output to the display unit 60 to display an image screen on the display unit 60. The background sound signal converted by the background sound unit 33 of FIG. 30 and the background sound signal converted by the sound output unit 32 of the processor 30 are provided to the speaker 80 to output sound and voice.

상기 제어부(20)는 마이크(50)로부터 수험자의 음성신호가 입력되는지 감시하여 수험자의 음성신호가 입력되었을 경우 상기 처리부(30)의 음성인식부(31)에 제공하여 인식되었는지 여부를 확인한다. The control unit 20 monitors whether the examinee's voice signal is input from the microphone 50 and checks whether the examinee's voice signal is provided to the voice recognition unit 31 of the processing unit 30 and recognized.

상기 설명에 있어서, 유사도 측정을 위하여 설정된 소정 비율은 상기 마이크(50)를 통해 입력되어 인식된 답변 음성신호에 주변환경의 잡음이 포함된 상태, 수험자 억양의 변화, 비슷한 단어 및 어구의 사용, 수험자의 연령 및 성별 등에 의한 음성신호의 차이 등을 감안하여 반복된 실험으로 적정한 값을 선택하여 평가한다. In the above description, a predetermined ratio set for measuring similarity is a state in which the response voice signal input and recognized through the microphone 50 includes the noise of the surrounding environment, a change in the examinee's intonation, the use of similar words and phrases, and the examinee. The appropriate value is selected and evaluated in a repeated experiment in consideration of differences in voice signals due to age and gender.

도 3은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 도면에 있어서, S는 스텝(Step)을 표시한다.3 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention. In the figure, S denotes a step.

도 4에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 스텝S1에서 컴퓨터에 의하여 말하기 평가용 배경영상ㆍ문자 및 배경음향을 표시부(60)에 출력하고(배경영상ㆍ문자/배경음향 출력과정), 스텝S2로 나아가서 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 스피커(80)에서 출력하고(평가용 대화 음성신호 출력 과정), 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 스텝S3으로 나아가서 평가용 대화 음성신호에 대한 답변을 수험자가 마이크(50)를 통해 답변한다(답변과정). As shown in FIG. 4, the method for evaluating computer-driven speaking ability using voice recognition according to an embodiment of the present invention outputs the background image, text and background sound for speech evaluation by the computer in step S1 to the display unit 60. (Background image / text / background sound output process), and proceeds to step S2 and outputs the dialogue voice signal for speech evaluation from the speaker 80 after the background image / text / background sound output process (dialogue audio signal output for evaluation). Step) After the voice signal is recognized in the evaluation dialogue voice signal output process, the process proceeds to step S3 where the examinee answers the response dialogue voice signal through the microphone 50 (answer process).

다음에 스텝S4로 나아가서 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하고(음성인식 판별과정), 상기 음성인식 판별판별에서 수험자가 답변한 음성신호를 인식하였을 경우(YES일 경우)에 스텝S5로 나아가서 수험자의 답변을 제어부(20)의 제어하에 상기 데이터부(40)의 평가준거 데이터베이스(45)에 저장된 평가준거 답변자료를 검색하고(답변자료 검색과정), 스텝S6으로 나아가서 상기 답변자료 검색과정에서 검색된 평가준거 답변자료와 수험자의 답변이 유사한지 여부를 판별한다(답변유사여부 판별과정).Next, the process proceeds to step S4 to determine whether or not the voice signal answered by the examinee has been recognized in the answering process (voice recognition determination process), and when the voice signal answered by the examinee is recognized by the voice recognition discrimination determination (YES). In step S5, the examinee's answer is retrieved from the evaluation criteria database 45 stored in the evaluation criteria database 45 of the data unit 40 under the control of the control unit 20 (response data search process), and the process proceeds to step S6. It is determined whether the evaluation criteria answer data retrieved in the answer data search process and the examinee's answer is similar (determining whether or not there is a response).

다음에, 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부(40)의 평가준거 데이터베이스(45)에서 검색된 평가준거 답변자료와 유사할 경우(YES일 경우)에 스텝S7로 나아가서 적합한 답변으로 평가하고(적합답변 평가과정), 스텝S8로 나아가서 상기 적합답변 평가과정의 적합답변 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다(평가결과 저장과정).Next, in the process of determining whether or not the answer is similar, if the examinee's answer is similar to the evaluation criterion answer data retrieved from the evaluation reference database 45 of the data part 40 (YES), the process proceeds to step S7 and an appropriate answer is obtained. The evaluation is made (conformity answer evaluation process), the process proceeds to step S8, and the result of the conformance answer evaluation of the conformity answer evaluation process is stored in the evaluation result database 49 of the data section 40 (evaluation result storage process).

한편, 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부(40)의 평가준거 데이터베이스(45)에서 검색된 평가준거 답변자료와 유사하지 않을 경우(NO일 경우)에 스텝S9로 나아가서 틀린 답변으로 평가하고(틀린답변 평가과정). 스텝S8의 상기 평가결과 저장과정으로 나아가서 상기 틀린답변 평가과정의 틀린답변 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다.On the other hand, if the answer of the examinee in the process of determining whether or not the answer is similar to the evaluation criteria answer data retrieved from the evaluation criteria database 45 of the data section 40 (if NO), go to step S9 to the wrong answer Evaluate (wrong answer evaluation process). Proceeding to the evaluation result storage step of step S8, the incorrect answer evaluation result of the incorrect answer evaluation process is stored in the evaluation result database 49 of the data unit 40.

또한, 상기 스텝S4에서 음성인식 판별과정의 판별결과 수험자가 답변한 음성신호를 인식하지 못하였을 경우(NO일 경우), 스텝S1의 배경영상ㆍ문자/배경음향 출력과정으로 복귀하여 상기 배경영상ㆍ문자/배경음향 출력과정 이하의 과정을 반복해서 행한다. If the voice signal determined by the examinee is not recognized (NO) in step S4, the process returns to the background image, text / background sound output process of step S1, and returns the background image and the like. Text / Background sound output process The following process is repeated.

상기 설명에 있어서, 특정 실시예를 들어서 도시하고 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 예를 들면 본 발명의 개념을 이탈하지 않는 범위내에서 이 기술 분야의 통상의 지식을 가진 자에 의해 여러가지로 설계변경할 수 있음은 물론이다.In the above description, the specific embodiments have been shown and described, but the present invention is not limited thereto, for example, by those skilled in the art without departing from the concept of the present invention. Of course, the design can be changed in various ways.

도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating an apparatus for evaluating computer-driven speaking language learning ability using speech recognition according to an embodiment of the present invention.

도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이다.FIG. 2 is a block diagram illustrating a detailed structure of the processing unit and the data unit in FIG. 1.

도 3은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 3 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명>          <Explanation of symbols for the main parts of the drawings>

10 : 프로그램부 20 : 제어부10: program unit 20: control unit

30 : 처리부 31 : 음성인식부30: processing unit 31: voice recognition unit

32 : 음성출력부 33 : 배경음향부32: sound output unit 33: background sound unit

34 : 배경영상부 40 : 데이터부 34: background image part 40: data part

41 : 음성인식 데이터베이스 42 : 음성출력 데이터베이스 41: voice recognition database 42: voice output database

43 : 배경음향 데이터베이스 44 : 배경영상 데이터베이스 43: background sound database 44: background image database

45 : 평가준거 데이터베이스 46:대화 소재ㆍ주제 데이터베이스 45: evaluation criteria database 46: conversation material, the topic database

47 : 평가결과 데이터베이스 50 : 마이크47: evaluation results database 50: microphone

60 : 표시부 70 : 입력부 60: display unit 70: input unit

80 : 스피커 90 : 통신부80: speaker 90: communication unit

Claims (3)

컴퓨터에 의하여 말하기 평가용 배경영상ㆍ문자 및 배경음향을 표시부(60)에 출력하는 배경영상ㆍ문자/배경음향 출력과정과; A background image, text, and background sound output process of outputting the speech image, the background image, the text, and the background sound to the display unit 60 by a computer; 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 스피커(80)에서 출력하는 평가용 대화 음성신호 출력과정과; A dialogue voice signal outputting process for outputting a dialogue speech signal for speech evaluation in the speaker 80 after the background image / text / background sound output process; 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 평가용 대화 음성신호에 대한 답변을 수험자가 마이크(50)를 통해 답변하는 답변과정과; An answering process in which the examinee answers the answer through the microphone 50 after the speech signal is recognized in the evaluation dialogue voice signal output process; 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하는 음성인식 판별과정과; A voice recognition determining step of determining whether the examinee has recognized a voice signal answered by the examinee; 상기 음성인식 판별판별에서 수험자가 답변한 음성신호를 인식하였을 경우에 수험자의 답변을 제어부(20)의 제어하에 상기 데이터부(40)의 평가준거 데이터베이스(45)에 저장된 평가준거 답변자료를 검색하는 답변자료 검색과정과; In the case of recognizing the voice signal answered by the examinee in the voice recognition discrimination discrimination, the examinee's response is searched for the evaluation criteria response data stored in the evaluation criteria database 45 of the data unit 40 under the control of the controller 20. Retrieval process; 상기 답변자료 검색과정에서 검색된 평가준거 답변자료와 수험자의 답변이 유사한지 여부를 판별하는 답변유사여부 판별과정과; An answer similarity determination process for determining whether the evaluation reference answer data searched in the answer data search process and the examinee's answer are similar; 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부(40)의 평가준거 데이터베이스(45)에서 검색된 평가준거 답변자료와 유사할 경우에 적합한 답변으로 평가하는 적합답변 평가과정과; An appropriate answer evaluation step of evaluating a suitable answer when the examinee's answer is similar to the evaluation criterion answer data retrieved from the evaluation criterion database 45 of the data part 40; 상기 적합답변 평가과정의 적합답변 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장하는 평가결과 저장과정을 ;을 포함하는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법. Evaluating the computer-aided speech ability using speech recognition, characterized in that it comprises a; storing the evaluation results of the appropriate response evaluation process of the appropriate response evaluation process in the evaluation result database 49 of the data unit 40; Way. 제1항에 있어서, 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부(40)의 평가준거 데이터베이스(45)에서 검색된 평가준거 답변자료와 유사하지 않을 경우에 틀린답변 평가과정으로 나아가서 틀린 답변으로 평가하고, 상기 틀린답변 평가과정 후에, 상기 평가결과 저장과정으로 나아가서 상기 틀린답변 평가과정의 틀린답변 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장하는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법. According to claim 1, If the answer of the examinee in the process of determining whether or not the answer is similar to the evaluation criteria answer data retrieved from the evaluation criteria database 45 of the data portion 40 Goes to the wrong answer evaluation process and the wrong answer And after the wrong answer evaluation process, proceeds to the evaluation result storing process and stores the wrong answer evaluation result of the wrong answer evaluation process in the evaluation result database 49 of the data unit 40. A computer-driven speech assessment method using recognition. 제1항에 있어서, 상기 음성인식 판별스텝의 판별결과 수험자가 답변한 음성신호를 인식하지 못하였을 경우, 상기 배경영상ㆍ문자/배경음향 출력과정으로 복귀하여 상기 배경영상ㆍ문자/배경음향 출력과정 이하의 과정을 행하는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법.   The process of claim 1, wherein if the examinee does not recognize the voice signal answered by the examinee, the process returns to the background image / text / background sound output process and outputs the background image / text / background sound output. Computer-driven speaking ability evaluation method using the speech recognition, characterized in that the following process.
KR1020080019613A 2008-03-03 2008-03-03 Method for evaluating spoken ability through computer-lead speech recognition KR101004940B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080019613A KR101004940B1 (en) 2008-03-03 2008-03-03 Method for evaluating spoken ability through computer-lead speech recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080019613A KR101004940B1 (en) 2008-03-03 2008-03-03 Method for evaluating spoken ability through computer-lead speech recognition

Publications (2)

Publication Number Publication Date
KR20090094577A true KR20090094577A (en) 2009-09-08
KR101004940B1 KR101004940B1 (en) 2010-12-28

Family

ID=41294969

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080019613A KR101004940B1 (en) 2008-03-03 2008-03-03 Method for evaluating spoken ability through computer-lead speech recognition

Country Status (1)

Country Link
KR (1) KR101004940B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870635A (en) * 2019-10-25 2021-12-31 北京猿力教育科技有限公司 Voice answering method and device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102012096B1 (en) * 2017-11-10 2019-10-14 충남대학교산학협력단 Language learning system using speech recognition and game contents

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113870635A (en) * 2019-10-25 2021-12-31 北京猿力教育科技有限公司 Voice answering method and device

Also Published As

Publication number Publication date
KR101004940B1 (en) 2010-12-28

Similar Documents

Publication Publication Date Title
Miller Measuring up to speech intelligibility
US6853971B2 (en) Two-way speech recognition and dialect system
CN108431883B (en) Language learning system and language learning program
Black et al. Automatic prediction of children's reading ability for high-level literacy assessment
CN101105939A (en) Sonification guiding method
JP2002503353A (en) Reading aloud and pronunciation guidance device
JP2012215645A (en) Foreign language conversation training system using computer
JP5105943B2 (en) Utterance evaluation device and utterance evaluation program
Tomokiyo Recognizing non-native speech: characterizing and adapting to non-native usage in LVCSR
KR20160008949A (en) Apparatus and method for foreign language learning based on spoken dialogue
KR101004913B1 (en) An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof
Liscombe Prosody and speaker state: paralinguistics, pragmatics, and proficiency
WO2006034569A1 (en) A speech training system and method for comparing utterances to baseline speech
KR20220128976A (en) Device, method and program for speech impairment evaluation
KR102414626B1 (en) Foreign language pronunciation training and evaluation system
Cámara Arenas et al. Automatic pronunciation assessment vs. automatic speech recognition: A study of conflicting conditions for L2-English
JP2010054549A (en) Answer voice-recognition system
KR101004940B1 (en) Method for evaluating spoken ability through computer-lead speech recognition
Kabashima et al. Dnn-based scoring of language learners’ proficiency using learners’ shadowings and native listeners’ responsive shadowings
KR20080097619A (en) Learning system and method by interactive conversation
JP2007148170A (en) Foreign language learning support system
Price et al. Assessment of emerging reading skills in young native speakers and language learners
Delmonte Exploring speech technologies for language learning
Delmonte Prosodic tools for language learning
EP4033487A1 (en) Method and system for measuring the cognitive load of a user

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee