KR101004913B1 - An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof - Google Patents
An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof Download PDFInfo
- Publication number
- KR101004913B1 KR101004913B1 KR1020080019612A KR20080019612A KR101004913B1 KR 101004913 B1 KR101004913 B1 KR 101004913B1 KR 1020080019612 A KR1020080019612 A KR 1020080019612A KR 20080019612 A KR20080019612 A KR 20080019612A KR 101004913 B1 KR101004913 B1 KR 101004913B1
- Authority
- KR
- South Korea
- Prior art keywords
- answer
- data
- examinee
- question
- evaluation
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 115
- 230000003993 interaction Effects 0.000 title 1
- 238000011156 evaluation Methods 0.000 claims abstract description 120
- 238000012545 processing Methods 0.000 claims description 19
- 230000005236 sound signal Effects 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 10
- 238000012854 evaluation process Methods 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 9
- 230000001939 inductive effect Effects 0.000 claims description 5
- 230000002452 interceptive effect Effects 0.000 claims description 5
- 238000012360 testing method Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 6
- 238000011161 development Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 230000033764 rhythmic process Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/06—Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명의 목적은 첫째 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기 평가를 유도하여 학습의 성취도를 평가할 수 있고, 둘째 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준(준거)과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 평가할 수 있을 뿐만 아니라, 셋째 수험자의 말하기 시도가 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.The object of the present invention is to first speak the language in a general conversational manner using a computer, and in particular, to limit the number of conversations that are predicted, thereby using the limited resources of the computer to induce a natural conversational speech evaluation. Achievement can be assessed, and the second examinee's speaking input can be compared with the evaluation criteria (references) recorded in the database of the data section. Speaking attempts are stored in the database as a comprehensive scoring standard, taking into account the feelings, naturalities, and impressions of the examinee's speaking attempts. Clarity, fluency, etc.) To provide to the evaluation criteria utilized by the computer-driven Speaking speech recognition that can be quantified as part of the total score by summing the scores entered into the database language learning ability evaluation system and its evaluation method based on the ignition data.
말하기 평가 시스템, 평가 기준 구축, 언어 발화, 컴퓨터, 대화의 수, 음성인식, 도우미, Speech assessment system, assessment criteria building, speech, computer, number of conversations, speech recognition, helpers,
Description
본 발명은 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가 시스템 및 그 방법에 관한 것으로서, 특히 특정 언어의 말하기 능력을 상호 대화식으로 구성하여 실생활에서와 같은 자연스러운 대화를 컴퓨터와 주고받는 과정을 통하여 말하기 능력을 평가할 수 있으며, 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 학습을 유도하여 수험자의 특정언어에 대한 말하기 능력을 객관적이고 신뢰도가 높게 평가할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가 시스템 및 그 방법에 관한 것이다.The present invention relates to a computer-driven speech proficiency evaluation system and method using speech recognition, and in particular, by constructing the speech abilities of a specific language interactively, the ability to speak through a process of exchanging natural conversations with a computer as in real life. By using the computer, you can speak (try to speak) the language in a general conversational manner and limit the number of conversations that are predicted. The present invention relates to a computer-driven speech proficiency evaluation system and method using speech recognition capable of evaluating speech abilities objectively and with high reliability.
종래로부터 널리 사용되고 있는 기존의 말하기 평가는 주로 사람에 의해 이루어지고 사람에 의해 평가되어 왔으나 이러한 평가는 많은 시간이 소요된다는 문제점이 있고, 또 객관적인 평가와 채점자의 신뢰도, 다수의 수험자를 즉석에서 평가할 수 없다는 문제점이 있었다.Conventional speaking evaluation, which has been widely used in the past, has been mainly conducted by humans and has been evaluated by humans. However, these evaluations have a problem that it takes a lot of time. There was no problem.
이러한 문제점을 개선하기 위하여 최근 컴퓨터를 통해 수험자의 말하기 시도를 녹음하여 채점자에게 전달하여 채점을 하게 하는 방식이 많이 활용되어지고 있다. In order to improve such a problem, a method of recording an examinee's speaking attempt through a computer and delivering the score to a grader has been widely utilized.
그런데, 이러한 평가 또한 채점자의 주관에 의해 수험자의 점수가 결정될 여지가 여전히 남아있고 채점자 선정 및 채점 기간이 오래 소요되는 등의 문제점이 있을 뿐만 아니라, 수험자는 말하기 평가를 위한 질문에 수동적으로 답변만을 해야하고 수험자 자신의 의견을 피력하고 대화를 위한 상대방과의 협상 등이 결여되어있어 폐쇄성의 문제점이 있었다.However, this evaluation also has a problem that the score of the examinee is still determined by the scorer's supervision and the scorer selection and the scoring period takes a long time, and the examinee must only answer the question for the speech evaluation manually. There was a problem of closedness because the examinee expressed his opinion and lacked negotiation with the other party for dialogue.
또한 채점 기준으로도 등급제로 구성되어 채점자의 선택에 수험자의 점수가 결정되는 불합리한 점을 해소할 수 없다는 문제점이 있었다.In addition, there is a problem that can not solve the unreasonable point that the score of the examinee is determined in the selection of the scorer because it is composed of a grading system as a grading standard.
이러한 문제점을 해결하기 위해서 최근에 등장한 컴퓨터에 의한 말하기 능력평가는 컴퓨터에서 제시된 내용을 수험자가 단순히 읽고 따라하거나 문장을 반복하고, 짧은 답변 등으로 입력된 말하기 시도를 컴퓨터가 저장하여 수험자의 발음과 말하기 유창도에 따라 점수가 결정되는 말하기 평가도 선보이고 있으나, 이러한 말하기 평가 역시 자연스러운 대화의 유도를 통한 살아있는 말하기능력 평가가 아닌 수험자의 발음이나 말하기의 유창도를 등급제로 나누어 간접적인 방법으로 말하기 능력을 평가한다는 문제점이 있었다. In order to solve this problem, a recent computer-aided speech assessment is performed by the examinee by simply reading or repeating the contents presented by the computer or repeating the sentences, and storing the speaking attempts by the short answers. Speaking evaluation, which scores are determined according to fluency, is also introduced, but this speaking evaluation also evaluates speaking ability by indirect method by dividing examinee's pronunciation or speaking fluency by grading system, not assessment of living speaking ability through natural conversation. There was a problem.
이러한 문제점들을 해소하기 위하여 본 발명의 출원인들이 2000년과 4건(제0287227,0287228,0296271,0296272)을 등록받은 바 있으며, 특허출원(특허출원번호 10-2007-0063336호)한 컴퓨터 주도형 대화장치 및 방법에서는 컴퓨터에 의하여 1:1 또는 다수와의 언어 대화를 주도하는 것으로서, 대화에서 예측되는 대화의 수를 제한하여 상호작용적 대화가 이루어지도록 설계되어 있다.In order to solve these problems, the applicants of the present invention were registered in 2000 and 4 cases (No. 0287227,0287228,0296271,0296272), and the patent application (patent application No. 10-2007-0063336) computer-driven dialog device In the method and method, it is designed to lead a 1: 1 or multiple language conversation by a computer and to limit the number of conversations predicted in the conversation so that the interactive conversation is performed.
종래의 말하기 평가는 총괄적 채점 기준으로 수험자의 말하기 시도에 대한 느낌과 부분적 채점기준으로 발음, 유창성, 문법오류, 어휘 선택 등을 세분화하여 등급으로 표시하였으나 인간이 채점 하는 경우에 세분화된 부분을 정확하게 분석하는데 상당한 시간이 걸리고 채점자의 몸 상태, 기분 여하에 따라 점수가 달라지는 등의 객관적인 채점이 어려운 것이 사실이다. 인간이 채점하는 경우에는 전체적인 인상으로 점수를 주는 총괄적 채점기준에 많이 의존하였고 부분적인 채점 기준에 의거하여 채점을 하기에는 무리가 따른 것이 사실이었다. 인간이 채점하는 경우 수험자의 말하기를 듣고 부분적 채점기준과 일일이 대조하여 점수를 등급화하는 것은 거의 불가능한 실정에 있다는 문제점이 있었다.Conventional speaking evaluation is based on the overall grading criteria for the examinee's feelings of speaking attempts and partial grading criteria, such as pronunciation, fluency, grammatical errors, and vocabulary selection. It is true that objective scoring is difficult, because it takes a long time and the score varies depending on the physical condition of the grader and mood. In the case of scoring by humans, it was very much dependent on the overall scoring standard that gives a score as an overall impression, and it was true that it was too difficult to score based on the partial scoring criteria. When humans scored, there was a problem that it was almost impossible to grade the scores by listening to the examinees and comparing them with the partial grading criteria.
그러므로 인간이 채점하는 경우는 느낌과 수험자에 대한 인상, 분위기, 감 등에 의존하여 채점하므로 객관성을 유지할 수 없다는 문제점이 있을 뿐만 아니라, 최근에 등장한 컴퓨터에 의한 채점은 반대로 너무나 부분적인 채점에만 의존하는 경향이 있어 객관성을 유지할 수 없다는 문제점이 있었다. Therefore, in the case of human grading, the grading depends on feelings, impressions, moods, and feelings of the examinee, so that there is a problem that objectivity cannot be maintained. There was a problem that can not maintain objectivity.
예를 들면, 수험자의 발음, 어휘 선택 등을 기계적으로 분류하고 단답식에 가까운 짧은 답변을 정답과 오답으로 분류하여 채점하고 문법적으로 완벽한 문장은 정답으로 인식하고, 일부 오류를 내포한 문장은 오답으로 인식하여 충분히 의사소통을 원할하게 할 수 있는 경우에도 낮은 점수로 결정되는 문제점이 있었다. For example, the examinee's pronunciation and vocabulary selection are classified mechanically, and short answers close to short answers are classified into correct and incorrect answers, and grammatically perfect sentences are recognized as correct answers, and sentences containing some errors are recognized as incorrect answers. Even if the communication can be made smooth enough, there was a problem that is determined by a low score.
따라서, 본 발명은 상기 여러 가지 문제점을 해결하기 위하여 이루어진 것으로서, 본 발명의 목적은 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도) 하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기 평가를 유도하는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to limit the number of conversations that can be spoken (attempted to speak) by using a computer in a general conversational manner, in particular by limiting the number of conversations expected. The present invention provides a computer-driven speech language learning ability evaluation apparatus using speech recognition and a method of evaluating the speech using the resources to induce a speech evaluation of a natural conversation method.
본 발명의 다른 목적은 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가결과를 도출할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.Another object of the present invention is to use the speech recognition to obtain the evaluation results on the fly with an objective and high reliability by comparing the examinee's speaking input with the evaluation criteria previously recorded in the database of the data section. To provide a computer-led speech language learning ability evaluation apparatus and its evaluation method.
삭제delete
본 발명의 또 다른 목적은 수험자의 말하기 시도가 데이터베이스에 저장되어있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.It is another object of the present invention to consider the feelings, naturalness, and impression of the examinee's speaking attempt as an overall scoring criterion stored in the database of the examinee's speaking attempts. Appropriateness of choice, relevance of content, clarity of expression, fluency, etc.) is computer-driven using speech recognition that can be input into the database and summed the partial scores to quantify the total scores. The present invention provides an apparatus for evaluating speaking language learning ability and an evaluation method thereof.
본 발명은 상기와 같은 목적을 달성하기 위하여 이루어진 것으로서, 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 컴퓨터가 주도하여 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부와; 수험자의 답변이 예측되지 않은 답변이면 처리부의 도우미부에 저장된 도우미에 의해 답변을 유도하고, 검색된 답변과 비교하여 답변하도록 제어하는 제어부와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하며, 예측가능한 답변인지 여부를 판단하고 지정된 도우미 신호를 출력하는 처리부와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호, 예측되는 답변신호, 도우미 정보를 데이터베이스로 기록하는 데이터부와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크와; 평가를 위한 배경영상ㆍ문자를 컬러로 출력하는 표시부와; 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부로 구성되어 있는 것을 특징으로 한다.The present invention has been made to achieve the above object, the computer-driven speaking ability evaluation apparatus using the speech recognition of the present invention includes a program storage unit for storing a program provided to the examinee who wants to receive a language assessment led by a computer; A control unit for inducing an answer by a helper stored in a helper unit of the processor if the answer is an unpredicted answer, and controlling the answer to be compared with the searched answer; A processing unit for recognizing a voice signal, converting an answer voice signal, a background sound signal, and a background image signal from corresponding data, determining whether the answer is a predictable answer, and outputting a designated helper signal; A data unit for recording the recognized voice signal, the voice signal to be output, the background sound signal, the background video signal, the predicted answer signal, and the helper information in a database; A microphone for inputting the examinee's voice response signal or voice question signal; A display unit for outputting a background image and text for evaluation in color; An input unit for inputting an evaluation request command and data information for an evaluation request; A speaker for outputting a speech signal and a background sound signal for evaluating speech; Characterized in that it comprises a communication unit for communicating with other computers by wire or wireless.
또한, 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 컴퓨터에 의하여 언어학습용 배경영상ㆍ문자 및 배경음향을 표시부에 출력하는 배경영상ㆍ문자/배경음향 출력과정과; 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 출력하는 평가용 대화 음성신호 출력과정과; 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 평가용 대화 음성신호에 대한 답변을 마이크에서 답변하는 답변과정과, 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하는 음성인식 판별과정과; 상기 음성인식 판별과정에서 수험자가 답변한 음성신호를 인식하였을 경우에 상기 음성인식 판별과정에서 수험자가 답변한 인식된 음성신호가 예측된 답변인지 여부를 판별하는 답변판별과정과; 상기 답변판별과정의 판별결과 예측된 답변일 경우에 수험자의 답변을 제어부의 제어하에 데이터부의 예측답변 데이터베이스에 저장된 답변자료를 검색하는 답변자료 검색과정과; 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사한지 여부를 판별하는 답변유사여부 판별과정과; 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부의 예측답변 데이터베이스에서 검색된 답변자료와 유사할 경우에 적절한 답변으로 평가하는 적절 답변 평가과정과; 상기 적절 답변 평가과정에서 평가된 평가 결과를 상기 데이터부의 평가결과 데이터베이스부에 저장하는 평가결과 저장과정과; 상기 답변유사여부 판별과정의 판별결과 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사하지 않을 경우, 틀린 답변으로 평가하는 틀린 답변 평가과정과; 상기 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부의 평가결과 데이터베이스에 저장하는 평가결과 저장과정을 포함하는 것을 특징으로 한다.In addition, the computer-driven speaking ability evaluation method using the speech recognition of the present invention includes a background image, text / background sound output process of outputting the background image, text and background sound for language learning by the computer; An evaluating dialogue voice signal output process for outputting a dialogue speech signal for speech evaluation after the background image / text / background acoustic output process; After the voice signal is recognized in the evaluation dialogue voice signal output process, an answering process for answering the evaluation dialogue voice signal by a microphone, and a voice for determining whether the examinee has recognized the voice signal answered by the examinee. Recognition discrimination process; An answer discrimination process for determining whether the recognized speech signal answered by the examinee in the speech recognition determination process is a predicted answer when the speech signal recognized by the examinee in the speech recognition determination process is recognized; An answer data search process of searching for answer data stored in the predictive answer database of the data part under the control of the control part of the examinee's answer in the case of a predicted answer as a result of the determination of the answer discrimination process; An answer similarity determination step of determining whether the answer data searched in the answer data search process and the examinee's answer are similar; An appropriate answer evaluation step of evaluating an appropriate answer if the examinee's answer is similar to the answer data retrieved from the predicted answer database of the data unit in the process of determining whether the answer is similar or not; An evaluation result storing step of storing the evaluation result evaluated in the appropriate answer evaluation step in the evaluation result database part of the data part; A result of determining whether the answer is similar or not, when the answer data searched in the answer data search process and the answer of the examinee are not similar, an incorrect answer evaluation process of evaluating a wrong answer; And an evaluation result storing step of storing the evaluation result in the evaluation result database of the data unit.
본 발명에 따른 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치 및 평가방법에 의하면, 첫째 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원 을 이용하여 자연스러운 대화 방식의 말하기를 유도하여 말하기 성취도를 평가할 수 있고, 둘째 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있을 뿐만 아니라, 셋째 수험자의 말하기 시도(발화)가 데이터부의 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성, 논리성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 즉석에서 수량화할 수 있다는 등의 여러 가지 뛰어난 효과가 있다.According to an apparatus and method for evaluating computer-driven speaking ability using speech recognition according to the present invention, first, a language is spoken (attempted to speak) by a general conversation method using a computer, and in particular, the number of conversations predicted is limited. Using limited resources, natural speaking methods can be used to assess speech achievement, and second, the examinee's speech input is compared with the evaluation criteria pre-recorded in the database of the data section. In addition, the third examinee's speaking attempt (speech) is a comprehensive scoring criterion that is stored in the database of the data section, taking into account the feelings, naturalness, and impressions of the speaking examinee's attempts. Accuracy or appropriateness , Grammatical accuracy, appropriateness of vocabulary selection, relevance of content, clarity of expression, fluency, logicality, etc.) are input into the database based on the native speaker's speech utterance data, and the partial scores are summed to quantify immediately. There are many outstanding effects such as being able to.
이하, 본 발명의 일실시예에 의한 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 관하여 첨부 도면에 의거하여 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, a computer-driven speaking ability evaluation apparatus using speech recognition according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
본 발명의 일실시예를 설명함에 있어서, 본 발명과 직접적으로 관련 없고, 잘 알려져 있는 기술 내용에 대하여서는 도면 도시 및 설명을 생략하여 본 발명의 요지를 명확하게 설명한다. In describing an embodiment of the present invention, the gist of the present invention will be clearly described by omitting drawings and descriptions for technical contents that are not directly related to the present invention and are well known.
도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치를 개략적으로 도시한 블록도이고, 도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이고, 도 3은 본 발명의 일실시예에 의한 음성인 식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 있어서 대화의 질문과 응답에 의한 트리구조를 개략적으로 도시한 도면이다.1 is a block diagram schematically showing an apparatus for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention, FIG. 2 is a block diagram showing a detailed structure of a processing unit and a data unit in FIG. FIG. 3 is a diagram schematically illustrating a tree structure based on questions and responses of a conversation in the apparatus for evaluating computer-driven speaking ability using voice recognition according to an embodiment of the present invention.
도 1 및 도 2에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 컴퓨터가 주도하여 대화식 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부(10)와; 수험자의 답변이 예측되지 않은 답변이면 처리부(30)의 도우미부(36)에 저장된 도우미에 의해 답변을 유도하고, 검색된 답변과 비교하여 답변하도록 제어하는 제어부(20)와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하며, 예측가능한 답변인지 여부를 판단하고 지정된 도우미 신호를 출력하는 처리부(30)와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호, 예측되는 답변신호, 도우미 정보를 데이터베이스로 기록하는 데이터부(40)와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크(50)와; 평가를 위한 배경영상, 문자를 컬러로 출력하는 표시부(60)와; 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부(70)와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커(80)와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부(90)로 구성되어 있다. 1 and 2, a computer-driven speaking ability evaluation apparatus using voice recognition according to an embodiment of the present invention is a program storage unit for storing a program provided to examinees who want to receive an interactive language evaluation led by a computer. 10; A
또한, 도 2에 도시한 바와 같이 상기 처리부(30)는 음성신호를 인식하고 데이터로 변환하는 음성인식부(31)와; 검색되어 제공되는 음성 데이터를 음성신호로 변환해서 출력하는 음성출력부(32)와; 검색되어 제공되는 배경음향 데이터를 오디오 신호로 변환하는 배경음향부(33)와; 검색되어 제공되는 배경영상 데이터 또는 문자데이터를 영상신호로 변환하는 배경영상부(34)와; 제공되는 답변신호가 데이터부(40)로부터 검색된 예측가능한 답변신호인지 여부를 확인하는 예측가능 대화부(35)와; 지정되어 검색된 데이터를 해당 도우미 정보로 변환하는 도우미부(36)로 구성되어 있다. In addition, as shown in FIG. 2, the
또한, 상기 데이터부(40)는 음성신호 데이터를 데이터화하여 저장하는 음성인식 데이터베이스(41)와; 음성출력 데이터를 저장하며 말하기의 평가를 위하여 검색된 음성 데이터를 상기 제어부(20)에 출력하는 음성출력 데이터베이스(42)와; 말하기 평가를 위한 배경음향 데이터를 저장하고, 저장된 배경음향 데이터를 검색해서 상기 제어부(20)에 출력하는 배경음향 데이터베이스(43)와; 말하기평가를 위한 배경영상 데이터를 저장하고, 저장된 배경영상 데이터를 검색해서 상기 제어부(20)에 출력하는 배경영상 데이터베이스(44)와; 언어평가를 위한 수험자의 예측되는 답변신호를 저장하고 상기 처리부(30)의 음성인식부(31)에서 인식한 답변신호를 상기 제어부(20)로부터 제공받아 유사한 답변신호가 있는지 여부를 검색하는 예측답변 데이터베이스(45)와; 캐릭터, 문자, 음향, 색상을 도우미 데이터로 저장하고 지정된 도우미 데이터를 검색하여 상기 제어부(20)에 제공하는 도우미 데이터베이스(46)와; 수험자의 말하기 발화 능력을 평가하기 위한 평가준거(평가기준)를 저장함과 동시에, 상기 음성출력 데이터베이스(42)에 저장된 음성출력 데이터를 받아서 답변신호와 비교하여 비교결과를 상기 제어부(20)에 출력하는 평가준거 데이터베이스(47)와; 대화 소재데이터 또는 주제데이터를 저장하는 대화 소재ㆍ주제 데이터베이스(48)와, 수험자의 평가결과 데이터를 저장하는 평가결과 데이터베이스(49)로 구성되어 있다.In addition, the
다음에, 이와 같이 구성된 본 발명의 일실시예에 따른 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치의 작용 및 효과에 대하여 설명한다.Next, the operation and effects of the computer-driven speaking ability evaluation apparatus utilizing the speech recognition of the present invention configured as described above will be described.
먼저, 본 발명의 일실시예에 따른 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 수험자가 입력부(70)에서 언어평가를 시작하고자 요청하는 평가 요청신호가 제어부(20)에 입력되면, 상기 제어부(20)에서는 프로그램 저장부(10)로부터 언어평가를 위한 해당 응용 프로그램을 로딩하여 수험자에게 언어평가 서비스를 제공하기 위한 대기상태가 된다. First, the computer-driven speaking ability evaluation apparatus using voice recognition according to an embodiment of the present invention, if the examinee inputs an evaluation request signal for requesting to start language evaluation from the
이때 상기 제어부(20)는 통신부(90)를 감시하여 다른 학습용 컴퓨터 또는 관리용 컴퓨터와 상기 통신부(90)에 접속되었는지 여부를 판별하고, 상기 판별결과 다른 평가 및 학습용 컴퓨터 또는 관리용 컴퓨터와 접속되었을 경우에는 현재의 운용상태 정보와 관리용으로 필요한 운용정보를 상호 교환하며, 말하기 평가 진행에 따라 서로 필요한 정보를 교환하도록 주기적으로 제어한다. At this time, the
상기 제어부(20)는 말하기 평가서비스를 수험자에게 제공하기 위하여, 상기 데이터부(40)의 음성출력 데이터베이스(42), 배경음향 데이터베이스(43), 배경영상 데이터베이스(44)로부터 말하기 평가서비스의 배경영상 신호와 배경음향 신호 및 텍스트(TEXT) 데이터로 이루어진 음성신호를 검색하여 상기 처리부(30)에 제공한다. The
상기 처리부(30)는 제어부(20)로부터 제공된 배경영상 신호와 배경음향 신호 및 텍스트 데이터를 처리부(30)의 배경영상부(34), 배경음향부(33), 음성출력 부(32)에 각각 제공하여, 상기 처리부(30)의 배경영상부(34)에서 배경영상 데이터를 배경영상 신호(문자 신호 포함)로 변환하고, 상기 처리부(30)의 배경음향부(33)에서 배경음향 데이터를 배경음향 신호로 변환하며, 상기 처리부(30)의 음성 데이터인 텍스트 데이터를 TTS(TEXT TO SPEECH) 기술에 의하여 음성신호로 변환한다. The
그리고, 상기 처리부(30)에 의하여 각각 변환된 영상신호 및 문자신호는 상기 제어부(20)에서 표시부(60)에 출력하여 표시부(60)에 영상화면을 표출함과 동시에, 상기 처리부(30)의 배경음향부(33)에서 변환된 배경음향 신호와 상기 처리부(30)의 음성출력부(32)에서 변환된 배경음성 신호는 스피커(80)에 각각 제공하여 음향 및 음성을 출력한다. The video signal and the text signal respectively converted by the
상기 제어부(20)는 마이크(50)로부터 수험자의 음성신호가 입력되는지 감시하여 수험자의 음성신호가 입력되었을 경우 상기 처리부(30)의 음성인식부(31)에 제공하여 인식되었는지 여부를 확인한다. The
상기 처리부(30)의 음성인식부(31)에서는 인식된 답변 음성신호를 예측가능 대화부(35)에 제공하여 말하기 평가를 위한 예측된 답변에 포함되어 있는지 여부를 확인한다. 상기 처리부(30)의 예측가능 대화부(35)는 데이터부(40)의 예측답변 데이터베이스(45)를 검색하여 인식된 답변과 유사한 답변이 있는지 여부를 분석한다. 즉, 인식된 답변과 설정된 소정 비율 이상 유사한 답변이 예측답변 데이터베이스(45)로부터 검색하여 상기 데이터부(40)의 예측답변 데이터베이스(45)에 예측된 답변과 인식된 답변을 디지털 데이터 처리하여 대비하여 유사도가 상기 데이터부(40)의 예측답변 데이터베이스(45)에 미리 설정된 소정 비율 이상인지 여부를 확인할 수 있다. The
상기 설명에 있어서, 유사도 측정을 위하여 설정된 소정 비율은 상기 마이크(50)를 통해 입력되어 인식된 답변 음성신호에 주변환경의 잡음이 포함된 상태, 수험자 억양의 변화, 비슷한 단어 및 어구의 사용, 수험자의 연령 및 성별 등에 의한 음성신호의 차이 등을 감안하여 반복된 실험으로 적정한 값을 선택하여 평가한다. In the above description, a predetermined ratio set for measuring similarity is a state in which the response voice signal input and recognized through the
상기 제어부(20)는 수험자에 의해 입력된 답변이 예측한 답변의 범위에 포함되는 것으로 확인되면, 상기 데이터부(40)의 음성출력 데이터베이스(42)로부터 지정된 답변 자료를 검색하고 데이터 처리하여 유사도를 확인한다. If it is confirmed that the answer input by the examinee is included in the range of the predicted answer, the
인식된 답변과 검색된 지정 답변이 설정된 소정 비율 이상 유사한 경우에는 "적절한 답변입니다"와 같은 표현을 수험자에게 제공하고 언어학습 진행을 위하여 다음 단계로 복귀하며, 유사하지 않은 경우는 "틀린 답변입니다"와 같은 표현을 스피커(80)를 통해서 수험자에게 제공하고, 다음 단계로 복귀하며, 이러한 말하기 평가결과는 데이터부(40)의 평가결과 데이터베이스(49)에 저장하여 앞으로의 학습 진도에 활용함과 동시에, 수험자가 요청할 경우에 수험자에게 제공한다. If the recognized answer and the designated answer found are more than a certain percentage set, provide the examinee with an expression such as "It is an appropriate answer" and return to the next step to proceed with language learning. The same expression is provided to the examinee through the
또한, 상기 제어부(20)는 감시중인 음성인식부(31)에 입력된 수험자의 답변이 예측가능 대화부(35)에 의하여 예측된 답변이 아닐 경우는 도우미부(36)를 제어하여, 지정된 도우미가 출력되도록 하고 수험자로부터 제한된 범위의 답변이 입력 및 인식되도록 유도한다. In addition, the
지정된 도우미로서는 캐릭터, 그림, 동영상, 문자 메시지, 음성 메시지, 색상 메시지 등이 포함되고, 일예로, "~~이 궁금하지 않니? 한번 물어봐." 또는 " ~~ 하게 물어보는 것은 어떠니?" 등과 같이 말하기 평가를 위한 대화를 컴퓨터가 주도하는 동시에 대화의 범위를 제한한다. 이러한 도우미 정보는 데이터부(40)의 도우미 데이터베이스(46)에 기록 관리되며, 사전에 평가의 단계 별로 도우미를 지정 기록 및 관리한다. Designated helpers include characters, pictures, videos, text messages, voice messages, color messages, and the like. For example, "Are you wondering ~~? Ask me." Or "How about asking ~~?" The computer leads the conversation for evaluating speech and limits the scope of the conversation. The helper information is recorded and managed in the
종래에는 단순하게 수험자의 음성신호를 인식하고 지정된 음성신호가 입력되었는지 여부를 비교하여 옳고 그름을 판단하는 방식, 즉 음성인식의 성공여부만을 판단하여 대화를 이끌어 가는 것으로, 수험자는 제시된 문장 또는 단어를 읽거나 외워서 질문 또는 대화에 답변하는 방식이었으나, 본 발명에서는 도우미를 이용하여 대화를 주도하여 일정한 방향의 대화가 이루어지도록 대화의 방향을 유도하거나 제한하므로 컴퓨터의 적은 데이터베이스(DATABASE: DB) 용량으로도 수험자와 자유로운 대화식 또는 상호 작용적 쌍방향의 말하기능력을 평가할 수 있다. Conventionally, by simply recognizing the examinee's voice signal and comparing whether or not a designated voice signal has been input, a method of judging right and wrong, that is, judging only the success of voice recognition, leads the conversation. It was a way of answering a question or a conversation by reading or memorizing, but in the present invention, the guide is used to guide the conversation by using a helper to induce or limit the direction of the conversation so that a certain direction of the conversation is achieved. Evaluate speaking skills with the examinee freely or interactively.
일반적인 대화에서는 수험자와의 대화 및 질문이 어떤 내용을 포함할 것인지, 예를 들면, 긍정, 부정, 의문사를 지닌 의문문, 부가 의문문 등과 같이 매우 복잡한 형태에 의한 무한대의 대화의 수 또는 질문의 수가 발생하므로 수험자에게 답변하기 위한 내용 저장을 위하여 데이터베이스의 용량이 무한대로 필요하다. 또한 그 처리 방법도 매우 복잡함과 동시에 시간이 많이 소요되는 문제가 있었으나, 본 발명에서는 대화를 주도하여 원하는 방향으로 유도 및 제한하므로, 즉, 미리 정해진 제한된 문장, 단어 등에 의한 도우미를 이용하여 언어학습을 위한 대화의 방향을 컴퓨터가 주도하므로 적은 용량의 컴퓨터 데이터베이스로 자연스러운 대화 방식으로 말하기 능력을 평가할 수 있다. In general conversations, there are an infinite number of conversations or questions in very complex forms, such as what conversations and questions with examinees will include, for example, positive, negative, questionable questions, and additional questions. The capacity of the database is infinitely needed to store the contents for the respondents. In addition, there is a problem that the processing method is very complicated and time-consuming, but in the present invention leads to the desired direction by limiting the conversation, that is, the language learning using a helper by a predetermined limited sentence, words, etc. The computer-driven direction of the conversation can help you assess your speaking skills in a natural way with a small computer database.
도우미를 이용하여 상호작용적 대화식 전개 방식에는 여러 가지가 있으나, 본 발명에서 일실시예를 들어서 설명하면 다음과 같다. There are various interactive interactive deployment methods using the helper, but one embodiment of the present invention will be described as follows.
가. 그림, 동영상 도우미 활용 end. Drawing, video assistant
소정의 그림이나 동영상을 이용하여 질문 또는 답변이 발생하도록 일정한 방향으로 유도하므로, 무한대의 질문 및 답변의 수가 발생할 수 있는 대화를 원하는 방향으로 제한한다. Since a certain picture or video is guided in a certain direction to generate a question or an answer, an unlimited number of questions and answers may be limited to a desired direction.
이러한 대화는 언어학습의 각 단계별 상황에 적합하게 대화의 순서를 구성하고, 수험자는 컴퓨터와 1:1 대화를 위하여 그림이나 동영상으로 주어진 상황의 주인공으로 인식하게 하여 컴퓨터의 유도질문에 답변하도록 하여 말하기 능력을 평가할 수 있다. These conversations form a sequence of conversations for each stage of language learning, and the examinee responds to the induction questions of the computer by allowing the examinee to recognize the main character of the given situation as a picture or video for 1: 1 conversation with the computer. Evaluate your abilities.
나. 예측 가능한 데이터 입력 I. Predictive Data Entry
수험자의 인식도가 떨어지는 답변을 미리 예측하여 데이터로 기록하고, 설정된 전개방향을 확인하도록 데이터로 입력하여 말하기 평가 진행 상태를 제어하고 대화의 수를 제한한다. 또한 문법 구조와 의사소통이 가능한 문장, 오류가 포함된 문장 등을 데이터로 입력하고 수험자 입력으로 인식되는 음성 데이터와 비교하여 오류의 유형을 파악하여 말하기 능력을 평가할 수 있다. Predictive answers of the examinee are recorded in advance, and recorded as data, and inputted as data to confirm the set development direction to control the progress of speaking evaluation and limit the number of conversations. In addition, the grammatical structure, communication sentences, and sentences with errors can be input as data and compared with the voice data recognized by the examinee's input to identify the type of error and assess speaking ability.
다. 캐릭터와 제3 신호 등에 의한 도우미 활용 All. Utilization of helper by character and third signal
그림, 동영상에 의한 제3 캐릭터를 도우미로 활용하여 수험자가 컴퓨터에 질문하는 상황, 일예로, "무엇이 궁금하지 않니? 한번 물어봐(Aren't you curious about something? Ask him, What....)" 등과 같이 유도하고 수험자의 답변을 데이 터로 입력하여 분석한다. 수험자의 답변이 예측된 내용과 유사하지 않으면 컴퓨터는 재차 질문하여 설정된 대화의 방향으로 유도하여 말하기 능력을 평가한다. A situation where an examinee asks a computer by using a third character based on pictures and videos as an assistant, for example, "Aren't you curious about something? Ask him, What ....) ", Etc. and input the examinee's response as data for analysis. If the examinee's response is not similar to the predicted content, the computer asks the question again to guide the established conversation and evaluates the speaking ability.
이러한 캐릭터를 활용하지 않는 경우는 When, Where, What, Why, Who, How, Yes-No에 의한 의문문 형태를 미리 정하여 약속된 색상, 모양의 그림, 음향, 문자 등과 같은 제3의 신호로 전개한다는 사용법을 수험자에게 소개하고 질문 또는 답변하도록 하거나, 자막으로 유도(예; It's your turn.)하여 질문 또는 답변하게 하므로 자연적인 대화로 의문문을 학습하도록 유도하여 말하기 능력을 평가한다. In the case of not utilizing such a character, the question form by When, Where, What, Why, Who, How, and Yes-No is defined in advance and developed into a third signal such as a promised color, shape, picture, sound, or character. Evaluate speaking skills by introducing usage to the examinee, asking questions or answers, or encouraging subtitles (e.g., it's your turn.) To ask questions or answer questions through natural conversation.
언어학습이 원만하게 진행되는 중간 상황에서는 도우미 대신에 설정된 소정의 신호만으로도 수험자가 질문 또는 답변할 순서임을 인지하도록 할 수 있으므로 말하기를 용이하고 신속하게 평가할 수 있다. In the intermediate situation where the language learning is smoothly performed, the examinee can recognize the order of questions or answers only with a predetermined signal instead of the helper, so that speaking can be easily and quickly evaluated.
라. 대화의 전개를 나무구조(Tree - Structure)로 제한 la. Limit the development of dialogues to Tree-Structure
컴퓨터와의 대화를 나무의 가지 구조처럼 상황 전개하므로 다양한 대화의 수로 말하기의 능력을 평가하고, 또한 일정한 방향으로 대화가 진행되도록 유도하여 상황이 무한대로 전개되지 않도록 제한함으로서 말하기를 평가할 수 있다. Since the dialogue with the computer develops the situation like the branch structure of the tree, the speech can be evaluated by evaluating the ability of speaking with various numbers of conversations and by restricting the situation from developing indefinitely by inducing the dialogue to proceed in a certain direction.
첨부된 도 3에 이러한 나무구조의 대화 상황이 도시되어 있다. In the accompanying FIG. 3, a dialogue situation of such a tree structure is illustrated.
즉, 대화의 질문에 대한 답변을 미리 예측하여 컴퓨터에 입력하고, 대화의 수를 제한하여 무한대로 펼쳐지지 않도록 제한하며, 제한된 대화의 수를 다시 전개하는 과정을 반복하므로 수험자는 제한 유도된 대화의 수에 의하여서도 다양한 상황의 질문을 선택하여 말하기를 평가할 수 있다. In other words, the examinee predicts the answer to the question of the conversation in advance, enters it into the computer, restricts the number of conversations so that they do not extend to infinity, and repeats the process of redeploying the limited number of conversations. Numbers can also be used to assess speech by selecting questions in a variety of situations.
도 4는 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 도면에 있어서, S는 스텝(Step)을 표시한다.4 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention. In the figure, S denotes a step.
도 4에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 스텝S1에서 컴퓨터에 의하여 말하기 평가용 배경영상ㆍ배경문자 및 배경음향을 표시부(60)에 출력하고(배경영상ㆍ배경문자/배경음향 출력과정), 스텝S2로 나아가서 상기 배경영상ㆍ배경문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 출력하고(평가용 대화 음성신호 출력과정), 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 스텝S3으로 나아가서 평가용 대화 음성신호에 대한 답변을 마이크(50)에서 수험자가 답변한다(답변과정). As shown in FIG. 4, in the method of evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention, the
다음에 스텝S4로 나아가서 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하고(음성인식 판별과정), 상기 음성인식 판별과정에서 수험자가 답변한 음성신호를 인식하였을 경우(YES일 경우)에 스텝S5로 나아가서 상기 음성인식 판별과정에서 수험자가 답변한 인식된 음성신호가 예측된 답변인지 여부를 판별하고(답변판별과정), 상기 답변판별과정의 판별결과 예측된 답변일 경우(YES일 경우)에 스텝S6으로 나아가서 수험자의 답변을 제어부(20)의 제어하에 상기 데이터부(40)의 예측답변 데이터베이스(45)에 저장된 답변자료를 검색하고(답변자료 검색과정), 스텝S7로 나아가서 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사한지 여부를 판별한다(답변유사여부 판별과정).Next, the process proceeds to step S4 to determine whether or not the voice signal answered by the examinee in the answering process is recognized (voice recognition discrimination process), and in the case of recognizing the voice signal answered by the examinee in the speech recognition process (YES). Go to step S5 to determine whether the recognized speech signal answered by the examinee in the speech recognition process is a predicted answer (answer discrimination process), and if the answer is a predicted answer (YES day) Case) to search for the answer data stored in the predicted
다음에, 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터 부(40)의 예측답변 데이터베이스(45)에서 검색된 답변자료와 유사할 경우(YES일 경우)에 스텝S8로 나아가서 적절한 답변으로 평가하고(평가과정), 스텝S9로 나아가서 상기 평가과정에서 평가된 평가 결과를 상기 데이터부(40)의 평가결과 데이터베이스부(49)에 저장하고(평가결과 저장과정), 상기 스텝S7의 상기 답변유사여부 판별과정의 판별결과 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사하지 않을 경우(NO일 경우), 스텝S10으로 나아가서 틀린 답변으로 평가하고(틀린 답변 평가과정), 상기 스텝S9의 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다Next, when the examinee's answer is similar to the answer data retrieved from the
한편, 상기 스텝S4에서 음성인식 판별과정의 판별결과 수험자가 답변한 음성신호를 인식하지 못하였을 경우(NO일 경우), 스텝S1의 배경영상ㆍ배경문자/배경음향 출력과정으로 복귀하여 상기 배경영상ㆍ배경문자/배경음향 출력과정 이하의 과정을 반복해서 행한다. On the other hand, if the result of the voice recognition determination process in step S4 does not recognize the voice signal answered by the examinee (NO), it returns to the background image, background text / background sound output process of step S1 and the background image. • Background text / background sound output process The following process is repeated.
그리고, 상기 스텝S5의 답변판별과정 결과 수험자가 답변한 인식된 음성신호가 예측된 답변이 아닐 경우(NO일 경우), 스텝S20으로 나아가서 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장되어 있는 지정된 도우미로 한정된 질문을 유도하고(도우미 도움과정), 상기 도우미 도움과정 후에, 스텝S21로 나아가서 도우미 도움에 따라 수험자가 마이크(50)에 질문을 행하고(질문과정), 스텝S22로 나아가서 상기 질문과정에서 수험자가 질문한 음성신호를 인식하였는지 여부를 판별하고(질문음성인식 판별과정), 상기 질문음성인식 판별과정에서 수험자가 질문한 음성신호를 인식하였을 경우(YES일 경우)에 스텝S23으로 나아가서 상기 질문음성인식 판별과정에서 수험자가 질문한 인식된 질문음성신호가 예측된 질문인지 여부를 판별하고(질문판별과정), 상기 질문판별과정의 판별결과 예측된 질문일 경우(YES일 경우))에 스텝S24로 나아가서 수험자의 질문을 제어부(20)의 제어하에 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장된 질문자료를 검색하고(질문자료 검색과정), 스텝S25로 나아가서 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사한지 여부를 판별한다(유사질문여부 판별과정).If the recognized speech signal answered by the examinee as a result of the answer discrimination process of step S5 is not a predicted answer (NO), the process proceeds to step S20 and is stored in the
다음에, 상기 유사질문여부 판별과정에서 수험자의 질문이 상기 데이터부(40)의 도우미 데이터베이스(46)에서 검색된 질문자료와 유사할 경우(YES일 경우)에 스텝S26으로 나아가서 적절한 질문으로 평가하고(유사 질문평가과정), 상기 유사 평가결과 저장과정으로 나아가서 상기 질문평가과정에서 평가된 평가 결과를 상기 데이터부(40)의 평가결과 데이터베이스부(49)에 저장하고(평가결과 저장과정), 상기 스텝S25의 상기 유사질문여부 판별과정의 판별결과 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사하지 않을 경우(NO일 경우), 스텝S27로 나아가서 틀린 질문으로 평가하고(틀린 질문 평가과정), 상기 스텝S9의 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다Next, when the examinee's question is similar to the questionnaire retrieved from the
본 발명에 있어서, 수험자의 말하기 발화 능력을 평가하기 위한 평가준거를 평가준거 데이터베이스(47)의 구성은 총괄적 채점과 분석적 채점기준의 통합하여 데이터베이스를 구축한 총괄-분석적 채점 등급으로 구성하고 각 등급 간의 점수는 시험의 목적에 따라 세분화 혹은 단순화 할 수 있다. 각 영역의 평가 세부 평가 기 준은 아래와 같다. In the present invention, the evaluation criteria for evaluating the speaking utterance ability of the examinee is composed of the
1) 과제실현 능력(task achievement ability): 주어진 대화과제에 응답하고 실현하는 능력을 평가하며 과제를 최종적으로 실현 유무를 판단함.1) task achievement ability: evaluates the ability to respond to and realize a given conversational task and to determine whether the task is finally realized.
2) 의사소통능력: 의미를 전달하거나 이해하고 대화를 지속할 수 있는 능력을 판단함.2) Communication skills: to judge the ability to convey meaning, to understand and to continue conversations.
3) 대화의 논리성: 평가자나 다른 대화자에게 대화의 본질을 벗어나지 않고 논리적으로 적절하게 응답하는 능력을 판단함.3) Logical Logic: To determine the ability to respond logically and appropriately to the evaluator and other speakers without departing from the nature of the dialogue.
4) 언어자료 활용 능력: 의미를 전달하기 위한 적절한 어휘 및 문법을 사용하고 대화의 상대방이 이해하지 못하는 경우 바꾸어 말하기 전략(paraphrase strategy) 등을 구사하여 대화를 지속할 수 있는 능력을 판단함.4) Ability to use language materials: Use appropriate vocabulary and grammar to convey meaning, and use paraphrase strategy to determine the ability to continue the conversation if the other party of the conversation does not understand.
5) 발음: 수험자가 하는 말이 명료하여 대화 상대자에게 의미의 전달이 적절히 이루어질 수 있는 가를 판단함. 5) Pronunciation: The examinee's words are clear, and it is determined whether or not the meaning can be properly delivered to the conversation partner.
6) 유창성: 수험자가 하는 말의 속도, 리듬 및 주저함(hesitation) 등이 자연스러운지를 판단함.6) Fluency: Determines whether the examinee's speech, rhythm and hesitation are natural.
위에 제시된 6개 항목은 아래의 7개 항목으로 다시 세부 평가가 이루어지도록 한다.The six items listed above are further refined to the following seven items.
① 주어진 과제의 실현 유무: 주어진 과제가 실현되었는지를 판단① Whether the given task is realized or not
② 과제 실현 시간: 원어민 평균 과제 실현 시간과 비교② Task realization time: Compared with the average native language realization time
③ 핵심 어휘 사용: 핵심어휘 사용 혹은 핵심어휘 미사용 후 바꾸어 말하기 등으로 의사표현을 등급으로 조정③ Use of core vocabulary: Adjust the expression of the expression to grade by using the core vocabulary or not using the core vocabulary.
④ 문장의 정확성(문법 오류 유무): 문법의 정확성은 문법의 중요성 정도(의사소통에 영향을 미치는 지 여부)에 따라 오류를 등급으로 나누어 점수를 산정④ Accuracy of sentences (with or without grammar errors): Grammar accuracy is calculated by dividing the error into grades according to the importance of grammar (whether it affects communication).
⑤ 발음의 정확성: 원어민의 발음과 비교하여 일반적 원어민 수준의 발음부터 의사소통에 영향을 미치는 지 여부에 따라 차등 등급⑤ Pronunciation accuracy: Different grades depending on whether native speaker pronunciation or communication affects communication compared to native speaker's pronunciation
⑥ 유창성: 수험자가 하는 말의 속도, 리듬 및 주저함 등을 기준으로 원어민의 데이터와 비교하여 차등 등급 제시⑥ Fluency: Differential grades are compared with the data of native speakers based on the speed, rhythm and hesitation of the examinee's words.
⑦ 논리성: 대화가 일관성 있게 원할히 전개되었는지를 판단하는 기준으로 대화의 일관성을 유지하기 위하여 도우미가 등장해서 수험자가 대화를 지속하였는지 혹은 본인이 스스로 대화를 잘 수행하였는지를 판단한다. 도우미의 등장 횟수에 따라 점수의 감점이 이루어진다. ⑦ Logic: As a criterion to judge whether the conversation has been conducted consistently and smoothly, a helper appeared to judge whether the examinee continued the conversation or whether the conversation was performed well by himself. The score is deducted based on the number of appearances of the assistant.
위에 제시된 세부 평가 항목을 순서에 따라 원어민의 기준으로 점수화하여 평가준거 데이터베이스(47)에 입력한다. 예를 들어서 과제가 실현되지 못한 경우는 점수는 0점으로 산정되고 과제가 실현된 경우 세부 항목으로 다시 ②③④⑤ 항에 따라 점수를 0점에서 특정점수(1~10 혹은 1~ 특정점수) 등의 단계(시험의 성격 및 목적에 따라 단계를 달리 할 수 있음)로 차등화 한다. 이러한 평가 산정기준을 통해 수험자가 입력한 말하기 내용이 평가준거 데이터베이스(47)에서 검증되어 점수로 산출된다.The detailed evaluation items presented above are scored in order of native speakers in order and input into the
따라서, 본 발명은 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기를 유도하여 말하기 능력을 평가할 수 있고, 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있을 뿐만 아니라, 수험자의 말하기 시도(발화)가 데이터부의 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있다.Therefore, the present invention uses a computer to speak (attempt to speak) a language in a general conversational manner, and in particular, limits the number of conversations that are predicted, thereby evaluating speaking ability by inducing natural conversational speech using limited resources of the computer. By comparing the examinee's speaking input with the evaluation criteria recorded in advance in the database of the data section, the examinee's speaking ability of the specific language can be assessed on the spot and objectively and with high reliability. As the overall scoring criteria stored in the database of the data department, it considers the feelings, naturalness, and impressions of the examinee's attempts to speak. Clarity, fluency, etc.) To as evaluation criteria based on the ignition and enter data into the database summing the partial credit it can be quantified as possible.
상기 설명에 있어서, 특정 실시예를 들어서 도시하고 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 예를 들면 본 발명의 개념을 이탈하지 않는 범위내에서 이 기술 분야의 통상의 지식을 가진 자에 의해 여러가지로 설계 변경할 수 있음은 물론이다.In the above description, the specific embodiments have been shown and described, but the present invention is not limited thereto, for example, by those skilled in the art without departing from the concept of the present invention. Of course, the design can be changed in many ways.
도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating an apparatus for evaluating computer-driven speaking language learning ability using speech recognition according to an embodiment of the present invention.
도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이다.FIG. 2 is a block diagram illustrating a detailed structure of the processing unit and the data unit in FIG. 1.
도 3은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 있어서 학습 대화의 질문과 응답에 의한 트리구조를 개략적으로 도시한 도면이다.FIG. 3 is a diagram schematically illustrating a tree structure based on questions and answers of a learning conversation in a computer-driven speech evaluation apparatus using voice recognition according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 4 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention.
<도면의 주요 부분에 대한 부호의 설명> <Explanation of symbols for main parts of the drawings>
10 : 프로그램부 20 : 제어부10: program unit 20: control unit
30 : 처리부 31 : 음성인식부30: processing unit 31: voice recognition unit
32 : 음성출력부 33 : 배경음향부32: sound output unit 33: background sound unit
34 : 배경영상부 35 : 예측가능 대화부34: background image part 35: predictable conversation part
36 : 도우미부 40 : 데이터부36: helper 40: data
41 : 음성인식 데이터베이스 42 : 음성출력 데이터베이스 41: voice recognition database 42: voice output database
43 : 배경음향 데이터베이스 44 : 배경영상 데이터베이스 43: background sound database 44: background image database
45 : 예측답변 데이터베이스 46 : 도우미 데이터베이스45: predictive answer database 46: helper database
47:평가준거 데이터베이스(DB) 50 : 마이크 47: evaluation criteria database 50: microphone
48:대화 소재ㆍ주제 데이터베이스 60 : 표시부 48: Conversation subject matter topic 60: Display part
70 : 입력부 80 : 스피커 70: input unit 80: speaker
90 : 통신부90: communication unit
Claims (7)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080019612A KR101004913B1 (en) | 2008-03-03 | 2008-03-03 | An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080019612A KR101004913B1 (en) | 2008-03-03 | 2008-03-03 | An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090094576A KR20090094576A (en) | 2009-09-08 |
KR101004913B1 true KR101004913B1 (en) | 2010-12-28 |
Family
ID=41294968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080019612A KR101004913B1 (en) | 2008-03-03 | 2008-03-03 | An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101004913B1 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101522837B1 (en) * | 2010-12-16 | 2015-05-26 | 한국전자통신연구원 | Communication method and system for the same |
KR102116047B1 (en) * | 2017-05-17 | 2020-05-27 | 주식회사 에이아이리소프트 | System and method for improving speech recognition function of speech recognition system |
KR102544250B1 (en) * | 2018-07-03 | 2023-06-16 | 삼성전자주식회사 | Method and device for outputting sound |
KR102142957B1 (en) | 2018-08-24 | 2020-08-12 | 주식회사 리스트 | Machine-lead conversation service method and system |
CN109344229A (en) * | 2018-09-18 | 2019-02-15 | 深圳壹账通智能科技有限公司 | Method, apparatus, computer equipment and the storage medium of dialog analysis evaluation |
KR102196917B1 (en) * | 2019-01-14 | 2020-12-30 | 김주혁 | English speaking evaluation system and method thereof |
CN113469542A (en) * | 2021-07-09 | 2021-10-01 | 上海以善健康管理有限公司 | Self-iteration expression testing system based on language processing and image recognition |
-
2008
- 2008-03-03 KR KR1020080019612A patent/KR101004913B1/en not_active IP Right Cessation
Also Published As
Publication number | Publication date |
---|---|
KR20090094576A (en) | 2009-09-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102302137B1 (en) | Apparatus for studying foreign language and method for providing foreign language study service by using the same | |
US8682241B2 (en) | Method and system for improving the quality of teaching through analysis using a virtual teaching device | |
US8036896B2 (en) | System, server and method for distributed literacy and language skill instruction | |
KR101004913B1 (en) | An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof | |
JP2002503353A (en) | Reading aloud and pronunciation guidance device | |
Griol et al. | An architecture to develop multimodal educative applications with chatbots | |
JP6705956B1 (en) | Education support system, method and program | |
WO2007062529A1 (en) | Interactive language education system and method | |
JP2012215645A (en) | Foreign language conversation training system using computer | |
CN110489756A (en) | Conversational human-computer interaction spoken language evaluation system | |
KR100915681B1 (en) | Method and apparatus of naturally talking with computer | |
KR20220128897A (en) | Speaking Test System and Method with AI Avatar | |
KR20210048730A (en) | Language Teaching Service System and Method of providing thereof | |
Indrasari | Designing Listening Tasks For English Students | |
Hoque et al. | Robust recognition of emotion from speech | |
KR100450019B1 (en) | Method of service for english training of interactive voice response using internet | |
KR20220011109A (en) | Digital english learning service method and system | |
US11587460B2 (en) | Method and system for adaptive language learning | |
JP6656529B2 (en) | Foreign language conversation training system | |
US20220230626A1 (en) | Creative work systems and methods thereof | |
KR101004940B1 (en) | Method for evaluating spoken ability through computer-lead speech recognition | |
CN114255759A (en) | Method, apparatus and readable storage medium for spoken language training using machine | |
Acosta | Using emotion to gain rapport in a spoken dialog system | |
Junining et al. | Automatic speech recognition in computer-assisted language learning for individual learning in speaking | |
KR20190070682A (en) | System and method for constructing and providing lecture contents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
LAPS | Lapse due to unpaid annual fee |