KR101004913B1 - An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof - Google Patents

An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof Download PDF

Info

Publication number
KR101004913B1
KR101004913B1 KR1020080019612A KR20080019612A KR101004913B1 KR 101004913 B1 KR101004913 B1 KR 101004913B1 KR 1020080019612 A KR1020080019612 A KR 1020080019612A KR 20080019612 A KR20080019612 A KR 20080019612A KR 101004913 B1 KR101004913 B1 KR 101004913B1
Authority
KR
South Korea
Prior art keywords
answer
data
examinee
question
evaluation
Prior art date
Application number
KR1020080019612A
Other languages
Korean (ko)
Other versions
KR20090094576A (en
Inventor
옥종석
이동한
Original Assignee
이동한
옥종석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이동한, 옥종석 filed Critical 이동한
Priority to KR1020080019612A priority Critical patent/KR101004913B1/en
Publication of KR20090094576A publication Critical patent/KR20090094576A/en
Application granted granted Critical
Publication of KR101004913B1 publication Critical patent/KR101004913B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명의 목적은 첫째 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기 평가를 유도하여 학습의 성취도를 평가할 수 있고, 둘째 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준(준거)과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 평가할 수 있을 뿐만 아니라, 셋째 수험자의 말하기 시도가 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.The object of the present invention is to first speak the language in a general conversational manner using a computer, and in particular, to limit the number of conversations that are predicted, thereby using the limited resources of the computer to induce a natural conversational speech evaluation. Achievement can be assessed, and the second examinee's speaking input can be compared with the evaluation criteria (references) recorded in the database of the data section. Speaking attempts are stored in the database as a comprehensive scoring standard, taking into account the feelings, naturalities, and impressions of the examinee's speaking attempts. Clarity, fluency, etc.) To provide to the evaluation criteria utilized by the computer-driven Speaking speech recognition that can be quantified as part of the total score by summing the scores entered into the database language learning ability evaluation system and its evaluation method based on the ignition data.

말하기 평가 시스템, 평가 기준 구축, 언어 발화, 컴퓨터, 대화의 수, 음성인식, 도우미, Speech assessment system, assessment criteria building, speech, computer, number of conversations, speech recognition, helpers,

Description

음성인식을 활용한 컴퓨터 주도형 상호대화의 말하기 능력 평가 장치 및 그 평가방법{AN APPARATUS AND METHOD FOR EVALUATING SPOKEN ABILITY BY SPEECH RECOGNITION THROUGH COMPUTER-LEAD INTERACTION AND THEREOF}Apparatus and method for evaluating speech in computer-driven interaction using speech recognition and evaluation method {AN APPARATUS AND METHOD FOR EVALUATING SPOKEN ABILITY BY SPEECH RECOGNITION THROUGH COMPUTER-LEAD INTERACTION AND THEREOF}

본 발명은 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가 시스템 및 그 방법에 관한 것으로서, 특히 특정 언어의 말하기 능력을 상호 대화식으로 구성하여 실생활에서와 같은 자연스러운 대화를 컴퓨터와 주고받는 과정을 통하여 말하기 능력을 평가할 수 있으며, 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 학습을 유도하여 수험자의 특정언어에 대한 말하기 능력을 객관적이고 신뢰도가 높게 평가할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가 시스템 및 그 방법에 관한 것이다.The present invention relates to a computer-driven speech proficiency evaluation system and method using speech recognition, and in particular, by constructing the speech abilities of a specific language interactively, the ability to speak through a process of exchanging natural conversations with a computer as in real life. By using the computer, you can speak (try to speak) the language in a general conversational manner and limit the number of conversations that are predicted. The present invention relates to a computer-driven speech proficiency evaluation system and method using speech recognition capable of evaluating speech abilities objectively and with high reliability.

종래로부터 널리 사용되고 있는 기존의 말하기 평가는 주로 사람에 의해 이루어지고 사람에 의해 평가되어 왔으나 이러한 평가는 많은 시간이 소요된다는 문제점이 있고, 또 객관적인 평가와 채점자의 신뢰도, 다수의 수험자를 즉석에서 평가할 수 없다는 문제점이 있었다.Conventional speaking evaluation, which has been widely used in the past, has been mainly conducted by humans and has been evaluated by humans. However, these evaluations have a problem that it takes a lot of time. There was no problem.

이러한 문제점을 개선하기 위하여 최근 컴퓨터를 통해 수험자의 말하기 시도를 녹음하여 채점자에게 전달하여 채점을 하게 하는 방식이 많이 활용되어지고 있다. In order to improve such a problem, a method of recording an examinee's speaking attempt through a computer and delivering the score to a grader has been widely utilized.

그런데, 이러한 평가 또한 채점자의 주관에 의해 수험자의 점수가 결정될 여지가 여전히 남아있고 채점자 선정 및 채점 기간이 오래 소요되는 등의 문제점이 있을 뿐만 아니라, 수험자는 말하기 평가를 위한 질문에 수동적으로 답변만을 해야하고 수험자 자신의 의견을 피력하고 대화를 위한 상대방과의 협상 등이 결여되어있어 폐쇄성의 문제점이 있었다.However, this evaluation also has a problem that the score of the examinee is still determined by the scorer's supervision and the scorer selection and the scoring period takes a long time, and the examinee must only answer the question for the speech evaluation manually. There was a problem of closedness because the examinee expressed his opinion and lacked negotiation with the other party for dialogue.

또한 채점 기준으로도 등급제로 구성되어 채점자의 선택에 수험자의 점수가 결정되는 불합리한 점을 해소할 수 없다는 문제점이 있었다.In addition, there is a problem that can not solve the unreasonable point that the score of the examinee is determined in the selection of the scorer because it is composed of a grading system as a grading standard.

이러한 문제점을 해결하기 위해서 최근에 등장한 컴퓨터에 의한 말하기 능력평가는 컴퓨터에서 제시된 내용을 수험자가 단순히 읽고 따라하거나 문장을 반복하고, 짧은 답변 등으로 입력된 말하기 시도를 컴퓨터가 저장하여 수험자의 발음과 말하기 유창도에 따라 점수가 결정되는 말하기 평가도 선보이고 있으나, 이러한 말하기 평가 역시 자연스러운 대화의 유도를 통한 살아있는 말하기능력 평가가 아닌 수험자의 발음이나 말하기의 유창도를 등급제로 나누어 간접적인 방법으로 말하기 능력을 평가한다는 문제점이 있었다. In order to solve this problem, a recent computer-aided speech assessment is performed by the examinee by simply reading or repeating the contents presented by the computer or repeating the sentences, and storing the speaking attempts by the short answers. Speaking evaluation, which scores are determined according to fluency, is also introduced, but this speaking evaluation also evaluates speaking ability by indirect method by dividing examinee's pronunciation or speaking fluency by grading system, not assessment of living speaking ability through natural conversation. There was a problem.

이러한 문제점들을 해소하기 위하여 본 발명의 출원인들이 2000년과 4건(제0287227,0287228,0296271,0296272)을 등록받은 바 있으며, 특허출원(특허출원번호 10-2007-0063336호)한 컴퓨터 주도형 대화장치 및 방법에서는 컴퓨터에 의하여 1:1 또는 다수와의 언어 대화를 주도하는 것으로서, 대화에서 예측되는 대화의 수를 제한하여 상호작용적 대화가 이루어지도록 설계되어 있다.In order to solve these problems, the applicants of the present invention were registered in 2000 and 4 cases (No. 0287227,0287228,0296271,0296272), and the patent application (patent application No. 10-2007-0063336) computer-driven dialog device In the method and method, it is designed to lead a 1: 1 or multiple language conversation by a computer and to limit the number of conversations predicted in the conversation so that the interactive conversation is performed.

종래의 말하기 평가는 총괄적 채점 기준으로 수험자의 말하기 시도에 대한 느낌과 부분적 채점기준으로 발음, 유창성, 문법오류, 어휘 선택 등을 세분화하여 등급으로 표시하였으나 인간이 채점 하는 경우에 세분화된 부분을 정확하게 분석하는데 상당한 시간이 걸리고 채점자의 몸 상태, 기분 여하에 따라 점수가 달라지는 등의 객관적인 채점이 어려운 것이 사실이다. 인간이 채점하는 경우에는 전체적인 인상으로 점수를 주는 총괄적 채점기준에 많이 의존하였고 부분적인 채점 기준에 의거하여 채점을 하기에는 무리가 따른 것이 사실이었다. 인간이 채점하는 경우 수험자의 말하기를 듣고 부분적 채점기준과 일일이 대조하여 점수를 등급화하는 것은 거의 불가능한 실정에 있다는 문제점이 있었다.Conventional speaking evaluation is based on the overall grading criteria for the examinee's feelings of speaking attempts and partial grading criteria, such as pronunciation, fluency, grammatical errors, and vocabulary selection. It is true that objective scoring is difficult, because it takes a long time and the score varies depending on the physical condition of the grader and mood. In the case of scoring by humans, it was very much dependent on the overall scoring standard that gives a score as an overall impression, and it was true that it was too difficult to score based on the partial scoring criteria. When humans scored, there was a problem that it was almost impossible to grade the scores by listening to the examinees and comparing them with the partial grading criteria.

그러므로 인간이 채점하는 경우는 느낌과 수험자에 대한 인상, 분위기, 감 등에 의존하여 채점하므로 객관성을 유지할 수 없다는 문제점이 있을 뿐만 아니라, 최근에 등장한 컴퓨터에 의한 채점은 반대로 너무나 부분적인 채점에만 의존하는 경향이 있어 객관성을 유지할 수 없다는 문제점이 있었다. Therefore, in the case of human grading, the grading depends on feelings, impressions, moods, and feelings of the examinee, so that there is a problem that objectivity cannot be maintained. There was a problem that can not maintain objectivity.

예를 들면, 수험자의 발음, 어휘 선택 등을 기계적으로 분류하고 단답식에 가까운 짧은 답변을 정답과 오답으로 분류하여 채점하고 문법적으로 완벽한 문장은 정답으로 인식하고, 일부 오류를 내포한 문장은 오답으로 인식하여 충분히 의사소통을 원할하게 할 수 있는 경우에도 낮은 점수로 결정되는 문제점이 있었다. For example, the examinee's pronunciation and vocabulary selection are classified mechanically, and short answers close to short answers are classified into correct and incorrect answers, and grammatically perfect sentences are recognized as correct answers, and sentences containing some errors are recognized as incorrect answers. Even if the communication can be made smooth enough, there was a problem that is determined by a low score.

따라서, 본 발명은 상기 여러 가지 문제점을 해결하기 위하여 이루어진 것으로서, 본 발명의 목적은 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도) 하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기 평가를 유도하는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.Accordingly, the present invention has been made to solve the above-described problems, and an object of the present invention is to limit the number of conversations that can be spoken (attempted to speak) by using a computer in a general conversational manner, in particular by limiting the number of conversations expected. The present invention provides a computer-driven speech language learning ability evaluation apparatus using speech recognition and a method of evaluating the speech using the resources to induce a speech evaluation of a natural conversation method.

본 발명의 다른 목적은 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가결과를 도출할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.Another object of the present invention is to use the speech recognition to obtain the evaluation results on the fly with an objective and high reliability by comparing the examinee's speaking input with the evaluation criteria previously recorded in the database of the data section. To provide a computer-led speech language learning ability evaluation apparatus and its evaluation method.

삭제delete

본 발명의 또 다른 목적은 수험자의 말하기 시도가 데이터베이스에 저장되어있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치 및 그 평가방법을 제공하는데 있다.It is another object of the present invention to consider the feelings, naturalness, and impression of the examinee's speaking attempt as an overall scoring criterion stored in the database of the examinee's speaking attempts. Appropriateness of choice, relevance of content, clarity of expression, fluency, etc.) is computer-driven using speech recognition that can be input into the database and summed the partial scores to quantify the total scores. The present invention provides an apparatus for evaluating speaking language learning ability and an evaluation method thereof.

본 발명은 상기와 같은 목적을 달성하기 위하여 이루어진 것으로서, 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 컴퓨터가 주도하여 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부와; 수험자의 답변이 예측되지 않은 답변이면 처리부의 도우미부에 저장된 도우미에 의해 답변을 유도하고, 검색된 답변과 비교하여 답변하도록 제어하는 제어부와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하며, 예측가능한 답변인지 여부를 판단하고 지정된 도우미 신호를 출력하는 처리부와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호, 예측되는 답변신호, 도우미 정보를 데이터베이스로 기록하는 데이터부와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크와; 평가를 위한 배경영상ㆍ문자를 컬러로 출력하는 표시부와; 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부로 구성되어 있는 것을 특징으로 한다.The present invention has been made to achieve the above object, the computer-driven speaking ability evaluation apparatus using the speech recognition of the present invention includes a program storage unit for storing a program provided to the examinee who wants to receive a language assessment led by a computer; A control unit for inducing an answer by a helper stored in a helper unit of the processor if the answer is an unpredicted answer, and controlling the answer to be compared with the searched answer; A processing unit for recognizing a voice signal, converting an answer voice signal, a background sound signal, and a background image signal from corresponding data, determining whether the answer is a predictable answer, and outputting a designated helper signal; A data unit for recording the recognized voice signal, the voice signal to be output, the background sound signal, the background video signal, the predicted answer signal, and the helper information in a database; A microphone for inputting the examinee's voice response signal or voice question signal; A display unit for outputting a background image and text for evaluation in color; An input unit for inputting an evaluation request command and data information for an evaluation request; A speaker for outputting a speech signal and a background sound signal for evaluating speech; Characterized in that it comprises a communication unit for communicating with other computers by wire or wireless.

또한, 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 컴퓨터에 의하여 언어학습용 배경영상ㆍ문자 및 배경음향을 표시부에 출력하는 배경영상ㆍ문자/배경음향 출력과정과; 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 출력하는 평가용 대화 음성신호 출력과정과; 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 평가용 대화 음성신호에 대한 답변을 마이크에서 답변하는 답변과정과, 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하는 음성인식 판별과정과; 상기 음성인식 판별과정에서 수험자가 답변한 음성신호를 인식하였을 경우에 상기 음성인식 판별과정에서 수험자가 답변한 인식된 음성신호가 예측된 답변인지 여부를 판별하는 답변판별과정과; 상기 답변판별과정의 판별결과 예측된 답변일 경우에 수험자의 답변을 제어부의 제어하에 데이터부의 예측답변 데이터베이스에 저장된 답변자료를 검색하는 답변자료 검색과정과; 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사한지 여부를 판별하는 답변유사여부 판별과정과; 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부의 예측답변 데이터베이스에서 검색된 답변자료와 유사할 경우에 적절한 답변으로 평가하는 적절 답변 평가과정과; 상기 적절 답변 평가과정에서 평가된 평가 결과를 상기 데이터부의 평가결과 데이터베이스부에 저장하는 평가결과 저장과정과; 상기 답변유사여부 판별과정의 판별결과 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사하지 않을 경우, 틀린 답변으로 평가하는 틀린 답변 평가과정과; 상기 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부의 평가결과 데이터베이스에 저장하는 평가결과 저장과정을 포함하는 것을 특징으로 한다.In addition, the computer-driven speaking ability evaluation method using the speech recognition of the present invention includes a background image, text / background sound output process of outputting the background image, text and background sound for language learning by the computer; An evaluating dialogue voice signal output process for outputting a dialogue speech signal for speech evaluation after the background image / text / background acoustic output process; After the voice signal is recognized in the evaluation dialogue voice signal output process, an answering process for answering the evaluation dialogue voice signal by a microphone, and a voice for determining whether the examinee has recognized the voice signal answered by the examinee. Recognition discrimination process; An answer discrimination process for determining whether the recognized speech signal answered by the examinee in the speech recognition determination process is a predicted answer when the speech signal recognized by the examinee in the speech recognition determination process is recognized; An answer data search process of searching for answer data stored in the predictive answer database of the data part under the control of the control part of the examinee's answer in the case of a predicted answer as a result of the determination of the answer discrimination process; An answer similarity determination step of determining whether the answer data searched in the answer data search process and the examinee's answer are similar; An appropriate answer evaluation step of evaluating an appropriate answer if the examinee's answer is similar to the answer data retrieved from the predicted answer database of the data unit in the process of determining whether the answer is similar or not; An evaluation result storing step of storing the evaluation result evaluated in the appropriate answer evaluation step in the evaluation result database part of the data part; A result of determining whether the answer is similar or not, when the answer data searched in the answer data search process and the answer of the examinee are not similar, an incorrect answer evaluation process of evaluating a wrong answer; And an evaluation result storing step of storing the evaluation result in the evaluation result database of the data unit.

본 발명에 따른 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치 및 평가방법에 의하면, 첫째 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원 을 이용하여 자연스러운 대화 방식의 말하기를 유도하여 말하기 성취도를 평가할 수 있고, 둘째 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있을 뿐만 아니라, 셋째 수험자의 말하기 시도(발화)가 데이터부의 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성, 논리성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 즉석에서 수량화할 수 있다는 등의 여러 가지 뛰어난 효과가 있다.According to an apparatus and method for evaluating computer-driven speaking ability using speech recognition according to the present invention, first, a language is spoken (attempted to speak) by a general conversation method using a computer, and in particular, the number of conversations predicted is limited. Using limited resources, natural speaking methods can be used to assess speech achievement, and second, the examinee's speech input is compared with the evaluation criteria pre-recorded in the database of the data section. In addition, the third examinee's speaking attempt (speech) is a comprehensive scoring criterion that is stored in the database of the data section, taking into account the feelings, naturalness, and impressions of the speaking examinee's attempts. Accuracy or appropriateness , Grammatical accuracy, appropriateness of vocabulary selection, relevance of content, clarity of expression, fluency, logicality, etc.) are input into the database based on the native speaker's speech utterance data, and the partial scores are summed to quantify immediately. There are many outstanding effects such as being able to.

이하, 본 발명의 일실시예에 의한 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 관하여 첨부 도면에 의거하여 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, a computer-driven speaking ability evaluation apparatus using speech recognition according to an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

본 발명의 일실시예를 설명함에 있어서, 본 발명과 직접적으로 관련 없고, 잘 알려져 있는 기술 내용에 대하여서는 도면 도시 및 설명을 생략하여 본 발명의 요지를 명확하게 설명한다. In describing an embodiment of the present invention, the gist of the present invention will be clearly described by omitting drawings and descriptions for technical contents that are not directly related to the present invention and are well known.

도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치를 개략적으로 도시한 블록도이고, 도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이고, 도 3은 본 발명의 일실시예에 의한 음성인 식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 있어서 대화의 질문과 응답에 의한 트리구조를 개략적으로 도시한 도면이다.1 is a block diagram schematically showing an apparatus for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention, FIG. 2 is a block diagram showing a detailed structure of a processing unit and a data unit in FIG. FIG. 3 is a diagram schematically illustrating a tree structure based on questions and responses of a conversation in the apparatus for evaluating computer-driven speaking ability using voice recognition according to an embodiment of the present invention.

도 1 및 도 2에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 컴퓨터가 주도하여 대화식 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부(10)와; 수험자의 답변이 예측되지 않은 답변이면 처리부(30)의 도우미부(36)에 저장된 도우미에 의해 답변을 유도하고, 검색된 답변과 비교하여 답변하도록 제어하는 제어부(20)와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하며, 예측가능한 답변인지 여부를 판단하고 지정된 도우미 신호를 출력하는 처리부(30)와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호, 예측되는 답변신호, 도우미 정보를 데이터베이스로 기록하는 데이터부(40)와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크(50)와; 평가를 위한 배경영상, 문자를 컬러로 출력하는 표시부(60)와; 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부(70)와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커(80)와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부(90)로 구성되어 있다. 1 and 2, a computer-driven speaking ability evaluation apparatus using voice recognition according to an embodiment of the present invention is a program storage unit for storing a program provided to examinees who want to receive an interactive language evaluation led by a computer. 10; A control unit 20 for inducing an answer by a helper stored in the helper unit 36 of the processing unit 30 and comparing the searched answer if the examinee's answer is an unexpected response; A processing unit 30 for recognizing a voice signal, converting an answer voice signal, a background sound signal, and a background image signal from corresponding data, determining whether the answer is a predictable answer, and outputting a designated helper signal; A data unit 40 for recording the recognized voice signal, the voice signal to be output, the background sound signal, the background image signal, the predicted answer signal, and the helper information in a database; A microphone 50 for inputting the examinee's voice response signal or voice question signal; A display unit 60 for outputting a background image and text for evaluation in color; An input unit 70 for inputting an evaluation request command and data information for an evaluation request; A speaker 80 for outputting a speech signal and a background sound signal for evaluating speech; The communication unit 90 communicates with other computers by wire or wirelessly.

또한, 도 2에 도시한 바와 같이 상기 처리부(30)는 음성신호를 인식하고 데이터로 변환하는 음성인식부(31)와; 검색되어 제공되는 음성 데이터를 음성신호로 변환해서 출력하는 음성출력부(32)와; 검색되어 제공되는 배경음향 데이터를 오디오 신호로 변환하는 배경음향부(33)와; 검색되어 제공되는 배경영상 데이터 또는 문자데이터를 영상신호로 변환하는 배경영상부(34)와; 제공되는 답변신호가 데이터부(40)로부터 검색된 예측가능한 답변신호인지 여부를 확인하는 예측가능 대화부(35)와; 지정되어 검색된 데이터를 해당 도우미 정보로 변환하는 도우미부(36)로 구성되어 있다. In addition, as shown in FIG. 2, the processor 30 includes a voice recognition unit 31 for recognizing a voice signal and converting the voice signal into data; A voice output unit 32 which converts the retrieved and provided voice data into a voice signal and outputs the voice signal; A background sound unit 33 for converting the searched and provided background sound data into an audio signal; A background image unit 34 for converting the searched and provided background image data or text data into an image signal; A predictable dialogue unit 35 for confirming whether or not the answer signal provided is a predictable answer signal retrieved from the data unit 40; The helper unit 36 converts the designated and retrieved data into corresponding helper information.

또한, 상기 데이터부(40)는 음성신호 데이터를 데이터화하여 저장하는 음성인식 데이터베이스(41)와; 음성출력 데이터를 저장하며 말하기의 평가를 위하여 검색된 음성 데이터를 상기 제어부(20)에 출력하는 음성출력 데이터베이스(42)와; 말하기 평가를 위한 배경음향 데이터를 저장하고, 저장된 배경음향 데이터를 검색해서 상기 제어부(20)에 출력하는 배경음향 데이터베이스(43)와; 말하기평가를 위한 배경영상 데이터를 저장하고, 저장된 배경영상 데이터를 검색해서 상기 제어부(20)에 출력하는 배경영상 데이터베이스(44)와; 언어평가를 위한 수험자의 예측되는 답변신호를 저장하고 상기 처리부(30)의 음성인식부(31)에서 인식한 답변신호를 상기 제어부(20)로부터 제공받아 유사한 답변신호가 있는지 여부를 검색하는 예측답변 데이터베이스(45)와; 캐릭터, 문자, 음향, 색상을 도우미 데이터로 저장하고 지정된 도우미 데이터를 검색하여 상기 제어부(20)에 제공하는 도우미 데이터베이스(46)와; 수험자의 말하기 발화 능력을 평가하기 위한 평가준거(평가기준)를 저장함과 동시에, 상기 음성출력 데이터베이스(42)에 저장된 음성출력 데이터를 받아서 답변신호와 비교하여 비교결과를 상기 제어부(20)에 출력하는 평가준거 데이터베이스(47)와; 대화 소재데이터 또는 주제데이터를 저장하는 대화 소재ㆍ주제 데이터베이스(48)와, 수험자의 평가결과 데이터를 저장하는 평가결과 데이터베이스(49)로 구성되어 있다.In addition, the data unit 40 includes a voice recognition database 41 for storing voice signal data as data; A voice output database 42 for storing voice output data and outputting the retrieved voice data to the controller 20 for evaluation of speech; A background sound database 43 for storing background sound data for speech evaluation, retrieving the stored background sound data, and outputting the stored background sound data to the controller 20; A background image database 44 for storing background image data for speech evaluation, retrieving the stored background image data, and outputting the stored background image data to the controller 20; Predictive answer storing the predicted answer signal of the examinee for language evaluation and receiving the answer signal recognized by the voice recognition unit 31 of the processing unit 30 from the control unit 20 to search whether there is a similar answer signal A database 45; A helper database 46 for storing characters, characters, sounds, and colors as helper data, and searching and providing the designated helper data to the controller 20; While storing the evaluation criteria (evaluation criteria) for evaluating the examinee's speech utterance ability, receiving the voice output data stored in the voice output database 42 and comparing the answer signal to output the comparison result to the control unit 20 An evaluation criteria database 47; It consists of a dialogue subject / topic database 48 which stores the dialogue subject data or the subject data, and an evaluation result database 49 which stores the evaluation result data of the examinee.

다음에, 이와 같이 구성된 본 발명의 일실시예에 따른 본 발명의 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치의 작용 및 효과에 대하여 설명한다.Next, the operation and effects of the computer-driven speaking ability evaluation apparatus utilizing the speech recognition of the present invention configured as described above will be described.

먼저, 본 발명의 일실시예에 따른 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치는 수험자가 입력부(70)에서 언어평가를 시작하고자 요청하는 평가 요청신호가 제어부(20)에 입력되면, 상기 제어부(20)에서는 프로그램 저장부(10)로부터 언어평가를 위한 해당 응용 프로그램을 로딩하여 수험자에게 언어평가 서비스를 제공하기 위한 대기상태가 된다. First, the computer-driven speaking ability evaluation apparatus using voice recognition according to an embodiment of the present invention, if the examinee inputs an evaluation request signal for requesting to start language evaluation from the input unit 70 is input to the control unit 20, the control unit In operation 20, the corresponding application program for language evaluation is loaded from the program storage unit 10, and the standby state is provided for providing the language evaluation service to the examinee.

이때 상기 제어부(20)는 통신부(90)를 감시하여 다른 학습용 컴퓨터 또는 관리용 컴퓨터와 상기 통신부(90)에 접속되었는지 여부를 판별하고, 상기 판별결과 다른 평가 및 학습용 컴퓨터 또는 관리용 컴퓨터와 접속되었을 경우에는 현재의 운용상태 정보와 관리용으로 필요한 운용정보를 상호 교환하며, 말하기 평가 진행에 따라 서로 필요한 정보를 교환하도록 주기적으로 제어한다. At this time, the control unit 20 monitors the communication unit 90 to determine whether it is connected to another learning computer or management computer and the communication unit 90, and as a result of the determination, the control unit 20 is connected to another evaluation and learning computer or management computer. In this case, the current operation status information and management information required for management are exchanged with each other, and the necessary information is periodically controlled to exchange information with each other as the speech evaluation progresses.

상기 제어부(20)는 말하기 평가서비스를 수험자에게 제공하기 위하여, 상기 데이터부(40)의 음성출력 데이터베이스(42), 배경음향 데이터베이스(43), 배경영상 데이터베이스(44)로부터 말하기 평가서비스의 배경영상 신호와 배경음향 신호 및 텍스트(TEXT) 데이터로 이루어진 음성신호를 검색하여 상기 처리부(30)에 제공한다. The controller 20 provides a background image of the speech evaluation service from the voice output database 42, the background acoustic database 43, and the background image database 44 of the data unit 40 to provide the speech evaluation service to the examinee. The voice signal including the signal, the background sound signal, and the text TEXT data is searched and provided to the processor 30.

상기 처리부(30)는 제어부(20)로부터 제공된 배경영상 신호와 배경음향 신호 및 텍스트 데이터를 처리부(30)의 배경영상부(34), 배경음향부(33), 음성출력 부(32)에 각각 제공하여, 상기 처리부(30)의 배경영상부(34)에서 배경영상 데이터를 배경영상 신호(문자 신호 포함)로 변환하고, 상기 처리부(30)의 배경음향부(33)에서 배경음향 데이터를 배경음향 신호로 변환하며, 상기 처리부(30)의 음성 데이터인 텍스트 데이터를 TTS(TEXT TO SPEECH) 기술에 의하여 음성신호로 변환한다. The processing unit 30 transmits the background image signal, the background sound signal, and the text data provided from the control unit 20 to the background image unit 34, the background sound unit 33, and the audio output unit 32 of the processing unit 30, respectively. The background image unit 34 of the processing unit 30 converts the background image data into a background image signal (including a text signal), and the background sound data of the background unit 33 of the processing unit 30 performs the background. The audio signal is converted into an audio signal, and the text data, which is the audio data of the processor 30, is converted into an audio signal by TTS (TEXT TO SPEECH) technology.

그리고, 상기 처리부(30)에 의하여 각각 변환된 영상신호 및 문자신호는 상기 제어부(20)에서 표시부(60)에 출력하여 표시부(60)에 영상화면을 표출함과 동시에, 상기 처리부(30)의 배경음향부(33)에서 변환된 배경음향 신호와 상기 처리부(30)의 음성출력부(32)에서 변환된 배경음성 신호는 스피커(80)에 각각 제공하여 음향 및 음성을 출력한다. The video signal and the text signal respectively converted by the processing unit 30 are output from the control unit 20 to the display unit 60 to display an image screen on the display unit 60, and at the same time, The background sound signal converted by the background sound unit 33 and the background sound signal converted by the voice output unit 32 of the processor 30 are provided to the speaker 80 to output sound and voice.

상기 제어부(20)는 마이크(50)로부터 수험자의 음성신호가 입력되는지 감시하여 수험자의 음성신호가 입력되었을 경우 상기 처리부(30)의 음성인식부(31)에 제공하여 인식되었는지 여부를 확인한다. The control unit 20 monitors whether the examinee's voice signal is input from the microphone 50 and checks whether the examinee's voice signal is provided to the voice recognition unit 31 of the processing unit 30 and recognized.

상기 처리부(30)의 음성인식부(31)에서는 인식된 답변 음성신호를 예측가능 대화부(35)에 제공하여 말하기 평가를 위한 예측된 답변에 포함되어 있는지 여부를 확인한다. 상기 처리부(30)의 예측가능 대화부(35)는 데이터부(40)의 예측답변 데이터베이스(45)를 검색하여 인식된 답변과 유사한 답변이 있는지 여부를 분석한다. 즉, 인식된 답변과 설정된 소정 비율 이상 유사한 답변이 예측답변 데이터베이스(45)로부터 검색하여 상기 데이터부(40)의 예측답변 데이터베이스(45)에 예측된 답변과 인식된 답변을 디지털 데이터 처리하여 대비하여 유사도가 상기 데이터부(40)의 예측답변 데이터베이스(45)에 미리 설정된 소정 비율 이상인지 여부를 확인할 수 있다. The speech recognition unit 31 of the processing unit 30 provides the recognized answer speech signal to the predictable conversation unit 35 to check whether it is included in the predicted answer for speech evaluation. The predictable conversation unit 35 of the processing unit 30 searches the prediction answer database 45 of the data unit 40 and analyzes whether there is an answer similar to the recognized answer. That is, an answer that is similar to the recognized answer by a predetermined ratio or more is searched from the prediction answer database 45, and prepared by digitally processing the predicted answer and the recognized answer in the prediction answer database 45 of the data part 40. It may be determined whether the similarity is equal to or greater than a predetermined ratio preset in the prediction answer database 45 of the data unit 40.

상기 설명에 있어서, 유사도 측정을 위하여 설정된 소정 비율은 상기 마이크(50)를 통해 입력되어 인식된 답변 음성신호에 주변환경의 잡음이 포함된 상태, 수험자 억양의 변화, 비슷한 단어 및 어구의 사용, 수험자의 연령 및 성별 등에 의한 음성신호의 차이 등을 감안하여 반복된 실험으로 적정한 값을 선택하여 평가한다. In the above description, a predetermined ratio set for measuring similarity is a state in which the response voice signal input and recognized through the microphone 50 includes the noise of the surrounding environment, a change in the examinee's intonation, the use of similar words and phrases, and the examinee. The appropriate value is selected and evaluated in a repeated experiment in consideration of differences in voice signals due to age and gender.

상기 제어부(20)는 수험자에 의해 입력된 답변이 예측한 답변의 범위에 포함되는 것으로 확인되면, 상기 데이터부(40)의 음성출력 데이터베이스(42)로부터 지정된 답변 자료를 검색하고 데이터 처리하여 유사도를 확인한다. If it is confirmed that the answer input by the examinee is included in the range of the predicted answer, the controller 20 searches for the specified answer data from the voice output database 42 of the data part 40 and processes the data to obtain similarity. Check it.

인식된 답변과 검색된 지정 답변이 설정된 소정 비율 이상 유사한 경우에는 "적절한 답변입니다"와 같은 표현을 수험자에게 제공하고 언어학습 진행을 위하여 다음 단계로 복귀하며, 유사하지 않은 경우는 "틀린 답변입니다"와 같은 표현을 스피커(80)를 통해서 수험자에게 제공하고, 다음 단계로 복귀하며, 이러한 말하기 평가결과는 데이터부(40)의 평가결과 데이터베이스(49)에 저장하여 앞으로의 학습 진도에 활용함과 동시에, 수험자가 요청할 경우에 수험자에게 제공한다. If the recognized answer and the designated answer found are more than a certain percentage set, provide the examinee with an expression such as "It is an appropriate answer" and return to the next step to proceed with language learning. The same expression is provided to the examinee through the speaker 80, and the process returns to the next step. The speaking evaluation result is stored in the evaluation result database 49 of the data unit 40 and used for future learning progress. Provide the examinee if requested by the examinee.

또한, 상기 제어부(20)는 감시중인 음성인식부(31)에 입력된 수험자의 답변이 예측가능 대화부(35)에 의하여 예측된 답변이 아닐 경우는 도우미부(36)를 제어하여, 지정된 도우미가 출력되도록 하고 수험자로부터 제한된 범위의 답변이 입력 및 인식되도록 유도한다. In addition, the controller 20 controls the helper 36 when the answer of the examinee inputted to the monitored voice recognition unit 31 is not the answer predicted by the predictable conversation unit 35, and controls the designated helper 36. Is outputted and a limited range of answers from the examinee is entered and recognized.

지정된 도우미로서는 캐릭터, 그림, 동영상, 문자 메시지, 음성 메시지, 색상 메시지 등이 포함되고, 일예로, "~~이 궁금하지 않니? 한번 물어봐." 또는 " ~~ 하게 물어보는 것은 어떠니?" 등과 같이 말하기 평가를 위한 대화를 컴퓨터가 주도하는 동시에 대화의 범위를 제한한다. 이러한 도우미 정보는 데이터부(40)의 도우미 데이터베이스(46)에 기록 관리되며, 사전에 평가의 단계 별로 도우미를 지정 기록 및 관리한다. Designated helpers include characters, pictures, videos, text messages, voice messages, color messages, and the like. For example, "Are you wondering ~~? Ask me." Or "How about asking ~~?" The computer leads the conversation for evaluating speech and limits the scope of the conversation. The helper information is recorded and managed in the helper database 46 of the data unit 40, and records and manages the helper in advance for each evaluation step.

종래에는 단순하게 수험자의 음성신호를 인식하고 지정된 음성신호가 입력되었는지 여부를 비교하여 옳고 그름을 판단하는 방식, 즉 음성인식의 성공여부만을 판단하여 대화를 이끌어 가는 것으로, 수험자는 제시된 문장 또는 단어를 읽거나 외워서 질문 또는 대화에 답변하는 방식이었으나, 본 발명에서는 도우미를 이용하여 대화를 주도하여 일정한 방향의 대화가 이루어지도록 대화의 방향을 유도하거나 제한하므로 컴퓨터의 적은 데이터베이스(DATABASE: DB) 용량으로도 수험자와 자유로운 대화식 또는 상호 작용적 쌍방향의 말하기능력을 평가할 수 있다. Conventionally, by simply recognizing the examinee's voice signal and comparing whether or not a designated voice signal has been input, a method of judging right and wrong, that is, judging only the success of voice recognition, leads the conversation. It was a way of answering a question or a conversation by reading or memorizing, but in the present invention, the guide is used to guide the conversation by using a helper to induce or limit the direction of the conversation so that a certain direction of the conversation is achieved. Evaluate speaking skills with the examinee freely or interactively.

일반적인 대화에서는 수험자와의 대화 및 질문이 어떤 내용을 포함할 것인지, 예를 들면, 긍정, 부정, 의문사를 지닌 의문문, 부가 의문문 등과 같이 매우 복잡한 형태에 의한 무한대의 대화의 수 또는 질문의 수가 발생하므로 수험자에게 답변하기 위한 내용 저장을 위하여 데이터베이스의 용량이 무한대로 필요하다. 또한 그 처리 방법도 매우 복잡함과 동시에 시간이 많이 소요되는 문제가 있었으나, 본 발명에서는 대화를 주도하여 원하는 방향으로 유도 및 제한하므로, 즉, 미리 정해진 제한된 문장, 단어 등에 의한 도우미를 이용하여 언어학습을 위한 대화의 방향을 컴퓨터가 주도하므로 적은 용량의 컴퓨터 데이터베이스로 자연스러운 대화 방식으로 말하기 능력을 평가할 수 있다. In general conversations, there are an infinite number of conversations or questions in very complex forms, such as what conversations and questions with examinees will include, for example, positive, negative, questionable questions, and additional questions. The capacity of the database is infinitely needed to store the contents for the respondents. In addition, there is a problem that the processing method is very complicated and time-consuming, but in the present invention leads to the desired direction by limiting the conversation, that is, the language learning using a helper by a predetermined limited sentence, words, etc. The computer-driven direction of the conversation can help you assess your speaking skills in a natural way with a small computer database.

도우미를 이용하여 상호작용적 대화식 전개 방식에는 여러 가지가 있으나, 본 발명에서 일실시예를 들어서 설명하면 다음과 같다. There are various interactive interactive deployment methods using the helper, but one embodiment of the present invention will be described as follows.

가. 그림, 동영상 도우미 활용 end. Drawing, video assistant

소정의 그림이나 동영상을 이용하여 질문 또는 답변이 발생하도록 일정한 방향으로 유도하므로, 무한대의 질문 및 답변의 수가 발생할 수 있는 대화를 원하는 방향으로 제한한다. Since a certain picture or video is guided in a certain direction to generate a question or an answer, an unlimited number of questions and answers may be limited to a desired direction.

이러한 대화는 언어학습의 각 단계별 상황에 적합하게 대화의 순서를 구성하고, 수험자는 컴퓨터와 1:1 대화를 위하여 그림이나 동영상으로 주어진 상황의 주인공으로 인식하게 하여 컴퓨터의 유도질문에 답변하도록 하여 말하기 능력을 평가할 수 있다. These conversations form a sequence of conversations for each stage of language learning, and the examinee responds to the induction questions of the computer by allowing the examinee to recognize the main character of the given situation as a picture or video for 1: 1 conversation with the computer. Evaluate your abilities.

나. 예측 가능한 데이터 입력 I. Predictive Data Entry

수험자의 인식도가 떨어지는 답변을 미리 예측하여 데이터로 기록하고, 설정된 전개방향을 확인하도록 데이터로 입력하여 말하기 평가 진행 상태를 제어하고 대화의 수를 제한한다. 또한 문법 구조와 의사소통이 가능한 문장, 오류가 포함된 문장 등을 데이터로 입력하고 수험자 입력으로 인식되는 음성 데이터와 비교하여 오류의 유형을 파악하여 말하기 능력을 평가할 수 있다. Predictive answers of the examinee are recorded in advance, and recorded as data, and inputted as data to confirm the set development direction to control the progress of speaking evaluation and limit the number of conversations. In addition, the grammatical structure, communication sentences, and sentences with errors can be input as data and compared with the voice data recognized by the examinee's input to identify the type of error and assess speaking ability.

다. 캐릭터와 제3 신호 등에 의한 도우미 활용 All. Utilization of helper by character and third signal

그림, 동영상에 의한 제3 캐릭터를 도우미로 활용하여 수험자가 컴퓨터에 질문하는 상황, 일예로, "무엇이 궁금하지 않니? 한번 물어봐(Aren't you curious about something? Ask him, What....)" 등과 같이 유도하고 수험자의 답변을 데이 터로 입력하여 분석한다. 수험자의 답변이 예측된 내용과 유사하지 않으면 컴퓨터는 재차 질문하여 설정된 대화의 방향으로 유도하여 말하기 능력을 평가한다. A situation where an examinee asks a computer by using a third character based on pictures and videos as an assistant, for example, "Aren't you curious about something? Ask him, What ....) ", Etc. and input the examinee's response as data for analysis. If the examinee's response is not similar to the predicted content, the computer asks the question again to guide the established conversation and evaluates the speaking ability.

이러한 캐릭터를 활용하지 않는 경우는 When, Where, What, Why, Who, How, Yes-No에 의한 의문문 형태를 미리 정하여 약속된 색상, 모양의 그림, 음향, 문자 등과 같은 제3의 신호로 전개한다는 사용법을 수험자에게 소개하고 질문 또는 답변하도록 하거나, 자막으로 유도(예; It's your turn.)하여 질문 또는 답변하게 하므로 자연적인 대화로 의문문을 학습하도록 유도하여 말하기 능력을 평가한다. In the case of not utilizing such a character, the question form by When, Where, What, Why, Who, How, and Yes-No is defined in advance and developed into a third signal such as a promised color, shape, picture, sound, or character. Evaluate speaking skills by introducing usage to the examinee, asking questions or answers, or encouraging subtitles (e.g., it's your turn.) To ask questions or answer questions through natural conversation.

언어학습이 원만하게 진행되는 중간 상황에서는 도우미 대신에 설정된 소정의 신호만으로도 수험자가 질문 또는 답변할 순서임을 인지하도록 할 수 있으므로 말하기를 용이하고 신속하게 평가할 수 있다. In the intermediate situation where the language learning is smoothly performed, the examinee can recognize the order of questions or answers only with a predetermined signal instead of the helper, so that speaking can be easily and quickly evaluated.

라. 대화의 전개를 나무구조(Tree - Structure)로 제한 la. Limit the development of dialogues to Tree-Structure

컴퓨터와의 대화를 나무의 가지 구조처럼 상황 전개하므로 다양한 대화의 수로 말하기의 능력을 평가하고, 또한 일정한 방향으로 대화가 진행되도록 유도하여 상황이 무한대로 전개되지 않도록 제한함으로서 말하기를 평가할 수 있다. Since the dialogue with the computer develops the situation like the branch structure of the tree, the speech can be evaluated by evaluating the ability of speaking with various numbers of conversations and by restricting the situation from developing indefinitely by inducing the dialogue to proceed in a certain direction.

첨부된 도 3에 이러한 나무구조의 대화 상황이 도시되어 있다. In the accompanying FIG. 3, a dialogue situation of such a tree structure is illustrated.

즉, 대화의 질문에 대한 답변을 미리 예측하여 컴퓨터에 입력하고, 대화의 수를 제한하여 무한대로 펼쳐지지 않도록 제한하며, 제한된 대화의 수를 다시 전개하는 과정을 반복하므로 수험자는 제한 유도된 대화의 수에 의하여서도 다양한 상황의 질문을 선택하여 말하기를 평가할 수 있다. In other words, the examinee predicts the answer to the question of the conversation in advance, enters it into the computer, restricts the number of conversations so that they do not extend to infinity, and repeats the process of redeploying the limited number of conversations. Numbers can also be used to assess speech by selecting questions in a variety of situations.

도 4는 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 도면에 있어서, S는 스텝(Step)을 표시한다.4 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention. In the figure, S denotes a step.

도 4에 도시한 바와 같이 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법은 스텝S1에서 컴퓨터에 의하여 말하기 평가용 배경영상ㆍ배경문자 및 배경음향을 표시부(60)에 출력하고(배경영상ㆍ배경문자/배경음향 출력과정), 스텝S2로 나아가서 상기 배경영상ㆍ배경문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 출력하고(평가용 대화 음성신호 출력과정), 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 스텝S3으로 나아가서 평가용 대화 음성신호에 대한 답변을 마이크(50)에서 수험자가 답변한다(답변과정). As shown in FIG. 4, in the method of evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention, the display unit 60 displays the background image, the background character, and the background sound for speech evaluation by the computer in step S1. Output (background image, background character / background sound output process), and proceed to step S2 and output the dialogue voice signal for speech evaluation after the background image, background character / background sound output process (dialogue speech signal output process for evaluation) After the voice signal is recognized in the evaluation dialogue voice signal output process, the process proceeds to step S3 and the examinee answers the answer to the evaluation dialogue voice signal in the microphone 50 (answering process).

다음에 스텝S4로 나아가서 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하고(음성인식 판별과정), 상기 음성인식 판별과정에서 수험자가 답변한 음성신호를 인식하였을 경우(YES일 경우)에 스텝S5로 나아가서 상기 음성인식 판별과정에서 수험자가 답변한 인식된 음성신호가 예측된 답변인지 여부를 판별하고(답변판별과정), 상기 답변판별과정의 판별결과 예측된 답변일 경우(YES일 경우)에 스텝S6으로 나아가서 수험자의 답변을 제어부(20)의 제어하에 상기 데이터부(40)의 예측답변 데이터베이스(45)에 저장된 답변자료를 검색하고(답변자료 검색과정), 스텝S7로 나아가서 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사한지 여부를 판별한다(답변유사여부 판별과정).Next, the process proceeds to step S4 to determine whether or not the voice signal answered by the examinee in the answering process is recognized (voice recognition discrimination process), and in the case of recognizing the voice signal answered by the examinee in the speech recognition process (YES). Go to step S5 to determine whether the recognized speech signal answered by the examinee in the speech recognition process is a predicted answer (answer discrimination process), and if the answer is a predicted answer (YES day) Case) to search for the answer data stored in the predicted answer database 45 of the data part 40 under the control of the control unit 20 (step S7), and proceed to step S7. Determine whether the answer data retrieved from the answer data search process and the examinee's answer is similar (determining whether or not there is a response).

다음에, 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터 부(40)의 예측답변 데이터베이스(45)에서 검색된 답변자료와 유사할 경우(YES일 경우)에 스텝S8로 나아가서 적절한 답변으로 평가하고(평가과정), 스텝S9로 나아가서 상기 평가과정에서 평가된 평가 결과를 상기 데이터부(40)의 평가결과 데이터베이스부(49)에 저장하고(평가결과 저장과정), 상기 스텝S7의 상기 답변유사여부 판별과정의 판별결과 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사하지 않을 경우(NO일 경우), 스텝S10으로 나아가서 틀린 답변으로 평가하고(틀린 답변 평가과정), 상기 스텝S9의 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다Next, when the examinee's answer is similar to the answer data retrieved from the predictive answer database 45 of the data part 40 (YES) in the process of determining whether or not the answer is similar, the process proceeds to step S8 and is evaluated as an appropriate answer. (Evaluation process), the process proceeds to step S9 and the evaluation result evaluated in the evaluation process is stored in the evaluation result database part 49 of the data part 40 (evaluation result storage process), and whether the answer of step S7 is similar or not. As a result of the discrimination process, when the answer data searched in the answer data search process and the examinee's answer are not similar (NO), the process proceeds to step S10 to evaluate the wrong answer (wrong answer evaluation process), and the evaluation of the step S9. Proceeding to the result storing process, the evaluation result is stored in the evaluation result database 49 of the data part 40.

한편, 상기 스텝S4에서 음성인식 판별과정의 판별결과 수험자가 답변한 음성신호를 인식하지 못하였을 경우(NO일 경우), 스텝S1의 배경영상ㆍ배경문자/배경음향 출력과정으로 복귀하여 상기 배경영상ㆍ배경문자/배경음향 출력과정 이하의 과정을 반복해서 행한다. On the other hand, if the result of the voice recognition determination process in step S4 does not recognize the voice signal answered by the examinee (NO), it returns to the background image, background text / background sound output process of step S1 and the background image. • Background text / background sound output process The following process is repeated.

그리고, 상기 스텝S5의 답변판별과정 결과 수험자가 답변한 인식된 음성신호가 예측된 답변이 아닐 경우(NO일 경우), 스텝S20으로 나아가서 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장되어 있는 지정된 도우미로 한정된 질문을 유도하고(도우미 도움과정), 상기 도우미 도움과정 후에, 스텝S21로 나아가서 도우미 도움에 따라 수험자가 마이크(50)에 질문을 행하고(질문과정), 스텝S22로 나아가서 상기 질문과정에서 수험자가 질문한 음성신호를 인식하였는지 여부를 판별하고(질문음성인식 판별과정), 상기 질문음성인식 판별과정에서 수험자가 질문한 음성신호를 인식하였을 경우(YES일 경우)에 스텝S23으로 나아가서 상기 질문음성인식 판별과정에서 수험자가 질문한 인식된 질문음성신호가 예측된 질문인지 여부를 판별하고(질문판별과정), 상기 질문판별과정의 판별결과 예측된 질문일 경우(YES일 경우))에 스텝S24로 나아가서 수험자의 질문을 제어부(20)의 제어하에 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장된 질문자료를 검색하고(질문자료 검색과정), 스텝S25로 나아가서 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사한지 여부를 판별한다(유사질문여부 판별과정).If the recognized speech signal answered by the examinee as a result of the answer discrimination process of step S5 is not a predicted answer (NO), the process proceeds to step S20 and is stored in the helper database 46 of the data unit 40. Induce a question limited to the designated helper (helper help process), and after the helper help process, the examinee proceeds to step S21 and the examinee asks the microphone 50 according to the helper help (question process), and proceeds to step S22 to ask the question. In step S23, it is determined whether the examinee has recognized the voice signal asked by the examinee (question speech recognition discrimination process), and if the examinee recognizes the voice signal asked by the examinee in the question speech recognition discrimination process (YES), the process proceeds to step S23. In the question voice recognition determination process, whether the recognized question voice signal asked by the examinee is a predicted question (question discrimination process) is determined. If the result of the judgment of the sentence discrimination process is a predicted question (YES), the process proceeds to step S24 and the question data stored in the helper database 46 of the data unit 40 is controlled by the examinee's question under the control of the control unit 20. Search (question data search process), and proceeds to step S25 to determine whether or not the question material and the examinee's questions searched in the question data search process is similar (determination of similar questions or not).

다음에, 상기 유사질문여부 판별과정에서 수험자의 질문이 상기 데이터부(40)의 도우미 데이터베이스(46)에서 검색된 질문자료와 유사할 경우(YES일 경우)에 스텝S26으로 나아가서 적절한 질문으로 평가하고(유사 질문평가과정), 상기 유사 평가결과 저장과정으로 나아가서 상기 질문평가과정에서 평가된 평가 결과를 상기 데이터부(40)의 평가결과 데이터베이스부(49)에 저장하고(평가결과 저장과정), 상기 스텝S25의 상기 유사질문여부 판별과정의 판별결과 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사하지 않을 경우(NO일 경우), 스텝S27로 나아가서 틀린 질문으로 평가하고(틀린 질문 평가과정), 상기 스텝S9의 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장한다Next, when the examinee's question is similar to the questionnaire retrieved from the helper database 46 of the data part 40 (YES), the process proceeds to step S26 and is evaluated as an appropriate question in the process of determining whether or not the similar question is determined ( Similar question evaluation process), and proceeds to the similar evaluation result storage process and stores the evaluation result evaluated in the question evaluation process in the evaluation result database part 49 of the data part 40 (evaluation result storage process), and the step If the result of the determination process of the similar question determination process of S25 is not the question material and the examinee's question found in the question material search process (NO), go to step S27 to evaluate the wrong question (incorrect question evaluation process) The process of storing the evaluation result of step S9 is performed to store the evaluation result in the evaluation result database 49 of the data part 40.

본 발명에 있어서, 수험자의 말하기 발화 능력을 평가하기 위한 평가준거를 평가준거 데이터베이스(47)의 구성은 총괄적 채점과 분석적 채점기준의 통합하여 데이터베이스를 구축한 총괄-분석적 채점 등급으로 구성하고 각 등급 간의 점수는 시험의 목적에 따라 세분화 혹은 단순화 할 수 있다. 각 영역의 평가 세부 평가 기 준은 아래와 같다. In the present invention, the evaluation criteria for evaluating the speaking utterance ability of the examinee is composed of the evaluation criteria database 47 is composed of a comprehensive-analytical scoring grade, which is constructed by integrating the overall scoring and the analytical scoring criteria, and constructing a database. Scores can be broken down or simplified depending on the purpose of the test. Evaluation criteria of each area are as follows.

1) 과제실현 능력(task achievement ability): 주어진 대화과제에 응답하고 실현하는 능력을 평가하며 과제를 최종적으로 실현 유무를 판단함.1) task achievement ability: evaluates the ability to respond to and realize a given conversational task and to determine whether the task is finally realized.

2) 의사소통능력: 의미를 전달하거나 이해하고 대화를 지속할 수 있는 능력을 판단함.2) Communication skills: to judge the ability to convey meaning, to understand and to continue conversations.

3) 대화의 논리성: 평가자나 다른 대화자에게 대화의 본질을 벗어나지 않고 논리적으로 적절하게 응답하는 능력을 판단함.3) Logical Logic: To determine the ability to respond logically and appropriately to the evaluator and other speakers without departing from the nature of the dialogue.

4) 언어자료 활용 능력: 의미를 전달하기 위한 적절한 어휘 및 문법을 사용하고 대화의 상대방이 이해하지 못하는 경우 바꾸어 말하기 전략(paraphrase strategy) 등을 구사하여 대화를 지속할 수 있는 능력을 판단함.4) Ability to use language materials: Use appropriate vocabulary and grammar to convey meaning, and use paraphrase strategy to determine the ability to continue the conversation if the other party of the conversation does not understand.

5) 발음: 수험자가 하는 말이 명료하여 대화 상대자에게 의미의 전달이 적절히 이루어질 수 있는 가를 판단함. 5) Pronunciation: The examinee's words are clear, and it is determined whether or not the meaning can be properly delivered to the conversation partner.

6) 유창성: 수험자가 하는 말의 속도, 리듬 및 주저함(hesitation) 등이 자연스러운지를 판단함.6) Fluency: Determines whether the examinee's speech, rhythm and hesitation are natural.

위에 제시된 6개 항목은 아래의 7개 항목으로 다시 세부 평가가 이루어지도록 한다.The six items listed above are further refined to the following seven items.

① 주어진 과제의 실현 유무: 주어진 과제가 실현되었는지를 판단① Whether the given task is realized or not

② 과제 실현 시간: 원어민 평균 과제 실현 시간과 비교② Task realization time: Compared with the average native language realization time

③ 핵심 어휘 사용: 핵심어휘 사용 혹은 핵심어휘 미사용 후 바꾸어 말하기 등으로 의사표현을 등급으로 조정③ Use of core vocabulary: Adjust the expression of the expression to grade by using the core vocabulary or not using the core vocabulary.

④ 문장의 정확성(문법 오류 유무): 문법의 정확성은 문법의 중요성 정도(의사소통에 영향을 미치는 지 여부)에 따라 오류를 등급으로 나누어 점수를 산정④ Accuracy of sentences (with or without grammar errors): Grammar accuracy is calculated by dividing the error into grades according to the importance of grammar (whether it affects communication).

⑤ 발음의 정확성: 원어민의 발음과 비교하여 일반적 원어민 수준의 발음부터 의사소통에 영향을 미치는 지 여부에 따라 차등 등급⑤ Pronunciation accuracy: Different grades depending on whether native speaker pronunciation or communication affects communication compared to native speaker's pronunciation

⑥ 유창성: 수험자가 하는 말의 속도, 리듬 및 주저함 등을 기준으로 원어민의 데이터와 비교하여 차등 등급 제시⑥ Fluency: Differential grades are compared with the data of native speakers based on the speed, rhythm and hesitation of the examinee's words.

⑦ 논리성: 대화가 일관성 있게 원할히 전개되었는지를 판단하는 기준으로 대화의 일관성을 유지하기 위하여 도우미가 등장해서 수험자가 대화를 지속하였는지 혹은 본인이 스스로 대화를 잘 수행하였는지를 판단한다. 도우미의 등장 횟수에 따라 점수의 감점이 이루어진다. ⑦ Logic: As a criterion to judge whether the conversation has been conducted consistently and smoothly, a helper appeared to judge whether the examinee continued the conversation or whether the conversation was performed well by himself. The score is deducted based on the number of appearances of the assistant.

위에 제시된 세부 평가 항목을 순서에 따라 원어민의 기준으로 점수화하여 평가준거 데이터베이스(47)에 입력한다. 예를 들어서 과제가 실현되지 못한 경우는 점수는 0점으로 산정되고 과제가 실현된 경우 세부 항목으로 다시 ②③④⑤ 항에 따라 점수를 0점에서 특정점수(1~10 혹은 1~ 특정점수) 등의 단계(시험의 성격 및 목적에 따라 단계를 달리 할 수 있음)로 차등화 한다. 이러한 평가 산정기준을 통해 수험자가 입력한 말하기 내용이 평가준거 데이터베이스(47)에서 검증되어 점수로 산출된다.The detailed evaluation items presented above are scored in order of native speakers in order and input into the evaluation criteria database 47. For example, if the task is not realized, the score is calculated as 0, and if the task is realized, the score is returned to the sub-category item, and according to ②③④⑤, the score is 0 to the specific score (1 to 10 or 1 to the specific score). Differentiate to (the steps may vary depending on the nature and purpose of the test). Through the evaluation calculation criteria, the speaking content input by the examinee is verified in the evaluation criteria database 47 and calculated as a score.

따라서, 본 발명은 컴퓨터를 이용하여 일반적인 대화 방식으로 언어를 발화(말하기 시도)하며, 특히 예측되는 대화의 수를 제한하므로 컴퓨터의 제한된 자원을 이용하여 자연스러운 대화 방식의 말하기를 유도하여 말하기 능력을 평가할 수 있고, 수험자의 말하기 입력을 데이터부의 데이터베이스에 미리 기록되어 있는 평가기준과 비교하여 수험자의 특정언어의 말하기 능력을 객관적이고 신뢰도가 높게 즉석에서 평가할 수 있을 뿐만 아니라, 수험자의 말하기 시도(발화)가 데이터부의 데이터베이스에 저장되어 있는 총괄적 채점기준으로서 전체적인 수험자의 말하기 시도의 느낌, 자연성, 인상 등을 고려하고 분석적 채점 기준(발음의 정확성 혹은 적절성, 문법적 정확성, 어휘 선택의 적절성, 내용의 관련성, 표현의 명료성, 유창성 등)을 원어민의 말하기 발화 데이터에 근거를 둔 평가준거로 데이터베이스에 입력하여 부분점수를 합산하여 총점으로 수량화할 수 있다.Therefore, the present invention uses a computer to speak (attempt to speak) a language in a general conversational manner, and in particular, limits the number of conversations that are predicted, thereby evaluating speaking ability by inducing natural conversational speech using limited resources of the computer. By comparing the examinee's speaking input with the evaluation criteria recorded in advance in the database of the data section, the examinee's speaking ability of the specific language can be assessed on the spot and objectively and with high reliability. As the overall scoring criteria stored in the database of the data department, it considers the feelings, naturalness, and impressions of the examinee's attempts to speak. Clarity, fluency, etc.) To as evaluation criteria based on the ignition and enter data into the database summing the partial credit it can be quantified as possible.

상기 설명에 있어서, 특정 실시예를 들어서 도시하고 설명하였으나, 본 발명은 이에 한정되는 것은 아니며, 예를 들면 본 발명의 개념을 이탈하지 않는 범위내에서 이 기술 분야의 통상의 지식을 가진 자에 의해 여러가지로 설계 변경할 수 있음은 물론이다.In the above description, the specific embodiments have been shown and described, but the present invention is not limited thereto, for example, by those skilled in the art without departing from the concept of the present invention. Of course, the design can be changed in many ways.

도 1은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치를 개략적으로 도시한 블록도이다.1 is a block diagram schematically illustrating an apparatus for evaluating computer-driven speaking language learning ability using speech recognition according to an embodiment of the present invention.

도 2는 도 1에서 처리부 및 데이터부의 상세 구조를 도시한 블록도이다.FIG. 2 is a block diagram illustrating a detailed structure of the processing unit and the data unit in FIG. 1.

도 3은 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치에 있어서 학습 대화의 질문과 응답에 의한 트리구조를 개략적으로 도시한 도면이다.FIG. 3 is a diagram schematically illustrating a tree structure based on questions and answers of a learning conversation in a computer-driven speech evaluation apparatus using voice recognition according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 의한 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법을 개략적으로 도시한 순서도이다. 4 is a flowchart schematically illustrating a method for evaluating computer-driven speaking ability using speech recognition according to an embodiment of the present invention.

<도면의 주요 부분에 대한 부호의 설명>          <Explanation of symbols for main parts of the drawings>

10 : 프로그램부 20 : 제어부10: program unit 20: control unit

30 : 처리부 31 : 음성인식부30: processing unit 31: voice recognition unit

32 : 음성출력부 33 : 배경음향부32: sound output unit 33: background sound unit

34 : 배경영상부 35 : 예측가능 대화부34: background image part 35: predictable conversation part

36 : 도우미부 40 : 데이터부36: helper 40: data

41 : 음성인식 데이터베이스 42 : 음성출력 데이터베이스 41: voice recognition database 42: voice output database

43 : 배경음향 데이터베이스 44 : 배경영상 데이터베이스 43: background sound database 44: background image database

45 : 예측답변 데이터베이스 46 : 도우미 데이터베이스45: predictive answer database 46: helper database

47:평가준거 데이터베이스(DB) 50 : 마이크 47: evaluation criteria database 50: microphone

48:대화 소재ㆍ주제 데이터베이스 60 : 표시부 48: Conversation subject matter topic 60: Display part

70 : 입력부 80 : 스피커 70: input unit 80: speaker

90 : 통신부90: communication unit

Claims (7)

컴퓨터가 주도하여 대화식 언어평가를 받고자하는 수험자에게 제공하는 프로그램이 저장된 프로그램 저장부(10)와; 수험자의 답변이 예측되지 않은 답변이면 처리부(30)의 도우미부(36)에 저장된 도우미에 의해 답변을 유도하고, 검색된 답변과 비교하여 답변하도록 제어하는 제어부(20)와; 음성신호를 인식하고 답변 음성신호, 배경 음향신호, 배경영상신호를 해당 데이터로부터 변환하며, 예측가능한 답변인지 여부를 판단하고 지정된 도우미 신호를 출력하는 처리부(30)와; 인식된 음성신호, 출력할 음성신호, 배경 음향신호, 배경 영상신호, 예측되는 답변신호, 도우미 정보를 데이터베이스로 기록하는 데이터부(40)와; 수험자의 음성답변 신호 또는 음성질문 신호를 입력하는 마이크(50)와; 학습을 위한 배경영상ㆍ문자를 컬러로 출력하는 표시부(60)와; 말하기에 대한 평가 요청을 위한 평가요청명령과 데이터 정보를 입력하는 입력부(70)와; 말하기를 평가하기 위한 음성신호와 배경음향 신호를 출력하는 스피커(80)와; 다른 컴퓨터와 유선 또는 무선으로 통신하는 통신부(90)로 구성되어 있는 음성인식을 활용한 컴퓨터 주도형 말하기 언어학습 능력 평가장치에 있어서,A program storage unit 10 for storing a program provided to the examinee who wants to receive an interactive language evaluation by the computer; A control unit 20 for inducing an answer by a helper stored in the helper unit 36 of the processing unit 30 and comparing the searched answer if the examinee's answer is an unexpected response; A processing unit 30 for recognizing a voice signal, converting an answer voice signal, a background sound signal, and a background image signal from corresponding data, determining whether the answer is a predictable answer, and outputting a designated helper signal; A data unit 40 for recording the recognized voice signal, the voice signal to be output, the background sound signal, the background image signal, the predicted answer signal, and the helper information in a database; A microphone 50 for inputting the examinee's voice response signal or voice question signal; A display unit 60 for outputting a background image and text for learning in color; An input unit 70 for inputting an evaluation request command and data information for an evaluation request for speaking; A speaker 80 for outputting a speech signal and a background sound signal for evaluating speech; In the computer-driven speaking language learning ability evaluation device using the speech recognition consisting of a communication unit 90 for communicating with other computers by wire or wireless, 상기 데이터부(40)는 The data portion 40 is 음성신호 데이터를 데이터화하여 저장하는 음성인식 데이터베이스(41)와; A voice recognition database 41 which stores voice signal data as data; 음성출력 데이터를 저장하며 말하기 평가를 위하여 검색된 음성 데이터를 상기 제어부(20)에 출력하는 음성출력 데이터베이스(42)와; A voice output database 42 for storing voice output data and outputting the retrieved voice data to the controller 20 for speech evaluation; 말하기를 위한 배경음향 데이터를 저장하고, 저장된 배경음향 데이터를 검색해서 상기 제어부(20)에 출력하는 배경음향 데이터베이스(43)와; A background sound database (43) for storing background sound data for speech, retrieving the stored background sound data, and outputting the stored background sound data to the controller (20); 말하기를 위한 배경영상 데이터를 저장하고, 저장된 배경영상 데이터를 검색해서 상기 제어부(20)에 출력하는 배경영상 데이터베이스(44)와; A background image database 44 for storing background image data for speaking, retrieving the stored background image data, and outputting the stored background image data to the controller 20; 말하기 평가를 위한 수험자의 예측되는 답변신호를 저장하고 상기 처리부(30)의 음성인식부(31)에서 인식한 답변신호를 상기 제어부(20)로부터 제공받아 유사한 답변신호가 있는지 여부를 검색하는 예측답변 데이터베이스(45)와; Predictive answer storing the predicted answer signal of the examinee for speech evaluation and receiving the answer signal recognized by the voice recognition unit 31 of the processing unit 30 from the control unit 20 to search whether there is a similar answer signal A database 45; 캐릭터, 문자, 음향, 색상을 도우미 데이터로 저장하고 지정된 도우미 데이터를 검색하여 상기 제어부(20)에 제공하는 도우미 데이터베이스(46)와; A helper database 46 for storing characters, characters, sounds, and colors as helper data, and searching and providing the designated helper data to the controller 20; 수험자의 말하기 발화 능력을 평가하기 위한 평가준거(평가기준)를 저장함과 동시에, 상기 음성출력 데이터베이스(42)에 저장된 음성출력 데이터를 받아서 답변신호와 비교하여 비교결과를 상기 제어부(20)에 출력하는 평가준거 데이터베이스(47)와; While storing the evaluation criteria (evaluation criteria) for evaluating the examinee's speech utterance ability, receiving the voice output data stored in the voice output database 42 and comparing the answer signal to output the comparison result to the control unit 20 An evaluation criteria database 47; 대화 소재데이터 또는 주제데이터를 저장하는 대화 소재ㆍ주제 데이터베이스(48)와; A dialogue subject / subject database 48 which stores dialogue subject data or subject data; 수험자의 평가결과 데이터를 저장하는 평가결과 데이터베이스(49)로 구성되어 있는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가장치. A computer-driven speaking ability evaluation apparatus using speech recognition, characterized in that the evaluation result database for storing the test result data of the examinee. 삭제delete 삭제delete 컴퓨터에 의하여 언어학습용 배경영상ㆍ문자 및 배경음향을 표시부(60)에 출력하는 배경영상ㆍ문자/배경음향 출력과정과; 상기 배경영상ㆍ문자/배경음향 출력과정 후에 말하기 평가를 위한 대화 음성신호를 출력하는 평가용 대화 음성신호 출력과정과; 상기 평가용 대화 음성신호 출력과정에서 음성신호가 인식된 후에 평가용 대화 음성신호에 대한 답변을 마이크(50)에서 답변하는 답변과정과, 상기 답변과정에서 수험자가 답변한 음성신호를 인식하였는지 여부를 판별하는 음성인식 판별과정과; 상기 음성인식 판별과정에서 수험자가 답변한 음성신호를 인식하였을 경우에 상기 음성인식 판별과정에서 수험자가 답변한 인식된 음성신호가 예측된 답변인지 여부를 판별하는 답변판별과정과; 상기 답변판별과정의 판별결과 예측된 답변일 경우에 수험자의 답변을 제어부(20)의 제어하에 데이터부(40)의 예측답변 데이터베이스(45)에 저장된 답변자료를 검색하는 답변자료 검색과정과; 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사한지 여부를 판별하는 답변유사여부 판별과정과; 상기 답변유사여부 판별과정에서 수험자의 답변이 상기 데이터부(40)의 예측답변 데이터베이스(45)에서 검색된 답변자료와 유사할 경우에 적절한 답변으로 평가하는 적절 답변 평가과정과; 상기 적절 답변 평가과정에서 평가된 평가 결과를 상기 데이터부(40)의 평가결과 데이터베이스부(49)에 저장하는 평가결과 저장과정과; 상기 답변유사여부 판별과정의 판별결과 상기 답변자료 검색과정에서 검색된 답변자료와 수험자의 답변이 유사하지 않을 경우, 틀린 답변으로 평가하는 틀린 답변 평가과정과; 상기 평가결과 저장과정으로 나아가서 상기 평가결과를 상기 데이터부(40)의 평가결과 데이터베이스(49)에 저장하는 평가결과 저장공정을 포함하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법에 있어서,A background image, text, and background sound output process of outputting a language learning background image, text, and background sound to the display unit 60 by a computer; An evaluating dialogue voice signal output process for outputting a dialogue speech signal for speech evaluation after the background image / text / background acoustic output process; After the voice signal is recognized in the evaluation dialogue voice signal output process, an answering process for answering the evaluation dialogue voice signal by the microphone 50 and whether or not the voice signal answered by the examinee in the answering process are recognized. A voice recognition determination process of discriminating; An answer discrimination process for determining whether the recognized speech signal answered by the examinee in the speech recognition determination process is a predicted answer when the speech signal recognized by the examinee in the speech recognition determination process is recognized; An answer data search process for searching the answer data stored in the predictive answer database 45 of the data part 40 under the control of the controller 20 when the answer is a predicted result of the determination of the answer discrimination process; An answer similarity determination step of determining whether the answer data searched in the answer data search process and the examinee's answer are similar; An appropriate answer evaluation process of evaluating an appropriate answer when the examinee's answer is similar to the answer data retrieved from the predicted answer database 45 of the data part 40 in the process of determining whether the answer is similar or not; An evaluation result storing step of storing the evaluation result evaluated in the appropriate answer evaluation step in the evaluation result database part 49 of the data part 40; A result of determining whether the answer is similar or not, when the answer data searched in the answer data search process and the answer of the examinee are not similar, an incorrect answer evaluation process of evaluating a wrong answer; In the computer-driven speaking ability evaluation method using speech recognition comprising the evaluation result storage step of proceeding to the evaluation result storage process and storing the evaluation result in the evaluation result database 49 of the data unit 40, 상기 답변판별과정 결과 수험자가 답변한 인식된 음성신호가 예측된 답변이 아닐 경우, 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장되어 있는 지정된 도우미로 한정된 질문을 유도하는 도우미 도움과정과;A helper help process for deriving a question limited to a designated helper stored in the helper database 46 of the data unit 40 when the recognized voice signal answered by the examinee is not a predicted answer; 상기 도우미 도움과정 후에, 도우미 도움에 따라 수험자가 마이크(50)에 질문을 행하는 질문과정과;After the helper help process, a questionnaire process for the examinee to question the microphone 50 in accordance with the helper help; 상기 질문과정에서 수험자가 질문한 음성신호를 인식하였는지 여부를 판별하는 질문음성인식 판별과정과;A question voice recognition determining step of determining whether the examinee has recognized a voice signal asked by the examinee; 상기 질문음성인식 판별과정에서 수험자가 질문한 음성신호를 인식하였을 경우에 상기 질문음성인식 판별과정에서 수험자가 질문한 인식된 질문음성신호가 예측된 질문인지 여부를 판별하는 질문판별과정과; A question discrimination process of determining whether the recognized question sound signal queried by the examinee in the question voice recognition determination process is a predicted question when the voice signal asked by the examinee is recognized in the question speech recognition determination process; 상기 질문판별과정의 판별결과 예측된 질문일 경우에 수험자의 질문을 제어부(20)의 제어하에 상기 데이터부(40)의 도우미 데이터베이스(46)에 저장된 질문자료를 검색하는 질문자료 검색과정과;A question material retrieval process of retrieving question data stored in the helper database 46 of the data unit 40 under the control of the control unit 20 when the question is a predicted result of the determination of the question determination process; 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사한지 여부를 판별하는 유사 질문여부 판별과정과;A similar question determining step of determining whether the question material searched in the question material searching process and the examinee's question are similar; 상기 유사 질문여부 판별과정에서 수험자의 질문이 상기 데이터부(40)의 도우미 데이터베이스(46)에서 검색된 질문자료와 유사할 경우에 적절한 질문으로 평가하는 적절 질문평가과정과;An appropriate question evaluating step of evaluating an examinee's question as an appropriate question when the examinee's question is similar to the questionnaire retrieved from the helper database 46 of the data part 40; 상기 유사 질문여부 판별과정의 판별결과 상기 질문자료 검색과정에서 검색된 질문자료와 수험자의 질문이 유사하지 않을 경우 틀린 질문으로 평가하는 틀린 질문 평가과정을 추가로 포함하는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법.As a result of determining whether the similar question is determined or not, if the question material searched in the question material search process and the examinee's question are not similar to each other, the method further includes an incorrect question evaluating process which evaluates as a wrong question. Computer-Driven Speaking Assessment. 삭제delete 삭제delete 제4항에 있어서, 상기 질문음성인식 판별과정에서 수험자가 질문한 음성신호를 인식하지 못하였을 경우 또는 상기 질문판별과정에서 수험자가 질문한 인식된 질문음성신호가 예측된 질문이 아닐 경우에는 상기 도우미 도움과정으로 복귀하여 상기 도우미 도움과정 이하의 동작을 행하는 것을 특징으로 하는 음성인식을 활용한 컴퓨터 주도형 말하기 능력 평가방법.The helper of claim 4, wherein when the examinee does not recognize the voice signal asked by the examinee in the question recognition process or when the recognized question voice signal asked by the examinee in the question discrimination process is not a predicted question. A method of evaluating computer-driven speech using speech recognition, characterized in that to return to the help process to perform the following actions of the helper help process.
KR1020080019612A 2008-03-03 2008-03-03 An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof KR101004913B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080019612A KR101004913B1 (en) 2008-03-03 2008-03-03 An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080019612A KR101004913B1 (en) 2008-03-03 2008-03-03 An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof

Publications (2)

Publication Number Publication Date
KR20090094576A KR20090094576A (en) 2009-09-08
KR101004913B1 true KR101004913B1 (en) 2010-12-28

Family

ID=41294968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080019612A KR101004913B1 (en) 2008-03-03 2008-03-03 An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof

Country Status (1)

Country Link
KR (1) KR101004913B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101522837B1 (en) * 2010-12-16 2015-05-26 한국전자통신연구원 Communication method and system for the same
KR102116047B1 (en) * 2017-05-17 2020-05-27 주식회사 에이아이리소프트 System and method for improving speech recognition function of speech recognition system
KR102544250B1 (en) * 2018-07-03 2023-06-16 삼성전자주식회사 Method and device for outputting sound
KR102142957B1 (en) 2018-08-24 2020-08-12 주식회사 리스트 Machine-lead conversation service method and system
CN109344229A (en) * 2018-09-18 2019-02-15 深圳壹账通智能科技有限公司 Method, apparatus, computer equipment and the storage medium of dialog analysis evaluation
KR102196917B1 (en) * 2019-01-14 2020-12-30 김주혁 English speaking evaluation system and method thereof
CN113469542A (en) * 2021-07-09 2021-10-01 上海以善健康管理有限公司 Self-iteration expression testing system based on language processing and image recognition

Also Published As

Publication number Publication date
KR20090094576A (en) 2009-09-08

Similar Documents

Publication Publication Date Title
KR102302137B1 (en) Apparatus for studying foreign language and method for providing foreign language study service by using the same
US8682241B2 (en) Method and system for improving the quality of teaching through analysis using a virtual teaching device
US8036896B2 (en) System, server and method for distributed literacy and language skill instruction
KR101004913B1 (en) An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof
JP2002503353A (en) Reading aloud and pronunciation guidance device
Griol et al. An architecture to develop multimodal educative applications with chatbots
JP6705956B1 (en) Education support system, method and program
WO2007062529A1 (en) Interactive language education system and method
JP2012215645A (en) Foreign language conversation training system using computer
CN110489756A (en) Conversational human-computer interaction spoken language evaluation system
KR100915681B1 (en) Method and apparatus of naturally talking with computer
KR20220128897A (en) Speaking Test System and Method with AI Avatar
KR20210048730A (en) Language Teaching Service System and Method of providing thereof
Indrasari Designing Listening Tasks For English Students
Hoque et al. Robust recognition of emotion from speech
KR100450019B1 (en) Method of service for english training of interactive voice response using internet
KR20220011109A (en) Digital english learning service method and system
US11587460B2 (en) Method and system for adaptive language learning
JP6656529B2 (en) Foreign language conversation training system
US20220230626A1 (en) Creative work systems and methods thereof
KR101004940B1 (en) Method for evaluating spoken ability through computer-lead speech recognition
CN114255759A (en) Method, apparatus and readable storage medium for spoken language training using machine
Acosta Using emotion to gain rapport in a spoken dialog system
Junining et al. Automatic speech recognition in computer-assisted language learning for individual learning in speaking
KR20190070682A (en) System and method for constructing and providing lecture contents

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee