KR100447667B1 - Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer - Google Patents

Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer Download PDF

Info

Publication number
KR100447667B1
KR100447667B1 KR10-2000-0019427A KR20000019427A KR100447667B1 KR 100447667 B1 KR100447667 B1 KR 100447667B1 KR 20000019427 A KR20000019427 A KR 20000019427A KR 100447667 B1 KR100447667 B1 KR 100447667B1
Authority
KR
South Korea
Prior art keywords
data
learning
signal
voice
computer
Prior art date
Application number
KR10-2000-0019427A
Other languages
Korean (ko)
Other versions
KR20010095941A (en
Inventor
이경목
Original Assignee
이경목
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이경목 filed Critical 이경목
Priority to KR10-2000-0019427A priority Critical patent/KR100447667B1/en
Publication of KR20010095941A publication Critical patent/KR20010095941A/en
Application granted granted Critical
Publication of KR100447667B1 publication Critical patent/KR100447667B1/en

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B7/00Electrically-operated teaching apparatus or devices working with questions and answers
    • G09B7/02Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • G09B5/065Combinations of audio and video presentations, e.g. videotapes, videodiscs, television systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Business, Economics & Management (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 사용자의 음성을 입력받아 전기적인 신호로 바꾸는 음성입력수단;과, 상기의 음성입력수단의 출력 전기 신호를 변조하여 무선으로 컴퓨터에 송신하고, 컴퓨터에서 보내온 영상이나 음향 또는 음성 신호를 수신하여 복조하는 제 1 무선 송수신 수단;과, 영상신호 또는 음성신호를 각각 신호 처리하여 모니터 화면 또는 오디오 시스템으로 출력하는 영상 또는 음성 출력수단;을 포함하는 인형; 및 상기의 인형에서 송신된 무선 신호를 수신받아 복조하고, 또한, 컴퓨터의 출력 영상이나 음향 또는 음성 신호를 변조하여 무선으로 인형에 송신하는 제 2 무선 송수신 수단;과, 수신된 신호에서 추출한 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 제 1 음성 인식수단;과, 실생활 대화에서 전개될 수 있는 다양한 상황의 질문데이터와, 그 질문에 따른 다수의 답변데이터, 및 상기 질문과 다수의 답변 데이터 각각의 내용에 적합한 영상 데이터 또는 음향 데이터를 저장하는 데이터 저장수단;과, 상기의 데이터 저장수단에 저장된 자료들을 사용자들의 질문이나 응답에 대응하여 선택하고, 선택된 영상 또는 음성 자료들을 출력 수단으로 출력하는 것을 제어하는 제어 수단;을 포함하는 컴퓨터로 구성된다.The present invention provides a voice input means for receiving a user's voice and converting it into an electrical signal; and modulating the output electric signal of the voice input means and transmitting it wirelessly to a computer, and receiving an image, sound, or audio signal sent from the computer. A first wireless transmission and reception means for demodulating; and a video or audio output means for signal processing a video signal or an audio signal and outputting the same to a monitor screen or an audio system; And second wireless transmission / reception means for receiving and demodulating the radio signal transmitted from the doll, and modulating the output image, sound, or audio signal of the computer and transmitting the radio signal to the doll. First voice recognition means for recognizing and recognizing the meaning of the voice signal; and question data of various situations that can be developed in a real-life conversation; a plurality of answer data according to the question; Data storage means for storing video data or sound data suitable for the contents of the answer data, and selecting data stored in the data storage means in response to questions or responses of users, and outputting the selected video or audio data. Control means for controlling the output to the computer comprising a.

Description

음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템{Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer}Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer}

본 발명은 음성 인식 기능을 갖는 컴퓨터를 이용하여 일대일 혹은 일대 다수의 사용자가 컴퓨터에 무선으로 연결된 학습용 인형들을 통하여 상호 대화 방식으로 언어학습을 실시할 수 있는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호대화 언어 학습 시스템에 관한 것으로, 특히 사용자의 질문이나 응답 내용을 음성 인식을 통해 컴퓨터가 인식 및 판단할수 있도록 함으로써 사용자 주도의 상호 양방향 대화가 학습용 인형을 통하여 사용자와 컴퓨터 사이에서 전개될 수 있도록 하며, 또한 실생활 대화에서 전개될 수 있는 다양한 상황의 대화 내용 및 그 대화 내용에 알맞는 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자의 질문이나 응답에 대응하여 다음 대화를 트리(Tree) 구조에 따라 선택하면서 동시에 그에 따른 배경 화면 및 음향을 무선으로 학습용 인형에 송신하여 인형에서 음향과 음성을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처할 수 있도록 한 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템에 관한 것이다.The present invention uses a computer having a speech recognition function and a learning doll having a speech recognition function that enables one-to-one or one-to-many users to conduct language learning in an interactive manner through a learning doll wirelessly connected to the computer. The present invention relates to an interactive language learning system. In particular, a user-led interactive dialogue can be developed between a user and a computer through a learning doll by allowing a computer to recognize and judge a user's question or response through voice recognition. In addition, the contents of conversations in various situations that can be developed in real-life conversations and background image data or sound data suitable for the conversations are stored in advance in a database, and the next conversation is responded to in response to a user's question or answer. While choosing according to Interactive dialogue language learning system using computer and learning dolls with voice recognition function to actively respond to user's intention by sending background screen and sound to wireless learning doll and outputting sound and voice. It is about.

종래의 인형을 사용한 교육 시스템은 미리 전개될 대화 스토리를 설정하고, 주어진 문장에 맞는 대답을 요구하는 형태의 일방적인 컴퓨터 주도 대화 진행 방식으로 이루어져있다. 그래서, 사용자에게 문장을 암기하고 대답하기를 요구하므로, 학습 대화의 스토리 전개가 단조롭고 대답에 다양한 선택 여지가 없을 뿐만 아니라 융통성이 결여되어 있어서, 사용자는 쉽게 싫증이 나고 학습 효율이 저하되는 등의 문제점이 있었다. 즉, 일상 생활에서의 대화는 질문 내용에 따라 다양한 상황이 전개되며, 다양한 형태의 대답으로 대화가 진행되므로, 특정한 형태로 고정되어진 대화 형태는 비현실적이다. 이러한 것은 사용자의 학습 의욕을 상실하게 하고 싫증나도록 하여 학습 효과를 저조하게 한다.Conventional education system using a doll consists of a one-way computer-driven conversation process of setting a story to be developed in advance and requiring an answer for a given sentence. Therefore, the user is asked to memorize and answer the sentence, so that the story development of the learning conversation is monotonous, there is no variety of choices in the answer, and there is a lack of flexibility, so that the user is easily tired and the learning efficiency is reduced. There was this. That is, the conversation in daily life develops various situations according to the contents of the question, and since the conversation proceeds with various forms of answers, the conversation form fixed in a specific form is unrealistic. This results in loss of learning motivation and disgust of the user, resulting in poor learning effect.

또한, 음성 인식 기능을 포함하지 않기 때문에 사용자의 대답 내용의 타당성을 판단하는 능력이 없다. 일정시간 동안 사용자가 대답할 시간을 준 후 대답의 내용에 무관하게 다음 문장으로 대화가 진행되거나, 키보드에 의한 수동 문장 입력또는 버튼으로 제시된 답변 문장의 선택 등의 방법으로만 다음 대화 내용이 진행되게 구성되어 있어, 실제적인 상호 대화가 불가능하였다.In addition, since it does not include a speech recognition function, there is no ability to determine the validity of the user's answer contents. After giving the user time to answer for a certain time, the conversation proceeds to the next sentence regardless of the contents of the answer, or to the next conversation only by the manual sentence input by the keyboard or the selection of the answer sentence presented by the button. It was so constructed that no real interaction was possible.

상기와 같이, 종래의 인형을 이용한 언어 학습 시스템들은 멀티미디어를 이용한 상호 협조 체계가 미흡하고 음성 인식 방법이 사용되지 않아서, 사용자와 컴퓨터간의 상호 대화가 불가능하고 언어를 자율적으로 학습하기가 어렵다. 그리고, 실시간 상호 입체 언어 교육용 소프트웨어 개발은 국내 및 해외에서도 전무한 형편이다.As described above, the conventional language learning systems using puppets do not have a mutual cooperation system using multimedia and a speech recognition method is not used, and thus, it is impossible for a user and a computer to communicate with each other and learn languages autonomously. In addition, the development of real-time interactive three-dimensional language education software is not at home and abroad.

따라서, 대화 질문에 따라 사용자가 상황에 적절하고 다양한 대답을 제시할 수가 있고, 제시한 대답 문장에 따라 새로운 상황으로 대화가 진행되어 실제의 일상 생활 대화 상황과 같은 실생활 언어학습이 진행되도록 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템의 개발이 요구되고 있다.Therefore, the user can present a variety of answers appropriate to the situation according to the dialogue question, and the speech recognition allows the conversation to proceed to a new situation according to the answer sentence presented so that real-life language learning such as the actual daily conversation situation can proceed. Development of an interactive language learning system using a computer having a function and a learning doll is required.

이에, 본 발명은 상기와 같은 문제점들을 해결하기 위해 도출된 것으로서, 본 발명은 다수의 사용자의 질문이나 응답 내용을 학습용 인형들을 사용하여 음성 인식 기능을 갖는 컴퓨터가 인식 및 판단할 수 있도록 하고, 실생활 대화에서 전개될 수 있는 다양한 상황의 대화내용 및 그 대화내용에 적합한 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자들의 질문이나 응답에 대응하여 트리(Tree) 구조의 다음 대화를 선택하면서 동시에 그에 따른 배경 화면 및 음향을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처하여, 사용자 주도의 상호 양방향 대화가 인형을 통하여 다수의 사용자와 컴퓨터 사이에서 전개될 수 있도록 한 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화언어 학습 시스템을 제공함에 목적이 있다.Accordingly, the present invention is derived to solve the above problems, the present invention allows a computer having a voice recognition function to recognize and determine the questions or responses of a plurality of users using the learning doll, real life The conversation contents of various situations that can be developed in the conversation and the background image data or sound data suitable for the conversation contents are stored in the database in advance so that the next conversation in the tree structure can be selected while responding to the user's question or answer. A computer having a voice recognition function that actively outputs a background image and a sound, thereby coping with a user's intention, and enables a user-led interactive dialogue to be developed between a plurality of users and a computer through a doll. Interactive language learning system using English and learning dolls There is a purpose.

상기 목적을 달성하기 위하여 본 발명의 일 실시 예에서는 학습용 인형으로부터 수신된 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 음성 인식수단; 영상신호 및 음성신호를 각각 신호 처리하여 모니터화면 및 스피커로 출력하는 영상 및 음성출력수단; 실생활 대화에서 전개될 수 있는 다양한 상황을 바탕으로 한 질문데이터와, 그 질문에 따른 다수의 답변데이터, 및 상기 질문과 다수의 답변 데이터 각각의 내용에 알맞는 영상데이터와 음향데이터를 학습자료로 저장하는 데이터 저장수단; 사용자가 원하는 학습자료를 상기 데이터 저장수단에서 읽어 해당 학습자료의 질문데이터를 상기 영상 및 음성 출력수단으로 내보내고, 상기 음성 인식수단을 통해 사용자의 답변데이터가 들어오면 상기 데이터 저장수단으로부터 읽어낸 답변데이터와 비교하여 정답/오답 여부를 판단하고, 그 판단 결과에 따라사용자의 답변데이터에 부응하는 다음 질문데이터를 상기 데이터 저장수단의 학습자료를 읽어내 상기 영상 및 음성출력수단으로 내보내는 제어수단을 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템을 제공한다.In order to achieve the above object, according to an embodiment of the present invention, voice recognition means for analyzing a voice signal received from a learning doll and recognizing the meaning of the voice signal; Video and audio output means for signal-processing video and audio signals, respectively, and outputting them to a monitor screen and a speaker; Storing question data based on various situations that can be developed in real life conversations, a plurality of answer data according to the question, and image data and sound data corresponding to the contents of the question and the plurality of answer data as learning materials. Data storage means; Read the data desired by the user from the data storage means to export the question data of the corresponding learning material to the video and audio output means, when the answer data of the user through the voice recognition means the response data read from the data storage means And control means for judging whether the answer is correct or incorrect, comparing the next question data corresponding to the user's answer data according to the determination result, and reading the learning data of the data storage means and outputting them to the video and audio output means. An interactive dialogue language learning system using a computer having a speech recognition function and learning dolls is provided.

상기 본 발명의 일 실시 예에서, 상기 데이터 저장수단은, 언어 학습을 위한 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 그 대화내용에 따른 배경 영상자료 및 배경 음향자료로 각각 구분된 데이터 베이스를 구성하되, 상기 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 상기 각 답변자료에 대한 새로운 질문자료와 그 새로운 질문자료에 대한 새로운 다수의 답변자료를 트리(tree)구조로 구성하여 학습 데이터를 저장하는 것을 특징으로 한다.In one embodiment of the present invention, the data storage means, a question material for language learning, a plurality of answer data for the question material, and the data divided into background image data and background sound data according to the conversation contents, respectively The base is composed, but the question material and a plurality of answer data for the question material, and a new question material for each answer material and a plurality of new answer data for the new question material in a tree structure It is characterized by storing the training data.

도 1은 본 발명의 일 실시예에 따른 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템의 블록도,1 is a block diagram of an interactive conversational language learning system using a computer having a speech recognition function and learning dolls according to an embodiment of the present invention;

도 2a는 도 1의 부처리부와 데이타저장부를 상세하게 나타낸 블록도,FIG. 2A is a detailed block diagram illustrating the subprocessing unit and the data storage unit of FIG. 1; FIG.

도 2b는 트리(Tree) 자료 구조를 상세하게 나타낸 블록도,2b is a block diagram illustrating a tree data structure in detail;

도 3은 본 발명에 따른 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템의 동작 흐름도,3 is an operation flowchart of an interactive dialogue language learning system using a computer having a speech recognition function and learning dolls according to the present invention;

도 4a는 도 3의 자료 처리 서브루틴에 대한 동작 흐름도,4A is an operational flow diagram for the data processing subroutine of FIG. 3;

도 4b는 도 3의 음성인식 서브루틴에 대한 동작 흐름도,4b is an operation flowchart of the speech recognition subroutine of FIG.

도 4c는 도 3의 배경 영상출력 서브루틴에 대한 동작 흐름도,4C is a flowchart illustrating an operation of a background image output subroutine of FIG. 3;

도 4d는 도 3의 배경 음향출력 서브루틴에 대한 동작 흐름도,4d is an operation flowchart of the background sound output subroutine of FIG. 3;

도 5는 본 발명에 따른 음성 인식 기능을 갖는 컴퓨터와 다수의 학습용 인형들을 이용한 상호 대화 언어 학습 시스템의 다른 실시 예를 설명하기 위하여 도시한 블록도이다.5 is a block diagram illustrating another embodiment of an interactive language learning system using a computer having a voice recognition function and a plurality of learning dolls according to the present invention.

<도면 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

10 : 키입력부 20 : 음성 인식부10: key input unit 20: voice recognition unit

21 : 마이크 30 : 음성 출력부21: microphone 30: audio output unit

31 : 스피커 40 : 영상 출력부31: speaker 40: video output unit

41 : 모니터 50 : 주 처리부41: monitor 50: main processing unit

60 : 부 처리부 61 : 배경영상 처리부60: subprocessing unit 61: background image processing unit

62 : 배경음향 처리부 63 : 음성출력 처리부62: background sound processor 63: voice output processor

64 : 음성인식 처리부 70 : 데이터 저장부64: speech recognition processing unit 70: data storage unit

71 : 배경영상 데이터 베이스 72 : 배경음향 데이터 베이스71: background image database 72: background sound database

73 : 음성출력 데이터 베이스 74 : 음성인식 데이터 베이스81,82 : 제 1 및 제 2 무선 송수신부100 : 음성인식 컴퓨터 110,120,130 : 학습용 인형73: voice output database 74: voice recognition database 81,82: first and second wireless transceiver 100: voice recognition computer 110,120,130: learning doll

이하, 본 발명의 바람직한 실시예들을 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 상호 대화식 언어 학습시스템의 구성을 간략하게 나타내 보인 블록도로서, 먼저 학습용 인형(110)은, 외부에서 입력되는 음성신호를 전기적인 신호로 변환하는 마이크(21) 및 상기 마이크(21)를 통해 외부에서 들어오는 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하여 문자데이터로 변환하는 음성인식부(20)와, 영상신호 및 음성신호를 각각 신호 처리하여 모니터(41) 및 스피커(31)로 각각 출력하는 영상 출력부(40) 및 음성 출력부(30), 데이터베이스에 저장할 학습 데이터의 입력 및 사용자가 요청하는 학습 종류의 선택을 위한 키입력부(10)와, 음성 인식 컴퓨터(100)간에 무선으로 송수신되는 데이터를 변조 또는 복조하는 제 1 무선 송수신부(81)를 포함하여 구성되고, 그 다음으로 상기 음성 인식 컴퓨터(100)는, 상기 학습용 인형(110)간에 무선으로 송수신되는 데이터를 변조 또는 복조하는 제 2 무선 송수신부(82)와, 실생활 대화에서전개될 수 있는 다양한 상황을 바탕으로 구성한 질문자료와 상기 질문에 대한 답변자료 및 상기 대화내용에 따른 배경 영상자료나 음향자료를 학습 데이터로 저장하는 데이터 저장부(70)와, 상기 데이터 저장부(70)에 저장된 학습 데이터 중에서 사용자가 원하는 종류의 학습 데이터를 읽어 상기 학습용 인형(110)으로 내보내고, 상기 학습용 인형(110)에 구비된 음성 인식부(20) 또는 음성 인식 컴퓨터(100) 내부에 별도 구비된 음성인식 처리부(64)에 의해 인식된 사용자의 음성을, 상기 데이터 저장부(70)로부터 읽어낸 해당 학습 데이터와 비교하고, 그 비교결과에 따라 사용자가 응답한 내용에 부응하는 다음 질문 자료를 데이터 저장부(70)에서 읽어내 학습용 인형(110)으로 출력하는 주처리부(50) 및 부처리부(60)로 구성된다.1 is a block diagram schematically showing the configuration of an interactive language learning system according to the present invention. First, the learning doll 110 includes a microphone 21 for converting an externally input voice signal into an electrical signal and the Analyzing a voice signal from the outside through the microphone 21, the voice recognition unit 20 for recognizing the meaning of the voice signal and converting it into text data, and processing the video signal and the audio signal, respectively, the monitor ( 41 and an image output unit 40 and an audio output unit 30 output to the speaker 31, a key input unit 10 for inputting training data to be stored in a database and for selecting a learning type requested by a user, And a first wireless transmission / reception unit 81 for modulating or demodulating data transmitted and received wirelessly between the voice recognition computers 100. Next, the voice recognition computer 100 includes the learning. The second wireless transceiver 82 for modulating or demodulating data transmitted and received wirelessly between the doll 110 and the questionnaire configured based on various situations that can be developed in a real-life conversation, the answer data for the question, and the conversation. Data learning unit (70) for storing the background image data or sound data according to the content and the learning data stored in the data storage unit 70, the type of learning data desired by the user to read the learning doll (110) The voice of the user recognized by the voice recognition unit 20 provided in the learning doll 110 or the voice recognition processing unit 64 separately provided in the voice recognition computer 100. And the next question material corresponding to the contents of the user's response according to the result of the comparison, and read out from the data storage unit 70. It consists of a main processing unit 50 and a sub-processing unit 60 output to the learning doll 110.

상기 음성 인식부(20)는 상기 마이크(21)에서 출력된 신호를 입력받아 사용자의 발음과 액센트를 근거로 하여 일치하는 단어로 변환시킨 후 제 1 및 제 2 무선송수신부(81,82)를 거쳐 주처리부(50)로 출력하며, 또한 이것은 상기 주처리부(50)에 의해 호출되고 구동되는 서브 루틴으로도 구성할 수 있다.The voice recognition unit 20 receives the signal output from the microphone 21 and converts the first and second radio transceivers 81 and 82 into a matching word based on the pronunciation and accent of the user. Output to the main processing unit 50, which can also be configured as a subroutine called and driven by the main processing unit 50.

상기 부처리부(60)는 각각의 처리루틴을 개별적으로 구비하고, 상기 주처리부(50)는 상기 부 처리부(60)를 제어하는 다수의 프로세스 제어신호를 출력하며, 상기 부처리부(60)는 학습 데이터를 저장하는 데이터 저장부(70)를 포함하거나 또는 별도로 구성할 수도 있다. 상기 주처리부(50)는 사용자에 의한 학습 요구가 있을 경우에 다수의 태스크(task)를 이용하여 부 처리부(60)를 제어하여 데이터 저장부(70)의 학습 데이터를 읽어오거나, 읽어낸 데이터를 음성 및 영상출력으로 내보낼 수 있다. 또한 상기 음성 인식부(20)를 통해 외부에서 들어온 신호가 상기 데이터 저장부(70)의 답변데이터와 일치하는지 비교하고, 그 비교결과에 따라 배경 영상 및 배경음향의 출력을 제어하며, 그와 동시에 다음 대화를위한 학습 자료를 읽어오거나 또는 반복적인 학습을 위해 현재의 학습 데이터를 이전의 동작 흐름을 따라 반복 처리할 수 있다.The sub-processing unit 60 is provided with each processing routine individually, the main processing unit 50 outputs a plurality of process control signals for controlling the sub-processing unit 60, the sub-processing unit 60 is learning A data storage unit 70 for storing data may be included or may be configured separately. When there is a learning request by the user, the main processor 50 controls the sub processor 60 using a plurality of tasks to read training data of the data storage unit 70 or read the read data. Export to audio and video output. In addition, it compares whether the signal received from the outside through the voice recognition unit 20 and the answer data of the data storage unit 70, and controls the output of the background image and the background sound according to the comparison result, and at the same time You can read the training material for the next conversation or iterate the current training data along the previous movement flow for repetitive learning.

도 2a는 도 1의 부 처리부(60)와 데이터 저장부(70)를 상세하게 나타낸 블록도이다. 도면에서와 같이, 상기 데이터 저장부(70)는음성 출력을 위한 언어 학습 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 그 대화내용에 따른 배경 영상자료 및배경 음향자료로 구분된 각각의 데이터 베이스(DataBase)(71-74)로 구성되되, 상기 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 상기 각 답변자료에 대한 새로운 질문자료와 그 새로운 질문자료에 대한 새로운 다수의 답변자료를 하나의 파일로형성하여, 그것을 도 2b와 같은 트리(tree)구조의 형태를 갖도록 구성된다.FIG. 2A is a detailed block diagram illustrating the sub processor 60 and the data storage 70 of FIG. 1. As shown in the figure, the data storage unit 70 is divided into a language learning question material for voice output, a plurality of answer data for the question material, and a background image data and background sound data according to the conversation contents. It consists of a database (71-74), a plurality of answers to the questionnaire and the questionnaire, and a new questionnaire for each of the answer, and a number of new answers to the new questionnaire Is formed into one file, and it is configured to have a tree structure as shown in FIG. 2B.

이때 상기 배경 영상 데이터 베이스(71)는 배경 화면 출력을 위한 영상자료를 저장하고, 배경 음향 데이터 베이스(72)는배경 음향 출력을 위한 음향 자료를 저장하고, 음성출력 데이터 베이스(73)는 음성출력을 위한 사용자료(질문 자료와 그에 해당하는 다수의 답변자료 및 상기 대화 내용에 따른 분위기를 연출하기 위한 배경 영상자료 및 음향자료가 저장되는각각의 메모리 번지 등)를 저장하고, 음성인식 데이터 베이스(74)는 인식된 음성에 해당하는 단어자료를 저장할 수 있다.In this case, the background image database 71 stores image data for outputting a background screen, the background sound database 72 stores sound data for outputting a background sound, and the audio output database 73 outputs audio. For user data (such as question data and a number of answer data corresponding to them, and each memory address where background image data and sound data are stored to create an atmosphere according to the conversation contents), and a voice recognition database ( 74 may store word data corresponding to the recognized voice.

상기 부 처리부(60)는, 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 응답하는 데이터를 상기 배경영상 데이터 베이스(71)로부터 로드(load)하여 제 2 및 제 1 무선 송수신부(82,81)를 차례로 거쳐 상기 모니터(41)로 출력하고, 현재 진행상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 배경영상 처리부(61)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 배경음향 데이터를 상기 배경 음향 데이터 베이스(72)에서 로드하여 제 2 및 제 1 무선 송수신부(82,81)를 차례로 거쳐 상기 스피커(31)로 출력하고, 현재 진행상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는배경음향 처리부(62)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 음성 데이터를 상기 음성 출력 데이터 베이스(73)에서 로드하여 상기 스피커(31)로 출력하고, 현재 진행상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 음성 출력 처리부(63)와; 상기 주 처리부의 프로세스 제어신호에 따라 제어되어 상기 음성 인식부(20)에서 인식된 신호와 상기 음성 인식 데이터 베이스(74)에서 로드한 데이터를 비교하고, 그 비교결과에 대한 자료를 주 처리부(50)로 되돌려 주는 음성 인식 처리부(64)로 구성된다.또한, 전술한 예에서와 같이 무선 인식 컴퓨터(100)와 학습용 인형(110)에 음성 인식기능을 수행하는 구성요소음성 인식부(20)와 음성인식 처리부(64)들을 모두 구비하여 운용할 수도 있으며, 상기 음성 인식기능을 수행하는 구성요소를 무선 인식 컴퓨터(100)와 학습용 인형(110) 가운데 어느 한 곳에만 구비하여 운용할 수도 있다.The sub processor 60 loads data corresponding to the process control signal output from the main processor 50 from the background image database 71 so that the second and first wireless transceivers 82, A background image processor 61 for outputting to the monitor 41 in turn and returning data on a current progress state to the main processor 50; The background sound data corresponding to the process control signal output from the main processor 50 is loaded from the background sound database 72 and sequentially passed through the second and first wireless transceivers 82 and 81 to the speaker 31. A background sound processor 62 for outputting the data to the main processor 50 and outputting the data on the current progress state to the main processor 50; The voice data corresponding to the process control signal output from the main processor 50 is loaded from the voice output database 73 and output to the speaker 31, and data on a current progress state is output to the main processor 50. A voice output processor 63 for returning the voice signal; Controlled according to the process control signal of the main processor, the signal recognized by the voice recognition unit 20 is compared with the data loaded from the voice recognition database 74, and the data of the comparison result is output to the main processor 50. And a component speech recognition unit 20 which performs a speech recognition function on the wireless recognition computer 100 and the learning doll 110 as in the above-described example. All of the speech recognition processing unit 64 may be provided and operated, and the component for performing the speech recognition function may be provided and operated only in one of the wireless recognition computer 100 and the learning doll 110.

도 3은 본 발명에 따른 상호 대화식 언어 학습시스템의 동작 흐름도로서, 주 처리부(50)가 실행하는 신호 처리흐름을 도시하고 있다.3 is an operation flowchart of the interactive language learning system according to the present invention, which shows a signal processing flow executed by the main processing unit 50.

도면에서 본 발명은 프로그램 개시와 동시에 학습 안내를 위한 초기화면을 구성하여 출력하고, 그 초기화면을 통해 학습요청이 있기를 대기하는 제1단계(S311-S313)와; 사용자에 의한 학습요청이 있게 되면, 음성출력을 위한 서브루틴(도 4a)을 실행하여 데이터 베이스에 저장된 학습 데이터의 질문자료를 읽어 음성으로 출력 처리하면서, 그와 동시에 음성인식을위한 서브루틴(도 4b)을 실행하여 음성으로 인식된 결과와 데이터 베이스의 저장 답변자료로부터 사용자의 응답 내용이올바른 것인지를 판단하는 제 2단계(S318, S319-1, S320)와; 상기 판단 결과에 따라, 상기 질문자료와 사용자가 응답한답변자료를 하나로 묶어 파일을 형성하고, 해당 파일을 데이터 베이스에서 읽어내 다음 질문을 위한 자료를 선택하여 음성으로 출력함으로써, 사용자의 답변내용에 부합되는 내용의 다음 학습을 계속해서 실시하는 제 3단계(S320-1, S321)로구성할 수 있다.In the drawing, the present invention comprises a first step (S311-S313) of constructing and outputting an initial screen for learning guidance at the same time as the program start and waiting for a learning request through the initial screen; When there is a learning request by the user, the subroutine for voice output (FIG. 4A) is executed to read out the question data of the training data stored in the database and output it as a voice, and at the same time, the subroutine for voice recognition (Fig. 4A). A second step (S318, S319-1, S320) of determining whether the response contents of the user are correct from the result of speech recognition and stored answer data in the database by executing 4b); According to the determination result, the question material and the answer data answered by the user are combined to form a file, and the file is read from the database, and the data for the next question is selected and outputted by voice, thereby providing a response to the user's response. It may be configured as a third step (S320-1, S321) to continue the next learning of the content that matches.

여기서 상기 제 1단계에서는 예를 들어 '문장 연습' 이나 '문장 따라하기' 또는 '발음연습' 별로 구분할 수 있는 학습 종류(a)와, 각 학습종류에 따라 난이도를 구분할 수 있는 학습 등급(b) 등을 사용자의 의도에 따라 선택할 수 있도록 안내화면을 출력하는 단계(S314)와; 그 안내화면을 통해 학습 종류(a)나 학습등급(b)을 선택하기를 대기하는 단계(S315)와;상기 대기상태에서 선택이 이루어진 경우 선택된 학습 종류와 등급을 학습 레벨로 설정하는 단계(S316)와; 상기 대기상태에서 선택이 이루어지지 않을 경우 미리 지정된 기본적인 학습 종류와 등급을 학습 레벨로 설정하는 단계(S317)를 더 포함할 수 있다.Here, in the first step, for example, a learning type (a) that can be divided by 'sentence practice', 'following a sentence' or 'pronounced practice', and a learning level (b) that can classify difficulty according to each learning type. Outputting a guide screen to select a user's intention and the like (S314); Waiting to select a learning type (a) or a learning grade (b) through the guide screen; and setting the selected learning type and grade as a learning level when the selection is made in the waiting state (S316). )Wow; If the selection is not made in the standby state, the method may further include setting a predetermined basic learning type and grade as a learning level (S317).

그리고, 상기 제 2단계는 학습 데이터의 질문자료 음성출력 처리 서브루틴(도 4a)과 동시에 배경 화면출력을 위한 서브루틴(도 4c)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 영상자료를 읽어 모니터 화면으로 출력처리하고, 배경음향출력을 위한 서브루틴(도 4d)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 음향자료를 읽어 스피커로 출력처리하는 단계(S319)를 더 포함하여 구성할 수 있다.In the second step, the background data of the learning data stored in the database is read and monitored by executing a subroutine (FIG. 4C) for outputting the background screen simultaneously with the voice data processing subroutine (FIG. 4A) of the training data. The process may further include outputting the screen to a screen, and executing a subroutine for outputting a background sound (FIG. 4D) to read the background sound data of the learning data stored in the database and output the same to the speaker (S319).

또한 상기 제 3단계는 상기 서브루틴 수행결과로부터 사용자가 답변한 내용과 데이터 베이스에 저장된 답변내용이 불일치하는 것이 판단되면, 올바른 답변이 아님을 알리기 위한 경고 메시지를 출력 처리하는 단계(S322)를 더 포함할 수 있으며, 또한 음성 출력 서브루틴을 실행하여 데이터 베이스의 저장 답변내용 및 새로운 질문자료를 읽어내 음성으로 출력 처리하는 단계(S323)를 더 포함할 수 있다. 이때 경고 메시지나 저장 답변내용 및 새로운 질문자료는 문자로도 출력할 수 있으며, 음성이나 문자를 동시에 사용할 수도 있다.The third step further includes the step (S322) of outputting a warning message for notifying a correct answer when it is determined that the user's answer and the answer stored in the database are inconsistent from the subroutine execution result. In addition, the method may further include a step of executing a voice output subroutine to read out the stored answer contents and the new question data in the database and output the result in voice (S323). At this time, the warning message, the stored answer contents, and the new question data can be output by text, and voice or text can be used simultaneously.

또한 상기 제 3단계는 정답이 틀린 학습 데이터에 대해서는 반복학습할 것인지를 체크하는 단계(S324)를 더 구비하여, 사용자의 의도에 따라 반복학습을 실시하도록 구성할 수 있다.In addition, the third step may further include a step (S324) of checking whether to repeat the learning data for the incorrect answer data, it can be configured to perform the repetitive learning according to the user's intention.

도 4a 내지 도 4d는 각각 상기 도 3의 음성출력 서브루틴과, 음성인식 서브루틴과, 배경 영상출력 서브루틴과, 배경 음향출력 서브루틴에 대한 동작 흐름도이다. 상기 도면에서 각각의 서브루틴은 메인 루틴(도 3)에 의해 각각 호출되어 구동되며, 데이터 베이스를 탐색하기 위한 자료는 상기 메인 루틴으로부터 제공받고, 데이터 베이스를 탐색한 결과 및 음성인식한 결과는 다시 메인루틴으로 되돌려 주도록 구성되어 있다.4A to 4D are flowcharts illustrating operations of the voice output subroutine, the voice recognition subroutine, the background image output subroutine, and the background sound output subroutine of FIG. 3, respectively. In the figure, each subroutine is called and driven by the main routine (FIG. 3), and the data for searching the database is provided from the main routine, and the result of searching the database and the speech recognition result are again. It is configured to return to the main routine.

도 5는 본 발명에 따른 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어학습 시스템의 다른 실시예를 설명하기 위하여 도시한 블록도로서, 상기 도 1에도시된 구성요소를 갖는 하나의 음성인식 컴퓨터(100)와, 무선으로 데이터 및 어드레스를 주고 받으며 제어신호를 공급받아 상기 음성인식 컴퓨터(100)에 의해 피동적으로 동작하는 다수개의 학습용 인형(110-130)이 상기 음성인식 컴퓨터(100)에 병렬로 연결되어일인대 다수인(교수 일인과 학생 여러명) 사이의 언어학습이 이루어질 수 있도록 구성한 형태를 보이고 있다.FIG. 5 is a block diagram illustrating another embodiment of an interactive language learning system using a computer having a speech recognition function and learning dolls according to the present invention, wherein one voice having the components shown in FIG. The voice recognition computer 100 includes a plurality of learning dolls 110-130, which are passively operated by the voice recognition computer 100 by receiving data and addresses from the recognition computer 100 and receiving a control signal wirelessly. In parallel, it is structured so that language learning can be carried out between one person and many people (one professor and several students).

이와 같이 구성되는 본 발명의 동작 및 그 작용 효과를 설명하면 아래와 같다.Referring to the operation of the present invention configured as described above and the effect thereof is as follows.

상기 각 도면을 참조하면, 프로그램 작동 개시(S311)와 동시에 초기 화면을 출력(S312)하고, 학습요청이 있는지를 판단(S313)한다. 상기 판단 결과 학습 요청이 있게 되면, 다시 학습 종류나 학습 등급(난이도)를 선택할 수 있는 선택화면을출력(S314)한다. 이때 선택화면에서는 원하는 학습 종류를 선택할 수 있도록 하며, 사용자가 교육 수준을 선택할 수가 있도록 여러 단계 수준의 메뉴를 제시하고 선택할 수 있도록 한다. 그 상태에서 선택되는 학습 종류와 난이도를 이후 학습할 레벨로 설정(S316)한다. 만약 선택이 없으면, 미리 지정된 값을 이용하여 학습 레벨을 설정(S317)한다.Referring to each of the drawings, at the same time as the start of the program operation (S311) outputs the initial screen (S312), and determines whether there is a learning request (S313). If there is a learning request as a result of the determination, a selection screen for selecting a learning type or a learning grade (difficulty) again is output (S314). At this time, the selection screen allows the user to select a desired type of learning and presents and selects menus of various levels so that the user can select the education level. The learning type and difficulty selected in the state are set to a level to be learned later (S316). If there is no selection, the learning level is set using a predetermined value (S317).

그리고 나서, 음성출력 서브루틴을 호출(S318)하여 실행한다. 이때 음성출력서브루틴에서는 도 4a에서 도시된 바와 같이메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터를 데이터 베이스에서 로드(S402), 상기 로드된 학습 데이터의 질문 자료를 음성(또는 문자)으로 출력(S403)하고, 그 값을 다시메인 루틴으로 되돌려 준다(S404).Then, the voice output subroutine is called (S318) to execute. In this case, as shown in FIG. 4A, the voice output subroutine checks an initial value of a database using data provided from a main routine, and loads training data corresponding to a set level from a database (S402). The question data of the data is output by voice (or text) (S403), and the value is returned to the main routine (S404).

다음으로 상기 음성 출력 서브루틴에서 되돌려 받은 자료를 이용하여 배경 영상출력 서브루틴과 배경 음향출력 서브루틴을 동시에 호출(S319)하여 실행시키고, 또한 음성 인식 서브루틴을 호출하여 실행(S319-1)시킨다. 따라서 상기 음성인식서브루틴에서는 도 4b 에서와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크한 후, 음성인식결과가 있기를 기다리며(S412), 음성인식결과가 나타나면, 데이터 베이스에서 답변자료를 조사(S413)하여, 상기 음성인식된 결과와 데이터 베이스의 답변 자료를 비교(S414)하여, 그 비교결과를 각각 다시 메인 루틴으로 되돌려 준다(S415,S416). 배경 영상출력 서브루틴과 배경 음향 서브루틴에서는 도 4c 및 도 4d에 도시된 바와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터의 배경 영상자료 및 배경 음향자료를 각각의 데이터 베이스에서 로드(S422, S423), 상기 로드된 학습 데이터의 배경 영상자료 및 배경 음향자료를 출력(S432, S433)한다.Next, the background image output subroutine and the background sound output subroutine are simultaneously called (S319) and executed by using the data returned from the voice output subroutine, and the voice recognition subroutine is executed (S319-1). . Therefore, in the speech recognition subroutine, as shown in FIG. 4B, after checking the initial value of the database using the data provided in the main routine, the user waits for the speech recognition result (S412). In step S413, the answer data is compared with the voice recognition result and the answer data of the database (S414), and the comparison results are returned to the main routine, respectively (S415 and S416). In the background image output subroutine and the background acoustic subroutine, as shown in FIGS. 4C and 4D, the initial value of the database is checked using the data provided by the main routine, and the background image data of the training data corresponding to the set level is checked. And load background sound data from respective databases (S422 and S423), and output background image data and background sound data of the loaded learning data (S432 and S433).

그 다음, 상기 음성 인식 서브루틴에서 되돌려준 결과를 체크(S320)하여, 올바른 응답인 경우는 다음 사용자료를 데이터베이스에서 읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 생성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아 음성 출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.Next, the result returned from the speech recognition subroutine is checked (S320), and if the answer is correct, the question data and the response data are combined into a file to read the next user fee from the database (S320-1). And, by searching the file in the database and executing the voice output subroutine (S321), the new question material corresponding to the user's response is output as voice, so that new learning can be continued.

상기 음성 인식 서브루틴(S319-1)에서 되돌려준 결과를 체크(S320)하여, 올바른 응답이 아닌 경우는, 올바른 응답이 아님을 알리기 위한 메시지를 음성이나 문자로 출력(S322)하며, 바로 다음에 데이터 베이스에 저장된 정답자료를 읽어 음성이나 문자로 출력(S323)함으로써, 사용자가 정답을 확인할 수 있도록 한다. 그리고 틀린 문제를 다시 복습할 것인지를 묻고(S324),그 물음에 긍정적으로 응답하면 상기 틀린 문제를 다시 학습할 수 있도록 배경 화면 및 음향 출력과 음성 인식을 차례로실시하는 단계(S319)로 복귀시킨다. 상기 틀린 문제를 복습하기를 원하지 않는 경우, 다음 사용자료를 데이터 베이스에서읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 생성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아음성출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.The result returned by the speech recognition subroutine S319-1 is checked (S320), and when it is not a correct response, a message for notifying that the speech is not a correct response is output as voice or text (S322). The correct answer data stored in the database is read and output in voice or text (S323), so that the user can check the correct answer. If the question is asked again to review the wrong problem (S324), and if the answer is affirmatively, the screen returns to the step of sequentially performing the background screen and sound output and speech recognition so as to learn the wrong problem again (S319). If you do not want to review the wrong problem, in order to read the next user fee from the database, the question material and the response data are combined into a file (S320-1), and the file is found in the database. By executing the routine (S321), a new question material corresponding to the user's response is output as a voice so that new learning can be continued.

상기 과정들을 구체적인 예로서 설명하면 다음과 같다.The above processes are described as specific examples.

먼저 김포공항에서 한 외국 방문자를 맞이하는 한국인이 방문자의 한국 방문경험에 대하여 질문하는 대화 상황을 가정하면, 상호 입체식 대화 영어 학습 방법은 다음과 같이 진행된다.First, assuming a conversational situation where a Korean who greets a foreign visitor at Gimpo Airport inquires about the visitor's experience in Korea, the mutual three-dimensional conversational English learning method proceeds as follows.

Welcome to Korea! Have you been in Korea before?Welcome to Korea! Have you been in Korea before?

위의 질문에 대답 가능한 모든 답변 문장들은 데이터 저장부(70)에 저장되어있다. 그리고, 이 때 배경 화면은 김포공항이 되며, 비행기가 이착륙하는 동적 배경과 음향 효과가 동시에 전개된다. 데이터 저장부(70)에 저장된 답변은 다음 중하나와 같다고 가정한다.All possible answer sentences to answer the above questions are stored in the data storage unit 70. At this time, the wallpaper becomes Gimpo Airport, and the dynamic background and sound effects of the plane take off and land simultaneously. Assume that the answer stored in the data storage unit 70 is one of the following.

가) Yes, I have.A) Yes, I have.

나) Yes, I have been there many times.B) Yes, I have been there many times.

다) No, I have not.C) No, I have not.

사용자가 위의 3가지 답변들 중 일치하는 대답을 하는 경우, 선택된 대답에 따른 다음 대화 진행 내용은 데이터 저장부(70)에 저장되어 있다. 예로서, 상기 가) 문장에 대한 데이터 저장부(70)에 저장된 새 질문은 다음과 같다고 가정한다.When the user gives a matching answer among the above three answers, the contents of the next conversation according to the selected answer are stored in the data storage 70. For example, it is assumed that the new questions stored in the data storage unit 70 for the sentence A are as follows.

How long have you stayed?How long have you stayed?

여기에 가능한 답변으로 데이터 저장부(70)에 다음과 같이 저장되어 있다고 가정한다.As a possible answer here, it is assumed that the data storage unit 70 is stored as follows.

가) a weekA) a week

나) two weeks2) two weeks

다) a monthA) a month

라) More than two monthsD) More than two months

사용자가 상기 가)의 대답을 한 경우 데이터 저장부(70)에 저장되어 있는 다음 진행 문답의 질문은 다음과 같다고 가정한다.When the user answers a), it is assumed that the question of the next progress question and answer stored in the data storage unit 70 is as follows.

What was your impression of Korea?What was your impression of Korea?

이러한 질문에 대한 배경 화면은 질문의 내용을 적절히 표시하는 내용으로서, 데이터 저장부(70)에 저장되어 있다. 상기 질문의 경우에는 인상을 강조하는 내용의 배경 화면으로 좋은 느낌을 의미하는 하트 심벌, 아름다움을 의미하는 가을설악산 풍경, 싫은 느낌의 출퇴근 시간의 복잡한 지하철 내부 등의 다양한 3차원 배경 영상이 데이터 저장부(70)에 저장되어 있다.The background screen for the question is a content for properly displaying the content of the question and is stored in the data storage unit 70. In the case of the above question, various three-dimensional background images such as a heart symbol meaning good impression, autumn Seoraksan mountain meaning beauty, and the inside of a complicated subway with a disgusting commute time are used as a background screen that emphasizes impression. It is stored at 70.

상기와 같이 영상 출력부(40)는 상기 영상 자료를 화면에 출력하면서 사용자의 이해를 시각적으로 자극하여 학습 효율을 높인다.이상의 본 발명은 상기에 기술된 실시예들에 의해 한정되지 않고 당업자들에 의해 다양한 변형 및 변경을 가져올 수 있는데, 특히 적어도 하나 이상의 학습용 인형(110)과 음성 인식 컴퓨터(100)간에 유선으로 데이터가 송수신되는 실시예도 제안될 수 있으며, 이는 첨부된 청구항에서 정의되는 본 발명의 취지와 범위에 포함된다.As described above, the image output unit 40 increases the learning efficiency by visually stimulating the user's understanding while outputting the image material on the screen. The present invention is not limited to the above-described embodiments and is provided to those skilled in the art. Various modifications and changes may be brought about by the present invention, and in particular, an embodiment in which data is transmitted and received by wire between at least one or more learning dolls 110 and the voice recognition computer 100 may be proposed, which is defined in the appended claims. It is included in the spirit and scope.

따라서, 본 발명의 학습 시스템에 의하면, 무선으로 컴퓨터에 연결되어 있는 인형을 통하여 사용자와 상호 대화가 가능하도록 함으로서 학습 내용에 따라 다양한 내용의 언어 전개가 가능하도록 함으로써, 사용자가 주체가 되어 언어를 진행할 수 있는 이점이 있으며, 대화 진행 내용에 따른 영상과 배경 음향이 모니터 화면과 스피커로 출력되도록 함으로써, 실제 생활 언어와 같이 인형과 입체적인 대화 방식의 교육을 할 수 있어 사용자의 집중력과 학습 효과를 높일 수 있는 이점이 있다.Therefore, according to the learning system of the present invention, by allowing the user to interact with the user through a doll connected to the computer by wireless, enabling the language development of various contents according to the learning contents, so that the user can proceed as a subject In addition, the video and background sound according to the contents of the dialogue are output to the monitor screen and the speaker, so that the education of the three-dimensional dialogue method with the doll like the real language can enhance the user's concentration and learning effect. There is an advantage to that.

Claims (13)

사용자의 음성을 입력받아 전기적인 신호로 바꾸는 음성입력수단;과,A voice input means for receiving a voice of a user and converting the voice into an electrical signal; 상기의 음성입력수단의 출력 전기 신호를 변조하여 무선으로 컴퓨터에 송신하고, 컴퓨터에서 보내온 영상이나 음향 또는 음성 신호를 수신하여 복조하는 제 1 무선 송수신 수단;과,First wireless transmission and reception means for modulating the output electrical signal of said audio input means and transmitting it wirelessly to a computer, and receiving and demodulating an image, sound or audio signal sent from said computer; And 영상신호 또는 음성신호를 각각 신호 처리하여 모니터 화면 또는 오디오 시스템으로 출력하는 영상 또는 음성 출력수단을 포함하는 인형; 및A doll including a video or audio output means for processing a video signal or an audio signal and outputting the signal to a monitor screen or an audio system; And 상기의 인형에서 송신된 무선 신호를 수신받아 복조하고, 또한, 컴퓨터의 출력 영상이나 음향 또는 음성 신호를 변조하여 무선으로 인형에 송신하는 제 2 무선 송수신 수단;과,Second wireless transmission / reception means for receiving and demodulating a radio signal transmitted from the doll, and modulating an output image, sound, or audio signal of a computer and transmitting the radio signal to the doll; 수신된 신호에서 추출한 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 제 1 음성 인식수단;과,First speech recognition means for analyzing the speech signal extracted from the received signal and recognizing the meaning of the speech signal; 언어 학습을 위한 질문데이터와 그 질문에 대한 다수의 답변데이터, 및 상기다수의 각 답변데이터에 부응하는 새로운 질문데이터와 그 새로운 질문에 대한 새로운 다수의 답변데이터를 트리(tree)구조로 하여 사용자의 질문이나 응답에 대응하여 트리(Tree) 구조로 대화가 진행되는 학습자료구조를 형성하며, 상기 질문과 다수의 답변 데이터 각각의 내용에 적합한 영상데이터 또는 음향 데이터를 저장하되, 상기 질문데이터와 그 질문에 대한 다수의 답변 데이터를 저장할 때, 각 답변 데이터에 해당하는 다음 질문데이터의 해당 소재를 추출할 수 있는 정보와 각 답변데이터에 해당하는 출력 영상 데이터 또는 음향 데이터를 추출할 수 있는 정보들을 함께 포함하여, 질문과 답변을 하나로 묶어 파일 형태로 저장하는 데이터 저장수단;과,The question data for language learning, a plurality of answer data for the question, new question data corresponding to each of the plurality of answer data, and a plurality of new answer data for the new question in a tree structure. It forms a learning data structure in which a conversation proceeds in a tree structure in response to a question or an answer, and stores image data or sound data corresponding to the contents of the question and the plurality of answer data, respectively, wherein the question data and the question are stored. When storing a plurality of answer data for, including information for extracting the corresponding material of the next question data corresponding to each answer data and the output image data or audio data corresponding to each answer data together Data storage means for storing the questions and answers in a file form, and 사용자가 선택한 학습자료의 질문데이터를 상기 데이터 저장수단에서 읽어 상기 영상 또는 음성 출력수단으로 내보내고, 상기 제 1 음성 인식수단을 통해 사용자의 응답이나 답변 데이터가 들어오면 상기 데이터 저장수단에 미리 저장된 답변데이터와 비교하여 정답/오답 여부를 판단하고, 그 판단 결과에 따라 사용자의 답변 데이터에 부응하는 다음 질문데이터와 이에 해당하는 영상 또는 음성 데이터를 상기 데이터 저장수단의 학습자료에서 읽어내 상기 영상 또는 음성 출력수단으로 내보내는 제어수단;을 포함하는 컴퓨터로 구성되는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.Read the question data of the learning material selected by the user from the data storage means to export to the video or audio output means, when the response or response data of the user through the first voice recognition means, the answer data pre-stored in the data storage means And the next question data corresponding to the user's answer data and the corresponding video or audio data are read from the learning data of the data storage means and output the video or audio according to the determination result. And a control means for outputting the means. The interactive conversational language learning system using a computer having a speech recognition function and a learning doll, comprising a computer. 제 1항에 있어서, 상기 인형은,The method of claim 1, wherein the doll, 사용자가 질문에 대한 응답으로 음성 입력대신 수동 조작에 의한 입력을 가능하게 하는 버튼 키 입력 수단을 더 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.And a button key input means for allowing a user to input by manual operation instead of voice input in response to a question. 제 1항에 있어서, 상기 인형은 사용자로부터 입력된 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하는 제 2 음성 인식수단을 더 포함하여 구성되는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.The computer having a voice recognition function according to claim 1, wherein the doll further comprises second voice recognition means for analyzing a voice signal input from a user and recognizing the meaning of the voice signal. Interactive language learning system using language and learning puppets. 제 3항에 있어서, 상기 제 2 음성인식수단은,The method of claim 3, wherein the second voice recognition means, 입력 음성 신호를 분석하여, 그 입력 음성 신호가 의미하는 내용을 문자 데이터로 변환하여 상기 인형의 영상 출력수단에 출력하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.An interactive conversational language learning system using a computer having a speech recognition function and a learning doll, characterized by analyzing an input voice signal, converting the meaning of the input voice signal into text data, and outputting the same to text data of the doll. . 삭제delete 삭제delete 삭제delete 제 3항에 있어서, 상기 제 2 무선 송수신 수단은, 다수의 인형들과 무선 송수신 가능한 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.4. The system of claim 3, wherein the second wireless transmission / reception means is capable of wireless transmission and reception with a plurality of dolls. 제 1항에 있어서, 상기 제어수단은,The method of claim 1, wherein the control means, 다수의 태스크(task)를 한꺼번에 지원하기 위하여 다수의 프로세스 제어신호를 동시에 처리하는 주 처리수단;Main processing means for simultaneously processing a plurality of process control signals to support a plurality of tasks at once; 상기 주 처리수단의 프로세서 제어신호에 의해 작동하여 상기 데이터 저장수단의 학습자료를 탐색하고, 탐색된 학습자료데이터의 다음 질문 내용과 해당 배경 영상 자료 또는 배경 음향 자료의 위치 정보를 주 처리 수단으로 제공하는 부 처리수단을 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.Operated by the processor control signal of the main processing means to search the learning data of the data storage means, and to provide the main processing means with the next question content of the searched learning data data and the position information of the corresponding background image data or background sound data Interactive language learning system using a computer having a speech recognition function and the learning doll, characterized in that it comprises a sub-processing means. 제 9항에 있어서, 상기 제어수단은,The method of claim 9, wherein the control means, 상기 주 처리수단의 프로세스 제어신호에 의해 작동하여 상기 제 1 음성 인식수단을 구동시키고, 상기 제 1 음성 인식수단을 통해들어오는 사용자의 답변 데이터와 상기데이터 저장수단으로부터 읽어낸 답변 데이터를 비교하여, 그 비교결과를 상기 주처리수단으로 제공하는 음성인식 처리수단을 더 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.It operates by the process control signal of the main processing means to drive the first speech recognition means, and compares the answer data read from the data storage means with the answer data of the user coming in through the first speech recognition means, and And a speech recognition processing means for providing a comparison result to the main processing means. 제 9항에 있어서, 상기 제어수단은The method of claim 9, wherein the control means 상기 주 처리수단의 프로세스 제어신호에 의해 작동하여 상기 데이터 저장수단으로부터 학습자료구조의 영상데이터를 읽어내, 영상 출력수단을 통해 출력 처리하는 배경영상 처리수단을 더 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.And a background image processing unit operating by the process control signal of the main processing unit to read out the image data of the learning data structure from the data storage unit and output the processed image through the image output unit. Interactive language learning system using a computer and learning doll having a. 제 9항에 있어서, 상기 제어수단은,The method of claim 9, wherein the control means, 상기 주 처리수단의 프로세스 제어신호에 의해 작동하여 상기 데이터 저장수단으로부터 학습자료구조의 음향자료를 읽어내, 상기 음성 출력수단을 통해 출력처리하는 배경음향 처리수단을 더 포함하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.Speech recognition means further comprises a background sound processing means for operating by the process control signal of the main processing means to read the sound data of the learning data structure from the data storage means, and output the processing through the sound output means. Interactive language learning system using computer with learning function and learning dolls. 제 9항에 있어서, 상기 주 처리수단은, 다수 인형들과 대화하는 다수의 태스크를 한꺼번에 지원하기 위해 다수의 인형 프로세서 제어 신호를 동시에 처리하는 것을 특징으로 하는 음성 인식 기능을 갖는 컴퓨터와 학습용 인형들을 이용한 상호 대화 언어 학습 시스템.10. The computer program according to claim 9, wherein the main processing means processes a plurality of doll processor control signals at the same time to support a plurality of tasks communicating with a plurality of dolls at once. Interactive language learning system.
KR10-2000-0019427A 2000-04-12 2000-04-12 Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer KR100447667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0019427A KR100447667B1 (en) 2000-04-12 2000-04-12 Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0019427A KR100447667B1 (en) 2000-04-12 2000-04-12 Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer

Publications (2)

Publication Number Publication Date
KR20010095941A KR20010095941A (en) 2001-11-07
KR100447667B1 true KR100447667B1 (en) 2004-09-08

Family

ID=19664046

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0019427A KR100447667B1 (en) 2000-04-12 2000-04-12 Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer

Country Status (1)

Country Link
KR (1) KR100447667B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013085507A1 (en) * 2011-12-07 2013-06-13 Hewlett-Packard Development Company, L.P. Low power integrated circuit to analyze a digitized audio stream
US9992745B2 (en) 2011-11-01 2018-06-05 Qualcomm Incorporated Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020051642A (en) * 2000-12-23 2002-06-29 이대일 Multimedia display device using doll
KR20010111559A (en) * 2001-11-15 2001-12-19 황의성 Telephone formed learning device using computer for children
KR20040038512A (en) * 2002-11-01 2004-05-08 (주) 리빙토이 Foreign lange practice methode using computer system
KR102120115B1 (en) * 2018-12-05 2020-06-17 주식회사 스캐터랩 Answer system based on ability to communicate and the method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0231786A (en) * 1988-07-21 1990-02-01 Hitoshi Miyamori Toy moving in response to calls from specified person
KR19980016952A (en) * 1996-08-30 1998-06-05 조원장 Field Experience Language Training System Using Virtual Reality
KR19990068379A (en) * 1999-05-10 1999-09-06 김일천 Toy having speech recognition function and two-way conversation for child
KR19990073551A (en) * 1999-07-22 1999-10-05 김일천 Toy robot for speech recognition and control method thereof
KR19990087263A (en) * 1996-12-26 1999-12-15 이데이 노부유끼 Recognition device and recognition method, learning device and learning method
KR20000012347A (en) * 1999-11-29 2000-03-06 이우열 Toy system for recognizing of voice with a learning function and method for controlling thereof
KR20000063155A (en) * 2000-03-09 2000-11-06 서문식 Data downloadable audio reconition toy

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0231786A (en) * 1988-07-21 1990-02-01 Hitoshi Miyamori Toy moving in response to calls from specified person
KR19980016952A (en) * 1996-08-30 1998-06-05 조원장 Field Experience Language Training System Using Virtual Reality
KR19990087263A (en) * 1996-12-26 1999-12-15 이데이 노부유끼 Recognition device and recognition method, learning device and learning method
KR19990068379A (en) * 1999-05-10 1999-09-06 김일천 Toy having speech recognition function and two-way conversation for child
KR19990073551A (en) * 1999-07-22 1999-10-05 김일천 Toy robot for speech recognition and control method thereof
KR20000012347A (en) * 1999-11-29 2000-03-06 이우열 Toy system for recognizing of voice with a learning function and method for controlling thereof
KR20000063155A (en) * 2000-03-09 2000-11-06 서문식 Data downloadable audio reconition toy

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9992745B2 (en) 2011-11-01 2018-06-05 Qualcomm Incorporated Extraction and analysis of buffered audio data using multiple codec rates each greater than a low-power processor rate
WO2013085507A1 (en) * 2011-12-07 2013-06-13 Hewlett-Packard Development Company, L.P. Low power integrated circuit to analyze a digitized audio stream
US9564131B2 (en) 2011-12-07 2017-02-07 Qualcomm Incorporated Low power integrated circuit to analyze a digitized audio stream
US10381007B2 (en) 2011-12-07 2019-08-13 Qualcomm Incorporated Low power integrated circuit to analyze a digitized audio stream
US11069360B2 (en) 2011-12-07 2021-07-20 Qualcomm Incorporated Low power integrated circuit to analyze a digitized audio stream
US11810569B2 (en) 2011-12-07 2023-11-07 Qualcomm Incorporated Low power integrated circuit to analyze a digitized audio stream

Also Published As

Publication number Publication date
KR20010095941A (en) 2001-11-07

Similar Documents

Publication Publication Date Title
JP7059492B2 (en) Foreign language learning equipment, foreign language learning service provision methods, and computer programs
CN108536672A (en) Intelligent robot Training Methodology, device, computer equipment and storage medium
CN106057023A (en) Intelligent robot oriented teaching method and device for children
Kahn et al. AI programming by children
CN110767005A (en) Data processing method and system based on intelligent equipment special for children
KR100915681B1 (en) Method and apparatus of naturally talking with computer
KR100447667B1 (en) Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer
KR100593589B1 (en) Multilingual Interpretation / Learning System Using Speech Recognition
KR100296271B1 (en) Language study system by interactive conversation
JP6166831B1 (en) Word learning support device, word learning support program, and word learning support method
Bugmann et al. Using verbal instructions for route learning: Instruction analysis
KR100287227B1 (en) Language study method by interactive conversation
CN116884282A (en) Question answering method, device, electronic equipment and storage medium
KR100296272B1 (en) Language study system by interactive conversation
JP2010231580A (en) System and method for supporting education
KR20020024828A (en) Language study method by interactive conversation on Internet
KR20190070683A (en) Apparatus and method for constructing and providing lecture contents
CN110852922A (en) Dynamic scenario-oriented language digital teaching method and system
KR100287228B1 (en) Language study method by interactive conversation
KR20020068835A (en) System and method for learnning foreign language using network
JP2673831B2 (en) Conversational etiquette education system
CN112309183A (en) Interactive listening and speaking exercise system suitable for foreign language teaching
KR20050024996A (en) Spelling teaching method by the pattern recognition of an image on an input device
JP2014038140A (en) Language learning assistant device, language learning assistant method and language learning assistant program
KR102536372B1 (en) conversation education system including user device and education server

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee