KR100287228B1 - Language study method by interactive conversation - Google Patents
Language study method by interactive conversation Download PDFInfo
- Publication number
- KR100287228B1 KR100287228B1 KR1019990005293A KR19990005293A KR100287228B1 KR 100287228 B1 KR100287228 B1 KR 100287228B1 KR 1019990005293 A KR1019990005293 A KR 1019990005293A KR 19990005293 A KR19990005293 A KR 19990005293A KR 100287228 B1 KR100287228 B1 KR 100287228B1
- Authority
- KR
- South Korea
- Prior art keywords
- user
- data
- learning
- answer
- database
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 25
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 18
- 230000000694 effects Effects 0.000 abstract description 5
- 238000013500 data storage Methods 0.000 description 17
- 230000004044 response Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004886 process control Methods 0.000 description 5
- 241000251468 Actinopterygii Species 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000003796 beauty Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000008140 language development Effects 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B7/00—Electrically-operated teaching apparatus or devices working with questions and answers
- G09B7/02—Electrically-operated teaching apparatus or devices working with questions and answers of the type wherein the student is expected to construct an answer to the question which is presented or wherein the machine gives an answer to the question presented by a student
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2246—Trees, e.g. B+trees
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Business, Economics & Management (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Educational Administration (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Educational Technology (AREA)
- Acoustics & Sound (AREA)
- Entrepreneurship & Innovation (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 컴퓨터를 이용하여 사용자 주도의 언어학습을 실시할 수 있도록 한 상호 대화식 언어 학습방법에 관한 것이다.The present invention relates to an interactive language learning method for enabling user-led language learning using a computer.
본 발명은 특히, 프로그램 개시와 동시에 학습 안내를 위한 초기화면을 구성하여 출력하고, 학습 요청이 있기를 대기하는 제 1단계; 상기 대기상태에서 사용자에 의한 학습요청이 있게 되면, 데이터 베이스에 저장된 질문데이터를 읽어내 출력 처리하고, 음성인식을 위한 서브루틴을 실행하여 사용자의 답변데이터가 인식되기를 대기하는 제 2단계; 상기 대기상태에서 사용자의 답변데이터가 인식되면 데이터 베이스의 답변데이터와 비교하여, 정답/오답 여부를 판단하는 제 3단계; 상기 판단결과, 올바른 답변이면 사용자의 답변데이터에 부응하는 내용의 다음 질문데이터를 데이터 베이스에서 읽어내 출력하고, 사용자의 답변데이터 인식 대기상태로 복귀하는 제 4단계; 상기 판단 결과, 올바른 답변이 아니면 오답임을 알리는 메시지를 표시하는 제 5단계를 포함한다.In particular, the present invention comprises a first step of constructing and outputting an initial screen for learning guidance at the same time as program start, and waiting for a learning request; A second step of waiting for the user's answer data to be recognized by reading and outputting the question data stored in the database, processing the question data stored in the database, and executing a subroutine for speech recognition when the learning request is received by the user in the standby state; A third step of determining whether the answer data is correct or incorrect when comparing the answer data of the user in the standby state; A fourth step of, if the answer is correct, reading the next question data having contents corresponding to the answer data of the user from the database and outputting the result; And a fifth step of displaying a message informing that the answer is incorrect, as a result of the determination.
따라서, 본 발명은 사용자가 대화의 주체가 되어 컴퓨터와의 외국어 언어를 진행하도록 함으로써, 사용자가 의도하는 방향으로 다양한 소재 선택이 가능하며, 일대일 혹은 일대 대수인 사이에 상호 대화식 입체적인 대화 방법으로 언어를 배울 수 있도록 하여, 사용자의 집중력과 학습 효과를 높일 수 있게 된다.Therefore, the present invention allows the user to proceed with a foreign language language with the computer as the subject of the conversation, so that the user can select a variety of materials in the direction intended by the user, and the language can be expressed in a mutually interactive three-dimensional conversation method between one-to-one or one-to-one algebra By learning, the user's concentration and learning effect can be enhanced.
Description
본 발명은 컴퓨터를 이용하여 일대일 혹은 일대 다수의 사용자 사이에 상호 대화방식으로 언어 학습을 실시할 수 있는 언어 학습방법에 관한 것으로, 특히 사용자의 질문이나 응답내용을 음성 인식을 통해 컴퓨터가 인식 및 판단할 수 있도록 함으로써 사용자 주도의 상호 양방향 대화가 사용자와 컴퓨터 사이에서 전개될 수 있도록 하며, 또한 실생활 대화에서 전개될 수 있는 다양한 상황의 대화내용 및 그 대화내용에 알맞는 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자의 질문이나 응답에 대응하여 다음 대화를 선택하면서 동시에 그에 따른 배경 화면 및 음향을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처할 수 있도록 한 상호 대화식 언어 학습방법에 관한 것이다.The present invention relates to a language learning method that can perform language learning in a one-to-one or one-to-many user interaction using a computer. In particular, the computer recognizes and judges a user's question or response through voice recognition. This allows the user-led interactive dialogue to be developed between the user and the computer, and also provides the data of the conversations in various situations and the background image or sound data suitable for the conversations. The present invention relates to an interactive language learning method that can actively store a user's intention by selecting a next conversation in response to a user's question or response and outputting a background screen and sound according to the user's question or response. .
종래의 교육 시스템은 미리 전개될 대화 스토리를 설정하고, 주어진 문장에 맞는 대답을 요구하는 형태의 일방적인 컴퓨터 주도 대화 진행 방식으로 이루어져있다. 그래서, 사용자에게 문장을 암기하고 대답하기를 요구하므로, 학습 대화의 스토리 전개가 단조롭고 대답에 다양한 선택 여지가 없을 뿐만 아니라 융통성이 결여되어 있어서, 사용자는 쉽게 싫증이 나고 학습 효율이 저하되는 등의 문제점이 있었다. 즉, 일상 생활에서의 대화는 질문 내용에 따라 다양한 상황이 전개되며, 다양한 형태의 대답으로 대화가 진행되므로, 특정한 형태로 고정되어진 대화 형태는 비현실적이다. 이러한 것은 사용자의 학습 의욕을 상실하게 하고 싫증나도록 하여 학습 효과를 저조하게 한다.Conventional education system is composed of a one-way computer-driven conversation process of setting the story to be developed in advance, and requires an answer for a given sentence. Therefore, the user is asked to memorize and answer the sentence, so that the story development of the learning conversation is monotonous, there is no variety of choices in the answer, and there is a lack of flexibility, so that the user is easily tired and the learning efficiency is reduced. There was this. That is, the conversation in daily life develops various situations according to the contents of the question, and since the conversation proceeds with various forms of answers, the conversation form fixed in a specific form is unrealistic. This results in loss of learning motivation and disgust of the user, resulting in poor learning effect.
또한, 음성 인식 기능을 포함하지 않기 때문에 사용자의 대답 내용의 타당성을 판단하는 능력이 없다. 일정시간 동안 사용자가 대답할 시간을 준 후 대답의 내용에 무관하게 다음 문장으로 대화가 진행되거나, 키보드에 의한 수동 문장 입력 또는 마우스로 제시된 답변 문장의 선택 등의 방법으로만 다음 대화 내용이 진행되게 구성되어 있어, 실제적인 상호 대화가 불가능하였다.In addition, since it does not include a speech recognition function, there is no ability to determine the validity of the user's answer contents. After giving the user time to answer for a certain time, the conversation proceeds to the next sentence regardless of the contents of the answer, or to the next conversation only by the manual sentence input by the keyboard or the selection of the answer sentence presented by the mouse. It was so constructed that no real interaction was possible.
상기와 같이, 종래의 영어 학습 시스템들은 멀티미디어를 이용한 상호 협조 체계가 미흡하고 음성 인식 방법이 사용되지 않아서, 사용자와 컴퓨터간의 상호 대화가 불가능하고 영어를 자율적으로 학습하기가 어렵다. 그리고, 실시간 상호 입체 영어 언어 교육용 소프트웨어 개발은 국내 및 해외에서도 전무한 형편이다.As described above, the conventional English learning systems are insufficient in the mutual cooperation system using the multimedia and the speech recognition method is not used, so that it is impossible for the user to communicate with the computer and it is difficult to learn English autonomously. In addition, the development of real-time interactive three-dimensional English language education software is not at home and abroad.
따라서, 대화 질문에 따라 사용자가 상황에 적절하고 다양한 대답을 제시할 수가 있고, 제시한 대답 문장에 따라 새로운 상황으로 대화가 진행되어 실제의 일상 생활 대화 상황과 같은 실생활 영어 언어가 진행되도록 하는 입체 언어 상호 대화식 영어 학습 시스템의 개발이 요구되고 있다.Therefore, the user can present a variety of answers appropriate to the situation according to the dialogue question, and the three-dimensional language that allows the conversation to proceed to a new situation according to the answer sentence presented so that the real-life English language such as the actual daily conversation situation can proceed. Development of an interactive English learning system is required.
이에, 본 발명은 상기와 같은 문제점을 해결하기 위해 안출된 것으로서, 본 발명은 사용자의 질문이나 응답내용을 음성 인식을 통해 컴퓨터가 인식 및 판단할 수 있도록 하고, 실생활 대화에서 전개될 수 있는 다양한 상황의 대화내용 및 그 대화내용에 알맞는 배경 영상자료나 음향자료를 데이터 베이스에 미리 저장하여 사용자의 질문이나 응답에 대응하여 다음 대화를 선택하면서 동시에 그에 따른 배경 화면 및 음향을 출력할 수 있도록 함으로써, 사용자의 의도에 능동적으로 대처하여, 사용자 주도의 상호 양방향 대화가 사용자와 컴퓨터 사이에서 전개될 수 있도록 한 상호 대화식 언어 학습방법을 제공함에 목적이 있다.Accordingly, the present invention has been made to solve the above problems, the present invention is to enable the computer to recognize and determine the user's questions or responses through voice recognition, various situations that can be deployed in real-life conversation By storing the dialogue contents and background image data or sound data suitable for the dialogue contents in the database in advance, the user can select the next dialogue in response to the user's question or response and simultaneously output the background image and sound accordingly. It is an object of the present invention to provide an interactive language learning method in which a user-directed two-way conversation can be developed between a user and a computer by actively coping with a user's intention.
상기 목적을 달성하기 위하여 본 발명의 일 실시예에서는 프로그램 개시와 동시에 학습 안내를 위한 초기화면을 구성하여 출력하고, 그 초기화면을 통해 학습 요청이 있기를 대기하는 제 1단계; 상기 대기상태에서 사용자에 의한 학습요청이 있게 되면, 데이터 베이스에 저장된 질문데이터를 읽어내 출력 처리하고, 그와 동시에 음성인식을 위한 서브루틴을 실행하여 사용자의 답변데이터가 인식되기를 대기하는 제 2단계; 상기 제 2단계의 대기상태에서 사용자의 답변데이터가 인식되면 데이터 베이스의 답변데이터와 비교하여, 정답/오답 여부를 판단하는 제 3단계; 상기 제 3단계의 판단결과, 올바른 답변이면 사용자의 답변데이터에 부응하는 내용의 다음 질문데이터를 데이터 베이스에서 읽어내 출력하고, 상기 제 2단계의 사용자의 답변데이터 인식 대기상태로 복귀하는 제 4단계; 상기 제 3단계의 판단 결과, 올바른 답변이 아니면 오답임을 알리는 메시지를 표시하는 제 5단계를 포함하는 것을 특징으로 하는 상호 대화식 언어 학습방법을 제공한다.In order to achieve the above object, an embodiment of the present invention provides a first step of constructing and outputting an initial screen for learning guide at the same time as program start, and waiting for a learning request through the initial screen; When the learning request is made by the user in the waiting state, the second step of reading and outputting the question data stored in the database and processing the same, and simultaneously executing a subroutine for voice recognition to wait for the user's answer data to be recognized. ; A third step of determining whether the answer data is correct / incorrect when the answer data of the user is recognized in the standby state of the second step; As a result of the determination of the third step, if the correct answer is a fourth step of reading the next question data corresponding to the user's answer data from the database and outputting the data, and returning to the user's answer data recognition standby state of the second step. ; As a result of the determination of the third step, it provides a interactive language learning method comprising a fifth step of displaying a message indicating that the incorrect answer is incorrect.
도 1은 본 발명의 일 실시예에 따른 상호 대화식 언어 학습 시스템의 블록도,1 is a block diagram of an interactive language learning system according to an embodiment of the present invention;
도 2는 도 1의 부처리부와 데이터 저장부를 상세하게 나타낸 블록도,FIG. 2 is a block diagram illustrating in detail the subprocessor and the data storage of FIG. 1;
도 3은 본 발명에 따른 상호 대화식 언어 학습방법의 동작 흐름도,3 is an operation flowchart of an interactive language learning method according to the present invention;
도 4a는 도 3의 음성출력 서브루틴에 대한 동작 흐름도,4A is an operation flowchart for the voice output subroutine of FIG. 3;
도 4b는 도 3의 음성인식 서브루틴에 대한 동작 흐름도,4b is an operation flowchart of the speech recognition subroutine of FIG.
도 4c는 도 3의 배경 영상출력 서브루틴에 대한 동작 흐름도,4C is a flowchart illustrating an operation of a background image output subroutine of FIG. 3;
도 4d는 도 3의 배경 음향출력 서브루틴에 대한 동작 흐름도,4d is an operation flowchart of the background sound output subroutine of FIG. 3;
도 5는 본 발명에 따른 상호 대화식 언어학습 시스템의 다른 실시예를 설명하기 위하여 도시한 블록도이다.5 is a block diagram illustrating another embodiment of an interactive language learning system according to the present invention.
〈도면 주요 부분에 대한 부호의 설명><Explanation of symbols for main parts of the drawing>
10 : 키입력부 20 : 음성 인식부10: key input unit 20: voice recognition unit
21 : 마이크 30 : 음성 출력부21: microphone 30: audio output unit
31 : 스피커 40 : 영상 출력부31: speaker 40: video output unit
41 : 모니터 50 : 주 처리부41: monitor 50: main processing unit
60 : 부 처리부 61 : 배경영상 처리부60: subprocessing unit 61: background image processing unit
62 : 배경음향 처리부 63 : 음성출력 처리부62: background sound processor 63: voice output processor
64 : 음성인식 처리부 70 : 데이터 저장부64: speech recognition processing unit 70: data storage unit
71 : 배경영상 데이터 베이스 72 : 배경음향 데이터 베이스71: background image database 72: background sound database
73 : 음성출력 데이터 베이스 74 : 음성인식 데이터 베이스73: voice output database 74: voice recognition database
이하, 본 발명의 바람직한 실시예들을 첨부된 도면을 참고로 하여 상세히 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 상호 대화식 언어 학습시스템의 구성을 간략하게 나타내 보인 블록도로서, 외부에서 입력되는 음성신호를 전기적인 신호로 변환하는 음성 입력수단(21) 및 상기 음성 입력수단을 통해 외부에서 들어오는 음성신호를 분석하고, 그 음성신호가 의미하는 내용을 인식하여 문자데이터로 변환하는 음성 인식수단(20)과, 영상신호 및 음성신호를 각각 신호 처리하여 모니터 화면 및 스피커로 각각 출력하는 영상 출력수단(40, 41) 및 음성 출력수단(30, 31)과, 데이터 베이스에 저장할 학습 데이터의 입력 및 사용자가 요청하는 학습 종류의 선택을 위한 키입력수단(10)과, 실생활 대화에서 전개될 수 있는 다양한 상황을 바탕으로 구성한 질문자료와 상기 질문에 대한 답변자료 및 상기 대화내용에 따른 배경 영상자료나 음향자료를 학습 데이터로 저장하는 데이터 저장수단(70)과, 상기 데이터 저장수단에 저장된 학습 데이터 중에서 사용자가 원하는 종류의 학습 데이터를 읽어 상기 영상 및 음성출력수단으로 내보내고, 사용자의 음성을 상기 음성 인식수단을 통해 인식하여 상기 데이터 저장수단으로부터 읽어낸 해당 학습 데이터와 비교하고, 그 비교결과에 따라 사용자가 응답한 내용에 부응하는 다음 질문 자료를 데이터 베이스에서 읽어내 출력하는 제어수단(50, 60)으로 구성된다.1 is a block diagram schematically showing the configuration of an interactive language learning system according to the present invention. The voice input means 21 converts a voice signal input from the outside into an electrical signal and an external signal through the voice input means. The voice recognition means 20 analyzes the voice signal coming from the voice signal, recognizes the meaning of the voice signal, and converts the text signal into text data, and processes the video signal and the audio signal to be output to the monitor screen and the speaker. Output means 40 and 41 and voice output means 30 and 31, key input means 10 for inputting the learning data to be stored in the database and for selecting the type of learning requested by the user; Question data composed of various situations, and answer data of the question and background image data or sound data according to the conversation contents learning data The data storage means 70 for storing the data and the learning data stored in the data storage means, and read out the desired type of learning data to the image and audio output means, and recognizes the user's voice through the speech recognition means And control means (50, 60) for comparing with the corresponding learning data read from the data storage means, and reading out the next question material corresponding to the contents answered by the user from the database according to the comparison result.
상기 영상 출력수단(40)은 상기 제어수단에서 출력된 신호를 입력받아 영상시호로 변환 처리하는 영상 출력장치로 구성할 수 있으며, 그 변환된 신호를 외부 영상 화면으로 출력하는 모니터(41)를 더 포함할 수 있다. 그리고 상기 음성 출력수단(30)은 상기 제어수단에서 출력된 신호를 입력받아 구동 신호를 출력하는 오디오 장치로 구성할 수 있으며, 상기 오디오 장치에서 출력된 구동 신호를 입력받아 음향이나 음성을 출력하는 스피커(31)를 더 포함하여 구성할 수 있다.The image output means 40 may be configured as an image output device that receives the signal output from the control means and converts it into an image signal, and further includes a monitor 41 for outputting the converted signal to an external image screen. can do. The voice output means 30 may be configured as an audio device that receives a signal output from the control means and outputs a driving signal, and receives a driving signal output from the audio device and outputs sound or voice. It can be comprised including the 31 further.
상기 음성 인식수단(20)은 사람의 음성을 입력받아 전기적인 신호로 변환하는 마이크(21)를 포함할 수도 있으며, 상기 마이크(21)에서 출력된 신호를 입력받아 사용자의 발음과 액센트를 근거로 하여 일치하는 단어로 변환시켜 제어수단으로 출력하는 음성 인식 장치(20)로 구성할 수 있으며, 또한 이것은 상기 제어수단에 의해 호출되고 구동되는 서브 루틴으로도 구성할 수 있다.The voice recognition means 20 may include a microphone 21 for receiving a human voice and converting the voice into an electrical signal, and receiving the signal output from the microphone 21 based on the pronunciation and accent of the user. It can be configured as a speech recognition device 20 that is converted into a matching word to output to the control means, it can also be configured as a sub-routine called and driven by the control means.
상기 제어수단은 각각의 처리루틴을 개별적으로 구비한 부 처리부(60)와, 상기 부 처리부(60)를 제어하는 다수의 프로세스 제어신호를 출력하는 주 처리부(50)를 포함할 수 있으며, 학습 데이터를 저장하는 데이터 저장부(70)를 포함하거나 또는 별도로 구성할 수도 있다. 상기 제어수단에서는 사용자에 의한 학습 요구가 있을 경우에 주 처리부(50)는 다수의 태스크를 이용하여 부 처리부(60)를 제어하여 데이터 저장부(70)의 학습 데이터를 읽어오거나, 읽어낸 데이터를 음성 및 영상 출력으로 내보낼 수 있다. 또한 상기 음성 인식수단(20)을 통해 외부에서 들어온 신호가 상기 데이터 저장부(70)의 답변 데이터와 일치하는지 비교하고, 그 비교결과에 따라 배경 영상 및 배경음향의 출력을 제어하며, 그와 동시에 다음 대화를 위한 학습 자료를 읽어오거나 또는 반복적인 학습을 위해 현재의 학습 데이터를 이전의 동작 흐름을 따라 반복 처리할 수 있다.The control means may include a sub-processing unit 60 having respective processing routines separately, and a main processing unit 50 for outputting a plurality of process control signals for controlling the sub-processing unit 60. Data storage unit 70 for storing the may be included or may be configured separately. In the control means, when there is a learning request by the user, the main processing unit 50 controls the sub processing unit 60 using a plurality of tasks to read the learning data of the data storage unit 70 or read the read data. Export to audio and video output. In addition, the signal received from the outside through the voice recognition means 20 is compared with the answer data of the data storage unit 70, and compares the output of the background image and the background sound according to the comparison result, and at the same time You can read the training material for the next conversation or iterate the current training data along the previous flow of motion for repetitive learning.
도 2a는 도 1의 부 처리부와 데이터 저장부를 상세하게 나타낸 블록도이다. 도면에서와 같이, 상기 데이터 저장부(70)는 음성 출력을 위한 언어 학습 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 그 대화내용에 따른 배경 영상자료 및 배경 음향자료로 구분된 각각의 데이터 베이스(71-74)를 구성하되, 상기 질문자료와 그 질문자료에 대한 다수의 답변자료, 및 상기 각 답변자료에 대한 새로운 질문자료와 그 새로운 질문자료에 대한 새로운 다수의 답변자료를 하나의 파일로 형성하여, 그것을 도 2b와 같은 나무(tree)구조의 형태를 갖도록 구성한다.FIG. 2A is a detailed block diagram illustrating the subprocessing unit and the data storage unit of FIG. 1. As shown in the figure, the data storage unit 70 is divided into a language learning question material for voice output, a plurality of answer data for the question material, and a background image data and background sound data according to the conversation contents. A database 71-74, wherein the questionnaire and a plurality of answer materials for the questionnaire, and a new questionnaire for each answer, and a plurality of new answer materials for the new questionnaire, Formed into a pile, it is configured to have the form of a tree structure as shown in FIG. 2B.
이때 상기 배경 영상 데이터 베이스(71)는 배경 화면 출력을 위한 영상자료를 저장하고, 배경 음향 데이터 베이스(72)는 배경 음향 출력을 위한 음향 자료를 저장하고, 음성출력 데이터 베이스(73)는 음성출력을 위한 사용자료(질문 자료와 그에 해당하는 다수의 답변자료 및 상기 대화 내용에 따른 분위기를 연출하기 위한 배경 영상자료 및 음향자료가 저장되는 각각의 메모리 번지 등)를 저장하고, 음성인식 데이터 베이스(74)는 인식된 음성에 해당하는 단어자료를 저장할 수 있다.In this case, the background image database 71 stores image data for outputting a background screen, the background sound database 72 stores sound data for outputting a background sound, and the voice output database 73 outputs audio. For user data (such as question data and a number of answer data corresponding to them, each memory address for storing background image data and sound data for creating an atmosphere according to the conversation contents), and a voice recognition database ( 74 may store word data corresponding to the recognized voice.
상기 부 처리부(60)는 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 데이터를 상기 배경영상 데이터 베이스(71)에서 로드하여 상기 모니터(41)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 배경영상 처리부(61)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 배경음향 데이터를 상기 배경 음향 데이터 데이스(72)에서 로드하여 상기 스피커(31)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부(50)로 되돌려 주는 배경음향 처리부(62)와; 상기 주 처리부(50)에서 출력된 프로세스 제어신호에 해당하는 음성 데이터를 상기 음성 출력 데이터 베이스(73)에서 로드하여 상기 스피커(31)로 출력하고, 현재 상태에 대한 자료를 상기 주 처리부로(50)로 되돌려 주는 음성 출력 처리부(63)와; 상기 주 처리부의 프로세스 제어신호에 따라 제어되어 상기 음성 인식부(20)에서 인식된 신호와 상기 음성 인식 데이터 데이스(74)에서 로드한 데이터를 비교하고, 그 비교결과에 대한 자료를 주 처리부(50)로 되돌려 주는 음성 인식 처리부(64)로 구성된다.The sub-processing unit 60 loads the data corresponding to the process control signal output from the main processing unit 50 from the background image database 71 and outputs the data to the monitor 41 and outputs data on the current state. A background image processor 61 which returns to the main processor 50; The background sound data corresponding to the process control signal output from the main processor 50 is loaded from the background sound data data 72 and output to the speaker 31, and the data on the current state is output to the main processor 50. A background sound processor (62) to return to; The voice data corresponding to the process control signal output from the main processor 50 is loaded from the voice output database 73 and output to the speaker 31, and the data on the current state is sent to the main processor 50. A voice output processor 63 for returning the voice signal; Controlled according to the process control signal of the main processor, the signal recognized by the voice recognition unit 20 and the data loaded from the voice recognition data data 74 are compared, and the data of the comparison result is output to the main processor 50. It is composed of a speech recognition processing unit 64 to return to.
도 3은 본 발명에 따른 상호 대화식 언어 학습방법의 동작 흐름도로서, 제어수단의 주 처리부(50)가 실행하는 신호 처리흐름을 도시하고 있다.3 is an operation flowchart of the interactive language learning method according to the present invention, which shows a signal processing flow executed by the main processing unit 50 of the control means.
도면에서 본 발명은 프로그램 개시와 동시에 학습 안내를 위한 초기화면을 구성하여 출력하고, 그 초기화면을 통해 학습 요청이 있기를 대기하는 제 1단계(S311-S313)와; 사용자에 의한 학습요청이 있게 되면, 음성출력을 위한 서브루틴(도 4a)을 실행하여 데이터 베이스에 저장된 학습 데이터의 질문자료를 읽어 음성으로 출력 처리하면서, 그와 동시에 음성인식을 위한 서브루틴(도 4b)을 실행하여 음성으로 인식된 결과와 데이터 베이스의 저장 답변자료로부터 사용자의 응답내용이 올바른 것인지를 판단하는 제 2단계(S318, S319-1, S320)와; 상기 판단 결과에 따라, 상기 질문자료와 사용자가 응답한 답변자료를 하나로 묶어 파일을 형성하고, 해당 파일을 데이터 베이스에서 읽어내 다음 질문을 위한 자료를 선택하여 음성으로 출력함으로써, 사용자의 답변내용에 부합되는 내용의 다음 학습을 계속해서 실시하는 제 3단계(S320-1, S321)로 구성할 수 있다.In the drawings, the present invention comprises a first step (S311-S313) of constructing and outputting an initial screen for learning guidance at the same time as program start, and waiting for a learning request through the initial screen; When there is a learning request by the user, a subroutine for voice output (FIG. 4A) is executed to read and process the question data of the training data stored in the database, and the voice is output, while the subroutine for voice recognition (FIG. A second step (S318, S319-1, S320) of determining whether the user's response is correct from the result of speech recognition and the stored answer data in the database by executing 4b); According to the determination result, the question material and the answer data answered by the user are combined to form a file, the file is read from the database, and the data for the next question are selected and outputted by voice, thereby providing a response to the user's response. It can be configured as a third step (S320-1, S321) to continue the next learning of the matching content.
여기서 상기 제 1단계에서는 예를 들어 '문장 연습' 이나 '문장 따라하기' 또는 '발음연습' 별로 구분할 수 있는 학습 종류(a)와, 각 학습종류에 따라 난이도를 구분할 수 있는 학습 등급(b) 등을 사용자의 의도에 따라 선택할 수 있도록 안내화면을 출력하는 단계(S314)와; 그 안내화면을 통해 학습 종류(a)나 학습 등급(b)을 선택하기를 대기하는 단계(S315)와; 상기 대기상태에서 선택이 이루어진 경우 선택된 학습 종류와 등급을 학습 레벨로 설정하는 단계(S316)와; 상기 대기상태에서 선택이 이루어지지 않을 경우 미리 지정된 기본적인 학습 종류와 등급을 학습 레벨로 설정하는 단계(S317)를 더 포함할 수 있다.Here, in the first step, for example, a learning type (a) that can be divided by 'sentence practice', 'following a sentence' or 'pronounced practice', and a learning level (b) that can classify difficulty according to each learning type. Outputting a guide screen to select a user's intention and the like (S314); Waiting to select a learning type (a) or a learning grade (b) through the guide screen (S315); Setting the selected learning type and grade as a learning level when the selection is made in the waiting state (S316); If the selection is not made in the standby state, the method may further include setting a predetermined basic learning type and grade as a learning level (S317).
그리고, 상기 제 2단계는 학습 데이터의 질문자료 음성출력 처리 서브루틴(도 4a)과 동시에 배경 화면출력을 위한 서브루틴(도 4c)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 영상자료를 읽어 모니터 화면으로 출력처리하고, 배경 음향출력을 위한 서브루틴(도 4d)을 실행하여 데이터 베이스에 저장된 학습 데이터의 배경 음향자료를 읽어 스피커로 출력처리하는 단계(S319)를 더 포함하여 구성할 수 있다.In the second step, the background data of the learning data stored in the database is read and monitored by executing a subroutine (FIG. 4C) for outputting the background screen simultaneously with the voice data processing subroutine (FIG. 4A) of the training data. The process may further include a step of outputting the screen to the screen, and executing the subroutine for outputting the background sound (FIG. 4D) to read the background sound data of the learning data stored in the database and output the process to the speaker (S319).
또한 상기 제 3단계는 상기 서브루틴 수행결과로부터 사용자가 답변한 내용과 데이터 베이스에 저장된 답변내용이 불일치하는 것이 판단되면, 올바른 답변이 아님을 알리기 위한 경고 메시지를 출력 처리하는 단계(S322)를 더 포함할 수 있으며, 또한 음성 출력 서브루틴을 실행하여 데이터 베이스의 저장 답변내용 및 새로운 질문자료를 읽어내 음성으로 출력 처리하는 단계(S323)를 더 포함할 수 있다. 이때 경고 메시지나 저장 답변내용 및 새로운 질문자료는 문자로도 출력할 수 있으며, 음성이나 문자를 동시에 사용할 수도 있다.The third step further includes the step (S322) of outputting a warning message for notifying a correct answer when it is determined that the user's answer and the answer stored in the database are inconsistent from the subroutine execution result. In addition, the method may further include a step of executing a voice output subroutine to read out the stored answer contents and the new question data in the database and output the result in voice (S323). At this time, the warning message, the stored answer contents, and the new question data can be output by text, and voice or text can be used simultaneously.
또한 상기 제 3단계는 정답이 틀린 학습 데이터에 대해서는 반복학습할 것인지를 체크하는 단계(S324)를 더 구비하여, 사용자의 의도에 따라 반복학습을 실시하도록 구성할 수 있다.In addition, the third step may further include a step (S324) of checking whether to repeat the learning data for the incorrect answer data, it can be configured to perform the repetitive learning according to the user's intention.
도 4a 내지 도 4d는 각각 상기 도 3의 음성출력 서브루틴과, 음성인식 서브루틴과, 배경 영상출력 서브루틴과, 배경 음향출력 서브루틴에 대한 동작 흐름도이다. 상기 도면에서 각각의 서브루틴은 메인 루틴(도 3)에 의해 각각 호출되어 구동되며, 데이터 베이스를 탐색하기 위한 자료는 상기 메인 루틴으로부터 제공받고, 데이터 베이스를 탐색한 결과 및 음성인식한 결과는 다시 메인루틴으로 되돌려 주도록 구성되어 있다.4A to 4D are flowcharts illustrating operations of the voice output subroutine, the voice recognition subroutine, the background image output subroutine, and the background sound output subroutine of FIG. 3, respectively. In the figure, each subroutine is called and driven by the main routine (FIG. 3), and the data for searching the database is provided from the main routine, and the result of searching the database and the speech recognition result are again. It is configured to return to the main routine.
도 5는 본 발명에 따른 상호 대화식 언어학습 시스템의 다른 실시예를 설명하기 위하여 도시한 블록도로서, 상기 도 1에 도시된 구성요소를 갖는 하나의 관리용 피시(100)와, 버스를 통해 데이터 및 어드레스를 주고 받으며 제어신호를 공급받아 상기 관리용 피시에 의해 피동적으로 동작하는 다수개의 학습용 피시(110-130)가 상기 관리용 피시에 병렬로 연결되어 일대 다수인(교수 일인과 학생 여러명) 사이의 언어학습이 이루어질 수 있도록 구성한 형태를 보이고 있다.FIG. 5 is a block diagram illustrating another embodiment of an interactive language learning system according to the present invention. The management fish 100 having the components shown in FIG. And a plurality of learning fish (110-130), which are operated by the management fish by sending and receiving an address and receiving a control signal, are connected in parallel to the management fish and have a large number of students (one professor and several students). It is organized in such a way that language learning can be done.
이와 같이 구성되는 본 발명의 동작 및 그 작용 효과를 설명하면 아래와 같다.Referring to the operation of the present invention configured as described above and the effect thereof is as follows.
상기 각 도면을 참조하면, 프로그램 작동 개시(S311)와 동시에 초기 화면을 출력(S312)하고, 학습요청이 있는지를 판단(S313)한다. 상기 판단 결과 학습 요청이 있게 되면, 다시 학습 종류나 학습 등급(난이도)를 선택할 수 있는 선택화면을 출력(S314)한다. 이때 선택화면에서는 원하는 학습 종류를 선택할 수 있도록 하며, 사용자가 교육 수준을 선택할 수가 있도록 여러 단계 수준의 메뉴를 제시하고 선택할 수 있도록 한다. 그 상태에서 선택되는 학습 종류와 난이도를 이후 학습할 레벨로 설정(S316)한다. 만약 선택이 없으면, 미리 지정된 값을 이용하여 학습 레벨을 설정(S317)한다.Referring to each of the drawings, at the same time as the start of the program operation (S311) outputs the initial screen (S312), and determines whether there is a learning request (S313). As a result of the determination, if there is a learning request, a selection screen for selecting a learning type or a learning grade (difficulty level) is output again (S314). At this time, the selection screen allows the user to select a desired type of learning and presents and selects menus of various levels so that the user can select the education level. The learning type and difficulty selected in the state are set to a level to be learned later (S316). If there is no selection, the learning level is set using a predetermined value (S317).
그리고 나서, 음성출력 서브루틴을 호출(S318)하여 실행한다. 이때 음성출력 서브루틴에서는 도 4a에서 도시된 바와 같이 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터를 데이터 베이스에서 로드(S402), 상기 로드된 학습 데이터의 질문 자료를 음성(또는 문자)으로 출력(S403)하고, 그 값을 다시 메인 루틴으로 되돌려 준다(S404).Then, the voice output subroutine is called (S318) to execute. In this case, in the voice output subroutine, as shown in FIG. 4A, the initial value of the database is checked using data provided from the main routine, and the training data corresponding to the set level is loaded from the database (S402). The question data of the data is output as voice (or text) (S403), and the value is returned to the main routine (S404).
다음으로 상기 음성 출력 서브루틴에서 되돌려 받은 자료를 이용하여 배경 영상출력 서브루틴과 배경 음향출력 서브루틴을 동시에 호출(S319)하여 실행시키고, 또한 음성 인식 서브루틴을 호출하여 실행(S319-1)시킨다. 따라서 상기 음성 인식 서브루틴에서는 도 4b 에서와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크한 후, 음성인식결과가 있기를 기다리며(S412), 음성인식결과가 나타나면, 데이터 베이스에서 답변자료를 조사(S413)하여, 상기 음성 인식된 결과와 데이터 베이스의 답변 자료를 비교(S414)하여, 그 비교결과를 각각 다시 메인 루틴으로 되돌려 준다(S415, S416). 배경 영상출력 서브루틴과 배경 음향 서브루틴에서는 도 4c 및 도 4d에 도시된 바와 같이, 메인 루틴에서 제공되는 자료를 이용하여 데이터 베이스 초기값을 체크하여, 설정된 레벨에 해당하는 학습 데이터의 배경 영상자료 및 배경 음향자료를 각각의 데이터 베이스에서 로드(S422, S432), 상기 로드된 학습 데이터의 배경 영상자료 및 배경 음향자료를 출력(S423, S433)한다.Next, the background image output subroutine and the background sound output subroutine are simultaneously called (S319) and executed by using the data returned from the voice output subroutine, and the voice recognition subroutine is executed (S319-1). . Accordingly, in the speech recognition subroutine, as shown in FIG. 4B, the database initial value is checked using the data provided in the main routine, and then the voice recognition result is waited for (S412). In step S413, the answer data is compared with the speech recognition result and the answer data in the database (S414), and the comparison results are returned to the main routine, respectively (S415 and S416). In the background image output subroutine and the background acoustic subroutine, as shown in FIGS. 4C and 4D, the initial value of the database is checked using the data provided by the main routine, and the background image data of the training data corresponding to the set level is checked. And load background sound data from respective databases (S422 and S432), and output background image data and background sound data of the loaded learning data (S423 and S433).
그 다음, 상기 음성 인식 서브루틴에서 되돌려준 결과를 체크(S320)하여, 올바른 응답인 경우는 다음 사용자료를 데이터 베이스에서 읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 형성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아 음성 출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.Next, the result returned from the speech recognition subroutine is checked (S320), and if the answer is correct, the question data and the response data are combined into a file to read the next user fee from the database (S320-1). By searching the file in the database and executing the voice output subroutine (S321), new question material corresponding to the user's response is output as voice, so that new learning can be continued.
상기 음성 인식 서브루틴에서 되돌려준 결과를 체크(S320)하여, 올바른 응답이 아닌 경우는, 올바른 응답이 아님을 알리기 위한 메시지를 음성이나 문자로 출력(S322)하며, 바로 다음에 데이터 베이스에 저장된 정답자료를 읽어 음성이나 문자로 출력(S323)함으로써, 사용자가 정답을 확인할 수 있도록 한다. 그리고 틀린 문제를 다시 복습할 것인지를 묻고(S324), 그 물음에 긍정적으로 응답하면 상기 틀린 문제를 다시 학습할 수 있도록 배경 화면 및 음향 출력과 음성 인식을 차례로 실시하는 단계(S319)로 복귀시킨다. 상기 틀린 문제를 복습하기를 원하지 않는 경우, 다음 사용자료를 데이터 베이스에서 읽어오기 위해 질문 자료와 그 응답자료를 하나로 묶어 파일로 형성(S320-1)하고, 해당 파일을 데이터 베이스에서 찾아 음성 출력 서브루틴을 실행(S321)시킴으로써, 상기 사용자의 응답에 부응하는 새로운 질문자료를 음성으로 출력하여, 새로운 학습을 계속할 수 있도록 한다.If the result returned by the speech recognition subroutine is checked (S320), and if it is not a correct response, a message for notifying the correct response is output as voice or text (S322), and the correct answer stored immediately in the database By reading the data and outputting in voice or text (S323), the user can check the correct answer. If the question is asked again to review the wrong problem (S324), and if the answer is affirmatively, the screen returns to the step (S319) of performing the background screen and sound output and speech recognition in order to learn the wrong problem again. If you do not want to review the wrong problem, in order to read the next user fee from the database, the question material and the answer data are combined into a file (S320-1), and the file is found in the database and the voice output sub By executing the routine (S321), a new question material corresponding to the user's response is output as a voice so that new learning can be continued.
상기 과정들을 구체적인 예로서 설명하면 다음과 같다.The above processes are described as specific examples.
먼저 김포공항에서 한 외국 방문자를 맞이하는 한국인이 방문자의 한국 방문 경험에 대하여 질문하는 대화 상황을 가정하면, 상호 입체식 대화 영어 학습 방법은 다음과 같이 진행된다.First, assuming a conversational situation where a Korean who greets a foreign visitor at Gimpo Airport asks about the visitor's experience in Korea, the mutual three-dimensional conversational English learning method proceeds as follows.
Welcome to Korea! Have you been in Korea before?Welcome to Korea! Have you been in Korea before?
위의 질문에 대답 가능한 모든 답변 문장들은 데이터 저장부(70)에 저장되어 있다. 그리고, 이 때 배경 화면은 김포공항이 되며, 비행기가 이착륙하는 동적 배경과 음향 효과가 동시에 전개된다. 데이터 저장부(70)에 저장된 답변은 다음 중 하나와 같다고 가정한다.All answer sentences capable of answering the above questions are stored in the data storage unit 70. At this time, the wallpaper becomes Gimpo Airport, and the dynamic background and sound effects of the plane take off and land simultaneously. Assume that the answer stored in the data storage unit 70 is one of the following.
가) Yes, I have.A) Yes, I have.
나) Yes, I have been there many times.B) Yes, I have been there many times.
다) No, I have not.C) No, I have not.
사용자가 위의 3가지 답변들 중 일치하는 대답을 하는 경우, 선택된 대답에 따른 다음 대화 진행 내용은 데이터 저장부(70)에 저장되어 있다. 예로서, 상기 가) 문장에 대한 데이터 저장부(70)에 저장된 새 질문은 다음과 같다고 가정한다.When the user gives a matching answer among the above three answers, the contents of the next conversation according to the selected answer are stored in the data storage 70. For example, it is assumed that the new questions stored in the data storage unit 70 for the sentence A are as follows.
How long have you stayed?How long have you stayed?
여기에 가능한 답변으로 데이터 저장부(70)에 다음과 같이 저장되어 있다고 가정한다.As a possible answer here, it is assumed that the data storage unit 70 is stored as follows.
가) a weekA) a week
나) two weeks2) two weeks
다) a monthA) a month
라) More than two monthsD) More than two months
사용자가 상기 가)의 대답을 한 경우 데이터 저장부(70)에 저장되어 있는 다음 진행 문답의 질문은 다음과 같다고 가정한다.When the user answers a), it is assumed that the question of the next progress question and answer stored in the data storage unit 70 is as follows.
What was your impression of Korea?What was your impression of Korea?
이러한 질문에 대한 배경 화면은 질문의 내용을 적절히 표시하는 내용으로서, 데이터 저장부(70)에 저장되어 있다. 상기 질문의 경우에는 인상을 강조하는 내용의 배경 화면으로 좋은 느낌을 의미하는 하트 심벌, 아름다움을 의미하는 가을 설악산 풍경, 싫은 느낌의 출퇴근 시간의 복잡한 지하철 내부 등의 다양한 3차원 배경 영상이 데이터 저장부(70)에 저장되어 있다.The background screen for the question is a content for properly displaying the content of the question and is stored in the data storage unit 70. In the case of the question above, various three-dimensional background images such as a heart symbol representing a good feeling, an autumn Seorak mountain landscape representing beauty, and an interior of a complicated subway with a disgusting commute time are used as the wallpaper for emphasizing the impression. It is stored at 70.
상기와 같이 영상 출력부(40)는 상기 영상 자료를 화면에 출력하면서 사용자의 이해를 시각적으로 자극하여 학습 효율을 높인다.As described above, the image output unit 40 visually stimulates the user's understanding while outputting the image data on the screen to increase learning efficiency.
따라서 본 발명의 학습 방법에 의하면, 사용자의 학습 내용에 따라 다양한 내용의 언어 전개가 가능하도록 함으로써, 사용자가 주체가 되어 언어를 진행할 수 있는 이점이 있으며, 대화 진행 내용에 따른 3차원 영상과 배경 음향이 모니터 화면과 스피커로 출력되도록 함으로써, 실제 생활 언어와 같이 입체적인 대화 방식으로 교육을 할 수 있어 사용자의 집중력과 학습 효과를 높일 수 있는 이점이 있다.Therefore, according to the learning method of the present invention, by enabling the language development of various contents according to the user's learning content, there is an advantage that the user can proceed the language as a subject, the three-dimensional image and the background sound according to the progress of the conversation By outputting to the monitor screen and the speaker, it is possible to educate in a three-dimensional dialogue like the real language, there is an advantage that can increase the user's concentration and learning effect.
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990005293A KR100287228B1 (en) | 1999-02-13 | 1999-02-13 | Language study method by interactive conversation |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019990005293A KR100287228B1 (en) | 1999-02-13 | 1999-02-13 | Language study method by interactive conversation |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20000056206A KR20000056206A (en) | 2000-09-15 |
KR100287228B1 true KR100287228B1 (en) | 2001-04-16 |
Family
ID=19574447
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1019990005293A KR100287228B1 (en) | 1999-02-13 | 1999-02-13 | Language study method by interactive conversation |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100287228B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733654A (en) * | 2018-05-21 | 2018-11-02 | 宁波薄言信息技术有限公司 | A kind of information processing method |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100979561B1 (en) * | 2008-05-15 | 2010-09-02 | 유우영 | Interactive language learning apparatus |
-
1999
- 1999-02-13 KR KR1019990005293A patent/KR100287228B1/en not_active IP Right Cessation
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108733654A (en) * | 2018-05-21 | 2018-11-02 | 宁波薄言信息技术有限公司 | A kind of information processing method |
Also Published As
Publication number | Publication date |
---|---|
KR20000056206A (en) | 2000-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH1039741A (en) | System and method for training in multi-mode interactive type speech and language | |
WO2000031613A1 (en) | Script development systems and methods useful therefor | |
US20060216685A1 (en) | Interactive speech enabled flash card method and system | |
US20040023195A1 (en) | Method for learning language through a role-playing game | |
JP2020016880A (en) | Dynamic-story-oriented digital language education method and system | |
CN110767005A (en) | Data processing method and system based on intelligent equipment special for children | |
KR101004913B1 (en) | An apparatus and method for evaluating spoken ability by speech recognition through computer-lead interaction and thereof | |
KR100915681B1 (en) | Method and apparatus of naturally talking with computer | |
KR100296271B1 (en) | Language study system by interactive conversation | |
CN108564833A (en) | Intelligent interaction dialog control method and device | |
JP2019061189A (en) | Teaching material authoring system | |
KR100287227B1 (en) | Language study method by interactive conversation | |
Ehsani et al. | An interactive dialog system for learning Japanese | |
KR100296272B1 (en) | Language study system by interactive conversation | |
KR100447667B1 (en) | Interactive Language Teaching System consisted of Dolls and Voice Recognizing Computer | |
Bugmann et al. | Using verbal instructions for route learning: Instruction analysis | |
KR100287228B1 (en) | Language study method by interactive conversation | |
KR20020024828A (en) | Language study method by interactive conversation on Internet | |
CN110852922A (en) | Dynamic scenario-oriented language digital teaching method and system | |
US20240046811A1 (en) | A hyper-personalized interactive learning system and its method of operation thereof | |
Zajicek et al. | An investigation into the use of error recovery dialogues in a user interface management system for speech recognition | |
KR20050024996A (en) | Spelling teaching method by the pattern recognition of an image on an input device | |
US20060074636A1 (en) | Language learning system and method | |
JP2014038140A (en) | Language learning assistant device, language learning assistant method and language learning assistant program | |
JP2899340B2 (en) | Language education device with audio output device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20100121 Year of fee payment: 10 |
|
LAPS | Lapse due to unpaid annual fee |