KR100703047B1 - Dynamic learning system and method of foreign language speaking led by the user acting oneself in the screen of true-life scenes - Google Patents

Dynamic learning system and method of foreign language speaking led by the user acting oneself in the screen of true-life scenes Download PDF

Info

Publication number
KR100703047B1
KR100703047B1 KR1020050022498A KR20050022498A KR100703047B1 KR 100703047 B1 KR100703047 B1 KR 100703047B1 KR 1020050022498 A KR1020050022498 A KR 1020050022498A KR 20050022498 A KR20050022498 A KR 20050022498A KR 100703047 B1 KR100703047 B1 KR 100703047B1
Authority
KR
South Korea
Prior art keywords
user
learning
foreign language
scene
database
Prior art date
Application number
KR1020050022498A
Other languages
Korean (ko)
Other versions
KR20060044373A (en
Inventor
이동수
이현석
Original Assignee
이동수
이현석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이동수, 이현석 filed Critical 이동수
Publication of KR20060044373A publication Critical patent/KR20060044373A/en
Application granted granted Critical
Publication of KR100703047B1 publication Critical patent/KR100703047B1/en

Links

Images

Classifications

    • DTEXTILES; PAPER
    • D06TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
    • D06JPLEATING, KILTING OR GOFFERING TEXTILE FABRICS OR WEARING APPAREL
    • D06J1/00Pleating, kilting or goffering textile fabrics or wearing apparel
    • D06J1/12Forms of pleats or the like
    • DTEXTILES; PAPER
    • D06TREATMENT OF TEXTILES OR THE LIKE; LAUNDERING; FLEXIBLE MATERIALS NOT OTHERWISE PROVIDED FOR
    • D06CFINISHING, DRESSING, TENTERING OR STRETCHING TEXTILE FABRICS
    • D06C23/00Making patterns or designs on fabrics

Landscapes

  • Engineering & Computer Science (AREA)
  • Textile Engineering (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 학습자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 및 그 방법에 관한 것이다. 사용자는 기재된 발명에 따라 자신의 수준에 맞게 자유롭게 적용하여 외국어 말하기를 완성할 수 있다. 본 발명의 방법은, 등록처리 모듈을 통해 사용자를 등록 후 지시문 레코딩 모듈을 통해 지시문을 녹음/녹화하는 단계, 세트 선택 처리 모듈을 통해 사용자가 직접 대화 식으로 세트를 선택하고 단어가족과 수준 처리 모듈을 통해 수준을 결정하는 단계, 대화처리 모듈을 통해 카메라로 사용자 자신이 주어진 장면 속에 직접 들어가 연기하며 말하는 단계, 레코딩 처리 모듈을 통해 대사를 원어민 모델 대사와 사용자의 대사를 대응시켜 기록하고 비교처리하는 단계, 음성처리/화상처리 모듈을 통해 음성/화상을 분석-합성-동기화 하는 단계, 테스트 처리 모듈을 통해 자신의 실력을 테스트하는 단계, 모국어를 외국어로 또한 그 반대로 외국어를 모국어로 즉시 답해 주는 즉답처리 단계, 및 디지털 콘텐츠(영화)를 본 발명의 목적에 맞는 교재로 변환하는 단계 통계처리 모듈을 통해 통계 분석하는 단계, 그리고 별도로 발음을 연습하고 테스트하는 단계를 포함한다. The present invention relates to an active foreign language speaking learning system and method, in which a learner plays and leads in a scene of a real scene. The user can freely apply the language according to his or her level according to the disclosed invention to complete foreign language speaking. In the method of the present invention, after registering a user through the registration processing module, recording the directive through the instruction recording module, the user selects the set interactively directly through the set selection processing module, and the word family and level processing module. Determining the level through the dialogue processing module, the user directly enters and acts on the given scene with the camera through the dialogue processing module, and records and compares the dialogue between the native speaker's model dialogue and the user's dialogue through the recording processing module. Steps, analyzing, synthesizing, and synchronizing the voice / image through the voice processing / image processing module, testing one's own skills through the test processing module, and promptly answering the native language as a foreign language and vice versa. Processing steps, and converting digital content (movies) into textbooks for purposes of the present invention. And a step of statistical analysis through statistical processing module, and further comprising: separate exercise and test the pronunciation.

외국어 학습, 단어가족, 수준, 대사, 화제, 지식베이스, 음성처리, 화상처리 Foreign language learning, word family, level, dialogue, topic, knowledge base, voice processing, image processing

Description

사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 및 방법 {DYNAMIC LEARNING SYSTEM AND METHOD OF FOREIGN LANGUAGE SPEAKING LED BY THE USER ACTING ONESELF IN THE SCREEN OF TRUE-LIFE SCENES}DYNAMIC LEARNING SYSTEM AND METHOD OF FOREIGN LANGUAGE SPEAKING LED BY THE USER ACTING ONESELF IN THE SCREEN OF TRUE-LIFE SCENES}

도 1은 본 발명에 따른 제1 실시예의 하드웨어 구성 블럭도,1 is a hardware block diagram of a first embodiment according to the present invention;

도 2는 본 발명에 따른 제2 실시예의 하드웨어 구성 블럭도,2 is a hardware block diagram of a second embodiment according to the present invention;

도 3은 본 발명에 따른 시스템의 소프트웨어 기능 블럭도,3 is a software functional block diagram of a system in accordance with the present invention;

도 4는 본 발명에 따른 외국어 학습 방법의 전체 절차를 도시한 흐름도,4 is a flowchart illustrating an entire procedure of a foreign language learning method according to the present invention;

도 5는 도 4에 도시된 등록 및 지시문 레코딩 단계의 세부 흐름도,5 is a detailed flowchart of the registration and directive recording step shown in FIG. 4;

도 6은 도 4에 도시된 세트1 학습의 세부 절차를 도시한 흐름도,FIG. 6 is a flowchart showing a detailed procedure of set 1 learning shown in FIG. 4;

도 7은 도 4에 도시된 세트2 학습의 세부 절차를 도시한 흐름도,FIG. 7 is a flowchart showing a detailed procedure of set 2 learning shown in FIG. 4;

도 8은 도 4에 도시된 세트3 학습의 세부 절차를 도시한 흐름도,8 is a flowchart showing a detailed procedure of learning set3 shown in FIG. 4;

도 9는 도 4에 도시된 레코딩/비교 처리 절차를 도시한 세부 흐름도,FIG. 9 is a detailed flowchart showing the recording / comparison processing procedure shown in FIG. 4;

도 10은 도 4에 도시된 오디오/비디오 처리 절차를 도시한 세부 흐름도,10 is a detailed flowchart illustrating the audio / video processing procedure shown in FIG. 4;

도 11은 도 4에 도시된 통계 처리절차를 도시한 세부 흐름도,11 is a detailed flowchart showing the statistical processing procedure shown in FIG. 4;

도 12는 도 4에 도시된 즉답처리 절차를 도시한 흐름도,12 is a flowchart showing an immediate response process shown in FIG. 4;

도 13은 도 4에 도시된 일반콘텐츠 변환처리 절차를 도시한 흐름도,13 is a flowchart illustrating a general content conversion processing procedure shown in FIG. 4;

도 14는 본 발명에 따른 세트1 학습예의 내용을 도시한 개략도,14 is a schematic diagram showing the contents of a set 1 learning example according to the present invention;

도 15는 본 발명에 따른 세트2 학습예의 내용을 도시한 개략도,15 is a schematic diagram showing the contents of a set 2 learning example according to the present invention;

도 16은 본 발명에 따른 세트3 학습예의 내용을 도시한 개략도,16 is a schematic diagram showing the contents of a set 3 learning example according to the present invention;

도 17은 본 발명에 따른 사용자 등록 화면의 예,17 is an example of a user registration screen according to the present invention;

도 18은 본 발명에 따른 단어가족지도의 예,18 is an example of a word family map according to the present invention;

도 19는 본 발명에 따른 단어가족사전의 예,19 is an example of a word family dictionary according to the present invention;

도 20은 본 발명에 따른 세트1 학습 화면의 예,20 is an example of a set 1 learning screen according to the present invention;

도 21은 본 발명에 따른 세트2 학습 화면의 예,21 is an example of a set 2 learning screen according to the present invention;

도 22는 본 발명에 따른 세트2 학습 화면의 예,22 is an example of a set 2 learning screen according to the present invention;

도 23은 본 발명에 따른 오디오/비디오 선택 화면의 예,23 is an example of an audio / video selection screen according to the present invention;

도 24는 본 발명에 따른 연기 학습 화면의 예,24 is an example of a smoke learning screen according to the present invention;

도 25는 본 발명에 따른 음성 비교 그래프 화면의 예,25 is an example of a voice comparison graph screen according to the present invention;

도 26은 본 발명에 따른 세트3 학습 화면의 예,26 is an example of a set 3 learning screen according to the present invention;

도 27은 본 발명에 따른 세트3 학습 화면의 예이다.27 is an example of Set 3 learning screen according to the present invention.

*도면의 주요부분에 대한 부호의 설명* Explanation of symbols for main parts of the drawings

102: 키입력부 104: 메모리102: key input unit 104: memory

106: 데이터베이스 108: 마이컴106: Database 108: Micom

110: 비디오프로세서 112: LCD110: video processor 112: LCD

114: 디지털 카메라 116: 마이크114: digital camera 116: microphone

118: 음성 인식기 120: 음성합성기118: speech recognizer 120: speech synthesizer

122: 스피커 210: PC122: speaker 210: PC

220: 인터넷 230: 웹서버220: internet 230: web server

본 발명은 컴퓨터를 이용한 외국어 학습(computer-aided language-learning system) 시스템에 관한 것으로, 보다 상세하게는, 사용자가 자신의 수준과 선택에 따라 학습할 내용을 선택하고 실제 장면에서 연기하면서 주도하는 능동적인 외국어 말하기 학습 방법 및 시스템에 관한 것이다.The present invention relates to a computer-aided language-learning system, and more particularly, the user actively selects the content to be learned according to his or her level and selection and acts in a real scene. The present invention relates to a method and a system for learning a foreign language.

최근들어, 지구촌 사회가 도래하면서 외국어 학습에 대한 관심이 증가하고 있는데, 현재 널리 사용되고 있는 외국어 교육 방법으로는 다음과 같은 방법들이 있다.Recently, with the advent of global society, there is a growing interest in foreign language learning. Currently, foreign language education methods are widely used.

첫째, 전자 음성 장치 또는 교사의 음성을 통하여, 학습자는 먼저 특정 주제 또는 일정 이해력(skill)을 위해 배열된 내용을 주의 깊게 들은 후, 소재에 관한 일반적인 생각을 구두로 반복하거나 들은 것을 받아 적는다. 학습자의 대답은 소재에서 제공된 대답 또는 교사에 의한 대답과 일치하는지 체크된다. 이러한 방법은 자신의 선택이나 의사와는 관계없이 주어진 과정을 따라 갈 뿐이다.First, through the electronic voice device or the voice of the teacher, the learner first listens carefully to the content arranged for a particular subject or schedule skill, and then writes orally repeats or hears the general idea of the subject matter. The learner's answer is checked to match the answer provided by the subject or the teacher's answer. These methods only follow a given process regardless of their choice or wishes.

둘째, 컴퓨터 기술의 발전에 따라, 일부 제조사들은 듣기 및 말하기 내용(contents)을 갖춘 컴퓨터 보조 학습 교재를 개발하여 왔다. 이 학습 교재는 단순히 기존의 활자화된 교재로부터 종종 컴퓨터화되고 있다. 음성 출력 장치의 도움 으로, 학습자는 특정 주제나 일정 이해력을 위해 배열된 내용을 듣고 스스로 이해하려고 애쓴다. 이 후, 그들은 그 학습 과정이 제공하는 질의에 대답한다. 그러나 말하기의 경우는 그 대답의 조건이 음성적으로 맞는지 여부 그리고 어떤 점을 개선해야 하는지를 즉시 제공하지 못하므로 상당히 부정확한 입장에서 과정을 따라갈 뿐이다.Second, with the development of computer technology, some manufacturers have developed computer-aided learning materials with listening and speaking contents. This textbook is often computerized from simply printed textbooks. With the help of voice output devices, learners try to hear and understand the content arranged for a specific topic or schedule. After that, they answer the questions provided by the learning process. But in the case of speaking, it does not provide an immediate indication of whether the answer is negatively correct and what needs to be improved.

셋째, 학생들을 최소 2명 정도인 그룹별로 분류한다. 그룹 구성원은 특정 주제 및 일정 패턴으로 회화 연습을 시작한다. 이 방법의 문제점은 회화에 참여하는 구성원이 학습자라는 것이다. 그들은 다른 구성원이 이해하기 어려운 액센트(accent)를 가질 수 있다. 또한, 한 구성원이 다른 구성원의 숙달 정도를 판단하는 것도 부적절하다. Third, classify students into groups of at least two students. Group members begin their conversation practice on a specific theme and schedule pattern. The problem with this method is that the members who participate in the conversation are learners. They may have accents that are difficult for other members to understand. It is also inappropriate for one member to determine the mastery of another.

넷째, 화상 회의 시스템을 통한 실시간 대화를 언어 교육에 이용하는 경우이다. 이 방법은 시간 공간적으로 많은 제약을 받는다.Fourth, real-time conversation through video conferencing system is used for language education. This method is very limited in time and space.

이상에서 살펴 본 종래 외국어 학습방법의 문제점을 정리하면 학습자가 종종 소정 주제, 이해력 또는 연습 방법으로 제한받거나 학습자가 상호 교류 및 능동적인 자기 표현이 없어 듣기에 있어서 수동적으로 제한된다는 것이다. 따라서 학습자는 자신의 생각과 감정을 표현하여 학습 활동에 참여할 수 없어 좋은 학습 기회를 잃게 된다. 또한 다른 방법은 양방향 대화를 포함하지만, 모델이 되는 원어민 교사가 필요한 때에 누구에게나 가용하지 않기 때문에, 이러한 양방향 대화는 언어 능력이 제한되는 학습자들 사이에서만 이루어지는 문제점이 있다. Summarizing the problems of the conventional foreign language learning method described above, the learner is often limited to a predetermined subject, comprehension or practice method, or the learner is passively limited in listening because there is no interaction and active self-expression. Therefore, learners cannot express their thoughts and feelings and participate in learning activities, and thus lose good learning opportunities. Other methods also include two-way conversations, but these two-way conversations are problematic only for learners with limited language skills, since the model native teachers are not available to anyone when needed.

한편, 일상 대화에서는 비록 어린 아이라도 자신이 대화의 주제나 대상을 선 택하고 그것을 중심으로 대화를 발전시켜서 주도적으로 학습해 간다. 따라서 마치 원어민 어머니, 아버지, 형제나 친구, 선생, 가이드 등을 항상 옆에 두고 있는 것처럼 외국어에 대한 노출 환경을 제공하고, 어느 때 어떤 소재로 이야기 하더라도 즉각적인 대응을 기대할 수 있는 능동적인 외국어 학습 시스템이 요구된다.On the other hand, in everyday conversation, even young children choose the subject or object of the conversation and develop the conversation around it. As a result, there is an active foreign language learning system that provides an environment for exposing foreign languages and expects immediate response to any material at any time, as if native speakers, mothers, fathers, brothers and friends, teachers, and guides are always on hand. Required.

본 발명은 상기와 같은 문제점을 해결하기 위하여, 사용자의 외국어 말하기를 중점적으로 향상시키기 위해 다양한 수준에서 그 수준에 맞게 자신이 직접 장면 속으로 들어 가 연기를 하면서 언어능력을 발전시켜 나가도록 하는 외국어 학습 시스템과 외국어 학습 방법을 제공하는 것을 그 목적으로 한다.The present invention to solve the above problems, in order to focus on improving the foreign language of the user to learn the foreign language to develop the language ability while going directly into the scene to perform at the appropriate level at various levels. The aim is to provide a system and a method for learning a foreign language.

본 발명의 다른 목적은 자습(self-learning) 및 교실 수업 모두에 적합하며 또한 네트워크를 이용하거나 이동통신 시스템 혹은 이 특별한 목적을 위한 전용기로도 그 적용이 가능하여 외국어 학습을 원하는 사람이 말하기에 집중함으로써 듣기는 자동으로 이루어지는 사용자가 실제 장면에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 및 방법을 제공하는 것이다.Another object of the present invention is suitable for both self-learning and classroom classes, and can be applied to a network, a mobile communication system, or a special device for this special purpose, so that a person who wants to learn a foreign language concentrates on speaking. Listening is to provide an active foreign language learning system and method that the user takes place in the actual scene acting automatically.

이와 같은 목적들을 달성하기 위한 본 발명의 하나의 특징에 따른 사용자가 실제 장면에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템은,According to one aspect of the present invention for achieving the above objects, the active foreign language speaking learning system that the user acts and leads in the real scene,

지시문 데이터베이스, 질문유형/대답유형 데이터베이스, 발음 데이터베이스, 단어 가족 지도와 단어가족사전 데이터베이스, 수준 세트 데이터베이스, 대사키트 데이터베이스, 화제키트 데이터베이스, 문장-문단-기사-영화 지식베이스, 수준 테스트 데이터베이스, 개인기록 데이터베이스와, Directive database, question type / answer type database, pronunciation database, word family map and word family dictionary database, level set database, dialogue kit database, topic kit database, sentence-paragraph-article-movie knowledge base, level test database, personal record Database,

등록처리 모듈, 발음연습/테스트 모듈, 지시문 레코딩 모듈, 사용자 확인모듈, 세트선택처리모듈, 단어가족/수준처리 모듈, 대화처리 모듈, 음성처리(분석-합성-동기화) 모듈, 영상처리(분석-합성-동기화) 모듈, 레코딩 처리모듈, 비교처리 모듈, 테스트 처리 모듈, 통계처리 모듈, 일반 콘텐츠 변환 모듈, 즉답처리 모듈을 포함한다. Registration processing module, pronunciation practice / test module, instruction recording module, user confirmation module, set selection processing module, word family / level processing module, dialogue processing module, voice processing (analysis-synthesis-synchronization) module, image processing (analysis- Synthesis-synchronization) module, recording processing module, comparison processing module, test processing module, statistical processing module, general content conversion module, and immediate response module.

본 발명의 다른 특징에 따른 사용자가 실제 장면에서 연기하며 주도하는 역동적인 외국어 말하기 학습 방법은, 본 시스템을 이용하여 네트워크 상에서 외국어 말하기 학습을 수행하고자 할 때, 사용자 확인 모듈을 이용한 등록자 확인을 수행하는 단계; 및 모든 제공된 데이터베이스와 모듈을 활용하는 웹 브라우저를 이용하여 학습을 수행하는 단계를 포함한다.In accordance with another aspect of the present invention, a dynamic foreign language speaking learning method in which a user acts in a real scene and leads a registrant verification using a user identification module when performing foreign language speaking learning on a network using the present system is performed. step; And performing the learning using a web browser utilizing all provided databases and modules.

이하에서는 본 발명의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있는 가장 바람직한 실시 예에 대하여 첨부한 도면을 참조하여 상세히 설명한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention may be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 제1 실시예의 하드웨어 구성 블럭도로서, 제1 실시예는 본 발명에 따른 어학 학습시스템을 전용기기로 구성한 예이다. 1 is a block diagram illustrating a hardware configuration of a first embodiment according to the present invention, wherein the first embodiment is an example in which a language learning system according to the present invention is configured as a dedicated device.

도 1을 참조하면, 제1 실시예의 시스템은 키입력부(102)와 메모리(104), 데 이터베이스(106), 마이컴(108), 비디오 프로세서(110), LCD(112), 디지털 카메라(114), 마이크(116), 음성인식기(118), 음성합성기(120), 스피커(122)를 포함하여 구성된다.Referring to FIG. 1, the system of the first embodiment includes a key input unit 102, a memory 104, a database 106, a microcomputer 108, a video processor 110, an LCD 112, and a digital camera 114. ), A microphone 116, a voice recognizer 118, a voice synthesizer 120, and a speaker 122.

키입력부(102)는 사용자의 조작을 마이컴(108)에 전달하고, 메모리(106)는 마이컴(108)이 처리하는 소프트웨어나 데이터를 저장하고 있으며, 데이터베이스(106)는 학습에 필요한 각종 데이터들을 저장하고 있다. 마이컴(108)은 본 발명에 따른 프로그램을 수행하여 학습자에게 외국어 학습 서비스를 제공한다. 비디오 프로세서(110)는 마이컴(108)의 제어에 따라 영상을 처리하여 LCD(112)에 디스플레이하고, 음성인식기(118)는 마이크(114)로부터 전달된 음성을 인식하여 마이컴(108)으로 전달하며, 음성합성기(120)는 마이컴(108)의 제어에 따라 데이터베이스(106)의 원어민 음성을 재생하여 스피커(122)를 통해 출력한다. 디지털 카메라(114)는 학습자의 모습을 촬상하여 마이컴(108)으로 전달하고, 마이컴(108)은 학습자 이미지를 해당 학습장면의 이미지와 결합하여 LCD(112)로 표시하게 한다.The key input unit 102 transmits a user's operation to the microcomputer 108, the memory 106 stores software or data processed by the microcomputer 108, and the database 106 stores various data necessary for learning. Doing. The microcomputer 108 provides a foreign language learning service to a learner by performing a program according to the present invention. The video processor 110 processes the image under the control of the microcomputer 108 and displays the image on the LCD 112, and the voice recognizer 118 recognizes the voice transmitted from the microphone 114 and transmits the image to the microcomputer 108. The voice synthesizer 120 reproduces the native speaker's voice of the database 106 under the control of the microcomputer 108 and outputs it through the speaker 122. The digital camera 114 captures the image of the learner and transmits it to the microcomputer 108, and the microcomputer 108 combines the learner image with the image of the corresponding learning scene and displays the image on the LCD 112.

도 2는 본 발명에 따른 제2 실시예의 하드웨어 구성 블럭도로서, 제2 실시예는 널리 보급된 PC를 이용하거나 웹 서버를 이용하여 구현한 예이다.2 is a block diagram showing the hardware configuration of the second embodiment according to the present invention. The second embodiment is an example implemented using a widely-used PC or a web server.

도 2를 참조하면, 본 발명은 CD(202) 등으로 배포되는 소프트웨어 형태로 구성되어 디지털 카메라(웹 카메라), 마이크, 스피커 등이 구비된 개인용 컴퓨터(210)에서 독립하여 실행될 수 있고, 인터넷(220) 접속이 가능한 PC(210)를 웹 서버(230)에 접속하여 웹 상에서 서비스될 수도 있다.Referring to FIG. 2, the present invention is configured in the form of software distributed on a CD 202 or the like, and can be executed independently in a personal computer 210 equipped with a digital camera (web camera), a microphone, a speaker, and the like. 220 may be connected to the web server 230 to the web server 230 to be serviced on the web.

도 3은 본 발명에 따른 시스템의 소프트웨어 기능 블럭도로서, 사용자가 실 제 장면에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템의 구조이다. 3 is a software functional block diagram of a system according to the present invention, which is a structure of an active foreign language speaking learning system in which a user acts and leads in a real scene.

도 3을 참조하면, 본 발명의 시스템(300)은 단어가족지도(312), 수준세트(314), 어학자료 데이터베이스(DB: 330), 발음 데이터베이스(DB: 316), 지시문 데이터베이스(DB: 318), 질문유형 및 대답유형 베이스(DB: 320), 개인기록 데이터베이스(DB: 322), 음성 처리모듈(342), 영상 처리모듈(344), 등록 처리모듈(351), 지시문 레코딩 모듈(352), 발음 연습/테스트 모듈(353), 사용자 확인모듈(354), 세트 선택 처리모듈(355), 단어가족/수준 처리모듈(356), 말하기 연습 연기모듈(357), 레코딩 처리모듈(358), 비교 처리모듈(359), 테스트 처리모듈(360), 통계 처리모듈(361)로 구성되어 UOI(302)를 통해 학습자와 인터페이스하여 사용자가 실제 장면에서 연기하며 주도하는 능동적인 방식으로 모든 외국어 말하기 훈련을 처리한다. Referring to FIG. 3, the system 300 of the present invention includes a word family map 312, a level set 314, a language database (DB: 330), a pronunciation database (DB: 316), and a directive database (DB: 318). ), Question type and answer type base (DB: 320), personal record database (DB: 322), voice processing module 342, image processing module 344, registration processing module 351, directive recording module 352 , Pronunciation practice / test module (353), user confirmation module (354), set selection processing module (355), word family / level processing module (356), speaking practice postponement module (357), recording processing module (358), Comprising a comparison processing module 359, test processing module 360, statistical processing module 361 to interface with the learner through the UOI (302) to train all foreign language speaking in an active manner in which the user acts and leads in the actual scene To deal with.

사용자는 UOI(User Operating Interface)(302)을 동작시켜 본 발명에 따른 어학 학습 시스템(300)으로 들어간다. UOI(302)는 기본 입출력 장치를 사용하여 입출력을 수행하며, 기본 입출력 장치는 키보드, 마우스, 디지털 터치 컨트롤 패널( digital touch-control panel), 음성 동작 시스템(speech playing system), 디지털 카메라(digital camera), 리모트 컨트롤러(remote controller), 및 휴대용 전화(cellular phone)일 수 있다.The user operates the user operating interface (UOI) 302 to enter the language learning system 300 according to the present invention. The UOI 302 performs input / output using a basic input / output device, and the basic input / output device includes a keyboard, a mouse, a digital touch-control panel, a speech playing system, and a digital camera. ), A remote controller, and a cellular phone.

도 3에서 지시문(direction) 데이터베이스(318)는 각종 지시를 주고받을 수 있게 원어민 모델과 사용자의 음성(화상)으로 이루어지고, 질문유형(question pattern;320-1)과 대답유형(answer pattern;320-2) 데이터베이스(320)는 단어의 품사에 따른 하나 이상의 의문사에 의해 생성 가능한 질문유형과 그 대답유형을 저장 하고 있으며, 발음 데이터베이스(316)는 모델의 표준 발음을 저장하고 있다.In FIG. 3, the direction database 318 is composed of a native speaker model and a user's voice (image) to send and receive various directions, and includes a question pattern 320-1 and an answer pattern 320. -2) The database 320 stores question types and answer types that can be generated by one or more interrogators according to the parts of words, and the pronunciation database 316 stores the standard pronunciation of the model.

단어 가족 사전(word family dictionary) 데이터베이스(331)는 사물의 분류에 따른 단어 가족 지도(word family map)(312)와 각 단어의 실제 발음, 화상, 뜻을 비롯하여 그 단어와 필연적으로 관련된 단어들을 함께 모아 저장하고 있고, 수준 세트 데이터베이스(314)는 학교 수준(12 grade) 혹은 언어 수준을 근거로 지정한 단어, 문법 수준에 따라 정리한 세트별 데이터를 저장하고 있다. 본 발명의 실시예에서 '세트(SET)'는 외국어 학습과정에 따른 분류 개념으로서, '세트1'은 초급과정으로 단어중심의 학습과정이고, '세트2'는 중급과정으로 2자간 대화를 중심으로 한 학습과정이며, '세트3'는 고급과정으로서 다자간 대화를 중심으로 전개되는 학습과정이다. 이러한 학습과정은 하나의 예에 불과한 것이고, 필요에 따라 다단계로 구성할 수 있다.The word family dictionary database 331 combines the word family map 312 according to the classification of the object and the words that are inevitably related to the word, including the actual pronunciation, pictures, and meaning of each word. The level set database 314 stores the data for each set arranged according to the words and grammar levels designated based on the school level (12 grade) or language level. In the exemplary embodiment of the present invention, 'SET' is a classification concept according to a foreign language learning process, 'Set 1' is a beginner course, a word-centered learning course, and 'Set 2' is an intermediate course. 'Set 3' is an advanced course that is developed around multilateral dialogue. This learning process is just one example and can be configured in multiple stages as needed.

대사 키트 데이터베이스(332)는 한 명의 대사(dialogue) 안내자에 의해 전개되는 학습데이터가 저장되어 있고, 화제 키트 데이터베이스(333)는 여러 명이 화제(topic)를 발전시키는 구조의 학습 데이터가 저장되어 있다. 지식베이스(knowledge base)(334)는 문장, 문단, 기사, 영화 등 모든 형태의 문장과 설명문단, 기사 등 모든 정보를 함께 제공하고, 수준 테스트(level test) 데이터베이스(335)는 수준에 따른 말하기 테스트와 종합 테스트 문제를 제공하며, 개인기록(personal record) 데이터베이스(322)는 사용자 자신의 말하기 실적을 기록 보존한다.The metabolic kit database 332 stores learning data developed by a single dialogue guide, and the topic kit database 333 stores learning data of a structure in which several people develop a topic. The knowledge base 334 provides all types of sentences, paragraphs, articles, movies, and all kinds of information including explanation paragraphs and articles, and the level test database 335 speaks according to the level. Provides testing and comprehensive test questions, and a personal record database 322 keeps records of the user's own speaking performance.

등록 처리 모듈(351)은 사용자를 음성 및/또는 화상으로 등록하여 등록자를 식별케 한다. 발음 연습/테스트 모듈(353)은 발음의 정확성을 확인케 하고, 지시 문 레코딩 모듈(352)은 사용자가 시스템에 지시를 하고 안내나 지시, 칭찬, 교정 등을 받기 위한 통신문을 저장한다.The registration processing module 351 registers the user with voice and / or image to identify the registrant. The pronunciation practice / test module 353 confirms the accuracy of the pronunciation, and the instruction recording module 352 stores a communication for the user to instruct the system and receive guidance or instruction, praise, correction, and the like.

사용자 확인 모듈(354)은 본 발명에 따른 시스템(300)을 사용할 때 저장된 음성정보 혹은 화상정보와 사용자가 입력하는 음성정보 혹은 화상정보를 비교하여 사용자를 확인시키고, 세트 선택 처리모듈(355)은 사용자의 수준과 관심사에 따라 세트를 선택할 수 있도록 한다.The user confirmation module 354 confirms the user by comparing the stored voice information or the image information when the user uses the system 300 according to the present invention with the voice information or the image information input by the user, and the set selection processing module 355 Allows you to select sets based on your level and interests.

단어가족/수준처리 모듈(356)은 단어가족 지도(312)에 따라 그리고 단어와 문법의 수준을 처리해 주고, 대화처리 모듈(357)은 수준에 따라 다양한 형태의 대화를 처리하며 사용자의 화상을 화면 속에 표시하여 실제 연기하게 하는 모듈이다.The word family / level processing module 356 processes the words and grammar levels according to the word family map 312, and the dialogue processing module 357 processes various types of conversations according to the levels and displays the user's image. It is a module that displays in the actual acting.

음성처리 모듈(342)은 대화처리를 위한 보조 모듈로서 음성에 대한 분석, 합성, 동기화 등을 처리하고, 영상처리 모듈(344)은 대화처리를 위한 보조 모듈로서 영상에 대한 분석, 합성, 동기화 등을 제공한다.The voice processing module 342 is an auxiliary module for dialogue processing, and processes an analysis, synthesis, synchronization, etc. of voice, and the image processing module 344 is an auxiliary module for dialogue processing, analysis, synthesis, synchronization, etc. of an image. To provide.

레코딩 처리모듈(358)은 저장된 원어민 표현 모델과 대응하여 사용자가 실제로 학습하는 내용을 기록(저장)하고, 비교 처리 모듈(359)은 원어민 표현 모델과 사용자의 대응한 기록을 비교하고 평가한다.The recording processing module 358 records (stores) the contents actually learned by the user in correspondence with the stored native speaker expression model, and the comparison processing module 359 compares and evaluates the native speaker expression model and the corresponding record of the user.

테스트 처리 모듈(360)은 사용자의 말하기와 종합적인 언어 능력을 테스트할 수 있게 해 주고, 통계처리 모듈(361)은 사용자의 성취도를 평가할 수 있게 각종 통계를 제공한다.The test processing module 360 may test the user's speaking and comprehensive language skills, and the statistics processing module 361 may provide various statistics to evaluate the user's achievement.

일반 콘텐츠 변환모듈(370)은 모든 일반영화 등과 같은 디지털 콘텐츠(371)를 본 발명의 목적에 맞는 교재로 변환하여 사용할 수 있게 하는 과정을 제공한다.The general content conversion module 370 provides a process of converting and using digital content 371 such as all general movies into textbooks suitable for the purpose of the present invention.

즉답 처리 모듈(380)은 어떤 표현이든지 모국어를 외국어로, 혹은 외국어를 모국어로 즉시 통역 처리해 주는 모듈이다.The immediate answer processing module 380 is a module that instantly translates the native language into a foreign language or a foreign language in any expression.

한편, 본 발명을 네트워크 상에서 실시하는 경우에는 사용자의 음성데이터를 도시하지 않은 마이크를 통해 처리하고 전송되어온 음성 데이터를 변환하여 재생하는 음성 처리 모듈과, 도시하지 않은 웹 카메라로부터 입력되는 영상 데이터를 처리하며 전송되어 온 영상 데이터를 복원하여 디스플레이하는 영상 송수신 모듈을 각각 포함하는 것이 바람직하다.On the other hand, when the present invention is implemented on a network, a voice processing module which processes a user's voice data through a microphone (not shown), converts and reproduces the transmitted voice data, and processes image data input from a web camera (not shown) And it is preferable to include each of the image transmission and reception module for restoring and display the transmitted image data.

상기한 각 모듈들은 각각의 기능을 독립적으로 수행하는 프로그램 또는 프로그램이 저장된 장치일 수 있으며, 각각의 모듈은 그 기능이 통합되어 동작하는 단일의 프로그램 또는 프로그램이 저장된 장치일 수도 있으며, 본 발명은 이러한 실시 예에만 한정되는 것은 아니다.Each of the above modules may be a program or a device storing a program that independently performs each function, and each module may be a single program or a device storing a program in which the functions are integrated and operated. It is not limited only to the Example.

또한 상기한 각 데이터베이스(DB)는 각각의 독립된 정보를 저장한 정보저장매체일 수 있으며, 각 데이터베이스는 각각의 정보를 다수의 테이블(table)로 구분하여 단일의 정보로 저장하는 정보저장매체일 수도 있다.In addition, each of the databases (DB) may be an information storage medium storing each independent information, each database may be an information storage medium for storing each information as a single information by dividing each information into a plurality of tables (table) have.

그리고 사용자가 실제 장면에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템(300)은 도 1 및 도 2에서와 같이 컴퓨터로 실행 가능한 하드웨어 플렛폼(computer executable hardware platform)상에서 실행될 수 있다. 이때 컴퓨터로 실행 가능한 하드웨어 플랫폼은 개인용 컴퓨터, 노트북 또는 PDA(Personal Digital Assistant), 혹은 휴대용 전화(cellular phone)일 수 있다. 당업자라면 다른 전자 장치 또는 네트워크에 연결될 수 있는 장치에서 기재된 발명을 구현하기 위한 다양한 등가 변형을 할 수 있다.In addition, the active foreign language learning system 300 that the user acts and leads in the actual scene may be executed on a computer executable hardware platform as shown in FIGS. 1 and 2. In this case, the hardware platform executable by the computer may be a personal computer, a notebook or a personal digital assistant (PDA), or a cellular phone. Those skilled in the art can make various equivalent modifications for implementing the described invention in other electronic devices or devices that can be connected to a network.

이어서, 상기와 같이 구성되는 본 발명의 시스템으로 외국어를 학습하는 과정을 도 4 내지 도 13의 흐름도를 참조하여 자세히 설명한다.Next, the process of learning a foreign language with the system of the present invention configured as described above will be described in detail with reference to the flowcharts of FIGS. 4 to 13.

도 4는 본 발명에 따른 외국어 학습 방법의 전체 절차를 도시한 흐름도이다.4 is a flowchart illustrating the entire procedure of a foreign language learning method according to the present invention.

도 4를 참조하면, 본 발명에 따른 외국어 학습방법은 등록처리 및 지시문 레코딩단계(S1), 사용자 확인, 세트선택, 수준결정, 및 회화연습단계(S2), 테스트 단계(S4), 통계분석단계(S5), 발음 연습/테스트 단계(S6), 음성 및 영상 처리단계(S7), 일반 콘텐츠 변환 단계(S8), 즉답처리 단계(S9)로 이루어진다.Referring to Figure 4, the foreign language learning method according to the present invention registration processing and instruction recording step (S1), user confirmation, set selection, level determination, and conversation practice step (S2), test step (S4), statistical analysis step (S5), pronunciation practice / testing step (S6), audio and video processing step (S7), general content conversion step (S8), and immediate response processing step (S9).

등록처리 및 지시문 레코딩 단계(S1)에서는 도 5에 도시된 바와 같이, 등록처리모듈(351)을 통해 사용자를 등록하고, 지시문 레코딩 모듈(352)을 통해 지시문을 레코딩한다(S1).In the registration process and the instruction recording step (S1), as shown in FIG. 5, the user is registered through the registration processing module 351, and the instruction is recorded through the directive recording module 352 (S1).

이와 같이 기본적인 입력(설정)이 끝나면, 본 발명에 따른 외국어 학습 시스템을 이용하여 실제적인 학습을 시작할 수 있다.After the basic input (setting) as described above, the actual learning can be started using the foreign language learning system according to the present invention.

사용자 확인, 세트선택, 수준결정, 대화 단계(S2)에서는 사용자 확인 모듈(354)을 통해 사용자를 확인하고, 세트 선택 처리모듈(355)을 통해 세트를 선택하며, 단어가족/수준 처리모듈(356)을 통해 단어가족지도(312)에서 갈 곳을 택하고 수준을 결정한다(S2). 또한 선택된 세트에서 대화 처리모듈(357)을 통해 회화연습을 실행한다. 예컨대, 사용자가 '세트1'을 선택한 경우에는 도 6에 도시된 바와 같이, 단어가족사전(331)에 의거 단어를 익히는 학습과정을 수행하고, '세트2'를 택한 경우에는 도 7에 도시된 바와 같이 2자간 대화를 하는 학습과정을 수행하며, '세트3'을 택한 경우는 도 8에서 도시된 바와 같이 다자간 대화 학습과정을 수행한다. In the user confirmation, set selection, level determination, and dialogue step (S2), the user is confirmed through the user confirmation module 354, the set is selected through the set selection processing module 355, and the word family / level processing module 356 is performed. Choose a place to go from the word family map 312 and determine the level (S2). In addition, the conversation processing module 357 executes the conversation practice in the selected set. For example, when the user selects 'set 1', as shown in FIG. 6, the user learns a word based on the word family dictionary 331, and when 'set 2' is selected, FIG. As shown in FIG. 8, a learning process of two-way conversation is performed, and when set 3 is selected, a multi-party conversation learning process is performed as shown in FIG. 8.

이어 레코딩 처리 및 비교단계(S3)에서는 도 9에 도시된 바와 같이, 레코딩 처리모듈(358)을 통해 매 대화 처리시 DB내의 음성(화상) 내용과 대응하는 개인 음성(화상)을 기록하고, 비교처리모듈(359)을 통해 두 음성을 비교처리한다.Subsequently, in the recording process and comparison step (S3), as shown in FIG. 9, the recording processing module 358 records the individual voice (image) corresponding to the voice (image) content in the DB during each conversation process, and compares them. The processing module 359 compares the two voices.

이어 테스트 단계(S4)에서는 도 9의 후단부에 도시된 바와 같이 테스트 처리 모듈(360)을 통해 말하기 및 종합 테스트를 실행하고, 통계 분석 단계(S5)에서는 도 11에 도시된 바와 같이 통계 처리 모듈(S5)을 통해 사용자별로 통계분석한다. Subsequently, in the test step S4, the speaking and synthesis tests are executed through the test processing module 360 as shown in the rear end of FIG. 9, and in the statistical analysis step S5, the statistical processing module is shown in FIG. 11. Statistical analysis for each user through (S5).

한편, 발음 연습/테스트 단계(S6)에서는 발음 연습/테스트 모듈(353)을 통해 발음을 연습 및 테스트하고, 음성 및 영상 처리단계(S7)에서는 도 10에 도시된 바와 같이 음성 처리모듈(342)을 통해 음성을 분석, 합성, 및 동기화하여 그래프로 표시하고, 영상 처리 모듈(344)을 통해 영상(혹은 동영상)을 분석, 합성, 동기화하여 화면에 사용자의 이미지를 삽입한다.On the other hand, in the pronunciation practice / test step (S6) to practice and test the pronunciation through the pronunciation practice / test module 353, in the voice and video processing step (S7), as shown in Figure 10 voice processing module 342 The voice is analyzed, synthesized, and synchronized to display a graph, and the image processing module 344 analyzes, synthesizes, and synchronizes an image (or a video) to insert a user's image on the screen.

도 5는 도 4에 도시된 등록 및 지시문 레코딩 단계(S1)의 세부 흐름도이다.FIG. 5 is a detailed flowchart of the registration and directive recording step S1 shown in FIG.

도 5를 참조하면, 등록처리 모듈(351)에서 사용자를 등록한다(501). 등록화면의 예는 도 17에 도시된 바와 같고, 등록에 필요항목으로는 이름(문자), 이름(음성, 혹은 화상과 함께), 성별(문자), 나이(문자), 시작일자(문자) 등이며, 음성 혹은 화상과 함께 등록하는 이름이 후에 식별명이 된다. Referring to FIG. 5, the registration processing module 351 registers a user (501). An example of the registration screen is as shown in FIG. 17. Items required for registration include name (character), name (with voice or image), gender (character), age (character), start date (character), and the like. The name registered together with the audio or image becomes an identification name later.

이어 사용자는 필요하면 발음 연습/테스트 모듈(353)로 가서 발음을 연습하 고 테스트해 볼 수 있다(502).Then, if necessary, the user can go to the pronunciation practice / test module 353 to practice and test the pronunciation (502).

다음은 지시문 레코딩 모듈(352)을 통해 지시/질문/유도/칭찬/교정 등에 필요한 모든 지시문을 음성 및/또는 영상으로 입력하여 저장한다(503∼506). 이때, 지시문 일반과 세트1의 지시문/질문, 세트2의 지시문/질문, 세트3의 지시문/질문으로 구분하여 녹음 및/또는 녹화할 수 있다. 실시 예에서 먼저 국어(문자), 외국어(문자)를 디스플레이하고, 원어민이 표시된 외국어를 음성(화상)으로 불러 주면 학습자가 마이크(카메라)에 대고, 그대로 따라 하여 자신의 음성(화상)으로 저장한다. 이렇게 필요한 기본 지시문, 세트에 따른 지시문, 질문 등은 지시문 데이터베이스(318)에 저장된다. 이 단계에서 "이게 뭐야", "뭐하는 거야", "어떻게 하는 거야" 등의 의문사에 따른 질문과 대답의 유형을 도식화해서 필요한 부분을 역시 입력하여 질문유형 및 대답유형 데이터베이스(320)에 저장한다. Next, all instructions required for an instruction / question / induction / praise / correction, etc. are input and stored as voice and / or video through the instruction recording module 352 (503 to 506). In this case, the general directive and the directive / question of the set 1, the directive / question of the set 2, the directive / question of the set 3 can be recorded and / or recorded. In the embodiment, the first display of Korean (character) and foreign language (character), and then the native language is displayed by voice (image), the learner is placed on the microphone (camera), as it is stored as your own voice (image) . The necessary basic directives, set directives, questions, and the like are stored in the directive database 318. In this step, the types of questions and answers according to the questions such as "what is it", "what are you doing", "how are you doing", etc. are also inputted, and the necessary parts are also inputted and stored in the question type and answer type database 320.

본 발명이 읽기, 쓰기 훈련 등의 다른 목적으로 이용되고자 할 경우는 다른 입력 방법을 택할 수 있으며, 본 발명은 이러한 실시 예에만 한정되는 것은 아니다.If the present invention is to be used for other purposes, such as reading and writing training, other input methods may be used, and the present invention is not limited to these embodiments.

도 6은 본 발명에 따른 세트1 학습과정의 세부 절차를 도시한 흐름도이다.6 is a flowchart illustrating a detailed procedure of a set 1 learning process according to the present invention.

도 6을 참조하면, 본 발명의 실시 예에서 '세트1'은 모국어를 기본적인 것만 말하는 수준에 준한 것이며, 자기 언어로 "이게 뭐야", "뭐하는 거야" 등의 지극히 초보적인 대화를 통해 말을 배우고 어휘를 확대해 가는 수준의 사용자를 위한 학습과정이다. 이러한 세트1의 전체적인 구성은 도 14에 도시된 바와 같이 구성된다.Referring to FIG. 6, in the exemplary embodiment of the present invention, 'set 1' is based on the level of speaking only the basic language of the mother tongue, and learns a language through extremely rudimentary conversations such as "what is this" and "what are you doing" in your language. This is a learning process for users who are expanding their vocabulary. The overall configuration of this set 1 is configured as shown in FIG.

먼저, 본 발명에 따른 외국어 말하기 학습 시스템이 시작되면, 사용자 확인 모듈(354)에서 등록자 여부를 확인한다(601). 이때 등록자는 단지 등록된 자신의 이름을 마이크(카메라)에 대고 말하면 된다. 만일, 등록된 이름이 아니면 전 단계에서 다시 시작할 수 있다. 등록자를 확인하여 미등록자이면 처음의 등록단계로 가고, 등록자이면 세트 선택 단계에서 세트를 선택한다(602). First, when the foreign language speaking learning system according to the present invention is started, the user confirmation module 354 checks whether a registrant is present (601). At this point, the registrant simply speaks his registered name to the microphone (camera). If the name is not registered, it can be restarted in the previous step. If the registrant is confirmed, the non-registrant goes to the initial registration step, and if the registrant, the set is selected in the set selection step (602).

세트 선택 단계(602,603)에서 '세트1'이 선택되면, 단어 가족 지도(312)를 그림으로 안내한다(604). 여기서 단어가족 지도(312)는 도 18에 도시된 바와 같이 사물의 분류에 해당하는 것으로서, 실시 예에서는 자연, 움직이는 생물, 인간세상으로 크게 대분류하고, 자연(NATURE)은 다시 하늘(SKY), 땅(LAND), 바다(SEA), 식물(PLANT) 등으로 나누고, 움직이는 생물(MOVING CREATURE)은 사람(MAN), 동물(ANIMAL), 새(BIRD), 곤충(INSECT), 물고기(FISH) 등으로 분류한다. 그리고 인간 세상(HUMAN WORLD)은 사람/가족, 음식, 옷/악세사리, 집/빌딩, 도구, 전화/통신, 등등으로 재분류하여 지도로 만들어 찾아갈 수 있게 한다. 이때에는 수준세트(314)에서 지금 사용자가 택한 단어가 속하는 수준을 체크하여, 다음 수준으로 가기 전에 필요한 다른 어휘를 완성했는지를 확인해 준다(605).If 'set 1' is selected in the set selection step (602, 603), the word family map 312 is guided to the picture (604). Here, the word family map 312 corresponds to the classification of things as shown in FIG. 18. In the embodiment, the word family map 312 is largely classified into nature, moving creatures, and the human world, and nature is again the sky (SKY) and the earth. (LAND), sea (SEA), plant (PLANT), etc., MOVING CREATURE (man), animal (ANIMAL), bird (BIRD), insect (INSECT), fish (FISH), etc. Classify. And the HUMAN WORLD reclassifies and maps people / family, food, clothes / accessories, home / building, tools, telephone / communication, and so on. In this case, the level set 314 checks the level to which the word currently selected by the user belongs, and confirms whether the necessary vocabulary is completed before going to the next level (605).

이러한 단계가 끝나면, 도 19에 도시된 바와 같은 구성의 단어가족 사전(331)에서 단어를 가리키는 그림을 인터페이스 창에 디스플레이한다(606). 실시 예에서, 단어가족 사전(331)에는 표제어 단어의 외국어 철자(문자), 발음기호(문자), 발음(원어민 음성/화상), 그림, 품사, 단어와 관련한 의문사 하나 이상, 모국어(문자), 모국어(음성), 단어가족1, 단어가족2, 단어가족3, 관계어 하나 이상(필요한 수만큼), 기능 하나 이상, 기능에 대응하는 대상 하나 이상, 숙어 형태 (필요한 수), 동의어, 반의어 등을 포함한다.After this step, a picture indicating the word in the word family dictionary 331 having the configuration as shown in FIG. 19 is displayed in the interface window (606). In an embodiment, the word family dictionary 331 includes a foreign language spelling (letter), a phonetic symbol (letter), a pronunciation (native voice / picture), a picture, a part-of-speech, one or more questions related to the word, a native language (letter), Native language (speech), word family 1, word family 2, word family 3, one or more relations (as many as necessary), one or more functions, one or more subjects corresponding to the function, idiom form (required), synonyms, antonyms, etc. It includes.

이 단어 가족사전(331)으로부터 도 20에 도시된 바와 같이 그림과 의문사가 표시되면, 사용자는 "이게 뭐야", "뭐하는 거야", "어떻게 하는 거야 "등에 해당하는 의문사로 시작되는 질문을 한다(607). 대답은 원어민 음성(화상)으로 해 주며, 사용자는 그것을 복사한다(copy)(608~610). 이때에 자신의 표현(발음)과 원어민의 표현을 비교해 볼 수 있도록 음성 그래프, 입모양(lip-synch)을 동기화하여 디스플레이해준다.When a picture and a questionnaire are displayed from this word family dictionary 331 as shown in FIG. 20, the user asks a question that begins with a questionnaire corresponding to "what is this", "what are you doing", "what are you doing?" 607). The answer is the native speaker's voice (picture), and the user copies it (608-610). At this time, the voice graph and the lip-synch are displayed by synchronizing the expression (pronouncement) with the expression of the native speaker.

실시 예에서, 최소 3회 이상 반복하도록 유도하고, 이때에는 외국어 단어를 발음하면, 바로 뒤이어 모국어 음성으로 같은(뜻의) 단어를 말해 줌으로써 그림, 외국어, 모국어를 함께 연계하여 기억하게 해 준다. 그리고 반복의 맨 마지막 표현이 시스템 내에 기억된다(611). In an embodiment, it is induced to repeat at least three times, and when a foreign word is pronounced, the picture, foreign language, and the native language are linked and remembered by immediately speaking the same word in the mother tongue. The last representation of the iteration is then stored in the system (611).

이어 수준에 따라 의미를 더 확대하여 관계어를 이용하여 연습할 수 있다(612). 관계어를 택하면, 그 단어의 표제어로 가서 그림을 불러 오고, 연습하게 하여 그야말로 끝없이 단어사슬(word chain)로 연결시켜 간다. 이러한 방법은 해당 단어의 단어가족을 알게 하고, 일상대화에서 반드시 서로 같이 쓰여지는 어휘들을 한꺼번에 혹은 연결하여 익히게 해줌으로써 자연스러운 현실과 연결되는 학습이 되게 한다. 실시 예에서, "사과(apple) - 먹는다(eat) - 달다/맛있다(sweet), 사과 쥬스(apple juice), 사과나무(apple tree)" 등으로 연결하는 것과 같다. Subsequently, the meaning may be further enlarged according to the level to practice using the related word (612). If you choose a relative word, you go to the word's heading, bring up a picture, practice it, and endlessly link it to the word chain. In this way, we can learn the word family of the word and learn the words that are used together in everyday conversations at once or by connecting them to learn to connect with natural reality. In an embodiment, this is equivalent to connecting to "apple-eat-sweet / sweet, apple juice, apple tree" and the like.

본 발명이 읽기, 쓰기 훈련 등의 다른 목적으로 이용되고자 할 경우는 다른 입력 방법을 택할 수 있으며, 본 발명은 이러한 실시 예에만 한정되는 것은 아니다.If the present invention is to be used for other purposes, such as reading and writing training, other input methods may be used, and the present invention is not limited to these embodiments.

도 7은 본 발명에 따른 세트2 학습과정의 세부 절차를 도시한 흐름도이다.7 is a flowchart illustrating a detailed procedure of a set2 learning process according to the present invention.

도 7을 참조하면, 사용자가 본 발명에 따른 외국어 말하기 학습 시스템의 세트 선택단계(S2)에서 '세트2'를 선택하면, 도 21에 도시된 바와 같이 대화 가이드를 선택하기 위한 화면이 나타난다. 이 화면을 보고 대화 가이드를 선택하게 된다(701). 여기에 적용되는 원리는, 이제 어린이가 기본 단어를 배우고 간단한 구조의 문장을 구사할 수 있게 되면, 만나는 사람과 간단한 대화를 할 수 있게 되는 것이다. 보통 한 사람과 일대일 대화를 할 수 있는 능력이 있게 되는데, 이 단계에서는 대화를 리드해 줄 대화 가이드가 필요하며, 이들을 통해 분야별로 다양한 정보를 얻게 된다. Referring to FIG. 7, when the user selects 'set 2' in the set selection step S2 of the foreign language speaking learning system according to the present invention, a screen for selecting a conversation guide appears as shown in FIG. 21. This screen is selected to select the conversation guide (701). The principle applied here is that once children are able to learn basic words and use simple sentences, they can have a simple conversation with the person they meet. You will usually have the ability to have a one-on-one conversation with one person. At this stage, you will need a conversation guide to lead the conversation, which will provide you with a variety of information in each area.

도 21을 참조하면, 본 발명의 실시 예에서는 대화 가이드를 여덟 사람, 즉 어머니(mom), 아버지(dad), 형, 누나, 친구, 선생, 손님(방문객), 가이드(여행) 등으로 나누고, 각각 가장 많이 접하는 분야에 대하여 대사(dialogue)를 이끌어 가게 한다. 즉, 대화가이드(도우미)를 어머니(Mom), 아버지(Dad), 형(Brother), 누나(Sister), 친구(Friend), 선생(Teacher), 손님(Guest), 여행가이드(Tourist guide) 등으로 나누고, 주제를 선택함에 있어서 어머니(Mom)는 사람/가족(Man/Family), 음식/부엌/요리 (Food/Kitchen/Cooking), 가구/가전 (Furniture/ Home appliances), 옷/악세사리 (clothes/Accessory)를, 그리고 아버지(Dad)는 집/빌딩(House/ Building), 책/도서관/교육(Book/Library/ Education), 날씨(Weather), 일(Work), 하늘( sky)을, 그리고 형(Brother)은 건강(Health), 스포츠/게임(sports/game), 동물(animal), 도구(Tool), 전화/통신(Telephone/ communication), 텔레비전(Television)을, 그리고 누나(Sister)는 음악/회화/시(Music/painting/poem), 새(Bird)를, 그리고 친구(Friend)는 영화(Movie), 오락(Leisure), 취미(Hobby), 곤충(Insect)을, 그리고 선생(Teacher)은 종교(Religion), 사회(Social), 차/기차/비행기/배(Car/Train/Plane/Ship), 기계/과학/공장(Machine/Science/ Factory), 물고기(Fish), 식물(Plant), 언어/문법(Language/Grammar), 역사((History)를, 그리고 손님(Guest)은 정치(Politics), 사업/경제(Business/ economy), 문화(Culture)를, 그리고 여행가이드(Tourist guide)는 백화점/시장(Department store/ market), 역(Station), 공항(Airport), 병원(Hospital), 농장(Farm), 동물원/공원/식물원 (Zoo/Park/Plantation), 박물관(museum), 땅/산(Land/mountain), 바다/호수(Sea/lake), 국가(countries), 국제기구(International Institute)등을 안내한다.Referring to FIG. 21, in an embodiment of the present invention, a conversation guide is divided into eight persons, namely, a mother, a dad, an older brother, an older sister, a friend, a teacher, a guest (visitor), a guide (travel), and the like. Have them lead a dialogue in each of the areas they most encounter. In other words, the conversation guide (Mom), father (Dad), brother (Sister), friend (Friend), teacher (Teacher), guest (Guest), tour guide (etc.) Divided into two categories, Mother selected Man / Family, Food / Kitchen / Cooking, Furniture / Home appliances, Clothes / Accessories / Accessory, and Dad is the House / Building, Book / Library / Education, Weather, Work, Sky, and Brother is Healthy, sports / game, Animal, Tool, Telephone / communication, Television, and Sister is Music / painting / poem, Bird, and Friend are Movie, Leisure, Hobby, Insect, and Teacher ) Is Religion, Social, Car / Train / Airplane / Boat n / Plane / Ship, Machine / Science / Factory, Fish, Plant, Language / Grammar, History, and Guest ) Is for politics, business / economy, culture, and tour guide is for department store / market, station, airport, Hospital, Farm, Zoo / Park / Plantation, Museum, Land / mountain, Sea / lake, Country , International Institute, etc.

이어 도 22에 도시된 바와 같은 대화소재 화면에서 원하는 대화소재를 선택한다(702). 이때, 자신의 수준이 체크된다(715).Subsequently, a desired conversational material is selected on the conversational material screen as shown in FIG. 22 (702). At this time, his level is checked (715).

도 22를 참조하면, 어머니(mom)의 경우는 사람/가족, 음식/요리/부엌, 옷/악세사리, 가구/가전품 등에 대하여 말해 준다. 반면, 아버지(dad)는 집/건물, 날씨, 책/도서관/교육, 일/직업, 하늘 등에 관하여 이야기해 준다. 즉, 우리가 어려서부터 여러 사람으로부터 여러 지식을 배우게 되는 원리와 동일한 것이다. 여기서, 친구, 선생, 가이드의 경우는 원하는 성(남/여)을 택할 수 있다. 실시 예에서 "어머니"- "음식"을 택하면, 도 23에 도시된 바와 같이 오디오/비디오를 선택하기 위한 화면이 나타난다.Referring to FIG. 22, a mother tells about a person / family, food / cooking / kitchen, clothes / accessories, furniture / appliances, and the like. On the other hand, dad talks about home / building, weather, books / library / education, work / occupation, and sky. In other words, it is the same principle that we learn from different people from different ages. Here, in the case of a friend, a teacher, or a guide, a desired gender (male / female) can be selected. In the embodiment, when "mother"-"food" is selected, a screen for selecting audio / video appears as shown in FIG.

이어 도 23에 도시된 바와 같은 선택화면에서 오디오로 할 것인지(Tell me), 비디오로 할 것인지를 택할 수 있다(Show me)(703). 오디오를 선택하면, 오디오를 분리하여 처리한다(704). 또한 정상 속도(Normal Speed)로 할 것인지, 느린 속도(Slow Speed)로 할 것인지를 선택할 수 있다(704-1).Subsequently, it is possible to select whether to use audio (Tell me) or video (Show me) in the selection screen shown in FIG. 23 (Show me). If audio is selected, audio is separated and processed (704). In addition, it is possible to select whether to set the normal speed or the slow speed (704-1).

이어 대사 키트 데이터베이스(332)에서 선택된 대사를 불러와 디스플레이하면, 사용자는 화면을 보면서 듣고 표현을 익힌다(705,706). Subsequently, if the selected dialogue is called up from the metabolic kit database 332 and displayed, the user listens to the screen and learns the expression (705, 706).

대화 연습이 시작되면(Let's talk), 학습자는 대화 가이드(엄마)와 대화를 한다(707). 이 과정에서 도 10에 도시된 절차에 따라 음성처리(분석-합성-동기화)와 영상처리(분석-합성-동기화)(S7)가 이루어져 화면상에 음성 그래프와 입모양(lip-synch)이 비교 표시될 수 있고, 도 24에 도시된 화면에서와 같이 디지털 카메라를 통해 자신이 화면 내의 자신의 역할로 직접 들어가 연기하고, 그것이 화면에 합성 및 동기화되어 나타난다. When the conversation practice begins (Let's talk), the learner talks to the conversation guide (mom) (707). In this process, voice processing (analysis-synthesis-synchronization) and image processing (analysis-synthesis-synchronization) (S7) are performed according to the procedure shown in FIG. 10 to compare the voice graph and the lip-synch on the screen. It may be displayed, and through the digital camera as in the screen shown in FIG. 24, the user directly enters and plays his role in the screen, and it appears synthesized and synchronized on the screen.

그리고 도 9에 도시된 바와 같은 S3단계를 수행하여 사용자의 음성을 레코딩하고, 자신의 것과 비교하기(COMPARE)를 선택하면(708), 원어민의 음성과 자신의 것을 비교하여 도 25에 도시된 바와 같이 그래프로 표시하고, 유사도에 따라 채점할 수 있게 한다.In operation S3, as shown in FIG. 9, the user's voice is recorded, and if the user selects the comparison with the user's (COMPARE) (708), the native speaker's voice is compared with the user's voice as shown in FIG. 25. Graph them together and score them according to similarity.

이어 필요한 대사를 소화하기 위해 역할을 바꾸어(take turns) 다시 연습할 수 있다(709).It may then retake to take turns to digest the necessary metabolism (709).

그리고 대사키트(332)에는 키트 표제어와 식별명이 있어서 모두 단어가족사 전(331)과 수준세트(314)와 연계되어 대화 소재를 확대할 수 있게 한다(710). In addition, the meta kit 332 has a kit heading and an identification name, so that the dialogue material can be expanded in association with the word family dictionary 331 and the level set 314 (710).

또한 유사(대체) 표현들을 연습할 수 있게 한다(710-1).It also allows the practice of similar (alternative) expressions (710-1).

한편, 대화를 할 때, 현실성을 살리기 위해 가능하면 자신이 기억하여 대사를 말할 수 있게, 유도표현을 사용한다(711~714). 즉, 사용자가 사용할 대사를 금방 응대하지 못할 때는, 대략 3초 정도를 기다리고, "자 어서"에 해당하는 표현("Come on.")을 사용해 유도하고, 5초가 지나도 시작을 못하면 원어민의 대사를 그대로 시작하며, 진행 도중 언제라도 사용자가 시작하면 원어민 대사를 멈추어 사용자가 자기 대사를 완성케 한다. 그리고 자연스럽게 칭찬하는("Good", "Well done.") 표현을 삽입하여 실제성을 살릴 수 있다. In conversation, on the other hand, in order to save reality, use induction expression so that one can remember and speak the dialogue if possible (711 ~ 714). In other words, if the user can't respond to the dialogue immediately, wait about three seconds, use the expression "Come on." It starts as it is, and at any time during the process, the user stops the native speaker's dialogue to complete the dialogue. And you can add expressions that naturally compliment ("Good", "Well done.") To make your reality alive.

이렇게 하여 마치 사용자는 원어민 도우미(엄마, 아버지, 등등)와 직접 현실에서 대화하듯이 역동적으로 대화를 하며, 자연스럽게 말하기를 완성하며 듣기는 자동으로 해결해 간다. In this way, the user talks dynamically like a native speaker (mother, father, etc.) speaks directly in real life, and naturally completes speaking and listens automatically.

본 발명이 읽기, 쓰기 훈련 등의 다른 목적으로 이용되고자 할 경우는 다른 입력 방법과 표현 방법을 택할 수 있으며, 본 발명은 위와 같은 실시 예에만 한정되는 것은 아니다.When the present invention is to be used for other purposes such as reading and writing training, other input methods and expression methods may be selected, and the present invention is not limited to the above embodiments.

도 8은 본 발명에 따른 세트3 학습과정의 세부 절차를 도시한 흐름도이다.8 is a flowchart illustrating a detailed procedure of a set3 learning process according to the present invention.

도 8을 참조하면, 사용자가 본 발명에 따른 외국어 말하기 학습 시스템의 선택단계(S2)에서 '세트3'을 선택하면, 세트3 시작화면이 표시되는데, 여기서 원하는 화제를 선택한다(801). 이때 사용자의 수준 기록이 참조된다(812).Referring to FIG. 8, when the user selects 'set 3' in the selection step S2 of the foreign language speaking learning system according to the present invention, the set 3 start screen is displayed, where a desired topic is selected (801). The user's level record is then referenced (812).

이어 도 21에 도시된 바와 같은 선택화면에서 오디오( Tell me)/비디오(Show me)를 선택할 수 있다(802). 오디오를 선택하면, 오디오를 분리하여 처리한다(803). 또한 정상 속도(Normal Speed)로 할 것인지, 느린 속도(Slow Speed)로 할 것인지를 선택할 수 있다(803-1).Next, audio (tell me) / video (show me) may be selected on the selection screen as illustrated in FIG. 21 (802). If audio is selected, audio is separated and processed (803). In addition, it is possible to select whether to set the normal speed or the slow speed (803-1).

세트3에서는 다수의 등장 인물들이 복합적인 대사를 주고받는 장면으로 이루어진다. 따라서 화제키트(333)에서 다수의 등작인물이 있는 도 26에 도시된 바와 같은 화면을 불러온다(804).In Set 3, a number of characters are composed of multiple dialogues. Accordingly, the topic kit 333 brings up a screen as shown in FIG. 26 with a number of equivalent figures (804).

이어 표현 익히기 단계에서는 일차적으로 다수의 등장 인물간의 대화를 학습한 후(805), 연기하기(acting in the scene) 단계에서는 도 26에 도시된 바와 같은 다수의 등장 인물 중에서 원하는 역할을 선택(I will play xxx.)하여 자유롭게 실제 장면에서 대화를 한다(806). 이때, 음성 및 화상 처리 단계(S7)를 통해 음성과 화상을 분석, 합성, 동기화하여 자신의 역할이 도 27에 도시된 화면에 그대로 나타난다. 따라서 사용자는 실제 화면속에 참가하여 실제와 같이 대화를 학습할 수 있다.Next, in the expression learning stage, first, a conversation between a plurality of characters is studied (805), and in the acting in the scene stage, a desired role is selected from the plurality of characters as illustrated in FIG. 26 (I will play xxx.) and talk freely in the actual scene (806). At this time, through the voice and image processing step (S7), the voice and the image are analyzed, synthesized and synchronized so that their role is displayed on the screen shown in FIG. Therefore, the user can participate in the real screen and learn the conversation as if it were real.

그리고 이 과정에서 도 9에 도시된 바와 같은 S3단계를 수행하여 사용자의 음성을 레코딩하고, 자신의 것과 비교하기(COMPARE)를 선택하면(807), 원어민의 음성과 자신의 것을 비교하여 채점할 수 있게 한다.In this process, as shown in FIG. 9, the user's voice is recorded by recording the user's voice, and if the user selects the comparison with the user's (COMPARE) (807), the native speaker's voice and the user's voice can be compared and scored. To be.

이어 필요한 대사를 소화하기 위해 역할을 바꾸어(take turns) 다시 연습할 수 있다(808).This can then be retaken by taking turns to digest the necessary metabolism (808).

이러한 모든 과정을 수행하여 마침내 자유자재로 대화할 수 있는 능력이 있게 되면, 자유토론 단계로 옮겨 가서 모든 주제에 대하여 자유롭게 토론한다(809). 예컨대, 실시 예에서 사용자가 주제를 말하면( I'd like to talk about xxxx. 혹은 Let's talk about xxxx.), 단어가족사전(331), 대사키트(332), 화제키트(333), 지식베이스(문장, 문단, 기사, 영화)(334)등 모든 데이터베이스들이 함께 연결되어 표제어를 중심으로 이어 말하기(chain-talking)형태로 대화가 계속된다(810,811). 즉, 주제어가 나오는 모든 문장, 키트, 장면들이 검색되어 모든 수준의 대화가 가능케 해준다. When all of this is done and finally has the ability to talk freely, move on to free discussion and discuss freely on all topics (809). For example, in an embodiment, when a user speaks a topic (I'd like to talk about xxxx. Or Let's talk about xxxx.), The word family dictionary 331, the dialogue kit 332, the topic kit 333, the knowledge base ( All databases, such as sentences, paragraphs, articles, and films) (334), are linked together, and the dialogue continues in chain-talking form with headings (810,811). That is, all sentences, kits, and scenes with the main word are searched for, enabling conversation at all levels.

그리고 화제를 변경할 때는, 넘어가는 표현("By the way ")을 사용하여 언제라도 주제어를 바꿀 수 있다. 이 때 사용자의 수준 정보가 저장되어 있어서 그 수준에 맞는 정보를 출력시켜 줄 수 있게 한다. And when you change a topic, you can change the subject at any time by using the expression "By the way". At this time, the user's level information is stored so that information corresponding to the level can be output.

본 발명이 읽기, 쓰기 훈련 등의 다른 목적으로 이용되고자 할 경우는 다른 입력 방법을 택할 수 있으며, 본 발명은 위와 같은 실시 예에만 한정되는 것은 아니다.When the present invention is to be used for other purposes, such as reading and writing training, other input methods may be selected, and the present invention is not limited to the above embodiments.

도 9는 도 4에 도시된 레코딩/비교 처리 절차(S3)를 도시한 세부 흐름도이다.FIG. 9 is a detailed flowchart showing the recording / comparison processing procedure S3 shown in FIG.

도 9를 참조하면, 본 발명에 따른 외국어 말하기 학습 시스템의 레코딩/비교 처리하는 과정(S3)에서는, 먼저 콘텐츠의 레코드를 시스템 내에 임시로 보관하고, 사용자 레코드도 임시 보관한다(901,902).Referring to FIG. 9, in the recording / comparison process of the foreign language speaking learning system according to the present invention (S3), first, a record of content is temporarily stored in the system, and a user record is also temporarily stored (901, 902).

이어 콘텐츠-사용자 비교하기(903)에서 두 가지를 동기화하여 비교해 보여 주는데, 음성만으로 비교할 경우는 먼저 원어민 모델 음성을 들려주며, 다음은 사용자 자신의 음성을 뒤이어 들려주어 스스로 비교하게 하며, 이때 도 25에 도시된 바와 같이, 그래프를 동기화하여 상,하로 대칭시켜 줌으로써 스스로 자신의 성취도를 채점하게 한 뒤, 저장을 원하면 전체 개인기록을 콘텐츠 색인을 붙여서 저장한다(903~907). 만일, 화상으로 동기화시킬 경우는 먼저 원어민 모델 화상을, 그리고 뒤이어 사용자 자신의 것을 디스플레이하여 비교할 수 있게 하며, 저장의 내용은 음성과 동일하다. 그리고 각 표제어, 키트별 통계를 위한 기록을 별도로 하는 데, 실시 예에서는 식별코드, 표제어(혹은 생략), 일자, 자기채점 점수 등을 저장한다.Next, in the content-user comparison (903), the two items are synchronized and compared. When comparing only the voice, a native speaker model voice is heard first, and then the user's own voice is followed. As shown in Figure 6, the graph is synchronized by symmetry up and down to score its own achievements, and if desired, the entire personal record is indexed and stored (903 to 907). If it is synchronized to an image, the native speaker model image is displayed first, and then the user's own one can be displayed and compared, and the contents of the storage are the same as the voice. And separate records for each heading, kit-specific statistics, the embodiment stores the identification code, heading (or omitted), date, self-scoring score and the like.

이어 테스트 단계(S4)에서는 수준 세트를 지정한 후 말하기 테스트를 시행하고, 종합 테스트를 시행한다(908). 이때 테스트는 자신이 수준을 지정하여 테스트할 수도 있고, 이미 있는 자신의 기록에 근거한 수준에 의하여 수준을 지정받아 할 수도 있다(911). Subsequently, in the test step S4, a level test is designated and then a speaking test is performed and a comprehensive test is performed (908). In this case, the test may be performed by specifying the level of the test itself, or the level may be designated by the level based on the existing record of the person (911).

그리고 말하기 수준을 간단히 테스트하기 위해, 실시 예에서는 마치 시력 측정판(Eyesight Check Board)과 같이 배열된 일련의 질문들에 의해 몇 개의 배열을 상,하 좌우로 움직이며 테스트할 수 있다(909). 아울러 데이터베이스(330)에는 각 수준별로 종합 테스트(듣기, 말하기, 읽기, 쓰기, 이해력 등)를 할 수 있는 문항들을 동시에 포함하여 종합 테스트를 위한 자료를 제공한다(910). In order to simply test the speaking level, in some embodiments, several arrays may be moved up, down, left, and right by a series of questions arranged like an eye check board (909). In addition, the database 330 includes data for comprehensive tests (listening, speaking, reading, writing, comprehension, etc.) for each level at the same time to provide data for the comprehensive test (910).

도 10은 도 4에 도시된 오디오/비디오 처리절차(S7)를 도시한 세부 흐름도이다.FIG. 10 is a detailed flowchart illustrating the audio / video processing procedure S7 illustrated in FIG. 4.

도 10을 참조하면, 본 발명에 따른 학습 시스템의 오디오/비디오를 처리하는 단계(S7)에서는, 먼저 전체 시스템이 운용되는 동안 콘텐츠의 해당 내용을 음성 분 석하여 음의 고저, 강약, 시간, 음절 등을 분석하여 도 23에 도시된 바와 같이 그래프로 처리해 준다(S101∼S103).Referring to FIG. 10, in the process of processing audio / video of a learning system according to the present invention (S7), first, the corresponding content of the content is analyzed by voice while the entire system is operated. The analysis is performed in a graph as shown in FIG. 23 (S101 to S103).

이에 대응하여 사용자가 마이크/카메라를 통해 입력하는 표현을 분석하고, 음의 고저, 강약, 시간, 음절 등을 분석하여 그래프로 표현하되, 원어민 모델의 것과 상,하로 대칭이 되도록 화면에 표시한다(S104∼S106).Correspondingly, the user analyzes the expression input through the microphone / camera, analyzes the height, intensity, time, syllable, etc. of the sound and expresses it in a graph, and displays it on the screen so that it is symmetrical with the native speaker's model S104 to S106).

영상에 있어서는 도 27에서와 같이 콘텐츠 상의 인물 영상을 분석하여 인물별로 잘라낼 수 있게(cut out)하고, 사용자가 역할을 설정하면 카메라로 입력되는 영상을 그 인물의 영상에 오우버랩(overlap)하여 실시간 합성함으로써 사용자가 자신이 장면 속에서 직접 연기하고 있음을 지각하고 실감 있게 말하기를 할 수 있게 한다(S107∼S110). 다만 전신을 처리하는 것이 무리가 있을 경우는 단지 얼굴 부분만으로 동일한 효과를 연출할 수 있다. 사용자가 역할을 변경하면 동일한 절차에 따라 화면을 합성 및 동기화한다(S111). In the video, as shown in FIG. 27, the person's image on the content can be analyzed and cut out for each person, and if the user sets a role, the video inputted by the camera is overlaid on the person's image in real time. By synthesizing, the user can perceive that he or she is acting directly in the scene and can realistically speak (S107 to S110). However, if the whole body treatment is too difficult to produce the same effect only by the face part. When the user changes the role, the screen is synthesized and synchronized according to the same procedure (S111).

본 발명이 읽기, 쓰기 훈련 등의 다른 목적으로 이용되고자 할 경우는 다른 입력 방법을 택할 수 있으며, 본 발명은 위와 같은 실시 예에만 한정되는 것은 아니다.When the present invention is to be used for other purposes, such as reading and writing training, other input methods may be selected, and the present invention is not limited to the above embodiments.

도 11은 도 4에 도시된 통계 처리절차(S5)를 도시한 세부 흐름도이다.FIG. 11 is a detailed flowchart showing the statistical processing procedure S5 shown in FIG.

도 11을 참조하면, 사용자가 실제 장면에서 연기하며 주도하는 외국어 말하기 학습 시스템의 통계처리 모듈(361)은 사용자 개인별로 일일 세트별 통계를 산출함과 아울러 월간 세트별 통계를 산출한다(S201,S202). 그리고 영역별로 자신이 채점한 평균 점수 등을 산출할 수 있으며, 주기별로 추이를 분석하여 그래프 등으 로 표현할 수 있다(S203,S204). 또한 자신이 학습한 세트별 단어, 문법 수준 등을 체크할 수 있다. Referring to FIG. 11, the statistical processing module 361 of the foreign language speaking learning system that the user acts and leads in a real scene calculates daily set statistics for each user and calculates monthly set statistics (S201, S202). ). In addition, the average score scored by the user may be calculated for each area, and the trend may be analyzed by the period and expressed as a graph (S203, S204). You can also check the words, grammar level, etc. for each set you have learned.

도 12는 본 발명에 따른 즉답처리 과정을 설명하기 위하여 도시한 도면이다.12 is a diagram illustrating an immediate response process according to the present invention.

도 12를 참조하면, 외국어를 습득해 가는 과정에서 순간순간마다 여러 가지 질문이 일어나게 되는데, 다만 정해진 과정을 따라 가는 것으로는 일상생활에서 직면하는 상황에 따른 질문을 해결할 수 없으므로, 마치 그때마다 사전을 찾아보듯이 모국어 표현을 외국어로, 또한 외국어 표현을 모국어로 즉각 전환해 알려주는 기능이 필요하게 된다. 실시 예에서 모국어를 영어로 바꾸는 것이면, " What do you say?(뭐라고 해?)" 라고 말하여(S301), 모국어를 영어로 바꾸는 것으로 한 뒤, 질문을 마이크(카메라)에 대고 말하면(S302), 이 표현에 해당하는 영어 표현을 가져와 음성으로, 화상으로(문자와 함께) 대답해 주므로 즉각 사용할 수 있게 한다(S303).Referring to FIG. 12, in the process of acquiring a foreign language, various questions arise every moment. However, following a predetermined process does not solve the question according to the situation faced in daily life. As you can see, there is a need for a function that instantly converts a native language expression into a foreign language and a foreign language expression into a native language. In the embodiment, if the native language is changed to English, say "What do you say?" (S301). If the native language is changed to English, and then answer the question into the microphone (camera) (S302) , And take the English expression corresponding to this expression and answer it by voice, with an image (with letters), so that it can be used immediately (S303).

반대로 영어를 모국어로 바꾸는 것이면, " What does it mean?(무슨 뜻이야?)" 라고 하여 다른 기능을 수행하고, 영어 표현을 음성(카메라로)으로 입력하거나 자판으로 입력하여 그 의미의 답을 얻도록 한다(S304).On the contrary, if English is your native language, you can use "What does it mean?" To perform other functions, and input English expressions (by camera) or keyboard to get the answer. (S304).

도 13은 일반 디지털 콘텐츠를 교재로 변환하는 세부 절차 흐름도이다.13 is a flowchart illustrating a detailed procedure of converting general digital content into a textbook.

도 13을 참조하면, 먼저 일반적인 디지털 콘텐츠(예컨대, 영화)를 업로드하고(S401), 등장인물을 분석하여 캐릭터의 이름을 부여한다(S402). 매 화면에 등장하는 인물을 분석하고 분리하여 인물과 대사를 연결시킬 준비를 한다(S403). 다음은 장면번호와 인물별 대사번호를 결합시켜 고유 대사코드로 한다(S404). 이렇게 하여 각 장면별 인물, 대사가 분리되어 사용자가 후에 선택하는 인물을 연기할 때, 장면과 대사를 연결할 수 있게 한다(S405). Referring to FIG. 13, first, a general digital content (eg, a movie) is uploaded (S401), and a character name is analyzed by analyzing a character (S402). Analyzing and separating the characters appearing on each screen is prepared to connect the characters and lines (S403). Next, combine the scene number and the person's metabolic number to make a unique metabolic code (S404). In this way, the person and the dialogue for each scene are separated, so that when the user postpones the person to select later, it is possible to connect the scene and the dialogue (S405).

사용자가 이 변환된 콘텐츠(영화)를 본 발명의 교재로 사용하기 위해서는 , 사용자 자신의 음성으로 캐릭터별 이름을 입력해 두어야만 실제로 그 캐릭터 이름을 마이크(카메라)에 대고 말하면, 자신이 그 역할을 연기하게 되는 것이다(S406). 이렇게 완성된 콘텐츠는 언제든지 본 발명에 따른 교재로 사용이 가능하다(S407).In order for the user to use this converted content (movie) as a textbook of the present invention, the name of each character must be input by the user's own voice, and the character name is actually referred to the microphone (camera). Will be postponed (S406). The completed content can be used as a teaching material according to the present invention at any time (S407).

도 14는 본 발명에 따른 세트1 학습 예의 내용을 도시한 개략도이다.14 is a schematic diagram showing the contents of a set 1 learning example according to the present invention.

도 14를 참조하면, 본 발명이 제공하는 인터페이스 창을 통해 사용자는 인터페이스 창 내의 그림을 보고 적용되는 입력 수단에 의해 의문사로 시작되는 질문을 한다. Referring to FIG. 14, through an interface window provided by the present invention, a user looks at a picture in an interface window and asks a question that starts with a question by an input means applied.

본 실시 예에서 대상 외국어는 '영어'이며, 창의 그림에는 "사과"가 나타나고, 사용자의 질문은 PC 카메라(마이크가 내장됨)를 통해 입력하며 " What is this?"이다. 다시 인터페이스 창은 스피커를 통해 "Apple" 이라고 음성을 들려주며, 혹은 입 모양(lip- synch)을 함께 보여주며 그림 밑에 "Apple" 이라는 문자를 표시해 준다. 사용자는 "Apple" 이라고 그대로 따라 하고(copy), 다시 인터페이스 창은 스피커를 통해 "Yes, it is an apple."이라고(입 모양과 함께) 들려주며, 그러면 사용자는 세 번 "Apple"이라고 마이크로폰 혹은 PC카메라에 대고 반복한다. 이 때 매번 사용자가 "Apple" 이라고 하면, 뒤이어 한국어로 "사과"라고 스피커로 말해 주어 그림 - 외국어 음성 - 한국어 음성 (그리고 원하면 apple철자)을 동시에 연계하여 기억할 수 있게 한다.In the present exemplary embodiment, the target foreign language is 'English', and an 'apple' appears in a picture of the window, and a user's question is input through a PC camera (with a built-in microphone) and is “What is this?”. Again, the interface window sounds "Apple" through the speaker, or shows lip-synch and the word "Apple" under the picture. The user copies the word "Apple" and again the interface window hears "Yes, it is an apple." (With the shape of the mouth) through the speaker. Repeat for the PC camera. At this time, every time the user calls "Apple", the speaker then speaks "Apple" in Korean so that the picture-foreign language voice-Korean voice (and the apple spelling, if desired) can be linked and remembered at the same time.

한 걸음 더 나아가 다시 인터페이스 창에 사과의 그림이 디스플레이되면 사용자는 마이크/카메라에 대고 "What do we do with it?" 라고 질문한다. 그러면 인터페이스 창에는 사과를 먹는 그림과 함께 스피커를 통해(입 모양과 함께) "eat" 이라고 들려주고, 사용자가 따라서 "eat"이라고 마이크/카메라에 대고 말하면 다시 인터페이스 창에는 계속 먹는 그림이 디스플레이 되면서 "Yes, we eat it."이라고 들려준다. 그러면 또다시 사용자는 세 번씩 "eat" 라고 마이크/카메라에 대고 말하며 그러면 "먹다"라는 한국말을 뒤이어 들려준다. Going one step further, when the picture of the apple is displayed in the interface window, the user can say "What do we do with it?" Ask. Then the interface window will say "eat" through the speaker (with the shape of the mouth) along with the picture of eating an apple, and if the user says "eat" to the microphone / camera, the picture will continue to be displayed in the interface window. Yes, we eat it. " The user then speaks to the microphone / camera three times, "eat," followed by the "eat" Korean.

인터페이스 창에 "COMPARE" 문자가 표시되면 사용자가 "Compare"라고 마이크/카메라에 대고 말한다. 그러면 방금 연습한 표제어 그림과 함께 원어민의 목소리(입 모양과 함께)가 먼저 나오고, 바로 뒤이어 사용자의 해당하는 목소리(입 모양이 원어민의 것 바로 아래에)를 스피커로 들려준다. 인터페이스 창에 "SELF-GRADING" 이라는 표시가 나오면 사용자가 자신의 자기 채점 점수를 입력(문자로)한다. 이 부분은 원한다면 생략할 수 있다.When the "COMPARE" character is displayed in the interface window, the user says "Compare" to the microphone / camera. Then the native speaker's voice (with the shape of the mouth) comes out first with the picture of the heading just practiced, followed by the speaker's corresponding voice (the mouth is just below the native speaker's). When "SELF-GRADING" is displayed on the interface window, the user enters his / her own grading score (in letters). This part can be omitted if desired.

다음 인터페이스 창에 "RECORD SAVE - SAVE, NO SAVE" 표시가 되면, 사용자가 "Save" 혹은 "No save" 라고 말하여 저장 여부를 지시한다. 다음 인터페이스 창에 " GO BACK ", "THAT'S ENOUGH.", " STOP", 그리고 "OTHER WORD" 라는 표시가 되면 원하는 선택을 하여 마이크/카메라에 대고 말하면 그대로 반복, 중지, 혹은 다음 단어로 넘어 간다. 사용자는 이렇게 계속 단어가족에 따라 그리고 자신의 선택에 따라 연습하며 어휘를 늘려간다. 이러한 본 발명에 따른 제일 초보적인 단어습득 수준의 외국어 학습 모델은 전 세계의 어떤 언어에도 이용될 수 있다.When "RECORD SAVE-SAVE, NO SAVE" is displayed on the next interface window, the user says "Save" or "No save" to indicate whether to save. When the next interface window shows "GO BACK", "THAT'S ENOUGH.", "STOP", and "OTHER WORD", you can make your choice and speak to the microphone / camera, repeat, stop, or skip to the next word. The user continues to practice the vocabulary according to the word family and at his own choice. The foreign language learning model of the elementary word acquisition level according to the present invention can be used in any language of the world.

도 15는 본 발명에 따른 세트2 학습예의 내용을 도시한 개략도이다.15 is a schematic diagram showing the contents of a set 2 learning example according to the present invention.

도 15를 참조하면, 세트2는 일대일 대화 연습을 하는 것으로서, 먼저 대화가이드(도우미)가 인터페이스 창에 그림과 글씨와 함께 나타난다. Referring to FIG. 15, set 2 is a one-to-one conversation practice. First, a conversation guide (helper) is displayed with pictures and letters in an interface window.

본 발명의 실시예에서 도우미는 모두 여덟 명으로서, 어머니(Mom), 아버지(Dad), 형(Brother), 누나(Sister), 친구(Friend), 선생(Teacher), 방문객/손님(Guest), 가이드(여행) (Guide)등으로 되어 있다. 마이크/카메라에 대고 "MOM"이라고 하면, 이제는 인터페이스 창에 MAN/FAMILY, FOOD/KITCHEN, FURNISH/APPLIANCE, CLOTHES/ACCESSORY 의 그림과 글씨가 표시된다. "MAN"을 카메라에 대고 말하면, "MAN/FAMILY" 가 선택되고, 다시 인터페이스 창에는 "TELL ME", "SHOW ME"가 표시되어 단지 음성으로 들을 것인지 화면으로 볼 것인지를 결정할 수 있게 한다. 이때 또한 영어로만 할 것인지 혹은 영어에 뒤이어 한국어로 말해 주는 2개어 병용으로 할 것인지도 택한다, 즉 "ENGLISH" 혹은 "BILINGUAL"중에서 택한다. 아울러 속도를 선택하는데 "정상(Normal)" 으로 할 것인지, 아니면 "느리게(Slow)" 할 것인지를 선택한다. "SHOW ME ", "ENGLISH" "NORMAL" 선택이 끝나면 해당 키트로부터 대사 장면이 창에 표시되면서 모든 대사를 자막과 함께 들려준다.In the embodiment of the present invention, the helpers are all eight, including mother, father, brother, sister, friend, teacher, visitor / guest, Guides, etc. If you say "MOM" to the microphone / camera, the interface window now displays the pictures and text of MAN / FAMILY, FOOD / KITCHEN, FURNISH / APPLIANCE, and CLOTHES / ACCESSORY. When you speak "MAN" into the camera, "MAN / FAMILY" is selected, and again "TELL ME" and "SHOW ME" are displayed in the interface window, allowing you to decide whether you want to listen to the voice or view it on the screen. You may also choose to use only English or two languages spoken in English followed by "ENGLISH" or "BILINGUAL". In addition, the speed is selected to be "Normal" or "Slow". After selecting "SHOW ME", "ENGLISH" and "NORMAL", the dialogue window will be displayed from the kit and all the dialogues will be played with subtitles.

다음은 본격적으로 직접 연기를 하면서 대사를 하는 것으로, "LET'S TALK" 이라고 말하면 인터페이스 창에 나오는 화면에서 자신은 자동으로 아들 혹은 딸의 역할을 맡게 된다. 사용자가 카메라에 대고 "Dad, why do you wear eyeglasses?" 라고 할 때, 사용자가 그대로 화면 속의 아들의 위치에 나타나서 말한다. 이때 필요성에 따라 단지 얼굴 부분만 합성할 수도 있다. 그러면 이어지는 " Because I have poor eyesight." 라는 대사가 나오고, 다시 사용자가 "Where did you buy them, Dad?"라고 카메라에 대고 말하면 역시 창에 그대로 나타난다. "I bought them at an eyeglasses store(shop)." 이라고 응대하는 장면이 표시된다.The following is a full-fledged acting and dialogue. If you say "LET'S TALK", you will automatically take on the role of son or daughter in the interface window. A user touches the camera and says "Dad, why do you wear eyeglasses?" The user appears at the position of the son on the screen. You can also synthesize only the face part as needed. Then it follows "Because I have poor eyesight." If the user says "Where did you buy them, Dad?" To the camera, it will also appear in the window. "I bought them at an eyeglasses store (shop)." Is displayed.

여기서, 인터페이스 창에 " GO BACK ", "THAT'S ENOUGH.", " STOP" , 그리고 "NEXT" 라는 표시가 되면 원하는 선택을 하여 마이크/카메라에 대고 말하면 그대로 반복, 중지, 혹은 다음 키트로 넘어 간다. When the interface window displays "GO BACK", "THAT'S ENOUGH.", "STOP", and "NEXT", make your choice and speak to the microphone / camera, repeat, stop, or go to the next kit.

모든 연습/연기가 끝나면 "COMPARE"창이 뜨고, 사용자가 "Compare" 하면 콘텐츠 내의 모델 연기에 뒤이어 사용자의 연기를 음성과 함께 그대로 비교해 준다. 역시 "SELF-GRADING "에서 채점을 하고 "SAVE"를 결정한다. At the end of all exercises / exercises, a "COMPARE" window will appear, and if the user "Compare", the user's acting will be compared with the voice, following the model acting in the content. Again, scoring is done at "SELF-GRADING" and "SAVE" is determined.

상대방이 한 표현도 연습해야 하므로 "TAKE TURNS" 라고 말하여 역할 바꾸기를 택하면 이번에는 자신이 어머니, 아버지, 형, 누나의 역할을 하게 된다. 이 과정에서 사용자가 미처 대화를 이어가지 못하여 시간이 일정시간(예, 3초)이 경과하면 상대가 "Oh, come on." 이라고 독려하는 표현을 하여 현실감을 준다. 이때 사용자는 "I'm coming." 이라고 응수하면서 대화를 진행하고, 일정시간(예, 5초)이 지나도 사용자가 대사를 못하면 모델의 대사를 시작하게 하여(화면과 함께) 유도하도록 한다. 이러한 유도 대사 중 언제라도 사용자가 대사를 시작하면 모델의 대사를 중지하고 사용자의 대사를 바로 합성하여 표시한다. You should also practice the expressions of the other person, so if you choose to switch roles by saying "TAKE TURNS", you will play the role of mother, father, older brother and older sister. In this process, if the user cannot continue the conversation and the time elapses for a certain time (eg 3 seconds), the opponent may say "Oh, come on." Give a sense of reality to encourage expression. At this point, the user will say "I'm coming." If the user fails to speak after a certain time (for example, 5 seconds), the user starts the dialogue of the model (with the screen). At any time during the induced metabolism, if the user starts metabolism, the model stops metabolism and displays the user's metabolism immediately synthesized.

다음으로 "ONE MORE TIME", "MORE TELL ME", "TELL ME WHY", "MORE TELL ME WHY" 등을 택하여 반복하거나 대화를 확장하거나 수준을 높여가거나 하는 대화 연습을 계속하므로 가능한 표현을 모두 연습한다.Next, continue with the conversation practice of choosing "ONE MORE TIME", "MORE TELL ME", "TELL ME WHY", "MORE TELL ME WHY", etc. Practice.

도 16은 본 발명에 따른 세트3 학습예의 내용을 도시한 개략도이다.16 is a schematic diagram showing the contents of a set 3 learning example according to the present invention.

도 16을 참조하면, 세트3에서는 다수의 등장인물들과 함께 현실 속에서 일어날 수 있는 모든 경우를 연습한다. 여기서는 두 단계로 나뉘는데 첫 번째는 화제(topic)키트의 화제에 따라 연습하는 것으로 실시 예에서는 "PARTY"를 택하고, 처음에는 내용을 익히기 위해 "LET ME TAKE A LOOK AT IT."라고 마이크/카메라에 대고 말하여 키트를 일별하면서 표현을 숙지한다. Referring to FIG. 16, in set 3, all the cases that can occur in reality with a plurality of characters are practiced. In this section, the program is divided into two stages. The first is to practice according to the topic kit topic. In the embodiment, select "PARTY", and at first, to learn the contents, say "LET ME TAKE A LOOK AT IT." Speak into the glimpse of the kit to familiarize yourself with the expression.

다음은 "LET ME PLAY TOM."이라고 하여, 탐(TOM)의 역할을 연기한다. 그러면 장면 내에 탐(TOM)의 부분이 컷아웃(cut out)되고 사용자가 인셋(inset)되면서 대화를 자연스럽게 할 수 있다. 이 과정에서 기존에 사용된 유도표현 등이 모두 활용된다. 반복하기를 원하면 "ONE MORE TIME"이라고 하여 반복하고, 역할을 바꿀 때는 "LET ME PLAY JUDY." 등으로 마이크/카메라에 대고 말하여 역할을 변경해 간다.The following is called "LET ME PLAY TOM.", Which plays the role of TOM. The part of the TOM in the scene is then cut out and the user can be inset to facilitate the conversation. In this process, all of the existing derived expressions are used. Repeat "ONE MORE TIME" if you want to repeat it, or "LET ME PLAY JUDY." Speak into the microphone / camera to change roles.

만일, 여기서 영화를 사용하게 되면 영화 내용을 디지털화하여 동 시스템과 연결시키므로 영화 내의 주인공 역을 스스로 하거나 어떤 배역으로든지 화면 안으로 직접 들어가는 플레이인(Play-in)을 통해 스스로 배우(actor/actress)역할을 하면서 실제적인 말하기를 완성해 갈 수 있다.If the film is used here, the content of the film is digitized and connected to the system so that the main character in the film can play the role of an actor / actress through a play-in that directly enters the screen. As you go along, you can complete the actual speech.

다음 단계는 완전히 자유토론을 하는 것으로 "LET ME SELECT TOPIC" 하고, "WEATHER" 라고 하면 모든 날씨 관계 자료들이 검색되어 하나씩 여러 형태로 제시된다. 그러면 사용자는 그에 대응하여 자유자재로 응수하고, 그러면 자료는 거기에 맞는 내용을 출력하여 대화가 자유롭게 진행되게 한다. 이 수준은 인공지능에 해당하며 지식 베이스(334)로부터 가장 가까운 내용을 그때마다 선택하여 대화에 응하게 한다. The next step is to have a totally free discussion, "LET ME SELECT TOPIC", and "WEATHER" to retrieve all weather data and present them in various forms, one by one. The user responds freely accordingly, and the data outputs the content corresponding thereto to allow the conversation to proceed freely. This level corresponds to artificial intelligence and selects the closest content from knowledge base 334 at that time to respond to the conversation.

이러한 과정에서 전술한 과정들의 모든 기법과 절차들을 적용하여 완전히 실제 생활에서 원어민으로 둘러 싸여 있는 환경을 조성한 것과 같은 여건에서 외국어 말하기 능력을 완성해 간다.In this process, all the techniques and procedures of the above-mentioned processes are applied to complete the ability to speak a foreign language under the same conditions as creating an environment surrounded by native speakers in real life.

본 발명의 실시 예는 하나의 실시 예에 지나지 않으며, 본 발명의 요지를 벗어나지 않는 범위 내에서 구성 요소의 많은 변형 및 변경이 가능함은 물론이며, 본 발명은 이상의 실시 예에만 한정되는 것은 아니다.The embodiments of the present invention are merely one embodiment, and many modifications and variations of the components are possible without departing from the gist of the present invention, and the present invention is not limited to the above embodiments.

이상에서와 같이, 본 발명의 사용자가 실제 장면에서 연기하며 주도하는 역동적인 외국어 말하기 학습 시스템 및 방법은 사용자가 직접 장면 속에서 실연을 하면서 외국어 말하기 학습을 수행할 수 있도록 한다. As described above, the dynamic foreign language speaking learning system and method which the user of the present invention acts and leads in the actual scene enables the user to perform foreign language speaking learning while performing in the scene.

특히, 본 발명은 사용자의 수준에 따라, 완전 초보자는 어린 아이가 엄마에게 하나씩 단어를 배우듯 단어를 단어가족단위로 음성과 그림을 중심으로 살아 있는 지식으로 배우게 하고, 다음의 수준에서는 그 레벨(grade)에 따라 기본적이고 단순한 문장과 표현을 중심으로 역시 자신이 택하는 대화 주제별로 일대일 대화를 화면 안에서 직접 실연함으로써 즉시 현실로 연결 가능한 말하기 연습을 하게 한다. In particular, the present invention, according to the level of the user, complete beginners to learn the words as a young child learns words one by one to the mother, living words based on the voice and pictures in the word family unit, at the next level ( Depending on the grade, students will practice speaking directly to reality by practicing one-on-one conversations directly on the screen, based on basic and simple sentences and expressions.

그리고 다중 출연자의 실황에서 다양한 역할을 하면서(심지어 영화 속에서) 모든 수준의 다양한 표현을 익힌 다음에는 완전 자유토론 형식으로 이어말하기 (Chain-Talking)를 통해 어떤 화제(topic)나 형태의 대화나 토론도 가능하게 해 준다. After learning various expressions at all levels while playing various roles in the live performance of multiple performers (even in the movie), they can talk or discuss any topic or form through chain-talking. It also makes it possible.

더하여, 일상생활에서 직면하는 어떤 표현이든지, 모국어를 외국어로, 외국어를 모국어로 전환 즉시 답해 주는 사전적 기능과 일반 콘텐츠(영화)를 교재로 활용할 수 있게 하여 다양한 실제적인 교재활용이 가능케 한다. 이렇게 하므로 외국어 말하기가 마치 모국어처럼 완성되면서 다른 능력 예컨대 듣기는 자동으로 해결되고, 읽기 쓰기 역시 동반 상승하는 효과를 나타내어 외국어 학습을 완성해 간다. 본 발명은 또한 어떤 언어를 배우려는 어느 사람에게도 적용 가능하다.In addition, any expressions faced in everyday life can be used as a textbook by using the dictionary function and general contents (movies), which immediately answer the native language as a foreign language and the foreign language as a native language, enabling various practical teaching materials. As a result, foreign language speaking is completed as if it is a native language, and other abilities, such as listening, are automatically solved, and reading and writing also have a synergistic effect. The invention is also applicable to anyone who wants to learn a language.

Claims (26)

사용자가 컴퓨터 또는 통신기기에 명령하는 모든 명령과 원어민 모델과의 모든 통신문을 문자-음성-화상으로 대응시켜 저장하는 메뉴/지시문 데이터베이스(Menu/Direction Database);와A Menu / Direction Database for storing all commands that the user commands to the computer or communication device and all correspondences with the native speaker model as text-to-video; 모든 원어민의 표준 발음을 철자-음성-입모양(lip-synch)으로 대응시켜 저장하는 발음 데이터베이스(Pronunciation Database);A pronunciation database for mapping and storing all native speakers' standard pronunciations in lip-synch; 단어가족 지도에 따른 각 단어의 모든 것을 저장하는 단어가족 사전 데이터베이스(Word-family Dictionary Database);A Word-family Dictionary Database, which stores everything of each word according to the word family map; 단어들이 조합하여 관용어로 사용되는 숙어(idiom)를 모아 놓은 숙어모음 데이터베이스(Idiom Collection Database);An Idiom Collection Database, which is a collection of idioms where words are used as idioms; 수준 혹은 등급(Grade)에 따라 단어들과 문법적 형태를 정리하여 모은 수준세트 데이터베이스(Level set Database);A level set database that organizes words and grammatical forms by level or grade; 대사 도우미에 따라 일대일 대사를 실연하여 모은 대사키트 데이터베이스(Dialogue kit database);Dialogue kit database where one-to-one dialogue is performed according to the dialogue assistant; 화제(topic)에 따라 여러 사람의 실제 대화 장면을 모은 화제키트 데이터베이스(Topic kit database);Topic kit database that collects the actual conversation scene of several people according to the topic; 각종 질문의 유형과 그에 대응하는 대답유형을 모은 질문/대답유형 데이터베이스(Question/Answer Pattern database);Question / Answer Pattern database, which collects various question types and corresponding answer types; 각 수준에 따라 수준을 테스트할 수 있도록 질문 문항들과 그 답들을 모은 수준 테스트 데이터베이스(Level test database);A level test database that collects questions and their answers so that you can test the level at each level; 사용자가 연습할 때 그의 모든 기록을 저장하는 개인기록 데이터베이스(Personal record database);A personal record database that stores all of its records as the user exercises; 모든 가능한 종류의 문장(Sentence), 문단(Passage), 기사(Article), 영화(Movie) 등을 주제별로 총집합한 지식베이스(Knowledge base);A knowledge base that aggregates all possible kinds of sentences, paragraphs, articles, movies, and the like by topic; 상기 발음 데이터베이스를 이용하여 발음을 연습하고 테스트하는 발음 연습/테스트 모듈(Pronunciation practice test module);A pronunciation practice / test module for practicing and testing pronunciation using the pronunciation database; 사용자를 등록하는 등록처리 모듈(Registration Module);A registration module for registering a user; 메뉴와 모든 지시문을 레코딩하는 메뉴/지시문 레코딩 모듈(Menu/ Direction Recording Module);Menu / Direction Recording Module to record menus and all directives; 상기 단어가족 사전 데이터베이스를 이용하여 사용자의 선택에 따라 단어가족 및 관계어의 학습과정인 세트1과, 상기 대사키트 데이터베이스를 이용하여 대화 가이드를 선택하는 과정과 상기 대화 가이드와 관련된 주제를 중심으로 대화를 진행하는 과정, 여러 대체표현(substitutions)을 연습하는 과정으로 이루어지는 대사위주의 학습과정인 세트2와, 상기 화제키트 데이터베이스를 이용한 다자간 회화 위주의 학습과정과 지식베이스를 이용한 다양한 대화를 자유자제로 하게 하는 세트3으로 구성되어, 선택된 각 세트에 따라 대화를 처리하게 하는 말하기 연습 연기모듈(speaking practice acting module);Set 1 which is a learning process of a word family and related words according to a user's selection using the word family dictionary database, a conversation guide using the dialogue kit database, and a conversation related to the topic related to the conversation guide Set 2, which is a process of learning metabolic-oriented learning, which consists of a process of practicing various substitution expressions, and a multilateral conversation-based learning process using the topic kit database and various conversations using a knowledge base. A speaking practice acting module, consisting of a set 3 for processing conversations according to each selected set; 상기 수준 테스트 데이터베이스를 이용하여 각 수준의 테스트를 처리하는 테스트 처리모듈(Test module);A test module configured to process tests of each level using the level test database; 상기 개인 기록 데이터베이스에 근거하여 각종 통계를 처리하는 통계처리 모듈(Statistic processing module);A statistical processing module for processing various statistics based on the personal record database; 모국어에 상응하는 외국어 표현, 외국어 표현의 모국어 의미를, 바로 바로 대답해 주는 즉답처리 모듈 (Instant Answering Module);Instant Answering Module that directly answers the foreign language expression corresponding to the native language and the native language meaning of the foreign language expression; 디지털 형태로 존재하는 일반 콘텐츠 (영화)를 변환하여 대화 연습의 교재로 사용 가능케 하는 일반 콘텐츠 변환 모듈(Conversion module of general digital contents);A conversion module of general digital contents that converts general content (movies) existing in digital form to be used as a textbook for practicing conversation; 네트워크 상에서 실시하는 경우에는 사용자의 음성데이터를 마이크를 통해 처리하고, 전송되어온 음성 데이터를 변환 재생하는 음성처리 모듈(Audio processing module);In case of executing on a network, a voice processing module for processing voice data of a user through a microphone and converting and reproducing the transmitted voice data; 웹 카메라/이동통신 기기 카메라로부터 입력되는 영상 데이터를 처리하며, 전송되어 온 영상 데이터를 복원하여 디스플레이하는 영상처리 모듈( Video processing module); 및A video processing module for processing image data input from a web camera / mobile communication device camera and restoring and displaying the transmitted image data; And 사용자의 모든 실행 기록을 기록하고 비교 처리하는 기록 비교모듈(Recording and compare module)을 포함하여 구성되어,It includes a recording and compare module that records and compares all the running records of the user, 말하기와 듣기 보조 UOI(User Operating Interface)를 통해 사용자가 선택하는 세트(조합)에 따라 인터페이스 창에 나타나는 장면 안에 직접 사용자의 영상이 합성-동기화되고, 사용자의 질문과 주도로 실제 연기를 하며 말하기를 학습할 수 있는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.Speaking and Listening Assistive The user's video is synthesized and synchronized directly in the scene that appears in the interface window according to the set (combination) selected by the user operating interface (UOI). An active foreign language speaking learning system, which is characterized by being able to learn, acting and leading in a scene of a real scene. 제 1항에 있어서, 상기 학습 시스템은 The system of claim 1, wherein the learning system is 기본 시스템 작업 외의 모든 학습에 관련하여서는, 사용자 자신의 음성으로 레코딩한 메뉴와 지시문을 지시문(문자) + 지시문(모델 음성) + 지시문(사용자의 음성) 형태로 저장하여, 사용자가 컴퓨터 또는 통신기기에 음성으로 지시를 내려 능동적으로 진행하고, 그에 대응하는 결과에 따라 유도하거나 시정, 칭찬하는 말을 원어민의 음성으로 들려주어, 쌍방향 통신으로 마우스, 키보드, 버튼 외에 음성으로 모든 명령을 수행할 수 있게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.For all lessons other than basic system tasks, save menus and directives recorded with your own voice in the form of directives (characters) + directives (model voices) + directives (your voices), so that you Actively give instructions by voice and listen to the native speaker's voice to induce, correct, and praise according to the corresponding result, so that all commands can be carried out by voice other than mouse, keyboard, and button through two-way communication. Active foreign language learning system, which is characterized by the user acting in the scene of the actual scene. 제2항에 있어서, 상기 학습시스템은The method of claim 2, wherein the learning system 메뉴를 음성메뉴로 할 때는, "이게 뭐야(What is this?)", "뭐하는 거야(What do we do with it?)", "어떻게 하는 거야(How do we do that?)", "내가 지금 어디 있어(Where am I now?)", "뭐라고 해(What do you say?)", "무슨 뜻이야(What does it mean?)" 등과 같이 실생활 표현을 사용하므로, 학습 과정의 진행이 자체로써 학습이 되게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템. When you make a menu as a voice menu, "What is this?", "What do we do with it?", "How do we do that?", "I am now Since I use real life expressions like "Where am I now?", "What do you say?", "What does it mean?" An active foreign language learning system in which a user acts and leads in a scene of a real scene, characterized by learning. 삭제delete 삭제delete 삭제delete 제1항에서, 상기 기록 비교 모듈은The method of claim 1, wherein the record comparison module 사용자의 모든 실행 기록을 기록하는 레코딩모듈(Recording module)과, 원 어민의 모델과 비교 처리하는 비교모듈(Compare module)을 포함하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.It includes a recording module that records all performance records of the user, and a compare module that compares and processes the native fisherman's model. Foreign language speaking learning system. 제1항에서, 상기 단어가족지도는The word family map of claim 1, wherein 사물의 분류에 해당하는 단어가족 지도에서 자연, 움직이는 생물, 인간세상으로 대분류하고, 자연은 다시 하늘 , 땅, 바다, 식물 등으로 나누고, 움직이는 생물은 사람, 동물, 새, 곤충, 물고기 등으로 나누고, 인간세상은 사람/가족, 음식, 옷/악세사리, 집/빌딩, 도구, 전화/통신, 가구/가전, 건강/병원, 책/학교/교육, 교통(차/배/기차/비행기), 기계/과학/공장, 음악/예술/영화/연극/시, 스포츠/문화/게임, 사업/쇼핑, 정치/사회/군사, 농장, 국제기구, 역사, 언어/문법, 사이버월드/핫뉴스 등으로 구성하고, 명사 외의 단어는 품사(part of speech)에 따라 분류하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템. In the word family map corresponding to the classification of things, they are divided into nature, moving creatures, and human world, and nature is divided into sky, land, sea, plants, etc., and moving creatures are divided into people, animals, birds, insects, fish, etc. , Human World, People / Family, Food, Clothing / Accessories, Home / Building, Tools, Telephone / Communication, Furniture / Households, Health / Hospital, Books / Schools / Training, Transportation (Cars / Ships / Trains / Airplanes), Machinery / Science / Factory, Music / Art / Film / Theatre / Poetry, Sports / Culture / Game, Business / Shopping, Politics / Social / Military, Farm, International Organization, History, Language / Grammar, Cyber World / Hot News Active foreign language learning system, in which the user acts and acts on the screen of a real scene, wherein words other than nouns are classified according to a part of speech. 제8항에 있어서, 상기 단어가족사전은The method of claim 8, wherein the word family dictionary 표제어 단어의 외국어 철자(문자), 발음기호(문자), 발음(원어민 음성/화상), 표제어를 설명하는 그림, 표제어의 품사, 표제어와 관련된 하나 이상의 의문사, 표제어에 해당하는 모국어(문자), 모국어(음성/화상), 단어가족1(자연/ 혹은 품사), 단어가족2(움직이는 생물), 단어가족3(인간세상), 관계어, 표제어의 기능을 표 시하는 단어 하나 이상, 기능어에 대응하는 하나 이상의 대상어, 숙어형태의 단어들, 동의어, 반의어 등을 포함하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 .Foreign language spelling (letter), phonetic symbols (letters), pronunciation (native voice / picture) of the heading word, pictures describing the heading, parts of the heading, one or more questions related to the heading, the native language corresponding to the heading, the mother tongue (Speech / image), word family 1 (nature / or part-of-speech), word family 2 (moving creature), word family 3 (human world), relational word, one or more words that indicate the function of the heading, corresponding to the functional word An active foreign language learning system in which a user acts and leads in a scene of a real scene, characterized by including one or more target words, idiom-type words, synonyms, and antonyms. 삭제delete 삭제delete 제 1항에 있어서, 상기 수준세트 데이터베이스는 The method of claim 1, wherein the level set database is 해당 언어의 각 수준 등급 별로 단어(word), 어구(phrase)를 세트화하고, 각 수준 등급 별로 문법에 따라 구문(sentence structure), 문형(pattern)을 세트화 하여, 모든 단어와 문장을 이 세트 내의 것들과 비교, 대조하여 즉시 수준 분류가 가능케 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 . Words and phrases are set for each level level of the language, and phrases and patterns are set for each level level, and all words and sentences are set. Active Foreign Language Speaking Learning System where the user acts and leads in the scene of the real scene. 제1항에서, 상기 말하기 수준 세트 데이터베이스는 The method of claim 1, wherein the speaking level set database is 단어가족 지도별로 단어/숙어의 수준과 문법의 수준별로 일련의 질문들을 그룹화 하여 한 분야로 올라가며 측정하고, 일정 수준에서 막히면 다른 분야의 바로 아래 수준에서 측정하고, 통과되면 다시 다른 분야로 옮겨가, 올라가고 내려가며 측정하여 어느 한 분야에 편중되거나 일부분만을 체크하는 불균형을 피할 수 있게 조직한 데이터베이스를 포함하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템 . Group a series of questions by word / idiom level and grammar level by word family map and measure them up into one field, if blocked at a certain level, measure directly below the other field, and then move back to another field, Active Foreign Language Speaking Learning System where the user acts and acts in the scene of a real scene, which includes a database organized to avoid the imbalance of measuring up and down and checking one part or one part. 제1항에서, 상기 말하기 연습 연기모듈은The method of claim 1, wherein the speaking practice postponement module 대화를 할 때 사용자와 원어민 모델과의 대화의 실제성을 확보하기 위하여, 먼저 일정 시간을 기다리고, 다음 이 일정 시간이 되면 "자, 어서."("Come on."), "어서 해."("Go ahead.")와 같은 유도표현(Leading word)을 통해 대화 시작을 유도하며, 그래도 일정시간(예, 5초)이 지나도 대화를 잇지 못하면 원어민의 대화를 그대로 들려주기 시작한 후 어느 시점에서나 사용자가 대화를 시작하면 원어민 대사를 중단하고 사용자의 대사를 완성하게 하여 실제성을 살리는 단계를In order to ensure the authenticity of the conversation between the user and the native speaker model, first wait for a certain time and then "come on.", "Come on." Leading conversation starts through leading words such as ("Go ahead."), And if it does not continue even after a certain time (e.g. 5 seconds), it will begin to listen to the native speaker's conversation. When the user starts a conversation, stop the native speaker's dialogue and let the user complete the dialogue so that the user can 포함하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.An active foreign language learning system, which includes a user acting and leading in a scene of a real scene. 제1항에서, 상기 학습 시스템은The method of claim 1, wherein the learning system 전용 학습기기로 구현된 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.Active foreign language learning system that the user acts on the screen of the real scene, characterized by being implemented as a dedicated learning device. 제1항에서, 상기 학습 시스템은The method of claim 1, wherein the learning system 네트워크나 이동통신기기에서 실행할 수 있게 된 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 시스템.Active foreign language learning system, which acts on the screen of a real scene and is led by a user, which can be executed in a network or a mobile communication device. 삭제delete 사용자를 등록하고 메뉴/지시문과 질문을 등록하는 단계;Registering a user and registering menus / directives and questions; 사용자를 확인한 후 수준별로 단어가족 사전 데이터베이스를 이용하는 세트1과 대사키트 데이터베이스를 이용하는 세트2, 화제키트 데이터베이스를 이용하는 세트3으로 구성되는 학습과정을 선택하는 단계;Selecting a learning process comprising a set 1 using a word family dictionary database, a set 2 using a metabolic kit database, and a set 3 using a topic kit database after checking a user; 상기 학습과정 선택 단계에서, 세트1이 선택되는 경우 상기 단어가족 사전 데이터베이스를 이용하여 사용자의 선택에 따라 단어가족 및 관계어를 학습하고, 세트2가 선택되는 경우 상기 대사키트 데이터베이스를 이용하여 대화 가이드를 선택하는 과정과 상기 대화 가이드와 관련된 주제를 중심으로 대화를 진행하는 과정, 여러 대체표현(substitutions)을 연습하는 과정으로 이루어지는 대사위주를 학습하고, 세트3이 선택되는 경우 상기 화제키트 데이터베이스를 이용한 다자간 회화 위주의 학습과정과 지식베이스를 이용한 다양한 대화를 자유자제로 학습하도록 하는 학습과정을 수행하는 단계;In the learning process selection step, when set 1 is selected, the word family and related words are learned according to a user's selection using the word family dictionary database, and when set 2 is selected, a conversation guide using the metabolic kit database is selected. Study the dialogue-centered process consisting of the process of selecting the process, the process of conducting the conversation around the topic related to the conversation guide, and the process of practicing various substitutions, and when the set 3 is selected, the topic kit database is used. Performing a learning process for freely learning various conversations using a multilateral conversation-oriented learning process and a knowledge base; 학습자의 선택에 따라 말하기와 종합 테스트 문제를 제시하여 테스트하는 단계;Testing by presenting a speaking and comprehensive test problem according to a learner's choice; 학습결과 및 테스트 결과를 통계처리하여 사용자별로 관리하는 단계; 및Statistically processing the learning results and the test results for each user; And 특정한 모국어 어구를 외국어로, 외국어 어구를 모국어로 즉각 변환하여 들려 주는 단계;를 포함하여 구성되어,And converting a specific native language phrase into a foreign language and immediately converting the foreign language phrase into a native language; 자유 토론과 이어 말하기(Chain-talking)를 위해 관련 단어, 문장(sentence), 문단(passage), 기사(article), 영화(movie)등의 지식베이스를 검색하여 주제어, 관계어가 가장 많이 포함된 문장 등을 인터페이스 창에 표시함으로써 각 경우의 대화를 가능하게 해 주는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법.Sentences that contain the most words and related words by searching knowledge bases such as related words, sentences, passages, articles, and movies for free discussion and chain-talking. An active foreign language speaking learning method in which a user acts and leads in a scene of a real scene, by displaying a light on an interface window. 제18 항에 있어서, 상기 학습과정은 The method of claim 18, wherein the learning process 각종 실제 장면의 대사를 수행하는 화면 안에 사용자의 영상이 나타나 대화를 하게 영상과 음성을 분석, 합성 , 동기화하는 것으로서, It analyzes, synthesizes and synchronizes the video and audio so that the user's video appears in the screen that performs the dialogue of various real scenes. 콘텐츠 상의 인물 영상을 분석하여 인물별로 잘라낼 수 있게(cut out)하고, 사용자가 역할을 설정하면 PC/이동통신 기기 카메라로 입력되는 영상을 그 인물의 영상에 겹쳐지게(overlap)하여 실시간 합성함으로써 마이크로 입력되는 음성과 일치하게 하여 Analyze the person's image on the content and cut out for each person, and if the user sets the role, the image input by the camera of the PC / mobile communication device is overlapped with the person's image and synthesized in real time. To match the input voice 사용자가 자신이 장면 속에서 직접 연기하고 있음을 지각하고 실감 있게 말하며 현실 생활로 그대로 연결되게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법. An active foreign language learning method in which a user acts and leads in a scene of a real scene, in which the user perceives and acts as if he is acting directly in the scene, and leads to real life. 제19항에 있어서, 상기 음성을 분석, 합성, 동기화할 때 20. The method of claim 19, wherein when analyzing, synthesizing, synchronizing the voice 원어민의 대사를 음의 고저, 강약, 시간, 음절 등을 분석하여 그래프로 나타냄과 아울러 이에 대응하는 사용자의 대사를 음의 고저, 강약, 시간, 음절 등을 분석하여 그래프로 표현하되, 원어민 모델의 것과 상하로 대칭되어 표시하므로 정적/동적으로 비교하게 하는 단계와, The native speaker's speech is analyzed and displayed as a graph by analyzing the tone, intensity, time, and syllables, and the corresponding user's dialogue is analyzed and expressed as a graph by analyzing the tone, intensity, time, and syllable. To show the image symmetrically up and down so that it can be compared statically and dynamically, 상기 영상을 분석, 합성, 동기화할 때When analyzing, synthesizing and synchronizing the images 대사자의 입모양(lip-synch)을 화면의 우측하단 혹은 가장 적합한 곳에 나타내며, 사용자가 동 대사를 말할 때는 원어민의 입모양(lip-synch)과 사용자의 입모양을 동기화시켜(synchronize)상하로 혹은 좌우로 대칭되게 표시하여 사용자가 그 차이를 비교할 수 있게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법.The lip-synch of the ambassador is displayed at the bottom right of the screen or at the most suitable place.When the user speaks the dialogue, the lip-synch of the native speaker is synchronized with the user's mouth. An active foreign language learning method, in which a user acts and leads in a scene of a real scene, by displaying the left and right symmetrically so that the user can compare the differences. 제19항에 있어서, 상기 학습 방법은The method of claim 19, wherein the learning method is 실재하는 어떤 영화든지 디지털화하여 컴퓨터시스템 혹은 이동통신 기기 상에서 상영할 때, 이러한 콘텐츠를 교재로 사용할 수 있게 필요한 기능을 부가하여 변환하므로 영상을 분석, 합성, 동기화하여 인물별로 분리하여 잘라내고(cut out), 사용자가 카메라로 연기(play in)할 때 연기하는 인물에 겹쳐지게(overlap)하여 실시간 합성함으로써 어떠한 영화 속에서도 배역을 선택하여 직접 연기를 하면서 말하기를 연습하게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기 하며 주도하는 능동적인 외국어 말하기 학습 방법.When digitizing any real movie and playing it on a computer system or a mobile communication device, it converts by adding necessary functions to use such contents as a teaching material, so that the images are analyzed, synthesized, synchronized and cut out by person. When the user plays in the camera, the user overlaps the person who acts and synthesizes in real time so that the user selects the cast in any movie and performs the acting while performing the speaking. A proactive way of learning to speak a foreign language, acting and acting on the screen of a person. 삭제delete 제18항에 있어서, 상기 학습 방법은The method of claim 18, wherein the learning method is 대사 연습을 선택할 때 외국어(English)만을 택하지 않고, 2개어 (Bilingual)를 택하면, 원어민 모델의 대사나 사용자의 대사나 외국어-모국어 형태로 외국어를 말하면 바로 뒤이어 모국어가 음성으로 따라 나오므로 두개 국어를 동시에 짝지어 기억하게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법.If you choose Bilingual instead of English only, you will be able to speak a foreign language in the form of a native speaker's dialogue, a user's dialogue, or a foreign-mother language. Active foreign language learning method that the user acts and leads in the scene of the actual scene characterized in that the pairs to remember at the same time. 제18항에 있어서, 상기 학습 방법은The method of claim 18, wherein the learning method is 대사 연습을 선택할 때 자신의 수준에 따라 속도를 조절할 수 있게, 정상속 도( Normal)와 천천히(Slow)로 구분하여 선택하게 함으로써 초보자는 천천히 연습하는 것이 가능하게 하는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법.When you choose the dialogue practice, you can adjust the speed according to your level, so that the user can practice slowly by selecting the normal speed (Slow) and slow (Slow), characterized by the user A proactive way of learning to speak a foreign language, acting and acting on the screen of a person. 삭제delete 제18항에서, 상기 학습 방법은The method of claim 18, wherein the learning method is 원어민의 모델 표현과 사용자의 해당 표현을 비교한 후 발음, 강약, 시간, 강세 위치 등을 교정해 주는 코멘트를 추가하여 직접 원어민으로부터 배우는 것과 동일하게 의식하게 해주는 것을 특징으로 하는 사용자가 실제 장면의 화면 안에서 연기하며 주도하는 능동적인 외국어 말하기 학습 방법. Compare the expression of the native speaker's model with the user's expression, and add comments that correct pronunciation, strength, time, stress, etc., so that the user can be consciously the same as learning from the native speaker. Active language speaking learning method led by acting inside.
KR1020050022498A 2004-03-20 2005-03-18 Dynamic learning system and method of foreign language speaking led by the user acting oneself in the screen of true-life scenes KR100703047B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20040019109 2004-03-20
KR1020040019109 2004-03-20

Publications (2)

Publication Number Publication Date
KR20060044373A KR20060044373A (en) 2006-05-16
KR100703047B1 true KR100703047B1 (en) 2007-04-05

Family

ID=37149111

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050022498A KR100703047B1 (en) 2004-03-20 2005-03-18 Dynamic learning system and method of foreign language speaking led by the user acting oneself in the screen of true-life scenes

Country Status (1)

Country Link
KR (1) KR100703047B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427528B1 (en) 2013-06-10 2014-08-07 이장호 Method of interactive language learning using foreign Video contents and Apparatus for it

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011129665A2 (en) * 2010-04-16 2011-10-20 브레인보카주식회사 Language learning apparatus using video, and method for controlling same
JP7340784B2 (en) * 2018-06-08 2023-09-08 博樹 市川 Line practice system
KR102269230B1 (en) * 2019-01-25 2021-06-25 주식회사 안다잉글리시 Method for providing a chance to learn a foreign language using a composite image and server using the same
KR102576977B1 (en) * 2021-01-29 2023-09-08 주식회사 엘지유플러스 Electronic device for providing interactive education service, and operating method thereof
KR102645880B1 (en) * 2021-02-23 2024-03-07 박명재 Method and device for providing english self-directed learning contents
CN114187866B (en) * 2021-11-26 2023-11-14 江门市浩远科技有限公司 Deep learning-based mini-led display control method and device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010035536A (en) * 2001-02-27 2001-05-07 이일권 Method for study and study management via internet
KR20010098274A (en) * 2000-04-29 2001-11-08 백석기 Method for Service of Language Education Including Foreign Language Education by Role Play on Network
KR20020061239A (en) * 2001-01-15 2002-07-24 (주)패러드림 System and method for studying English using internet
KR20020068835A (en) * 2001-02-23 2002-08-28 (주)지오네이티브 System and method for learnning foreign language using network
KR20030079497A (en) * 2002-04-04 2003-10-10 (주)코이소프트 service method of language study

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010098274A (en) * 2000-04-29 2001-11-08 백석기 Method for Service of Language Education Including Foreign Language Education by Role Play on Network
KR20020061239A (en) * 2001-01-15 2002-07-24 (주)패러드림 System and method for studying English using internet
KR20020068835A (en) * 2001-02-23 2002-08-28 (주)지오네이티브 System and method for learnning foreign language using network
KR20010035536A (en) * 2001-02-27 2001-05-07 이일권 Method for study and study management via internet
KR20030079497A (en) * 2002-04-04 2003-10-10 (주)코이소프트 service method of language study

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
1020010035536 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101427528B1 (en) 2013-06-10 2014-08-07 이장호 Method of interactive language learning using foreign Video contents and Apparatus for it
WO2014200223A1 (en) * 2013-06-10 2014-12-18 Lee Jang Ho Interactive foreign-language study method using foreign-language video content and device for same

Also Published As

Publication number Publication date
KR20060044373A (en) 2006-05-16

Similar Documents

Publication Publication Date Title
Davies et al. Success in English Teaching: A Complete Introduction to Teaching English at Secondary School Level and Above.
Pitkänen-Huhta Texts and interaction: Literacy practices in the EFL classroom
Lee et al. Cultural modeling as a frame for narrative analysis
KR100703047B1 (en) Dynamic learning system and method of foreign language speaking led by the user acting oneself in the screen of true-life scenes
Iscan Using Films in Vocabulary Teaching of Turkish as a Foreign Language.
Alerby Silence within and beyond pedagogical settings
Şenel The semiotic approach and language teaching and learning
Macháčková Teaching listening
Hietanen Teaching the pronunciation of English as an international language: suggestions for constructing a syllabus for Finnish learners
KR20020068835A (en) System and method for learnning foreign language using network
Zuliyan Songs as Media in Teaching Pronunciation
Ismailia et al. Implementing a video project for assessing students’ speaking skills: A case study in a non-English department context
Bédi Learning Icelandic in Virtual Reykjavik: Simulating real-life conversations with embodied conversational agents using multimodal clarification requests
Rahman et al. Robert Frost’s “Home Burial”: A material for undergraduate level EFL class
Blázquez Video segments: A valuable tool for teaching English phonological processes
Seeger Exploring film as EFL coursebook supplements and motivational stimulus: A German secondary school case study
Miftakhova et al. Principles of working with audio-visual materials in course of Russian as a Foreign language at the beginning stage of teaching
Kleprlík Výuka poslechových dovedností v anglickém jazyce na středních školách
Nushi et al. Speakingpal: learn English, speak English
Be Jan Tichy of Thesis: Drama techniques in ELT in order to motivate learners to
Kinnunen “Just say what’s in your squanch and people understand”: analysis of an invented language and language variation in Rick and Morty
Chaimaa et al. The Role of Using Authentic Videos on Learners’ Pronunciation.
Krynytska The Teaching and Learning of English Pronunciation in a Multilingual Context.
Dwisusila et al. The Implementation And Obstacles of Intercultural Awareness in Learning English for Elementary Students
Kalaptur et al. Songs in learning English

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130311

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee