KR101877559B1 - Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method - Google Patents
Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method Download PDFInfo
- Publication number
- KR101877559B1 KR101877559B1 KR1020170093212A KR20170093212A KR101877559B1 KR 101877559 B1 KR101877559 B1 KR 101877559B1 KR 1020170093212 A KR1020170093212 A KR 1020170093212A KR 20170093212 A KR20170093212 A KR 20170093212A KR 101877559 B1 KR101877559 B1 KR 101877559B1
- Authority
- KR
- South Korea
- Prior art keywords
- file
- dubbing
- information
- mobile terminal
- unit
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000004891 communication Methods 0.000 claims description 9
- 239000000284 extract Substances 0.000 claims description 7
- 238000002716 delivery method Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 abstract description 12
- 238000012937 correction Methods 0.000 abstract description 9
- 238000004458 analytical method Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000008929 regeneration Effects 0.000 description 2
- 238000011069 regeneration method Methods 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
- G09B19/06—Foreign languages
-
- G—PHYSICS
- G11—INFORMATION STORAGE
- G11B—INFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
- G11B20/00—Signal processing not specific to the method of recording or reproducing; Circuits therefor
- G11B20/10—Digital recording or reproducing
Landscapes
- Business, Economics & Management (AREA)
- Engineering & Computer Science (AREA)
- Tourism & Hospitality (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Primary Health Care (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Accounting & Taxation (AREA)
- Finance (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Signal Processing (AREA)
- Development Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Electrically Operated Instructional Devices (AREA)
Abstract
본 발명은 모바일 단말기의 녹음기능을 활용하여 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 용이하게 할 수 있도록 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법에 관한 것이다.
구체적으로, 본 발명은, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법으로서, 언어학습용 음성정보를 생성 또는 저장하는 원본 학습파일 생성단계; 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계; 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계;를 포함한다.The present invention provides a language self-learning service using a mobile terminal that enables a user to efficiently and easily perform pronunciation correction, tone correction, vocalization correction, and the like in language learning such as a foreign language by utilizing a recording function of a mobile terminal ≪ / RTI >
Specifically, the present invention provides a method of providing a language self-learning service using a mobile terminal, the method comprising: generating an original learning file for generating or storing voice information for language learning; A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal; And a dubbing file generation step of receiving the secondary input voice information, which is voice information of the user, using the acoustic input unit of the mobile terminal, and generating and storing the secondary input voice information as a dubbing file.
Description
본 발명은 모바일 단말기의 녹음기능을 활용하여 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 용이하게 할 수 있도록 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 구현하는 모바일 단말기 및 이를 구현하기 위한 프로그램을 저장하는 기록매체에 관한 것이다.The present invention provides a language self-learning service using a mobile terminal that enables a user to efficiently and easily perform pronunciation correction, tone correction, vocalization correction, and the like in language learning such as a foreign language by utilizing a recording function of a mobile terminal A mobile terminal for implementing the method, and a recording medium storing a program for implementing the method.
현대시대는 글로벌 시대로서, 이러한 글로벌 시대의 도래로 인해 외국어 등을 공부할 수 있는 언어 학습장치 또는 언어 학습 프로그램이 다양한 형태로 지속적으로 개발되고 있다.Modern age is a global era, and due to the arrival of this global age, language learning devices or language learning programs capable of studying foreign languages have been continuously developed in various forms.
특히, 종래에 따른 어학용 장치는 기본적으로 음향 재생기능을 가지는 카세트, CD 플레이어, DVD 플레이어, MP3 플레이어, 스마트폰 등으로 발전되어 왔다. 그리고, 이러한 어학용 장치는 음향 재생기능 뿐만 아니라 녹음기능의 발전으로 인해 학습자가 자신이 발성한 외국어 발음 등을 들어 교정할 수 있도록 발전되어 왔다.In particular, the conventional language device has been developed as a cassette having a sound reproducing function, a CD player, a DVD player, an MP3 player, a smart phone, and the like. These linguistic devices have been developed not only for the sound reproduction function but also for the linguistic pronunciation of the learner due to the development of the recording function.
이러한 종래기술에 따른 어학용 장치의 일 예로서 대한민국 공개특허공보 제10-2009-0119598호에 개시된 녹음기 등을 들 수 있다.An example of such a language device according to the related art is a recording device disclosed in Korean Patent Laid-Open Publication No. 10-2009-0119598.
그러나, 대한민국 공개특허공보 제10-2009-0119598호 등과 같이 종래기술에 따른 어학용 장치는 학습 컨텐츠의 음성 신호를 일시정지 또는 정지한 후, 별도로 학습자의 음성정보만을 녹음할 수 있도록 구성되어 있다.However, Korean Laid-Open Patent Publication No. 10-2009-0119598 and the like are constructed so that only the learner's voice information can be recorded separately after temporarily stopping or stopping the voice signal of the learning contents.
이로 인해, 종래기술에 따른 어학용 장치는 학습 컨텐츠의 음성 신호(예를 들어, 외국인의 대화내용, 또는 외국인의 음성정보 등)의 재생기간과 학습자의 음성정보의 녹음기간이 시간 전후를 두고 이루어지므로, 학습자 자신이 학습 컨텐츠의 음성 신호와 얼마나 유사하게 또는 일치되도록(즉, 얼마나 외국인의 대화내용 또는 외국인의 음성정보에 대해 유사한 음조(tone)로, 얼마나 유사한 발음으로, 또는 얼마나 유사한 발성속도로) 발음하고 있는지에 대해 인지하기 쉽지 않은 문제점이 제기되어 왔다.As a result, the apparatus for language according to the prior art has a time period for reproducing the audio signal of the learning contents (for example, conversation contents of foreigners, foreigner's voice information, etc.) , The learner himself or herself is made to be as similar or coincident with the speech signal of the learning content (that is, with a similar tone, with similar pronunciation, or at a similar rate of speech, for how much foreigner's conversation or foreigner's voice information is) It has been argued that it is not easy to recognize whether or not it is pronounced.
따라서, 본 발명의 목적은 종래기술에 따른 문제점을 해결하는 것이다.Accordingly, an object of the present invention is to solve the problems in the prior art.
구체적으로, 본 발명의 목적은 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 정확하며 용이하게 할 수 있도록 하는 모바일 단말기, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법 및 이를 저장하는 기록매체를 제공하는 것이다.More specifically, it is an object of the present invention to provide a mobile terminal that enables a user to efficiently, precisely, and easily perform pronunciation correction, tone correction, and utterance speed correction during language learning such as a foreign language, A service providing method and a recording medium storing the service providing method.
전술한 과제를 해결하기 위한 본 발명의 일 실시예에 따르면, 본 발명은, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법으로서, 언어학습용 음성정보를 생성하는 원본 학습파일 생성단계; 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계; 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계;를 포함하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 제공할 수 있다.According to an aspect of the present invention, there is provided a method of providing a language self-learning service using a mobile terminal, the method comprising: generating an original learning file for generating language learning voice information; A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal; And a dubbing file generation step of receiving the secondary input voice information, which is the voice information of the user, using the sound input unit of the mobile terminal and generating and storing the secondary input voice information as a dubbing file, and providing the self learning service using the mobile terminal can do.
또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 한다.Preferably, in the step of generating the original learning file, the primary input voice information, which is the language learning voice information to be learned by the user, is recorded using the sound input unit of the mobile terminal and is generated and stored as an original learning file Is executed.
또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 사용자의 입력신호에 따라 또는 자동으로. 상기 모바일 단말기의 메모리부에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행되는 것을 특징으로 한다.Preferably, the original learning file generation step is performed in accordance with a user's input signal or automatically. And extracting and storing language learning audio information from the audio information content and the moving picture content stored in the memory unit of the mobile terminal.
또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 상기 모바일 단말기의 무선 통신부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 한다.Preferably, in the step of generating the original learning file, the language learning audio information or the language learning content that the user wants to learn is downloaded from the language self learning service providing server using the wireless communication unit of the mobile terminal, To be generated and stored.
또한, 바람직하게는, 상기 더빙파일 생성단계는, 상기 1차 음성파일 재생단계 시작 후, 상기 더빙파일 생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 상기 2차 입력 음성정보를 수신하는 2차 입력 음성정보 수신단계; 상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하는 더빙파일 생성단계; 및 상기 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 더빙파일 저장단계;를 포함하는 것을 특징으로 한다.Preferably, the dubbing file generating step includes: a user input signal receiving step of receiving, from the user, a user input signal for executing the dubbing file generating step after the first audio file reproducing step starts; A secondary input voice information receiving step of driving the acoustic input unit of the mobile terminal based on the user input signal to receive the secondary input voice information; A dubbing file generating step of superimposing the secondary input audio information on the primary input audio information of the original learning file to generate superposed audio information; And a dubbing file storing step of storing the superimposed audio information in a memory unit of the mobile terminal.
또한, 바람직하게는, 상기 1차 음성파일 재생단계는, 상기 1차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;를 포함하고, 상기 사용자 입력신호가 수신되는 경우, 상기 1차 음성파일 재생단계와 상기 더빙파일 생성단계는 동시에 실행되는 것을 특징으로 한다.Preferably, the primary audio file reproducing step includes a user input signal receiving step of receiving a user input signal for executing the primary audio file reproducing step from the user, wherein the user input signal is received The first audio file reproducing step and the dubbing file generating step are executed simultaneously.
또한, 바람직하게는, 상기 원본 학습파일 생성단계 및 상기 더빙파일 생성단계 중 적어도 하나 이상의 단계는, 상기 입력 음성정보에서 주변 노이즈 음성정보를 제거하는 노이즈 제거단계;를 포함하는 것을 특징으로 한다.Preferably, the at least one of the original learning file generation step and the dubbing file generation step includes a noise removal step of removing ambient noise speech information from the input speech information.
또한, 바람직하게는, 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 더빙파일의 중첩 음성정보를 출력하는 2차 음성파일 재생단계;를 더 포함하는 것을 특징으로 한다.Preferably, the method further includes a secondary audio file playback step of outputting superimposed audio information of the dubbing file using the sound output unit of the mobile terminal.
또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 상기 2차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 출력하는 더빙파일의 음성정보 출력단계;를 포함하는 것을 특징으로 한다.Preferably, the secondary audio file reproducing step includes: a user input signal receiving step of receiving from the user a user input signal for executing the secondary audio file reproducing step; And outputting audio information of a dubbing file to output superimposed audio information of the dubbing file based on the user input signal.
또한, 바람직하게는, 상기 2차 음성파일 재생단계 이후에, 상기 더빙파일 재생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신하는 3차 입력 음성정보 수신단계; 상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성하는 더빙파일 재생성단계; 및 상기 추가 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 추가 더빙파일 저장단계;를 더 포함하는 것을 특징으로 한다.Preferably, a user input signal receiving step of receiving, from the user, a user input signal for executing the dubbing file reproducing step after the secondary audio file reproducing step; A third input voice information receiving step of driving the sound input unit of the mobile terminal based on the user input signal to receive third input voice information which is re-input voice information of the user; A dubbing file reproducing step of superimposing the third-order input audio information on the primary input audio information of the original learning file to generate additional superposed audio information; And an additional dubbing file storing step of storing the additional overlapping audio information in a memory unit of the mobile terminal.
또한, 바람직하게는, 상기 더빙파일 생성단계는, 사용자 입력신호에 따라 또는 자동으로, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하도록, 또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하도록, 또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록, 실행되는 것을 특징으로 한다. Preferably, the dubbing file generation step may include a step of generating a first dubbing file in which the volume magnitude of the primary input voice information is larger than the volume magnitude of the secondary input voice information, Or to generate a second dubbing file in which the volume magnitude of the secondary input audio information is larger than the volume magnitude of the primary input audio information or to generate both the first dubbing file and the second dubbing file .
또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 사용자 입력신호에 따라 또는 자동으로, 상기 제1 더빙파일을 출력하도록, 또는 상기 제2 더빙파일을 출력하도록, 또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 출력하도록, 또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 출력하도록, 실행되는 것을 특징으로 한다.It is preferable that the secondary audio file reproducing step is performed to output the first dubbing file or to output the second dubbing file in accordance with a user input signal or automatically, And sequentially outputting the second dubbing file or sequentially outputting the second dubbing file and the first dubbing file.
또한, 바람직하게는, 상기 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법은, 상기 더빙파일 생성단계 이후에, 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하는 2차 입력 음성정보 추출단계;를 더 포함하는 것을 특징으로 한다.Preferably, the method for providing a language self-learning service using the mobile terminal further includes a step of, after the dubbing file generation step, extracting and storing only the secondary input voice information from the superimposed voice information of the dubbing file, And an information extracting step.
또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계; 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계; 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계;를 포함하는 것을 특징으로 한다.Preferably, the secondary audio file reproducing step includes: an original learning file audio information output step of outputting primary input audio information which is audio information of the original learning file; A secondary input voice information output step of outputting the secondary input voice information; And a dubbing file audio information output step of outputting superimposed audio information which is audio information of the dubbing file.
또한, 바람직하게는, 상기 원본 학습파일 생성단계의 시작 후에 실행되고, 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하는 스크립트 파일 생성단계; 및 상기 1차 음성파일 재생단계의 시작 후에 실행되고, 상기 모바일 단말기의 디스플레이부를 이용하여 상기 스크립트 파일의 텍스트정보를 출력하는 스크립트 파일 출력단계;를 더 포함하는 것을 특징으로 한다.Preferably, the script file generation step is executed after the start of the original learning file generation step, and extracts text information from the original learning file and generates and stores the text information as a script file; And a script file output step executed after the start of the primary audio file playback step and outputting text information of the script file using the display unit of the mobile terminal.
또한, 바람직하게는, 상기 스크립트 파일 출력단계는, 상기 1차 음성파일 재생단계의 시작 후에, 상기 1차 입력 음성파일의 재생시각 정보에 기초하여 상기 텍스트정보를 시각적으로 변화시키도록 실행되는 것을 특징으로 한다.Preferably, the script file output step is performed so as to visually change the text information based on the reproduction time information of the primary input audio file after the start of the primary audio file reproduction step .
그리고, 전술한 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따르면, 본 발명은, 전술한 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하는 모바일 단말기를 제공할 수 있다.According to another embodiment of the present invention for solving the above-mentioned problems, the present invention can provide a mobile terminal that executes the above-described method for providing a language self-learning service using the mobile terminal.
그리고, 전술한 과제를 해결하기 위한 본 발명의 또 다른 일 실시예에 따르면, 전술한 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하기 위한 애플리케이션을 저장하는 기록매체를 제공할 수 있다.According to another embodiment of the present invention, there is provided a recording medium storing an application for executing a method for providing a language self-learning service using the mobile terminal.
전술한 과제의 해결수단에 따르면, 본 발명은 더빙파일을 생성하고 상기 더빙파일을 재생하도록 구성됨으로써, 학습자가 자신이 발음한 언어 음성정보를 학습하고자 하는 원본 학습파일의 음성정보와 동시에 비교함으로써 학습자가 자신의 언어(예를 들어, 외국어) 학습시 발음, 음조 및 발성속도 등을 정확하고 용이하게 교정할 수 있도록 할 수 있다.According to a solution to the above-mentioned problem, the present invention is configured to generate a dubbing file and reproduce the dubbing file, so that the learner simultaneously compares the linguistic voice information pronounced with the linguistic voice information of the original learning file, The user can accurately and easily correct pronunciation, tonality, and utterance speed during learning of his / her own language (e.g., a foreign language).
또한, 본 발명은 언어학습용 음성정보를 직접 녹음하여 생성할 수 있으므로 언어학습 컨텐츠를 무제한적으로 용이하게 생성할 수 있어, 언어학습 컨텐츠의 다양성을 현저히 향상시킬 수 있다.In addition, since the speech information for language learning can be directly recorded and generated, the language learning contents can be easily generated indefinitely, and the diversity of language learning contents can be significantly improved.
또한, 본 발명은 동영상 컨텐츠로부터 음성정보만 추출하여 외국 영화, 외국 드라마 등을 활용한 언어학습을 용이하게 할 수 있다.In addition, the present invention can extract only voice information from moving picture contents and facilitate language learning using foreign movies, foreign dramas, and the like.
또한, 본 발명은 서비스 제공서버를 통하여 언어학습용 음성정보 또는 언어학습용 컨텐츠를 다운로드하여 사용할 수 있도록 구성됨으로써, 서비스 제공서버 공급자가 각종 음성정보 또는 컨텐츠를 판매하여 수익을 창출할 수 있도록 할 수 있다.In addition, the present invention is configured to download and use language learning audio information or language learning contents through a service providing server, so that a service providing server provider can sell various kinds of audio information or contents to generate revenue.
그리고, 본 발명은 노이즈 제거부를 포함함으로써 향상된 선명한 음질의 원본 학습파일 및/또는 더빙파일의 음질을 사용자에게 제공할 수 있어, 사용자의 언어 학습 편의성을 향상시킬 수 있다.Further, the present invention can provide a user with the sound quality of the original learning file and / or the dubbing file with improved clear sound quality by including the noise eliminator, thereby improving the user's language learning convenience.
또한, 본 발명은 더빙파일 재생 중에 새로운 더빙파일을 생성할 수 있도록 구성됨으로써, 사용자가 실수로 발음하는 경우에도 용이하게 새로운 더빙파일을 생성할 수 있다.Further, the present invention is configured to generate a new dubbing file during playback of the dubbing file, so that a new dubbing file can be easily generated even if the user mistakenly pronounces it.
또한, 본 발명은 더빙파일에서 원본 학습파일 음성정보(즉, 1차 입력 음성정보) 및 2차 입력 음성정보 중 하나를 다른 하나에 비해 상대적으로 음량이 크도록 더빙파일을 생성할 수 있고, 이를 선택적으로 또는 순차적으로 재생하도록 구성됨으로써, 사용자의 자기발음 인지성을 현저히 향상시켜 사용자의 언어 학습 효과을 증대시킬 수 있다.Further, the present invention can generate a dubbing file such that one of the original learning file audio information (i.e., primary input audio information) and the secondary input audio information in the dubbing file is relatively louder than the other, Selectively or sequentially, so that the user's self-pronunciations can be significantly improved and the user's learning effect on the language can be enhanced.
또한, 본 발명은 2차 입력 음성정보만를 추출하여 별도로 저장하고 원본 학습파일, 2차 입력 음성정보 및 더빙파일을 선택적으로 및/또는 순차적으로 재생할 수 있도록 구성됨으로써, 사용자가 자신의 발음 음성정보와 원복 학습파일의 음성정보를 반복적으로 비교하여 자신의 발음 음성정보를 효율적으로 교정할 수 있도록 할 수 있다.In addition, according to the present invention, only the secondary input voice information is extracted and stored separately, and the original learning file, the secondary input voice information, and the dubbing file can be selectively and / or sequentially reproduced, It is possible to make it possible to efficiently calibrate the pronunciation voice information of the user by repeatedly comparing the voice information of the original learning file.
그리고, 본 발명은 스크립트를 생성하고 출력하도록 구성함으로써, 더빙파일 생성시 학습자가 용이하게 더빙작업을 수행할 수 있도록 할 수 있을 뿐만 아니라, 언어학습용 컨텐츠가 청각적 및 시각적으로 동시에 제공되므로 사용자의 언어 학습 효과를 현저히 향상시킬 수 있다.In addition, since the present invention is configured to generate and output a script, a learner can easily perform a dubbing operation when creating a dubbing file, and since the language learning contents are simultaneously provided audibly and visually, The learning effect can be remarkably improved.
게다가, 본 발명은 더빙파일 생성단계의 시작 후 원본 학습파일의 재생시각에 연동하여 스크립트의 텍스트정보를 시각적으로 변화시키도록 구성됨으로써, 사용자가 더빙작업을 보다 더 용이하고 정확하게 하도록 할 수 있다. 이로 인해, 사용자의 언어 발음 학습효과 및/또는 언어 발음 교정효과를 현저히 향상시킬 수 있다.In addition, the present invention is configured to visually change the text information of the script in synchronization with the reproduction time of the original learning file after the start of the dubbing file generation step, thereby making it possible for the user to perform the dubbing operation more easily and accurately. As a result, it is possible to remarkably improve the user's language learning pronunciation learning effect and / or the language pronunciation correcting effect.
도 1은 본 발명의 일 실시예에 따른 모바일 단말기에 대한 개략적인 블록선도이다.
도 2는 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 3은 도 2의 상세 플로우챠트이다.
도 4는 추가 실시예에 따른 원본 학습파일 생성단계에 대한 개략적인 플로우챠트이다.
도 5a는 본 발명에 따른 1차 음성파일 재생단계가 실행되는 경우 디스플레이부에 출력되는 음성파일재생 출력화면에 대한 개략도이고, 도 5b는 본 발명에 따른 더빙파일 생성단계가 실행되는 경우 디스플레이부에 출력되는 더빙 출력화면에 대한 개략도이다.
도 6는 제1 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 7은 도 6의 상세 플로우챠트이다.
도 8은 제2 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 9은 도 8의 스크립트 파일 생성단계에 대한 개략적인 플로우챠트이다.
도 10는 도 8의 스크립트 파일 출력단계에 대한 개략적인 플로우챠트이다.1 is a schematic block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a schematic flow chart of a method for providing a language self-learning service according to an embodiment of the present invention.
FIG. 3 is a detailed flowchart of FIG. 2. FIG.
FIG. 4 is a schematic flow chart of an original learning file generation step according to a further embodiment.
FIG. 5A is a schematic view of a voice file reproduction output screen output to the display unit when the primary audio file reproduction step according to the present invention is executed. FIG. Fig. 3 is a schematic view of a dubbing output screen to be outputted; Fig.
6 is a schematic flow chart of a method for providing a language self-learning service according to a first additional embodiment.
7 is a detailed flowchart of Fig.
8 is a schematic flow chart of a method for providing a language self-learning service according to a second additional embodiment.
9 is a schematic flow chart of the script file generation step of FIG.
10 is a schematic flow chart of the script file output step of FIG.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 당해 분야의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명하기로 한다. 첨부된 도면들에서 구성에 표기된 도면번호는 다른 도면에서도 동일한 구성을 표기할 때에 가능한 한 동일한 도면번호를 사용하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 도면에 제시된 어떤 특징들은 설명의 용이함을 위해 확대 또는 축소 또는 단순화된 것이고, 도면 및 그 구성요소들이 반드시 적절한 비율로 도시되어 있지는 않다. 그러나 당업자라면 이러한 상세 사항들을 쉽게 이해할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be noted that the drawings denoted by the same reference numerals in the drawings denote the same reference numerals whenever possible, in other drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. And certain features shown in the drawings are to be enlarged or reduced or simplified for ease of explanation, and the drawings and their components are not necessarily drawn to scale. However, those skilled in the art will readily understand these details.
도 1은 본 발명의 일 실시예에 따른 모바일 단말기(1000)에 대한 개략적인 블록선도이다.1 is a schematic block diagram of a
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 모바일 단말기(1000)는, 무선 통신부(110)와, 터치형 입력부(121) 및 음향 입력부(122)를 포함하는 입력부(120)와, 음향 출력부(151)와 디스플레이부(152)를 포함하는 출력부(150)와, 각종 정보 및 데이터를 저장하는 메모리부(160)와, 인터페이스부(170)와, 본 발명에 따른 언어 자가학습 서비스 제공부(140)와, 전술한 구성요소들을 제어하는 제어부(130)를 포함한다.1, a
여기서, 상기 모바일 단말기(1000)는, 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿PC, PDA(Personal Digital Assistants), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다. The
상기 무선 통신부(110)는 상기 모바일 단말기(1000)와 언어 자가학습 서비스 제공서버와 상호 무선 데이터 통신가능하도록 구성된다.The
상기 입력부(120)는, 사용자의 입력신호를 사용자의 수신호로 수신하는 터치형 입력부(121)와, 사용자의 입력신호를 사용자의 음성신호로 수신하는 음향 입력부(122)를 포함한다.The
상기 터치형 입력부(121)는 터치스크린, 키보드, 물리버튼 등을 포함할 수 있다.The touch-type input unit 121 may include a touch screen, a keyboard, a physical button, and the like.
상기 음향 입력부(122)는 마이크를 포함하고, 상기 마이크는 마이크로폰(Microphone)에 의해 사용자의 음성 신호를 입력받아 전기적인 음성 정보(데이터)로 처리할 수 있다. 처리된 음성 정보(데이터)는 제어부(130)에서 인지가능한 형태로 변환되어 전송될 수 있다. 상기 마이크에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다. 물론 도면에 도시된 바와 같이, 상기 언어 자가학습 서비스 제공부(140)는 별도의 노이즈 제거부(148)를 포함할 수 있다.The
상기 인터페이스부(170)는, 제어부(130)에 전기적 또는 통신 신호적으로 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 모바일 단말기(1000) 내부의 각 구성 요소에 전달하거나, 모바일 단말기(1000) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 충전 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The
상기 메모리부(160)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크(122)로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크, SSD(Solid State Drive) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 상기 모바일 단말기(1000)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The
상기 출력부(150)는 음향 출력부(151)와 디스플레이부(152)를 포함한다. 상기 음향 출력부(151)는 스피커, 이어폰 또는 헤드폰 등의 외부 음향장치 접속단자 등을 포함할 수 있다.The
상기 제어부(130)는, 상기 무선 통신부(110), 상기 입력부(120), 상기 출력부(150), 상기 메모리부(160), 상기 인터페이스부(170) 등 상기 모바일 단말기(1000)에 포함되는 구성요소 및 프로그램(제어 알고리즘)을 제어하도록 구성된다. The
상기 언어 자가학습 서비스 제공부(140)는, 사용자의 입력신호에 의해 무선 통신부(110)를 통하여 언어 자가학습 서비스 제공서버에서 언어 자가학습 서비스 애플리케이션을 상기 모바일 단말기(1000)(또는 상기 모바일 단말기(1000)의 메모리부(160))에 다운로드하여 실행하는 경우 제어부(130) 내에 또는 제어부(130)와 상호 구동하도록 설치되는 제어 알고리즘 또는 프로그램이다.The language self-
상기 언어 자가학습 서비스 제공부(140)는, 레코더 구동부(141)와, 재생 구동부(142)와, 더빙 구동부(143)와, 음성정보 필터부(144)와, 디스플레이 구동부(145)와, 음성-텍스트 변환부(146)와, 노이즈 제거부(148)와, 음성정보 추출부(149)를 포함한다.The speech self-learning
상기 레코더 구동부(141)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(예를 들어, 마이크)를 활성화시켜 녹음기능을 실행한다. 상기 레코더 구동부(141)는 후술할 원본 학습파일 생성단계(S1100)를 구동하도록 구성된다.The
상기 재생 구동부(142)는 입력부(120) 및 제어부(130)를 통하여 음향 출력부(151)(예를 들어, 스피커)를 활성화시켜 동영상 컨텐츠 또는 음성 정보를 재생하는 플레이기능을 실행한다. 상기 재생 구동부(142)는 후술할 1차 음성파일 재생단계(S1200), 2차 음성파일 재생단계(1400)를 구동하도록 구성된다. 그리고, 상기 재생 구동부(142)는 하나의 음성정보 또는 파일을 반복하여 재생하도록 하는 반복 재생부와, 하나의 음성정보에서 일정 부분만을 반복하여 재생하도록 하는 구간반복 재생부를 포함할 수 있다.The
상기 더빙 구동부(143)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(예를 들어, 마이크)를 활성화시켜 녹음기능을 실행한다. 상기 더빙 구동부(143)는 후술할 더빙파일 생성단계(S1300), 더빙파일 재생성단계를 구동하도록 구성된다.The dubbing
상기 음성정보 필터부(144)는 1차 입력 음성정보와 2차 입력 음성정보를 중첩적으로 포함하는 더빙파일에서 1차 입력 음성정보에 해당하는 음역대를 제거하여 2차 입력 음성정보만 추출하도록 구성된다.The voice
상기 디스플레이 구동부(145)는 디스플레이부(152)와 제어부(130)를 통하여 상기 언어 자가학습 서비스와 관련된 화면정보, UI정보 및 아이콘형 입력부(120) 등이 상기 디스플레이부(152)에 출력되도록 구성된다.The
상기 음성-텍스트 변환부(146)는 레코더 구동부(141)를 통하여 수신되는 언어학습용 음성정보(즉, 녹음된 원본 학습파일)를 텍스트정보로 변환하여 상기 메모리부(160)에 저장한다. 또한, 상기 음성-텍스트 변환부(146)는 상기 언어학습용 음성정보에서 상기 텍스트정보에 대응되는 대응 재생시각 정보를 추출하여 메모리부(160)에 저장한다.The voice-to-
상기 노이즈 제거부(148)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(즉, 마이크)에서 수신되는 음성정보 및/또는 음향정보에서 노이즈를 제거하도록 구성된다. 상기 음성정보 필터부(144)는 후술할 노이즈 제거단계를 구동하도록 구성된다.The
상기 음성정보 추출부(149)는 상기 모바일 단말기(1000)의 메모리부(160)에 저장된 동영상 컨텐츠에서 음성정보(예를 들어, 외국 영화 또는 드라마 속의 대화내용 등)만을 추출하도록 구성된다. 이렇게 추출된 음성정보는 원본 학습파일로 활용될 수 있다.The voice
상기 언어 자가학습 서비스 제공부(140)의 각 구성요소에 대해서는 이하에서 기술할 본 발명에 따른 모바일 단말기(1000)를 이용한 언어 자가학습 서비스 제공방법(S1000)에 대한 설명에서 보다 구체적으로 기술하기로 한다.Each component of the language self-learning
도 2는 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)에 대한 개략적인 플로우챠트이고, 도 3은 도 2의 상세 플로우챠트이고, 도 4는 추가 실시예에 따른 원본 학습파일 생성단계(S1100)에 대한 개략적인 플로우챠트이고, 도 5a는 본 발명에 따른 1차 음성파일 재생단계(S1200)가 실행되는 경우 디스플레이부(152)에 출력되는 음성파일재생 출력화면(152a)에 대한 개략도이고, 도 5b는 본 발명에 따른 더빙파일 생성단계(S1300)가 실행되는 경우 디스플레이부(152)에 출력되는 더빙 출력화면(152b)에 대한 개략도이다.FIG. 2 is a schematic flow chart of a method for providing a language self-learning service (S1000) according to an embodiment of the present invention, FIG. 3 is a detailed flowchart of FIG. 2, 5A is a schematic flow chart of the generation step S1100 of FIG. 5A. FIG. 5A is a schematic flowchart of the generation of the audio file
도 2 및 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)은, 전술한 모바일 단말기(1000)에 포함된 구성요소 및 제어 알고리즘을 이용하여 구현되는 것으로서, 원본 학습파일 생성단계(S1100); 1차 음성파일 재생단계(S1200); 더빙파일 생성단계(S1300)를 포함하며, 나아가 2차 음성파일 재생단계(1400);를 더 포함한다.2 and 3, a method S1000 for providing a language self-learning service according to an embodiment of the present invention is implemented using the components and control algorithms included in the mobile terminal 1000 described above An original learning file generation step (S1100); A primary audio file playback step (S1200); And a dubbing file generation step (S1300), and further includes a secondary audio file reproduction step (1400).
우선, 상기 제어부(130)는 레코더 구동부(141)와 연동하여 음향 입력부(122)를 활성화 또는 비활성화시켜, 언어학습용 음성정보를 생성 또는 저장할 수 있다.(S1100)The
구체적으로, 본 실시예에 따르면, 상기 원본 학습파일 생성단계(S1100)는, 상기 모바일 단말기(1000)의 음향 입력부(122)를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행된다. 여기서, 상기 1차 입력 음성정보는, 사용자의 선택에 따라 외국어 대화내용, 외국어 수업내용, 외국어 영화내용, 외국어 음악가사, 외국어 뉴스내용 등을 포함할 수 있으며, 그 종류에 제한을 두지 않는다.More specifically, according to the present embodiment, the original learning file generation step S1100 is a step of generating the original learning file using the
즉, 제어부(130)는 터치형 입력부(121)를 통하여 입력된 제1 사용자 입력신호를 수신한다(S1110). 여기서 상기 제1 사용자 입력신호는 사용자가 레코더 구동부(141) 및 음향 입력부(122)를 구동시키도록 사용자가 터치형 입력부(121)를 통하여 입력하는 신호이다.That is, the
바람직하게는, 상기 제1 사용자 입력신호 수신단계(S1110)에서 상기 제1 사용자 입력신호를 수신한 이후에, 상기 제어부가 상기 메모리부의 잔존 저장용량이 기설정된 용량(예를 들어, 100 Mbyte) 미만인 것으로 판단하는 경우, 상기 제어부는 사용자가 메모리부의 용량부족 상황을 시각적으로 및/또는 청각적으로 인지할 수 있는 용량부족 알림정보를 출력하도록 상기 디스플레이부 및/또는 음향 출력부를 제어할 수 있다.Preferably, after receiving the first user input signal in the first user input signal receiving step (S1110), the control unit determines that the remaining storage capacity of the memory unit is less than a predetermined capacity (for example, 100 Mbytes) The control unit may control the display unit and / or the sound output unit to output the capacity shortage notification information that allows the user to visually and / or audibly recognize the capacity shortage state of the memory unit.
여기서, 상기 용량부족 알림정보는 예를 들어 "저장공간이 부족합니다. 불필요한 파일을 삭제 후 다시 시도하세요."라는 텍스트 정보일 수 있다.Here, the capacity shortage notification information may be text information such as "There is not enough storage space, delete unnecessary files and try again."
이후, 제어부(130)는 음향 입력부(122)를 통하여 입력된 1차 입력 음성정보(또는 언어학습용 음성정보)를 수신한다.(S1120) 여기서 상기 1차 입력 음성정보는 언어학습용 음성정보로서 외국어 대화내용, 외국어 수업내용, 외국어 영화내용, 외국어 음악가사, 외국어 뉴스내용 등을 포함할 수 있다.Then, the
이후, 제어부(130)는 상기 1차 입력 음성정보를 원본 학습파일로 생성한 후(S1130), 메모리부에 상기 원본 학습파일을 저장한다.(S1140) 상기 원본 학습파일은 이후에 사용자의 선택에 의해 재생 구동부(142)에 의해 재생될 수 있다.Then, the
바람직하게는, 상기 1차 입력 음성정보 수신단계(S1120) 실행 중에, 상기 제어부(130)는 노이즈 제거부(148)를 활성화시켜, 상기 1차 입력 음성정보에서 주변 노이즈 음성정보를 제거하도록 제어할 수 있다.Preferably, during the execution of the primary input voice information receiving step (S1120), the
한편 추가 실시예에 따르면, 도 4에 도시된 바와 같이, 상기 원본 학습파일 생성단계(S1100)는, 사용자의 입력신호에 따라 또는 자동으로, 상기 모바일 단말기(1000)의 메모리부(160)에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행될 수 있다. 4, the original learning file generation step S1100 may be performed in accordance with a user's input signal or automatically stored in the
이를 위하여, 우선 제어부(130)는 상기 메모리부(160)에 저장된 각동 데이터 및 정보들 중에서 동영상 컨텐츠를 검색하여 동영상 컨텐츠 리스트를 상기 디스플레이부(152)에 출력한다(S1150).In operation S1150, the
이후, 상기 제어부(130)는 사용자의 입력신호가 수신되는 경우 재생 구동부(142)를 활성화시켜 사용자의 입력신호에 따라 선택된 동영상 컨텐츠를 재생하도록 제어한다(S1160). 이때, 상기 동영상 컨텐츠는 실제 디스플레이부(152)에 출력될 수도 있지만, 디스플레이부(152)에 출력되지 않고 이후에 실행되는 음성정보 출력단계만 실행될 수도 있다.In step S1160, the
이후, 상기 제어부(130)는 음성정보 추출부(149)를 활성화시켜 재생 구동부(142)에 의해 재생된 동영상 컨텐츠에서 음성정보만 추출하도록 제어한다(S1170).In step S1170, the
이후, 상기 제어부(130)는 추출된 음성정보를 원본 학습파일로 메모리부(160)에 저장한다(S1180).Thereafter, the
도면에 도시되진 않았지만, 또 다른 추가 실시예로서, 상기 원본 학습파일 생성단계(S1100)는, 상기 모바일 단말기(1000)의 무선 통신부(110)를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행될 수 있다.Although not shown in the drawing, in still another embodiment, the original learning file generation step S1100 may be performed by using the
상기 원본 학습파일 생성단계(S1100) 이후에, 상기 제어부(130)는 음향 출력부(151) 및 재생 구동부(142)를 활성화시켜 상기 원본 학습파일의 1차 입력 음성정보를 출력한다(S1200).After the original learning file generation step S1100, the
구체적으로, 우선 제어부(130)는 터치형 입력부(121)를 통하여 입력된 제2 사용자 입력신호를 수신한다.(S1210) 여기서, 상기 제2 사용자 입력신호는 원본 학습파일을 재생하고자 하는 사용자의 입력신호이다.Specifically, the
이후, 상기 제어부(130)는 재생 구동부(142) 및 음향 출력부(151)를 구동시켜 상기 원본 학습파일의 음성정보(즉, 1차 입력 음성정보 또는 어학학습용 음성정보)을 출력한다(S1220).The
이때, 제어부(130)는 더빙파일 생성단계(S1300)를 순차적으로 실행할 수 있다.At this time, the
추가 실시예에 따르면, 상기 제어부(130)는 상기 제2 사용자 입력신호를 수신되는 경우, 상기 1차 음성파일 재생단계(S1200)와 후속하는 더빙파일 생성단계(S1300)가 동시에 실행되도록 상기 재생 구동부(142), 상기 음향 출력부(151), 상기 더빙 구동부(143) 및 상기 음향 입력부(122)를 동시에 활성화시킬 수 있다.According to a further embodiment, when the second user input signal is received, the
바람직하게는, 상기 제어부는 상기 1차 음성파일 재생단계(S1100) 실행시 도 5a에 도시된 바와 같은 음성파일재생 출력화면(152a)을 디스플레이부에 출력할 수 있다.Preferably, the control unit may output the audio file
상기 음성파일재생 출력화면(152a)은 재생단계 제어부(121a), 재생가능파일 리스트부(121b), 더빙실행부를 포함한다.The audio file
상기 재생단계 제어부(121a)는 출력화면인 동시에 사용자의 입력신호를 수신하는 터치형 입력부이며, 재생/일시정지 조절용 아이콘부, 뒤로 감기용 아이콘부, 앞으로 감기용 아이콘부, 반복재생 선택용 아이콘부, 반복구간 지정용 아이콘부, 음량조절용 아이콘부를 포함한다.The playback
상기 재생가능파일 리스트부(121b)는 언어 자가학습 서비스 제공부(140)가 재생가능한 메모리부 내의 파일리스트에 대한 출력화면이며, 동시에 사용자의 입력신호를 수신하는 터치형 입력부이다.The playable
상기 더빙실행부는 더빙 안내 정보 출력부(152a-1)와, 더빙실행용 아이콘(121c)를 포함한다. The dubbing execution unit includes a dubbing guidance
상기 더빙실행용 아이콘(121c)을 통하여 사용자의 입력신호가 수신되는 경우, 상기 제어부는 도 5a의 음성파일재생 출력화면(152a)을 도 5b의 더빙 출력화면(152b)로 전환하도록 디스플레이부를 제어한다.When the user's input signal is received through the dubbing
상기 더빙 출력화면(152b)은 더빙실행부 이외에는 음성파일재생 출력화면(152a)과 동일하게 구성된다. 상기 더빙 출력화면(152b)의 더빙실행부는 더빙실행시간 출력부(152b-1)와, 더빙상태정보 출력부(152b-2)와, 더빙 실행/일시정지 조절용 아이콘부(121d)와, 더빙완료용 아이콘부(121e)를 포함한다. The dubbing
전술한 출력화면의 구성은 예시적인 것으로서, 본 발명은 이에 제한되지 않음은 당연하다.The configuration of the above-described output screen is illustrative, and the present invention is of course not limited thereto.
상기 1차 음성파일 재생단계(S1200) 이후에, 상기 제어부(130)는 상기 모바일 단말기(1000)의 음향 입력부(122) 및 더빙 구동부(143)를 활성화시켜 사용자(즉, 학습자)의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하도록 제어한다(S1300). 여기서, 상기 2차 입력 음성정보는 사용자가 원본 학습파일의 음성정보를 따라서 발음한 음성정보이다.The
구체적으로, 우선 제어부(130)는, 상기 1차 음성파일 재생단계(S1200) 시작 후, 상기 더빙파일 생성단계(S1300)를 실행하는 제3 사용자 입력신호를 사용자로부터 수신한다(S1310). 예를 들어, 상기 제어부는 도 5a의 더빙실행용 아이콘부(121c)를 통하여 사용자의 입력신호를 수신하는 경우 상기 더빙파일 생성단계(S1300)를 시작한다.Specifically, the
이후, 상기 제어부(130)는 상기 제3 사용자 입력신호에 기초하여 상기 모바일 단말기(1000)의 음향 입력부(122)를 구동시켜 상기 2차 입력 음성정보를 수신한다.(S1320)Thereafter, the
이후, 상기 제어부(130)는 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 시간적으로 중첩하여(또는, 재생시간과 더빙시간을 중첩하여) 중첩 음성정보를 더빙파일로 생성한다(S1330).Thereafter, the
이후, 상기 제어부(130)는, 상기 중첩 음성정보를 담고 있는 더빙파일을 상기 모바일 단말기(1000)의 메모리부(160)에 저장한다(S1340).Thereafter, the
바람직하게는, 상기 2차 입력 음성정보 수신단계(S1320) 실행 중에, 상기 제어부(130)는 노이즈 제거부(148)를 활성화시켜, 상기 2차 입력 음성정보에서 주변 노이즈 음성정보를 제거하도록 제어할 수 있다.Preferably, during the execution of the secondary input voice information receiving step (S1320), the
상기 더빙파일 생성단계(S1300)는 전술한 바와 같이 상기 1차 음성파일 재생단계(S1200)의 제2 사용자 입력신호 수신단계(S1210)에서 입력된 제2 사용자 입력신호에 의해 실행될 수도 있고, 상기 더빙파일 생성단계(S1300)의 제3 사용자 입력신호 수신단계(S1310)에서 입력된 제3 사용자 입력신호에 의해 실행될 수도 있다.The dubbing file generation step S1300 may be performed by the second user input signal inputted in the second user input signal receiving step S1210 of the first audio file reproducing step S1200 as described above, May be executed by the third user input signal input in the third user input signal receiving step S1310 of the file generating step S1300.
상기 더빙파일 생성단계(S1300) 이후에, 상기 제어부(130)는 상기 모바일 단말기(1000)의 음향 출력부(151) 및 재생 구동부(142)를 활성화시켜, 상기 더빙파일의 중첩 음성정보를 사용자에게 출력하도록 제어할 수 있다(S1400).After the dubbing file generation step S1300, the
구체적으로, 우선 제어부(130)는 터치형 입력부(121)를 통하여 2차 음성파일 재생단계(1400)를 실행하는 제4 사용자 입력신호를 사용자로부터 수신한다(S1410).Specifically, the
이후, 상기 제어부(130)는 상기 제4 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 음향 출력부(151)로 출력한다(S1420).Thereafter, the
추가 실시예로서, 상기 2차 음성파일 재생단계(1400) 이후에, 상기 제어부(130)는 사용자의 입력신호에 기초하여 더빙파일을 수정하도록 더빙 구동부(143), 메모리부(160) 및 음향 출력부(151)를 제어할 수 있다.As a further embodiment, after the secondary audio file reproduction step 1400, the
구체적으로, 우선, 상기 제어부(130)는 상기 더빙파일 재생성단계(미도시)를 실행하는 제5 사용자 입력신호를 사용자로부터 수신한다.Specifically, first, the
이후, 상기 제어부(130)는 상기 제5 사용자 입력신호에 기초하여 원본 녹음파일의 음성정보를 재생하도록 메모리부(160), 재생 구동부(142) 및 음향 출력부(151)를 제어한다.Then, the
이후, 상기 제어부(130)는 상기 제5 사용자 입력신호에 기초하여 상기 모바일 단말기(1000)의 음향 입력부(122) 및 더빙 구동부(143)를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신한다.The
이후, 상기 제어부(130)는, 상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성한다.Thereafter, the
이후, 상기 제어부(130)는 상기 추가 중첩 음성정보를 상기 모바일 단말기(1000)의 메모리부(160)에 저장한다.Then, the
상기 더빙파일 생성단계(S1300)의 추가 실시예로서, 상기 제어부(130)는, 사용자 입력신호에 따라(즉, 수동으로) 또는 자동으로, 상기 1차 입력 음성정보의 음량과 상기 2차 입력 음성정보의 음량크기를 상대적으로 조절하여 더빙파일을 생성하도록 제어할 수 있다.As a further embodiment of the dubbing file generation step S1300, the
구체적으로, 상기 제어부(130)는 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하거나, 또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하거나, 또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록 제어할 수 있다.Specifically, the
변형 실시예로서, 상기 더빙파일 생성단계(S1300)는, 초기 설정으로서, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 작은 제1 더빙파일을 생성하도록 실행되며, 이후에 입력되는 사용자의 입력신호에 따라 1차 입력 음성정보의 크기 및 2차 입력 음성정보의 크기가 조절된 더빙파일을 생성하도록 실행될 수도 있다. 즉, 상기 더빙파일 생성단계(S1300)는, 기본적으로 상기 제1 더빙파일(즉, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 작은 더빙파일)을 생성하도록 실행되나, 추후 입력부를 통해 입력되는 사용자의 입력신호에 따라 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 작은 제2 더빙파일을 생성하도록 실행되거나, 또는 상기 1차 입력 음성정보의 음량크기와 상기 2차 입력 음성정보의 음량크기가 동일한 제3 더빙파일을 생성하도록 실행될 수 있다. As an alternative embodiment, the dubbing file generation step (S1300) is executed as an initial setting to generate a first dubbing file in which the volume magnitude of the primary input voice information is smaller than the volume magnitude of the secondary input voice information, The size of the primary input audio information and the size of the secondary input audio information may be adjusted in accordance with the input signal of the user. That is, the dubbing file generation step (S1300) is basically performed so that the first dubbing file (i.e., a dubbing file in which the volume level of the primary input voice information is smaller than the volume level of the secondary input voice information) The second input audio information may be generated to generate a second dubbing file in which the volume magnitude of the secondary input voice information is smaller than the volume magnitude of the primary input voice information according to a user's input signal input through the input unit later, A third dubbing file having the same magnitude of the volume of the voice information and the volume magnitude of the secondary input voice information can be executed.
상기 더빙파일 생성단계(S1300)의 추가 실시예와 관련하여, 상기 2차 음성파일 재생단계(1400)의 추가 실시예로서, 상기 제어부(130)는 사용자 입력신호에 따라(수동으로) 또는 자동으로, 상기 제1 더빙파일을 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제2 더빙파일을 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 음향 출력부(151)를 통하여 출력하도록, 제어할 수 있다.In a further embodiment of the dubbing file generation step S1300, as a further embodiment of the secondary audio file reproduction step 1400, the
도 6는 제1 추가 실시예에 따른 언어 자가학습 서비스 제공방법(S2000)에 대한 개략적인 플로우챠트이고, 도 7은 도 6의 상세 플로우챠트이다.FIG. 6 is a schematic flow chart of a method for providing a language self-learning service (S2000) according to a first additional embodiment, and FIG. 7 is a detailed flowchart of FIG.
본 실시예에 따른 언어 자가학습 서비스 제공방법(S2000)은 전술한 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)에 포함되는 기술적 특징을 (거의) 그대로 포함하므로, 설명의 명확성과 중복설명 방지를 위하여 전술한 내용과 중복되는 내용에 대해서는 이하에서 가급적 구체적인 설명을 생략하기로 한다.The method for providing a language self-learning service (S2000) according to the present embodiment substantially includes the technical features included in the language self-learning service providing method (S1000) according to the embodiment described above, The detailed description of the contents overlapping with the above-mentioned contents will be omitted as much as possible.
본 실시예에 따르며, 본 발명은, 원본 학습파일 생성단계(S2100); 1차 음성파일 재생단계(S2200); 더빙파일 생성단계(S2300); 2차 입력 음성정보 추출단계(S2400); 및 2차 음성파일 재생단계(S2500);를 포함한다. According to the present embodiment, the present invention provides an original learning file generation step (S2100); A primary audio file playback step (S2200); A dubbing file creation step (S2300); Secondary input speech information extraction step (S2400); And a secondary audio file playback step (S2500).
여기서, 본 실시예에 따른 원본 학습파일 생성단계(S2100), 1차 음성파일 재생단계(SQ200) 및 더빙파일 생성단계(S2300)는 전술한 실시예에 따른 원본 학습파일 생성단계(S1100), 1차 음성파일 재생단계(S1200) 및 더빙파일 생성단계(S1300)와 거의 동일하다.Here, the original learning file generation step S2100, the primary audio file playback step SQ200, and the dubbing file generation step S2300 according to the present embodiment may include an original learning file generation step S1100, (S1200) and the dubbing file generation step (S1300).
본 실시예에 따르면, 상기 더빙파일 생성단계(S2300) 이후에, 상기 제어부(130)는 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하는 2차 입력 음성정보 추출단계(S2400)를 실행한다.According to the present embodiment, after the dubbing file generation step (S2300), the
구체적으로, 우선, 상기 제어부(130)는, 더빙파일을 복사하여 복사 더빙파일을 메모리부에 저장한다.Specifically, first, the
이후, 상기 제어부(130)는, 재생 구동부 및 음향 음성정보 필터부(144)를 활성화시켜 상기 복사 더빙파일의 음성정보에서 1차 입력 음성정보를 제거하도록 제어한다(S2410).Thereafter, the
이후, 상기 제어부(130)는 상기 복사 더빙파일의 음성정보에서 잔존하는 2차 입력 음성정보(학습자 음성정보)를 생성한다(S2420).Thereafter, the
이후, 상기 제어부(130)는 상기 2차 입력 음성정보를 메모리부에 저장한다(S2430).Then, the
본 실시예에 따른 2차 음성파일 재생단계(S2500)는, 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계(S2520); 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계(S2530); 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계(S2540);를 포함한다.The secondary audio file reproducing step S2500 according to the present embodiment includes an original learning file audio information output step S2520 of outputting primary input audio information which is audio information of the original learning file; A secondary input voice information output step (S2530) for outputting the secondary input voice information; And a dubbing file audio information output step (S2540) for outputting superimposed audio information which is audio information of the dubbing file.
예를 들어, 제어부(130)는, 원본 학습파일, 2차 입력 음성정보 및 더빙파일 순으로 출력되도록 재생 구동부 및 음향 출력부를 제어할 수 있다. 이러한 원본 학습파일, 2차 입력 음성정보 및 더빙파일의 출력 순서는 일예에 불과하며 사용자의 선택에 의해 적절하게 조절될 수 있다.For example, the
도 8은 제2 추가 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)에 대한 개략적인 플로우챠트이고, 도 9은 도 8의 스크립트 파일 생성단계(S3200)에 대한 개략적인 플로우챠트이고, 도 10는 도 8의 스크립트 파일 출력단계(S3400)에 대한 개략적인 플로우챠트이다.FIG. 8 is a schematic flow chart of a method for providing a language self-learning service (S3000) according to a second additional embodiment, FIG. 9 is a schematic flow chart for a script file generation step (S3200) Is a schematic flow chart for the script file output step (S3400) of Fig.
본 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)은 전술한 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)(S2000)에 포함되는 기술적 특징을 (거의) 그대로 포함하므로, 설명의 명확성과 중복설명 방지를 위하여 전술한 내용과 중복되는 내용에 대해서는 이하에서 가급적 구체적인 설명을 생략하기로 한다.The method 300000 for providing a language self-learning service according to the present embodiment substantially includes the technical features included in the language self-learning service providing method S1000 (S2000) according to the embodiment described above, For the purpose of avoiding redundant explanations, the detailed description of the contents overlapping with the above-mentioned contents will be omitted below.
본 실시예에 따르며, 본 발명은, 원본 학습파일 생성단계(S3100); 스크립트 파일 생성단계(S3200); 1차 음성파일 재생단계(S3300); 스크립트 파일 출력단계(S3400); 더빙파일 생성단계(S3500); 및 2차 음성파일 재생단계(S3600);를 포함한다. According to the present embodiment, the present invention provides a method for generating an original learning file (S3100); A script file creation step (S3200); A primary audio file playback step (S3300); A script file output step (S3400); A dubbing file generation step S3500; And a secondary audio file playback step (S3600).
여기서, 본 실시예에 따른 원본 학습파일 생성단계(S3100), 1차 음성파일 재생단계(S3300) 및 더빙파일 생성단계(S3500) 및 2차 음성파일 재상단계(S3600)는 전술한 실시예에 따른 원본 학습파일 생성단계(S1100)(S2100), 1차 음성파일 재생단계(S1200)(S2200), 더빙파일 생성단계(S1300)(S2300) 및 2차 음성파일 재상단계(S1400)(S2500)와 거의 동일하며, 추가적으로 본 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)은, 원본 녹음파일 생성단계(S3100)와 1차 음성파일 재생단계(S3300) 사이에 스크립트 파일 생성단계(S3200)와, 1차 음성파일 재생단계(S3300)와 순차적으로 또는 동시에 실행되는 스크립트 파일 출력단계(S3400)를 포함한다.Here, the original learning file generation step S3100, the primary audio file playback step S3300, the dubbing file generation step S3500, and the secondary audio file reconstruction step S3600 according to the present embodiment may be performed in accordance with the above- The steps S1100 and S2100 of the original sound file creation step S1100 and the steps S1200 and S2200 of the first sound file reproduction step S1300 and S2300 of the second sound file generation step S1400, In addition, the method for providing a language self-learning service (S3000) according to the present embodiment further includes a script file generation step (S3200), a script file generation step (S3200) between the original sound file creation step S3100 and the first sound file playback step A car audio file reproducing step (S3300) and a script file outputting step (S3400) executed sequentially or simultaneously.
구체적으로, 우선, 원본 학습파일 생성단계(S3100)의 시작 이후에 또는 도중에, 상기 제어부(130)는 음향 입력부, 레코더 구동부 및 음성-텍스트정보 변환부(146)를 활성화시켜 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하도록 제어한다(S3200).Specifically, the
즉, 상기 제어부(130)는, 음향 입력부를 통하여 수신되는 또는 메모리부에서 불러들인 원본 학습파일의 음성정보에서 텍스트 정보를 추출 및/또는 변환하여 메모리부에 저장한다(S3210).That is, the
상기 S3210의 추가 실시예로서, 상기 텍스트 정보는 상기 원본 학습파일의 음성정보에 대응되는 텍스트 정보로서, 사용자의 입력신호에 따라 또는 자동으로 상기 언어 자가학습 서비스 제공서버로부터 다운로드되어 상기 메모리부에 저장되거나, 또는 사용자의 입력신호에 의해 상기 사용자의 외부 메모리장치에서 상기 메모리부로 이동되어 저장될 수 있다. 이때, 상기 텍스트 정보는 상기 원복 학습파일의 음성정보에 대응되는 대응 재생시각 정보를 포함한다.In a further embodiment of S3210, the text information is text information corresponding to speech information of the original learning file, and is downloaded from the self-learning service providing server according to a user's input signal or automatically, and stored Or may be moved from the user's external memory device to the memory part and stored by the user's input signal. At this time, the text information includes corresponding reproduction time information corresponding to the audio information of the original play file.
그리고, 상기 제어부(130)는 상기 음성-텍스트정보 변환단계와 동시에 또는 순차적으로 상기 원복 학습파일의 음성정보에 대응되는 대응 재생시각 정보를 추출하여 메모리부에 저장한다(S3220).The
이후, 상기 제어부(130)는 메모리부에 저장된 텍스트 정보 및 이에 대응되는 대응 재생시각 정보를 매칭하여 결합시시켜 스크립트 파일을 생성한다(S3230).In step S3230, the
이후, 상기 제어부(130)는 상기 스크립트 파일을 메모리부에 저장한다(S3240).Thereafter, the
상기 1차 음성파일 재생단계(S3300)의 시작 후에 또는 도중에, 상기 제어부(130)는 상기 모바일 단말기의 디스플레이부(152)를 이용하여 상기 스크립트 파일의 텍스트정보를 출력한다(S3400).The
이후, 바람직하게는, 상기 스크립트 파일 출력단계(S3400)는, 상기 1차 음성파일 재생단계(S3300)의 시작 후에, 먼저 스크립트 파일의 텍스트정보를 출력한 후(S3410), 상기 1차 입력 음성파일의 재생시각 정보에 기초(또는 연동)하여(S3420) 상기 텍스트정보를 시각적으로 변화시키도록 실행될 수 있다(S3430).Then, the script file outputting step S3400 may first output the text information of the script file after the start of the primary audio file reproducing step S3300 (S3410) (Step S3420) based on the reproduction time information of the text information (step S3430), and visually change the text information.
이때, 상기 텍스트정보는 1차 입력 음성파일의 재생시각 정보에 따라 글자의 색상 또는 크기가 변화하도록 출력될 수 있다.At this time, the text information may be output so that the color or size of the text changes according to the reproduction time information of the primary input voice file.
이하에서는, 본 발명의 일 실시예에 따른 모바일 단말기를 응용한 추가 실시예에 따른 모바일 단말기에 대하여 기술하기로 한다.Hereinafter, a mobile terminal according to a further embodiment of a mobile terminal according to an embodiment of the present invention will be described.
추가 실시예에 따른 모바일 단말기는, 사용자의 선택에 따른 동작 제어를 위한 입력 데이터를 입력하기 위한 터치형 입력부(121)와; 마이크(122)에 입력되는 음원을 녹음하는 레코더 구동부(141)와; 녹음된 음원을 스피커 등의 음향 출력부(151)를 통하여 재생하는 재생 구동부(142)와; 상기 재생되는 음원을 인식하고 상기 음원 재생 후 마이크(122)에 입력되는 사용자의 음성을 인식하는 음성정보 추출부(149)와; 상기 음원과 상기 음성정보 추출부에서 인식한 상기 사용자의 음성을 매칭시켜 매칭 데이터를 생성하는 매칭부(즉, 제어부(130)의 일 기능)와; 상기 매칭 데이터를 시각적으로 표시하는 디스플레이부(152); 사용자가 설정하는 재생 옵션에 따라 음원을 재생하도록 제어하는 제어부(130)를 포함한다. A mobile terminal according to a further embodiment of the present invention includes a touch-type input unit 121 for inputting input data for operation control according to a user's selection; A
이때, 상기 재생 옵션은 음원의 재생 속도, 재생 단위, 재생 반복 구간을 포함하고, 상기 재생 단위는 단어, 의미상의 분절, 문장, 문단을 포함할 수 있다.At this time, the reproduction option includes a reproduction speed of a sound source, a reproduction unit, and a reproduction repeat section, and the reproduction unit may include a word, a semantic segment, a sentence, and a paragraph.
본 실시예에서, 상기 음성정보 추출부(149)는 마이크를 통해 입력되는 사용자의 음성을 인식하고, 음성 분석 프로세스를 이용하여 상기 음성에서 음성 신호의 주파수를 분석하여 포먼트(formant)를 찾아냄으로써 음성을 분석하도록 구성된다.In the present embodiment, the voice
재생 구동부(142)는 사용자의 선택에 따라 음원 즉, 사용자 음성 또는 학습용 컨텐츠를 녹음하고 녹음된 컨텐츠를 출력한다.The
재생 구동부(142)는 카메라와 연동하여 동영상을 녹화하고 녹화된 컨텐츠를 출력할 수도 있다.The
매칭부는 제어부에 포함된 일 기능으로서, 사용자의 음성과 학습용 컨텐츠를 매칭시킨다. 구체적으로, 매칭부는 사용자의 음성과 음원과의 매칭 정도를 파악하여 그 차이점을 보여주기 때문에 사용자는 음원(원어민의 발음)과 유사한 발음을 내기 위한 발음 연습을 효과적으로 할 수 있다.The matching unit is a function included in the control unit, and matches the voice of the user with the learning contents. Specifically, since the matching unit grasps the degree of matching between the user's voice and the sound source, and shows the difference, the user can effectively practice pronunciation for sound similar to a sound source (native speaker's pronunciation).
메모리부(160)는 컨텐츠 데이터베이스, 사용자 정보 데이터베이스, 음성 분석 프로세스, TSS(text to speech), STT(speech to text) 등을 저장한다.The
음성 분석 프로세스에 의해 마이크(122)에 입력된 아날로그 음성은 디지털 신호로 바뀐다. 이 디지털 신호는 1/10,000 초 단위의 근접한 시차로 신호의 진폭을 나타내는 숫자들로 구성되어 있다. 음성 분석 프로세스는 음성 신호의 주파수를 분석하여 포먼트(formant)를 찾아냄으로써 음성을 분석한다.The analog voice input to the
포먼트는 사람의 소리를 주파수로 분석하여 어떤 주파수에 어느 정도의 에너지가 있는지를 그래프 등으로 나타낸 스펙트럼이다. 예를 들면 누구든지 '아' 하고 발음하면 소리의 성질에 관계없이 '아'하고 들린다. 이것은 ‘아’의 스펙트럼이 어떤 사람의 소리인지 관계없이 같은 스펙트럼 분포를 이루기 때문이다.A formant is a spectrum in which the sound of a person is analyzed by a frequency, and a graph or the like shows a certain degree of energy at a certain frequency. For example, if anyone pronounces 'ah', it sounds 'ah' regardless of the nature of the sound. This is because the spectrum of 'ah' has the same spectrum distribution regardless of the sound of any person.
TSS는 음성 합성이라고도 하며, 말소리의 음파를 기계가 자동으로 만들어 내는 기술로, 모델로 선정된 사람의 말소리를 녹음하여 일정한 음성 단위로 분할하고, 부호를 붙여 합성기에 입력하였다가 지시에 따라 필요한 음성단위만을 다시 합쳐 말소리를 인위로 만들어내는 기술이다. 반대로, STT는 입력되는 사람의 음성을 인식하여 문자화하는 기술이다.TSS is also called speech synthesis. It is a technology that automatically generates speech sound waves. The speech of a person selected by the model is recorded and divided into certain speech units. The signals are input to the synthesizer with a sign, It is a technique to articulate speech only by reassembling units. On the other hand, STT is a technique for recognizing the voice of a person to be input and characterizing the voice.
제어부(130)는 사용자의 설정에 따라 재생되는 음원의 재생 속도, 재생 단위, 재생 반복 구간을 제어한다. 여기에서 재생 단위는 단어, 의미상의 분절, 문장, 문단이 될 수 있다. 예컨대, 상기 설정되는 재생 단위가 문장인 경우, 문장별로 끊어 한 문장씩 출력하여, 사용자가 출력된 문장을 따라 읽을 수 있도록 한다.The
따라서, 본 발명은 학습 시에 음원과 사용자 목소리의 포먼트 대조를 통해 발음 유사도를 시각적으로 확인할 수 있기 때문에 사용자의 발음과 음원(원어민의 발음)이 어느 정도 유사한지 파악할 수 있어서 발음을 용이하게 교정할 수 있는 효과가 있다.Accordingly, since the pronunciation similarity can be visually confirmed through the formant contrast of the sound source and the user voice at the time of learning, the present invention can grasp the degree of similarity between the user's pronunciation and the sound source (pronunciation of the native speaker) There is an effect that can be done.
이하에서는, 추가 실시예에 따른 모바일 단말기를 이용한 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대하여 기술하기로 한다.Hereinafter, a method for providing a language self-learning service according to a further embodiment using a mobile terminal according to a further embodiment will be described.
추가 실시예에 따른 언어 자가학습 서비스 제공방법은, 녹음 또는 녹화된 학습용 컨텐츠들 중 하나가 사용자의 선택에 의해 재생되는 재생 단계; 상기 재생 이후 사용자의 음성을 입력받아 인식하는 인식 단계; 상기 인식 단계에서 인식한 음성과 상기 음성 컨텐츠를 매칭시켜 매칭 데이터를 생성하는 매칭 데이터 생성 단계; 및 상기 매칭 데이터를 사용자에게 제공하는 제공 단계;를 포함한다.A method for providing a language self-learning service according to a further embodiment includes: a reproducing step in which one of the recorded or recorded learning contents is reproduced by a user's selection; A recognition step of receiving and recognizing a user's voice after the reproduction; A matching data generation step of generating matching data by matching the voice recognized in the recognition step and the voice content; And a providing step of providing the matching data to a user.
위에 언급한 추가 실시예에 따른 서비스 제공방법에서 학습용 컨텐츠들 중 하나가 재생되는 재생단계는 전술한 도 2 또는 도 3에서 '1차 음성파일 재생단계(S1200)'에 해당할 수 있으며, 상기 재생 이후 사용자의 음성을 입력받아 인식하는 인식 단계는 전술한 도 2 또는 도 3에서 '2차 입력 음성정보 수신단계(S1320)'에 해당할 수 있다. In the service providing method according to the above-mentioned additional embodiment, the reproducing step in which one of the learning contents is reproduced may correspond to the 'first audio file reproducing step (S1200)' in FIG. 2 or 3 described above, Hereinafter, the recognition step of receiving and recognizing the voice of the user may correspond to the 'secondary input voice information receiving step (S1320)' in FIG. 2 or FIG.
또한, 위에 언급한 추가 실시예에 따른 서비스 제공방법에서 상기 인식 단계에서 인식한 음성과 상기 음성 컨텐츠를 매칭시켜 매칭 데이터를 생성하는 매칭 데이터 생성 단계 및 상기 매칭 데이터를 사용자에게 제공하는 제공 단계는, 사용자의 선택에 따라 또는 자동으로 전술한 도 2 또는 도 3에서 '더빙파일 생성단계(S1300)' 이후에 수행될 수 있다.In addition, in the service providing method according to the additional embodiment described above, the matching data generating step of generating matching data by matching the voice recognized in the recognizing step and the voice contents, and providing the matching data to the user, Or may be performed automatically after the 'dubbing file creation step (S1300)' in FIG. 2 or FIG. 3 as described above.
여기서, 상기 재생 단계는, 사용자 입력에 의해 재생 속도를 설정하는 과정; 사용자 입력에 의해 재생 단위를 설정하는 과정; 및 사용자 입력에 의해 반복 재생 구간을 설정하는 과정;을 포함하도록 구성될 수 있다.Here, the reproducing step may include: setting a reproduction speed by user input; Setting a playback unit by user input; And setting a repetitive playback interval by user input.
바람직하게는, 상기 인식 단계에서 사용자 음성을 주파수로 분석하여 어떤 주파수에 얼마큼의 에너지가 있는지를 확인할 수 있도록 실행될 수 있다.Preferably, the recognition step may be performed by analyzing the user's voice with a frequency so as to confirm how much energy is present at a certain frequency.
그리고, 상기 제공 단계에서 상기 매칭 데이터를 그래프 또는 매칭 백분율 중 적어도 하나로 제공할 수 있다.In the providing step, the matching data may be provided as at least one of a graph and a matching percentage.
게다가, 추가 실시예에 따른 언어 자가학습 서비스 제공방법은, 상기 매칭 데이터가 일정기준 이하인 경우 상기 재생 단계로 되돌아가도록 실행될 수 있다.In addition, the method of providing a language self-learning service according to a further embodiment may be executed to return to the regeneration step if the matching data is below a certain criterion.
추가 실시예에 따른 언어 자가학습 서비스 제공방법을 보다 구체적으로 살펴보면, 학습용 컨텐츠가 재생되면, 재생되는 학습용 컨텐츠의 포먼트가 디스플레이부(152)에 제공된다. 또한, 사용자의 설정에 따라 STT를 이용하여 디스플레이부(152)의 일부 영역에 학습용 컨텐츠의 텍스트가 표시될 수 있다.More specifically, the method for providing a language self-learning service according to a further embodiment of the present invention provides a formant of the learning content to be reproduced to the
상기 재생 단위에 따라 재생되는 학습용 컨텐츠를 사용자가 듣고 따라 말하면, 마이크(122)에 의해 입력되는 사용자 음성의 포먼트가 디스플레이부(152)에 제공된다.When the user listens to the learning contents reproduced according to the reproduction unit, a formant of the user voice input by the
마이크를 통해 입력된 사용자 음성은 음성 분석 프로세서에 의해 분석되며 그 분석에 따라 생성된 음성 포먼트는 FFT(Faster Fourier Transform)을 통해 필터링되어 제공되는 것이 바람직하다. 노이즈 제거부(148)을 이용한 필터링을 통해 잡음을 제거하면 신호처리의 품질을 향상시킬 수 있기 때문이다. 필터링된 포먼트는 그래프 등으로 시각화되어 저장될 수 있다.Preferably, the user voice input through the microphone is analyzed by a voice analysis processor, and the voice formants generated according to the analysis are provided by being filtered through an FFT (Faster Fourier Transform). This is because the quality of the signal processing can be improved by removing the noise through the filtering using the
따라서, 사용자는 발음에 따라 변화되는 주파수 대역을 실시간 눈으로 보면면서 자신의 발음을 확인할 수 있다.Therefore, the user can check his or her pronunciation while looking at the frequency band that changes according to the pronunciation in real time.
예컨대, 한국어 마찰음 /ㅅ/ 과, 영어 마찰음은 /s/는 혀가 구강 내에서 접촉을 일으키는 조음점이 다르기 때문에 발음시 발생되는 소리의 주파수가 다르다. 이를 FFT 변환하면, 한국어 마찰음 /ㅅ/은 저역대(0~3000Hz)의 소리가 없으며, 중역대인 6000Hz 주변에서 가장 큰 음량이 분포되어 있는 반면, 영어 마찰음은 /s/는 /ㅅ/ 에 비해 저역대 주파수 음량이 적고 8000Hz 이상의 고역대 주파수의 음량이 더 크다는 것을 포먼트를 통해 시각적으로 확인할 수 있다.For example, Korean fricative / s / /, and English fricative / s / are different frequencies of sound produced when pronouncing, because the tongue has a different point of connection that causes contact in the mouth. When the FFT is performed, the Korean fricative / ㅅ / has no sound of low frequency (0 ~ 3000Hz) and the largest volume is distributed around 6000Hz in the middle frequency range, whereas the English fricatives are / You can visually confirm through the formant that the volume is low and the volume of the high frequency band above 8000Hz is greater.
이후, 상기 제어부는 매칭부를 구동시켜 상기 인식한 음성을 상기 재생되는 학습용 컨텐츠에 매칭하여 매칭 데이터를 생성한다.Thereafter, the controller drives the matching unit to match the recognized speech with the learning content to be reproduced, and generates matching data.
매칭 데이터를 생성하기 위해, 학습용 컨텐츠의 재생시 메모리부(160)에 저장된 해당 학습용 컨텐츠의 포먼트가 매칭부에 제공된다. 이 포먼트를 제1 포먼트라 한다. 또한 마이크에 입력되는 사용자 음성의 포먼트가 매칭부에 제공된다. 이 포먼트를 제2 포먼트라 한다.In order to generate matching data, a formant of the corresponding learning content stored in the
매칭부는 제1 포먼트와 제2 포먼트를 매칭시킨 후 생성한 매칭 데이터를 디스플레이부(152)에 제공한다.The matching unit matches the first formant and the second formant, and provides the generated matching data to the
상기 매칭 데이터는 매칭율을 포함한 학습에 대한 평가로서, 사용자가 확인하기 쉽도록 백분율, 점수 등으로 계량화 또는 수치화하여 점수로 제공된다. 학습자는 점수를 통해 매번 자신의 발음이 어느 정도 향상되었는지를 파악할 수 있다. 이러한 점수화는 학습자의 학습 동기를 유발하는 장점이 있다.The matching data is an evaluation for learning including a matching rate, and is provided as a score by quantifying or quantifying it by a percentage, a score or the like so that the user can easily check it. The learner can use the score to figure out how much his pronunciation has improved each time. This scoring has the advantage of motivating learners to learn.
이후, 상기 제어부는 상기 매칭 데이터가 일정 기준 이상인지를 판단하여, 예컨대 매칭율이 일정기준(예를 들어, 90%) 이하인 경우 해당 부분을 다시 재생하도록 설정할 수 있다. 만약 상기 매칭 데이터가 일정 기준 이상인 경우에는 다음 재생 구간을 재생한다.Thereafter, the controller may determine whether the matching data is equal to or greater than a predetermined criterion, and if the matching rate is equal to or less than a predetermined criterion (for example, 90%), If the matching data is equal to or greater than a predetermined reference value, the next reproduction section is reproduced.
이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And the like. Accordingly, such modifications are deemed to be within the scope of the present invention, and the scope of the present invention should be determined by the following claims.
1000 : 모바일 단말기
110 : 무선 통신부
120 : 입력부
130 : 제어부
140 : 언어 자가학습 서비스 제공부
150 : 출력부
160 : 메모리부
170 : 인터페이스부
S1000, S2000, S3000 : 언어 자가학습 서비스 제공방법1000: Mobile terminal
110:
120: Input unit
130:
140: Language Self-Study Service Offering
150:
160:
170:
S1000, S2000, S3000: Language Self-Learning Service Delivery Method
Claims (19)
언어학습용 음성정보를 생성 또는 저장하는 원본 학습파일 생성단계;
상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계;
상기 모바일 단말기의 음향 입력부를 이용하여 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계; 및
사용자의 선택에 의해 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하고, 상기 중첩 음성정보는 삭제되지 않는 2차 입력 음성정보 추출단계를 포함하고,
상기 더빙파일 생성단계는 상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하고, 상기 1차 입력 음성정보의 음량과 상기 2차 입력 음성정보의 음량크기를 상대적으로 조절하여 더빙파일을 생성하며,
상기 1차 음성파일 재생단계에서 제어부가 디스플레이부를 통해 음성파일재생 출력화면을 출력하는 단계를 더 포함하고, 상기 음성파일재생 출력화면은 재생단계 제어부, 재생가능파일 리스트부, 더빙실행부를 포함하고,
상기 재생단계 제어부는 재생/일시정지 조절용 아이콘부, 뒤로 감기용 아이콘부, 앞으로 감기용 아이콘부, 반복재생 선택용 아이콘부, 반복구간 지정용 아이콘부, 음량조절용 아이콘부를 포함하고, 상기 재생가능파일 리스트부는 언어 자가학습 서비스 제공부가 재생가능한 메모리부 내의 파일리스트에 대한 출력화면이며,상기 더빙실행부는 더빙 안내 정보 출력부와, 더빙실행용 아이콘을 포함하고,
상기 더빙실행용 아이콘을 통하여 사용자의 입력신호가 수신되는 경우 상기 제어부가 상기 디스플레이부를 제어하여 상기 음성파일재생 출력화면을 더빙 출력화면으로 전환하는 단계를 더 포함하고,
상기 더빙출력화면은 상기 재생단계 제어부, 상기 재생가능파일 리스트부와, 더빙실행시간 출력부와, 더빙상태정보 출력부와, 더빙 실행/일시정지 조절용 아이콘부와, 더빙완료용 아이콘부를 포함하고,
상기 모바일 단말기의 음향 출력부를 이용하여, 상기 더빙파일의 중첩 음성정보를 출력하는 2차 음성파일 재생단계를 더 포함하고, 상기 2차 음성파일 재생단계는 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계, 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.A method for providing a language self-learning service using a mobile terminal,
An original learning file generation step of generating or storing speech learning speech information;
A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal;
A dubbing file generation step of receiving the secondary input voice information, which is voice information of the user, using the acoustic input unit of the mobile terminal and generating and storing the secondary input voice information as a dubbing file; And
Extracting and storing only the secondary input audio information in the superimposed audio information of the dubbing file at the user's selection and extracting the superimposed audio information;
Wherein the dubbing file generating step generates superimposed audio information by superimposing the secondary input audio information on the primary input audio information of the original learning file and generates a superimposed audio information on the basis of the volume of the primary input audio information and the volume of the secondary input audio information The size is relatively adjusted to generate a dubbing file,
Wherein the audio file reproduction output screen includes a reproduction step control part, a reproducible file list part, and a dubbing execution part, wherein the audio file reproduction output screen comprises:
Wherein the playback step control section includes an icon section for playback / pause control, an icon section for fast forwarding, an icon section for fast forward, an icon section for repeated playback selection, an icon section for specifying a repeat section, and an icon for volume control, Wherein the list portion is an output screen for a file list in a playable memory unit of the language self-learning service providing unit, the dubbing execution unit includes a dubbing guide information output unit and a dubbing execution icon,
When the user input signal is received through the dubbing execution icon, the control unit controls the display unit to switch the audio file reproduction output screen to a dubbing output screen,
Wherein the dubbing output screen includes the playback step control unit, the playable file list unit, the dubbing execution time output unit, the dubbing status information output unit, the icon unit for dubbing execution / pause control, and the dubbing completion icon unit,
Further comprising a secondary audio file playback step of outputting superimposed audio information of the dubbing file using the sound output unit of the mobile terminal, wherein the secondary audio file playback step is a step of playing back the secondary audio file, A second learning input audio information output step of outputting the second input audio information and a dubbing file audio information output step of outputting superimposed audio information which is audio information of the dubbing file, Wherein the mobile terminal is a mobile terminal.
상기 원본 학습파일 생성단계는,
상기 모바일 단말기의 음향 입력부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
The original learning file generation step includes:
Wherein the voice input unit is used to record and store the primary input voice information as voice learning voice information to be learned by the user using the voice input unit of the mobile terminal, Delivery method.
상기 원본 학습파일 생성단계는, 사용자의 입력신호에 따라 또는 자동으로
상기 모바일 단말기의 메모리부에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
The original learning file generation step may be performed in accordance with a user's input signal or automatically
And extracting and storing language learning audio information from the audio information content and the moving picture content stored in the memory unit of the mobile terminal.
상기 원본 학습파일 생성단계는,
상기 모바일 단말기의 무선 통신부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
The original learning file generation step includes:
Characterized in that the mobile terminal is executed to download language learning audio information or language learning contents to be learned by a user from a language self learning service providing server using the wireless communication unit of the mobile terminal, A method for providing self - learning service using language.
상기 더빙파일 생성단계는,
상기 1차 음성파일 재생단계 시작 후, 상기 더빙파일 생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 상기 2차 입력 음성정보를 수신하는 2차 입력 음성정보 수신단계;
상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하는 더빙파일 생성단계; 및
상기 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 더빙파일 저장단계;를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
The dubbing file generation step includes:
A user input signal receiving step of receiving, from a user, a user input signal for executing the dubbing file generating step after the first audio file reproducing step starts;
A secondary input voice information receiving step of driving the acoustic input unit of the mobile terminal based on the user input signal to receive the secondary input voice information;
A dubbing file generating step of superimposing the secondary input audio information on the primary input audio information of the original learning file to generate superposed audio information; And
And storing the overlapping audio information in a memory unit of the mobile terminal.
상기 1차 음성파일 재생단계는,
상기 1차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;를 포함하고,
상기 사용자 입력신호가 수신되는 경우, 상기 1차 음성파일 재생단계와 상기 더빙파일 생성단계는 동시에 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
Wherein the primary audio file reproducing step comprises:
And a user input signal receiving step of receiving from the user a user input signal for executing the primary audio file reproducing step,
Wherein the first audio file reproducing step and the dubbing file generating step are simultaneously performed when the user input signal is received.
상기 원본 학습파일 생성단계 및 상기 더빙파일 생성단계 중 적어도 하나 이상의 단계는,
상기 입력 음성정보에서 주변 노이즈 음성정보를 제거하는 노이즈 제거단계;를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
At least one of the original learning file generation step and the dubbing file generation step comprises:
And a noise removing step of removing ambient noise speech information from the input speech information.
상기 2차 음성파일 재생단계는,
상기 2차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 출력하는 더빙파일의 음성정보 출력단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
Wherein the secondary audio file reproducing step comprises:
A user input signal receiving step of receiving a user input signal for executing the secondary audio file reproducing step from a user;
And outputting audio information of a dubbing file to output superimposed audio information of the dubbing file based on the user input signal.
상기 2차 음성파일 재생단계 이후에,
더빙파일 재생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신하는 3차 입력 음성정보 수신단계;
상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성하는 더빙파일 재생성단계; 및
상기 추가 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 추가 더빙파일 저장단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
After the secondary audio file playback step,
A user input signal receiving step of receiving a user input signal for executing a dubbing file reproducing step from a user;
A third input voice information receiving step of driving the sound input unit of the mobile terminal based on the user input signal to receive third input voice information which is re-input voice information of the user;
A dubbing file reproducing step of superimposing the third-order input audio information on the primary input audio information of the original learning file to generate additional superposed audio information; And
And storing the additional audio information in a memory unit of the mobile terminal. The method of claim 1, further comprising:
상기 더빙파일 생성단계는,
상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하도록,
또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하도록,
또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록,
실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
The dubbing file generation step includes:
So as to generate a first dubbing file in which the volume magnitude of the primary input voice information is larger than the volume magnitude of the secondary input voice information,
Or a second dubbing file in which the volume level of the secondary input voice information is larger than the volume level of the primary input voice information,
Or both the first dubbing file and the second dubbing file,
Wherein the mobile terminal is a mobile terminal.
상기 2차 음성파일 재생단계는, 사용자 입력신호에 따라 또는 자동으로,
상기 제1 더빙파일을 출력하도록,
또는 상기 제2 더빙파일을 출력하도록,
또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 출력하도록,
또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 출력하도록,
실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.13. The method of claim 12,
The secondary audio file reproducing step may be performed in accordance with a user input signal or automatically,
To output the first dubbing file,
Or to output the second dubbing file,
Or sequentially outputting the first dubbing file and the second dubbing file,
Or sequentially outputting the second dubbing file and the first dubbing file,
Wherein the mobile terminal is a mobile terminal.
상기 원본 학습파일 생성단계의 시작 후에 실행되고, 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하는 스크립트 파일 생성단계; 및
상기 1차 음성파일 재생단계의 시작 후에 실행되고, 상기 모바일 단말기의 디스플레이부를 이용하여 상기 스크립트 파일의 텍스트정보를 출력하는 스크립트 파일 출력단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.The method according to claim 1,
A script file generation step that is executed after the start of the original learning file generation step, extracts text information from the original learning file, and generates and stores the extracted text information as a script file; And
And outputting a text file of the script file, the script file being executed after the start of the primary audio file playback step and using the display unit of the mobile terminal. Service delivery method.
상기 스크립트 파일 출력단계는,
상기 1차 음성파일 재생단계의 시작 후에, 상기 1차 입력 음성파일의 재생시각 정보에 기초하여 상기 텍스트정보를 시각적으로 변화시키도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.17. The method of claim 16,
The script file output step includes:
And after the start of the primary audio file reproduction step, the text information is visually changed based on reproduction time information of the primary input voice file.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170093212A KR101877559B1 (en) | 2017-07-24 | 2017-07-24 | Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170093212A KR101877559B1 (en) | 2017-07-24 | 2017-07-24 | Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160139241 Division | 2016-10-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20180045782A KR20180045782A (en) | 2018-05-04 |
KR101877559B1 true KR101877559B1 (en) | 2018-07-11 |
Family
ID=62199357
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170093212A KR101877559B1 (en) | 2017-07-24 | 2017-07-24 | Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101877559B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022186540A1 (en) * | 2021-03-05 | 2022-09-09 | 삼성전자 주식회사 | Electronic device and method for processing recording and voice input in electronic device |
US11991421B2 (en) | 2021-03-05 | 2024-05-21 | Samsung Electronics Co., Ltd. | Electronic device and method for processing voice input and recording in the same |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102396263B1 (en) * | 2018-10-08 | 2022-05-10 | 이재윤 | A System for Smart Language Learning Services using Scripts |
KR20230088377A (en) * | 2020-12-24 | 2023-06-19 | 주식회사 셀바스에이아이 | Apparatus and method for providing user interface for pronunciation evaluation |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060128777A (en) * | 2006-11-17 | 2006-12-14 | 주식회사 중앙교육진흥연구소 | Audio instructional materials for learning foreign language and recording medium manufacturing thereby and readable by audio player |
KR20100005177A (en) * | 2008-07-05 | 2010-01-14 | 임영희 | Customized learning system, customized learning method, and learning device |
KR20120051790A (en) * | 2010-11-13 | 2012-05-23 | 김경중 | Digital learning system and digital learning application |
KR20120075956A (en) * | 2010-12-29 | 2012-07-09 | 박상철 | Method for music-based language training and on-line training system thereof |
KR20160093898A (en) * | 2015-01-30 | 2016-08-09 | 이미옥 | Method and System for providing stability by using the vital sound based smart device |
-
2017
- 2017-07-24 KR KR1020170093212A patent/KR101877559B1/en active IP Right Grant
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060128777A (en) * | 2006-11-17 | 2006-12-14 | 주식회사 중앙교육진흥연구소 | Audio instructional materials for learning foreign language and recording medium manufacturing thereby and readable by audio player |
KR20100005177A (en) * | 2008-07-05 | 2010-01-14 | 임영희 | Customized learning system, customized learning method, and learning device |
KR20120051790A (en) * | 2010-11-13 | 2012-05-23 | 김경중 | Digital learning system and digital learning application |
KR20120075956A (en) * | 2010-12-29 | 2012-07-09 | 박상철 | Method for music-based language training and on-line training system thereof |
KR20160093898A (en) * | 2015-01-30 | 2016-08-09 | 이미옥 | Method and System for providing stability by using the vital sound based smart device |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022186540A1 (en) * | 2021-03-05 | 2022-09-09 | 삼성전자 주식회사 | Electronic device and method for processing recording and voice input in electronic device |
US11991421B2 (en) | 2021-03-05 | 2024-05-21 | Samsung Electronics Co., Ltd. | Electronic device and method for processing voice input and recording in the same |
Also Published As
Publication number | Publication date |
---|---|
KR20180045782A (en) | 2018-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10347238B2 (en) | Text-based insertion and replacement in audio narration | |
CN110148427B (en) | Audio processing method, device, system, storage medium, terminal and server | |
KR101877559B1 (en) | Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method | |
KR101164379B1 (en) | Learning device available for user customized contents production and learning method thereof | |
JP6128146B2 (en) | Voice search device, voice search method and program | |
KR101819459B1 (en) | Voice recognition system and apparatus supporting voice recognition error correction | |
JP2007206317A (en) | Authoring method and apparatus, and program | |
CN111739556A (en) | System and method for voice analysis | |
KR20090017414A (en) | System for providing educational contents | |
Rubin et al. | Capture-time feedback for recording scripted narration | |
JP2013072903A (en) | Synthesis dictionary creation device and synthesis dictionary creation method | |
JP2010085727A (en) | Electronic device having dictionary function, and program | |
US20190088258A1 (en) | Voice recognition device, voice recognition method, and computer program product | |
JP2006189799A (en) | Voice inputting method and device for selectable voice pattern | |
JP2006139162A (en) | Language learning system | |
JP6044490B2 (en) | Information processing apparatus, speech speed data generation method, and program | |
KR20220022822A (en) | Method of teaching korean using voice recognition and tts function of terminal device | |
JP2011180416A (en) | Voice synthesis device, voice synthesis method and car navigation system | |
JP6251219B2 (en) | Synthetic dictionary creation device, synthetic dictionary creation method, and synthetic dictionary creation program | |
KR100707727B1 (en) | A portable file player | |
Yong et al. | Low footprint high intelligibility Malay speech synthesizer based on statistical data | |
KR102585031B1 (en) | Real-time foreign language pronunciation evaluation system and method | |
JP2014240902A (en) | Learning support device | |
KR102274275B1 (en) | Application and method for generating text link | |
JP2005077678A (en) | Text and voice synchronizing device and text and voice synchronization processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A107 | Divisional application of patent | ||
A201 | Request for examination | ||
AMND | Amendment | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
GRNT | Written decision to grant |