KR101877559B1 - Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method - Google Patents

Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method Download PDF

Info

Publication number
KR101877559B1
KR101877559B1 KR1020170093212A KR20170093212A KR101877559B1 KR 101877559 B1 KR101877559 B1 KR 101877559B1 KR 1020170093212 A KR1020170093212 A KR 1020170093212A KR 20170093212 A KR20170093212 A KR 20170093212A KR 101877559 B1 KR101877559 B1 KR 101877559B1
Authority
KR
South Korea
Prior art keywords
file
dubbing
information
mobile terminal
unit
Prior art date
Application number
KR1020170093212A
Other languages
Korean (ko)
Other versions
KR20180045782A (en
Inventor
민병철
Original Assignee
민병철
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 민병철 filed Critical 민병철
Priority to KR1020170093212A priority Critical patent/KR101877559B1/en
Publication of KR20180045782A publication Critical patent/KR20180045782A/en
Application granted granted Critical
Publication of KR101877559B1 publication Critical patent/KR101877559B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Physics & Mathematics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Educational Administration (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Educational Technology (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 모바일 단말기의 녹음기능을 활용하여 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 용이하게 할 수 있도록 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법에 관한 것이다.
구체적으로, 본 발명은, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법으로서, 언어학습용 음성정보를 생성 또는 저장하는 원본 학습파일 생성단계; 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계; 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계;를 포함한다.
The present invention provides a language self-learning service using a mobile terminal that enables a user to efficiently and easily perform pronunciation correction, tone correction, vocalization correction, and the like in language learning such as a foreign language by utilizing a recording function of a mobile terminal ≪ / RTI >
Specifically, the present invention provides a method of providing a language self-learning service using a mobile terminal, the method comprising: generating an original learning file for generating or storing voice information for language learning; A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal; And a dubbing file generation step of receiving the secondary input voice information, which is voice information of the user, using the acoustic input unit of the mobile terminal, and generating and storing the secondary input voice information as a dubbing file.

Description

모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 실행하는 모바일 단말기 및 이를 실행하기 위한 애플리케이션을 저장하는 기록매체{METHOD FOR ALLOWING USER SELF-STUDYING LANGUAGE BY USING MOBILE TERMINAL, MOBILE TERMINAL FOR EXECUTING THE SAID METHOD AND RECORD MEDIUM FOR STORING APPLICATION EXECUTING THE SAID METHOD}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method for providing a language self-learning service using a mobile terminal, a mobile terminal for executing the same, and a recording medium storing an application for executing the same. MEDIUM FOR STORING APPLICATION EXECUTING THE SAID METHOD}

본 발명은 모바일 단말기의 녹음기능을 활용하여 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 용이하게 할 수 있도록 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법, 이를 구현하는 모바일 단말기 및 이를 구현하기 위한 프로그램을 저장하는 기록매체에 관한 것이다.The present invention provides a language self-learning service using a mobile terminal that enables a user to efficiently and easily perform pronunciation correction, tone correction, vocalization correction, and the like in language learning such as a foreign language by utilizing a recording function of a mobile terminal A mobile terminal for implementing the method, and a recording medium storing a program for implementing the method.

현대시대는 글로벌 시대로서, 이러한 글로벌 시대의 도래로 인해 외국어 등을 공부할 수 있는 언어 학습장치 또는 언어 학습 프로그램이 다양한 형태로 지속적으로 개발되고 있다.Modern age is a global era, and due to the arrival of this global age, language learning devices or language learning programs capable of studying foreign languages have been continuously developed in various forms.

특히, 종래에 따른 어학용 장치는 기본적으로 음향 재생기능을 가지는 카세트, CD 플레이어, DVD 플레이어, MP3 플레이어, 스마트폰 등으로 발전되어 왔다. 그리고, 이러한 어학용 장치는 음향 재생기능 뿐만 아니라 녹음기능의 발전으로 인해 학습자가 자신이 발성한 외국어 발음 등을 들어 교정할 수 있도록 발전되어 왔다.In particular, the conventional language device has been developed as a cassette having a sound reproducing function, a CD player, a DVD player, an MP3 player, a smart phone, and the like. These linguistic devices have been developed not only for the sound reproduction function but also for the linguistic pronunciation of the learner due to the development of the recording function.

이러한 종래기술에 따른 어학용 장치의 일 예로서 대한민국 공개특허공보 제10-2009-0119598호에 개시된 녹음기 등을 들 수 있다.An example of such a language device according to the related art is a recording device disclosed in Korean Patent Laid-Open Publication No. 10-2009-0119598.

그러나, 대한민국 공개특허공보 제10-2009-0119598호 등과 같이 종래기술에 따른 어학용 장치는 학습 컨텐츠의 음성 신호를 일시정지 또는 정지한 후, 별도로 학습자의 음성정보만을 녹음할 수 있도록 구성되어 있다.However, Korean Laid-Open Patent Publication No. 10-2009-0119598 and the like are constructed so that only the learner's voice information can be recorded separately after temporarily stopping or stopping the voice signal of the learning contents.

이로 인해, 종래기술에 따른 어학용 장치는 학습 컨텐츠의 음성 신호(예를 들어, 외국인의 대화내용, 또는 외국인의 음성정보 등)의 재생기간과 학습자의 음성정보의 녹음기간이 시간 전후를 두고 이루어지므로, 학습자 자신이 학습 컨텐츠의 음성 신호와 얼마나 유사하게 또는 일치되도록(즉, 얼마나 외국인의 대화내용 또는 외국인의 음성정보에 대해 유사한 음조(tone)로, 얼마나 유사한 발음으로, 또는 얼마나 유사한 발성속도로) 발음하고 있는지에 대해 인지하기 쉽지 않은 문제점이 제기되어 왔다.As a result, the apparatus for language according to the prior art has a time period for reproducing the audio signal of the learning contents (for example, conversation contents of foreigners, foreigner's voice information, etc.) , The learner himself or herself is made to be as similar or coincident with the speech signal of the learning content (that is, with a similar tone, with similar pronunciation, or at a similar rate of speech, for how much foreigner's conversation or foreigner's voice information is) It has been argued that it is not easy to recognize whether or not it is pronounced.

따라서, 본 발명의 목적은 종래기술에 따른 문제점을 해결하는 것이다.Accordingly, an object of the present invention is to solve the problems in the prior art.

구체적으로, 본 발명의 목적은 학습자(user)가 외국어 등과 같은 언어 학습시 발음교정, 음조교정, 발성속도교정 등을 효율적이고 정확하며 용이하게 할 수 있도록 하는 모바일 단말기, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법 및 이를 저장하는 기록매체를 제공하는 것이다.More specifically, it is an object of the present invention to provide a mobile terminal that enables a user to efficiently, precisely, and easily perform pronunciation correction, tone correction, and utterance speed correction during language learning such as a foreign language, A service providing method and a recording medium storing the service providing method.

전술한 과제를 해결하기 위한 본 발명의 일 실시예에 따르면, 본 발명은, 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법으로서, 언어학습용 음성정보를 생성하는 원본 학습파일 생성단계; 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계; 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계;를 포함하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 제공할 수 있다.According to an aspect of the present invention, there is provided a method of providing a language self-learning service using a mobile terminal, the method comprising: generating an original learning file for generating language learning voice information; A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal; And a dubbing file generation step of receiving the secondary input voice information, which is the voice information of the user, using the sound input unit of the mobile terminal and generating and storing the secondary input voice information as a dubbing file, and providing the self learning service using the mobile terminal can do.

또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 상기 모바일 단말기의 음향 입력부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 한다.Preferably, in the step of generating the original learning file, the primary input voice information, which is the language learning voice information to be learned by the user, is recorded using the sound input unit of the mobile terminal and is generated and stored as an original learning file Is executed.

또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 사용자의 입력신호에 따라 또는 자동으로. 상기 모바일 단말기의 메모리부에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행되는 것을 특징으로 한다.Preferably, the original learning file generation step is performed in accordance with a user's input signal or automatically. And extracting and storing language learning audio information from the audio information content and the moving picture content stored in the memory unit of the mobile terminal.

또한, 바람직하게는, 상기 원본 학습파일 생성단계는, 상기 모바일 단말기의 무선 통신부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 한다.Preferably, in the step of generating the original learning file, the language learning audio information or the language learning content that the user wants to learn is downloaded from the language self learning service providing server using the wireless communication unit of the mobile terminal, To be generated and stored.

또한, 바람직하게는, 상기 더빙파일 생성단계는, 상기 1차 음성파일 재생단계 시작 후, 상기 더빙파일 생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 상기 2차 입력 음성정보를 수신하는 2차 입력 음성정보 수신단계; 상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하는 더빙파일 생성단계; 및 상기 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 더빙파일 저장단계;를 포함하는 것을 특징으로 한다.Preferably, the dubbing file generating step includes: a user input signal receiving step of receiving, from the user, a user input signal for executing the dubbing file generating step after the first audio file reproducing step starts; A secondary input voice information receiving step of driving the acoustic input unit of the mobile terminal based on the user input signal to receive the secondary input voice information; A dubbing file generating step of superimposing the secondary input audio information on the primary input audio information of the original learning file to generate superposed audio information; And a dubbing file storing step of storing the superimposed audio information in a memory unit of the mobile terminal.

또한, 바람직하게는, 상기 1차 음성파일 재생단계는, 상기 1차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;를 포함하고, 상기 사용자 입력신호가 수신되는 경우, 상기 1차 음성파일 재생단계와 상기 더빙파일 생성단계는 동시에 실행되는 것을 특징으로 한다.Preferably, the primary audio file reproducing step includes a user input signal receiving step of receiving a user input signal for executing the primary audio file reproducing step from the user, wherein the user input signal is received The first audio file reproducing step and the dubbing file generating step are executed simultaneously.

또한, 바람직하게는, 상기 원본 학습파일 생성단계 및 상기 더빙파일 생성단계 중 적어도 하나 이상의 단계는, 상기 입력 음성정보에서 주변 노이즈 음성정보를 제거하는 노이즈 제거단계;를 포함하는 것을 특징으로 한다.Preferably, the at least one of the original learning file generation step and the dubbing file generation step includes a noise removal step of removing ambient noise speech information from the input speech information.

또한, 바람직하게는, 상기 모바일 단말기의 음향 출력부를 이용하여, 상기 더빙파일의 중첩 음성정보를 출력하는 2차 음성파일 재생단계;를 더 포함하는 것을 특징으로 한다.Preferably, the method further includes a secondary audio file playback step of outputting superimposed audio information of the dubbing file using the sound output unit of the mobile terminal.

또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 상기 2차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 출력하는 더빙파일의 음성정보 출력단계;를 포함하는 것을 특징으로 한다.Preferably, the secondary audio file reproducing step includes: a user input signal receiving step of receiving from the user a user input signal for executing the secondary audio file reproducing step; And outputting audio information of a dubbing file to output superimposed audio information of the dubbing file based on the user input signal.

또한, 바람직하게는, 상기 2차 음성파일 재생단계 이후에, 상기 더빙파일 재생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계; 상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신하는 3차 입력 음성정보 수신단계; 상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성하는 더빙파일 재생성단계; 및 상기 추가 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 추가 더빙파일 저장단계;를 더 포함하는 것을 특징으로 한다.Preferably, a user input signal receiving step of receiving, from the user, a user input signal for executing the dubbing file reproducing step after the secondary audio file reproducing step; A third input voice information receiving step of driving the sound input unit of the mobile terminal based on the user input signal to receive third input voice information which is re-input voice information of the user; A dubbing file reproducing step of superimposing the third-order input audio information on the primary input audio information of the original learning file to generate additional superposed audio information; And an additional dubbing file storing step of storing the additional overlapping audio information in a memory unit of the mobile terminal.

또한, 바람직하게는, 상기 더빙파일 생성단계는, 사용자 입력신호에 따라 또는 자동으로, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하도록, 또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하도록, 또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록, 실행되는 것을 특징으로 한다. Preferably, the dubbing file generation step may include a step of generating a first dubbing file in which the volume magnitude of the primary input voice information is larger than the volume magnitude of the secondary input voice information, Or to generate a second dubbing file in which the volume magnitude of the secondary input audio information is larger than the volume magnitude of the primary input audio information or to generate both the first dubbing file and the second dubbing file .

또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 사용자 입력신호에 따라 또는 자동으로, 상기 제1 더빙파일을 출력하도록, 또는 상기 제2 더빙파일을 출력하도록, 또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 출력하도록, 또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 출력하도록, 실행되는 것을 특징으로 한다.It is preferable that the secondary audio file reproducing step is performed to output the first dubbing file or to output the second dubbing file in accordance with a user input signal or automatically, And sequentially outputting the second dubbing file or sequentially outputting the second dubbing file and the first dubbing file.

또한, 바람직하게는, 상기 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법은, 상기 더빙파일 생성단계 이후에, 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하는 2차 입력 음성정보 추출단계;를 더 포함하는 것을 특징으로 한다.Preferably, the method for providing a language self-learning service using the mobile terminal further includes a step of, after the dubbing file generation step, extracting and storing only the secondary input voice information from the superimposed voice information of the dubbing file, And an information extracting step.

또한, 바람직하게는, 상기 2차 음성파일 재생단계는, 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계; 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계; 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계;를 포함하는 것을 특징으로 한다.Preferably, the secondary audio file reproducing step includes: an original learning file audio information output step of outputting primary input audio information which is audio information of the original learning file; A secondary input voice information output step of outputting the secondary input voice information; And a dubbing file audio information output step of outputting superimposed audio information which is audio information of the dubbing file.

또한, 바람직하게는, 상기 원본 학습파일 생성단계의 시작 후에 실행되고, 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하는 스크립트 파일 생성단계; 및 상기 1차 음성파일 재생단계의 시작 후에 실행되고, 상기 모바일 단말기의 디스플레이부를 이용하여 상기 스크립트 파일의 텍스트정보를 출력하는 스크립트 파일 출력단계;를 더 포함하는 것을 특징으로 한다.Preferably, the script file generation step is executed after the start of the original learning file generation step, and extracts text information from the original learning file and generates and stores the text information as a script file; And a script file output step executed after the start of the primary audio file playback step and outputting text information of the script file using the display unit of the mobile terminal.

또한, 바람직하게는, 상기 스크립트 파일 출력단계는, 상기 1차 음성파일 재생단계의 시작 후에, 상기 1차 입력 음성파일의 재생시각 정보에 기초하여 상기 텍스트정보를 시각적으로 변화시키도록 실행되는 것을 특징으로 한다.Preferably, the script file output step is performed so as to visually change the text information based on the reproduction time information of the primary input audio file after the start of the primary audio file reproduction step .

그리고, 전술한 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따르면, 본 발명은, 전술한 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하는 모바일 단말기를 제공할 수 있다.According to another embodiment of the present invention for solving the above-mentioned problems, the present invention can provide a mobile terminal that executes the above-described method for providing a language self-learning service using the mobile terminal.

그리고, 전술한 과제를 해결하기 위한 본 발명의 또 다른 일 실시예에 따르면, 전술한 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하기 위한 애플리케이션을 저장하는 기록매체를 제공할 수 있다.According to another embodiment of the present invention, there is provided a recording medium storing an application for executing a method for providing a language self-learning service using the mobile terminal.

전술한 과제의 해결수단에 따르면, 본 발명은 더빙파일을 생성하고 상기 더빙파일을 재생하도록 구성됨으로써, 학습자가 자신이 발음한 언어 음성정보를 학습하고자 하는 원본 학습파일의 음성정보와 동시에 비교함으로써 학습자가 자신의 언어(예를 들어, 외국어) 학습시 발음, 음조 및 발성속도 등을 정확하고 용이하게 교정할 수 있도록 할 수 있다.According to a solution to the above-mentioned problem, the present invention is configured to generate a dubbing file and reproduce the dubbing file, so that the learner simultaneously compares the linguistic voice information pronounced with the linguistic voice information of the original learning file, The user can accurately and easily correct pronunciation, tonality, and utterance speed during learning of his / her own language (e.g., a foreign language).

또한, 본 발명은 언어학습용 음성정보를 직접 녹음하여 생성할 수 있으므로 언어학습 컨텐츠를 무제한적으로 용이하게 생성할 수 있어, 언어학습 컨텐츠의 다양성을 현저히 향상시킬 수 있다.In addition, since the speech information for language learning can be directly recorded and generated, the language learning contents can be easily generated indefinitely, and the diversity of language learning contents can be significantly improved.

또한, 본 발명은 동영상 컨텐츠로부터 음성정보만 추출하여 외국 영화, 외국 드라마 등을 활용한 언어학습을 용이하게 할 수 있다.In addition, the present invention can extract only voice information from moving picture contents and facilitate language learning using foreign movies, foreign dramas, and the like.

또한, 본 발명은 서비스 제공서버를 통하여 언어학습용 음성정보 또는 언어학습용 컨텐츠를 다운로드하여 사용할 수 있도록 구성됨으로써, 서비스 제공서버 공급자가 각종 음성정보 또는 컨텐츠를 판매하여 수익을 창출할 수 있도록 할 수 있다.In addition, the present invention is configured to download and use language learning audio information or language learning contents through a service providing server, so that a service providing server provider can sell various kinds of audio information or contents to generate revenue.

그리고, 본 발명은 노이즈 제거부를 포함함으로써 향상된 선명한 음질의 원본 학습파일 및/또는 더빙파일의 음질을 사용자에게 제공할 수 있어, 사용자의 언어 학습 편의성을 향상시킬 수 있다.Further, the present invention can provide a user with the sound quality of the original learning file and / or the dubbing file with improved clear sound quality by including the noise eliminator, thereby improving the user's language learning convenience.

또한, 본 발명은 더빙파일 재생 중에 새로운 더빙파일을 생성할 수 있도록 구성됨으로써, 사용자가 실수로 발음하는 경우에도 용이하게 새로운 더빙파일을 생성할 수 있다.Further, the present invention is configured to generate a new dubbing file during playback of the dubbing file, so that a new dubbing file can be easily generated even if the user mistakenly pronounces it.

또한, 본 발명은 더빙파일에서 원본 학습파일 음성정보(즉, 1차 입력 음성정보) 및 2차 입력 음성정보 중 하나를 다른 하나에 비해 상대적으로 음량이 크도록 더빙파일을 생성할 수 있고, 이를 선택적으로 또는 순차적으로 재생하도록 구성됨으로써, 사용자의 자기발음 인지성을 현저히 향상시켜 사용자의 언어 학습 효과을 증대시킬 수 있다.Further, the present invention can generate a dubbing file such that one of the original learning file audio information (i.e., primary input audio information) and the secondary input audio information in the dubbing file is relatively louder than the other, Selectively or sequentially, so that the user's self-pronunciations can be significantly improved and the user's learning effect on the language can be enhanced.

또한, 본 발명은 2차 입력 음성정보만를 추출하여 별도로 저장하고 원본 학습파일, 2차 입력 음성정보 및 더빙파일을 선택적으로 및/또는 순차적으로 재생할 수 있도록 구성됨으로써, 사용자가 자신의 발음 음성정보와 원복 학습파일의 음성정보를 반복적으로 비교하여 자신의 발음 음성정보를 효율적으로 교정할 수 있도록 할 수 있다.In addition, according to the present invention, only the secondary input voice information is extracted and stored separately, and the original learning file, the secondary input voice information, and the dubbing file can be selectively and / or sequentially reproduced, It is possible to make it possible to efficiently calibrate the pronunciation voice information of the user by repeatedly comparing the voice information of the original learning file.

그리고, 본 발명은 스크립트를 생성하고 출력하도록 구성함으로써, 더빙파일 생성시 학습자가 용이하게 더빙작업을 수행할 수 있도록 할 수 있을 뿐만 아니라, 언어학습용 컨텐츠가 청각적 및 시각적으로 동시에 제공되므로 사용자의 언어 학습 효과를 현저히 향상시킬 수 있다.In addition, since the present invention is configured to generate and output a script, a learner can easily perform a dubbing operation when creating a dubbing file, and since the language learning contents are simultaneously provided audibly and visually, The learning effect can be remarkably improved.

게다가, 본 발명은 더빙파일 생성단계의 시작 후 원본 학습파일의 재생시각에 연동하여 스크립트의 텍스트정보를 시각적으로 변화시키도록 구성됨으로써, 사용자가 더빙작업을 보다 더 용이하고 정확하게 하도록 할 수 있다. 이로 인해, 사용자의 언어 발음 학습효과 및/또는 언어 발음 교정효과를 현저히 향상시킬 수 있다.In addition, the present invention is configured to visually change the text information of the script in synchronization with the reproduction time of the original learning file after the start of the dubbing file generation step, thereby making it possible for the user to perform the dubbing operation more easily and accurately. As a result, it is possible to remarkably improve the user's language learning pronunciation learning effect and / or the language pronunciation correcting effect.

도 1은 본 발명의 일 실시예에 따른 모바일 단말기에 대한 개략적인 블록선도이다.
도 2는 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 3은 도 2의 상세 플로우챠트이다.
도 4는 추가 실시예에 따른 원본 학습파일 생성단계에 대한 개략적인 플로우챠트이다.
도 5a는 본 발명에 따른 1차 음성파일 재생단계가 실행되는 경우 디스플레이부에 출력되는 음성파일재생 출력화면에 대한 개략도이고, 도 5b는 본 발명에 따른 더빙파일 생성단계가 실행되는 경우 디스플레이부에 출력되는 더빙 출력화면에 대한 개략도이다.
도 6는 제1 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 7은 도 6의 상세 플로우챠트이다.
도 8은 제2 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대한 개략적인 플로우챠트이다.
도 9은 도 8의 스크립트 파일 생성단계에 대한 개략적인 플로우챠트이다.
도 10는 도 8의 스크립트 파일 출력단계에 대한 개략적인 플로우챠트이다.
1 is a schematic block diagram of a mobile terminal according to an embodiment of the present invention.
2 is a schematic flow chart of a method for providing a language self-learning service according to an embodiment of the present invention.
FIG. 3 is a detailed flowchart of FIG. 2. FIG.
FIG. 4 is a schematic flow chart of an original learning file generation step according to a further embodiment.
FIG. 5A is a schematic view of a voice file reproduction output screen output to the display unit when the primary audio file reproduction step according to the present invention is executed. FIG. Fig. 3 is a schematic view of a dubbing output screen to be outputted; Fig.
6 is a schematic flow chart of a method for providing a language self-learning service according to a first additional embodiment.
7 is a detailed flowchart of Fig.
8 is a schematic flow chart of a method for providing a language self-learning service according to a second additional embodiment.
9 is a schematic flow chart of the script file generation step of FIG.
10 is a schematic flow chart of the script file output step of FIG.

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 당해 분야의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명하기로 한다. 첨부된 도면들에서 구성에 표기된 도면번호는 다른 도면에서도 동일한 구성을 표기할 때에 가능한 한 동일한 도면번호를 사용하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 도면에 제시된 어떤 특징들은 설명의 용이함을 위해 확대 또는 축소 또는 단순화된 것이고, 도면 및 그 구성요소들이 반드시 적절한 비율로 도시되어 있지는 않다. 그러나 당업자라면 이러한 상세 사항들을 쉽게 이해할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be noted that the drawings denoted by the same reference numerals in the drawings denote the same reference numerals whenever possible, in other drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. And certain features shown in the drawings are to be enlarged or reduced or simplified for ease of explanation, and the drawings and their components are not necessarily drawn to scale. However, those skilled in the art will readily understand these details.

도 1은 본 발명의 일 실시예에 따른 모바일 단말기(1000)에 대한 개략적인 블록선도이다.1 is a schematic block diagram of a mobile terminal 1000 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 모바일 단말기(1000)는, 무선 통신부(110)와, 터치형 입력부(121) 및 음향 입력부(122)를 포함하는 입력부(120)와, 음향 출력부(151)와 디스플레이부(152)를 포함하는 출력부(150)와, 각종 정보 및 데이터를 저장하는 메모리부(160)와, 인터페이스부(170)와, 본 발명에 따른 언어 자가학습 서비스 제공부(140)와, 전술한 구성요소들을 제어하는 제어부(130)를 포함한다.1, a mobile terminal 1000 according to an exemplary embodiment of the present invention includes a wireless communication unit 110, an input unit 120 including a touch-type input unit 121 and a sound input unit 122, An output unit 150 including an audio output unit 151 and a display unit 152, a memory unit 160 for storing various information and data, an interface unit 170, A learning service providing unit 140, and a control unit 130 for controlling the above-described components.

여기서, 상기 모바일 단말기(1000)는, 휴대폰, 스마트폰(smart phone), 노트북 컴퓨터(laptop computer), 태블릿PC, PDA(Personal Digital Assistants), 웨어러블 디바이스(wearable device) 등을 포함할 수 있다. The mobile terminal 1000 may include a mobile phone, a smart phone, a laptop computer, a tablet PC, a personal digital assistant (PDA), a wearable device, and the like.

상기 무선 통신부(110)는 상기 모바일 단말기(1000)와 언어 자가학습 서비스 제공서버와 상호 무선 데이터 통신가능하도록 구성된다.The wireless communication unit 110 is configured to enable wireless data communication with the mobile terminal 1000 and a language self-learning service providing server.

상기 입력부(120)는, 사용자의 입력신호를 사용자의 수신호로 수신하는 터치형 입력부(121)와, 사용자의 입력신호를 사용자의 음성신호로 수신하는 음향 입력부(122)를 포함한다.The input unit 120 includes a touch-type input unit 121 that receives a user's input signal as a user's signal, and an acoustic input unit 122 that receives a user's input signal as a user's voice signal.

상기 터치형 입력부(121)는 터치스크린, 키보드, 물리버튼 등을 포함할 수 있다.The touch-type input unit 121 may include a touch screen, a keyboard, a physical button, and the like.

상기 음향 입력부(122)는 마이크를 포함하고, 상기 마이크는 마이크로폰(Microphone)에 의해 사용자의 음성 신호를 입력받아 전기적인 음성 정보(데이터)로 처리할 수 있다. 처리된 음성 정보(데이터)는 제어부(130)에서 인지가능한 형태로 변환되어 전송될 수 있다. 상기 마이크에는 외부의 음향 신호를 입력받는 과정에서 발생되는 잡음을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다. 물론 도면에 도시된 바와 같이, 상기 언어 자가학습 서비스 제공부(140)는 별도의 노이즈 제거부(148)를 포함할 수 있다.The sound input unit 122 includes a microphone, and the microphone can receive a voice signal of a user by a microphone and process the voice as electrical voice information (data). The processed voice information (data) can be converted into a form recognizable by the control unit 130 and transmitted. The microphone may be implemented with various noise reduction algorithms for eliminating noise generated in receiving an external sound signal. Of course, as shown in the figure, the language self-learning service provider 140 may include a separate noise eliminator 148.

상기 인터페이스부(170)는, 제어부(130)에 전기적 또는 통신 신호적으로 연결되는 모든 외부기기와의 통로 역할을 한다. 인터페이스부(170)는 외부 기기로부터 데이터를 전송받거나, 전원을 공급받아 모바일 단말기(1000) 내부의 각 구성 요소에 전달하거나, 모바일 단말기(1000) 내부의 데이터가 외부 기기로 전송되도록 한다. 예를 들어, 유/무선 헤드셋 포트, 충전 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트, 오디오 I/O(Input/Output) 포트, 비디오 I/O(Input/Output) 포트, 이어폰 포트 등이 인터페이스부(170)에 포함될 수 있다. The interface unit 170 serves as a path to all the external devices connected to the control unit 130 in terms of electrical or communication signals. The interface unit 170 receives data from an external device or supplies power to each component in the mobile terminal 1000 or transmits data in the mobile terminal 1000 to an external device. For example, a wired / wireless headset port, a charging port, a wired / wireless data port, a memory card port, a port for connecting a device having an identification module, an audio I / An input / output (I / O) port, an earphone port, and the like may be included in the interface unit 170.

상기 메모리부(160)는, 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크(122)로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크, SSD(Solid State Drive) 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 상기 모바일 단말기(1000)는 인터넷(internet)상에서 상기 메모리부(160)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다.The memory unit 160 may be a flash memory type, a hard disk type, a multimedia card micro-type, a card type memory (for example, SD Or XD memory), a random access memory (RAM), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read- Memory, a magnetic memory, a magnetic disk, an optical disk, and a solid state drive (SSD). In addition, the mobile terminal 1000 may operate in association with a web storage that performs a storage function of the memory unit 160 on the Internet.

상기 출력부(150)는 음향 출력부(151)와 디스플레이부(152)를 포함한다. 상기 음향 출력부(151)는 스피커, 이어폰 또는 헤드폰 등의 외부 음향장치 접속단자 등을 포함할 수 있다.The output unit 150 includes an audio output unit 151 and a display unit 152. The sound output unit 151 may include an external sound device connection terminal such as a speaker, an earphone, or a headphone.

상기 제어부(130)는, 상기 무선 통신부(110), 상기 입력부(120), 상기 출력부(150), 상기 메모리부(160), 상기 인터페이스부(170) 등 상기 모바일 단말기(1000)에 포함되는 구성요소 및 프로그램(제어 알고리즘)을 제어하도록 구성된다. The control unit 130 may be included in the mobile terminal 1000 such as the wireless communication unit 110, the input unit 120, the output unit 150, the memory unit 160, and the interface unit 170 Components and programs (control algorithms).

상기 언어 자가학습 서비스 제공부(140)는, 사용자의 입력신호에 의해 무선 통신부(110)를 통하여 언어 자가학습 서비스 제공서버에서 언어 자가학습 서비스 애플리케이션을 상기 모바일 단말기(1000)(또는 상기 모바일 단말기(1000)의 메모리부(160))에 다운로드하여 실행하는 경우 제어부(130) 내에 또는 제어부(130)와 상호 구동하도록 설치되는 제어 알고리즘 또는 프로그램이다.The language self-learning service provider 140 may send a language self-learning service application to the mobile terminal 1000 (or the mobile terminal 1000) via the wireless communication unit 110, The control unit 130 or the control unit 130 in the case of downloading and executing the control algorithm or program to the memory unit 160 of the control unit 130. [

상기 언어 자가학습 서비스 제공부(140)는, 레코더 구동부(141)와, 재생 구동부(142)와, 더빙 구동부(143)와, 음성정보 필터부(144)와, 디스플레이 구동부(145)와, 음성-텍스트 변환부(146)와, 노이즈 제거부(148)와, 음성정보 추출부(149)를 포함한다.The speech self-learning service providing unit 140 includes a recorder driving unit 141, a reproduction driving unit 142, a dubbing driving unit 143, an audio information filtering unit 144, a display driving unit 145, A text converting unit 146, a noise removing unit 148, and a voice information extracting unit 149. [

상기 레코더 구동부(141)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(예를 들어, 마이크)를 활성화시켜 녹음기능을 실행한다. 상기 레코더 구동부(141)는 후술할 원본 학습파일 생성단계(S1100)를 구동하도록 구성된다.The recorder driving unit 141 activates the sound input unit 122 (e.g., a microphone) through the input unit 120 and the control unit 130 to execute the recording function. The recorder driving unit 141 is configured to drive an original learning file generation step (S1100) to be described later.

상기 재생 구동부(142)는 입력부(120) 및 제어부(130)를 통하여 음향 출력부(151)(예를 들어, 스피커)를 활성화시켜 동영상 컨텐츠 또는 음성 정보를 재생하는 플레이기능을 실행한다. 상기 재생 구동부(142)는 후술할 1차 음성파일 재생단계(S1200), 2차 음성파일 재생단계(1400)를 구동하도록 구성된다. 그리고, 상기 재생 구동부(142)는 하나의 음성정보 또는 파일을 반복하여 재생하도록 하는 반복 재생부와, 하나의 음성정보에서 일정 부분만을 반복하여 재생하도록 하는 구간반복 재생부를 포함할 수 있다.The playback drive unit 142 activates the audio output unit 151 (e.g., a speaker) through the input unit 120 and the control unit 130 to execute a play function for playing back the moving picture content or the audio information. The playback drive unit 142 is configured to drive a first audio file playback step (S1200) and a second audio file playback step (1400), which will be described later. The playback drive unit 142 may include an iterative playback unit for repeatedly playing back one audio information or file, and an interval repetition playback unit for repeatedly playing only a certain portion of one audio information.

상기 더빙 구동부(143)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(예를 들어, 마이크)를 활성화시켜 녹음기능을 실행한다. 상기 더빙 구동부(143)는 후술할 더빙파일 생성단계(S1300), 더빙파일 재생성단계를 구동하도록 구성된다.The dubbing driver 143 activates the sound input unit 122 (for example, a microphone) through the input unit 120 and the controller 130 to perform a recording function. The dubbing driver 143 is configured to drive a dubbing file generating step (S1300) and a dubbing file reproducing step, which will be described later.

상기 음성정보 필터부(144)는 1차 입력 음성정보와 2차 입력 음성정보를 중첩적으로 포함하는 더빙파일에서 1차 입력 음성정보에 해당하는 음역대를 제거하여 2차 입력 음성정보만 추출하도록 구성된다.The voice information filter unit 144 removes the band corresponding to the primary input voice information from the dubbing file including the primary input voice information and the secondary input voice information in a superimposed manner to extract only the secondary input voice information do.

상기 디스플레이 구동부(145)는 디스플레이부(152)와 제어부(130)를 통하여 상기 언어 자가학습 서비스와 관련된 화면정보, UI정보 및 아이콘형 입력부(120) 등이 상기 디스플레이부(152)에 출력되도록 구성된다.The display driver 145 displays the screen information, the UI information, and the icon-type input unit 120 related to the language self-learning service through the display unit 152 and the control unit 130 on the display unit 152 do.

상기 음성-텍스트 변환부(146)는 레코더 구동부(141)를 통하여 수신되는 언어학습용 음성정보(즉, 녹음된 원본 학습파일)를 텍스트정보로 변환하여 상기 메모리부(160)에 저장한다. 또한, 상기 음성-텍스트 변환부(146)는 상기 언어학습용 음성정보에서 상기 텍스트정보에 대응되는 대응 재생시각 정보를 추출하여 메모리부(160)에 저장한다.The voice-to-text conversion unit 146 converts the language learning audio information (i.e., the recorded original learning file) received through the recorder driving unit 141 into text information and stores the text information in the memory unit 160. [ The voice-to-text conversion unit 146 extracts corresponding reproduction time information corresponding to the text information from the language learning voice information, and stores the extracted reproduction time information in the memory unit 160.

상기 노이즈 제거부(148)는 입력부(120) 및 제어부(130)를 통하여 음향 입력부(122)(즉, 마이크)에서 수신되는 음성정보 및/또는 음향정보에서 노이즈를 제거하도록 구성된다. 상기 음성정보 필터부(144)는 후술할 노이즈 제거단계를 구동하도록 구성된다.The noise removing unit 148 is configured to remove noise from the sound information and / or sound information received from the sound input unit 122 (i.e., microphone) through the input unit 120 and the control unit 130. [ The voice information filter unit 144 is configured to drive a noise removing step to be described later.

상기 음성정보 추출부(149)는 상기 모바일 단말기(1000)의 메모리부(160)에 저장된 동영상 컨텐츠에서 음성정보(예를 들어, 외국 영화 또는 드라마 속의 대화내용 등)만을 추출하도록 구성된다. 이렇게 추출된 음성정보는 원본 학습파일로 활용될 수 있다.The voice information extracting unit 149 is configured to extract only voice information (for example, conversation contents in a foreign movie or drama) from the moving picture contents stored in the memory unit 160 of the mobile terminal 1000. [ The extracted voice information can be used as an original learning file.

상기 언어 자가학습 서비스 제공부(140)의 각 구성요소에 대해서는 이하에서 기술할 본 발명에 따른 모바일 단말기(1000)를 이용한 언어 자가학습 서비스 제공방법(S1000)에 대한 설명에서 보다 구체적으로 기술하기로 한다.Each component of the language self-learning service providing unit 140 will be described in more detail in a description of a language self-learning service providing method (S1000) using the mobile terminal 1000 according to the present invention described below do.

도 2는 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)에 대한 개략적인 플로우챠트이고, 도 3은 도 2의 상세 플로우챠트이고, 도 4는 추가 실시예에 따른 원본 학습파일 생성단계(S1100)에 대한 개략적인 플로우챠트이고, 도 5a는 본 발명에 따른 1차 음성파일 재생단계(S1200)가 실행되는 경우 디스플레이부(152)에 출력되는 음성파일재생 출력화면(152a)에 대한 개략도이고, 도 5b는 본 발명에 따른 더빙파일 생성단계(S1300)가 실행되는 경우 디스플레이부(152)에 출력되는 더빙 출력화면(152b)에 대한 개략도이다.FIG. 2 is a schematic flow chart of a method for providing a language self-learning service (S1000) according to an embodiment of the present invention, FIG. 3 is a detailed flowchart of FIG. 2, 5A is a schematic flow chart of the generation step S1100 of FIG. 5A. FIG. 5A is a schematic flowchart of the generation of the audio file reproduction output screen 152a output to the display unit 152 when the primary audio file reproduction step S1200 according to the present invention is executed And FIG. 5B is a schematic view of a dubbing output screen 152b output to the display unit 152 when the dubbing file generation step (S1300) according to the present invention is executed.

도 2 및 도 3에 도시된 바와 같이, 본 발명의 일 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)은, 전술한 모바일 단말기(1000)에 포함된 구성요소 및 제어 알고리즘을 이용하여 구현되는 것으로서, 원본 학습파일 생성단계(S1100); 1차 음성파일 재생단계(S1200); 더빙파일 생성단계(S1300)를 포함하며, 나아가 2차 음성파일 재생단계(1400);를 더 포함한다.2 and 3, a method S1000 for providing a language self-learning service according to an embodiment of the present invention is implemented using the components and control algorithms included in the mobile terminal 1000 described above An original learning file generation step (S1100); A primary audio file playback step (S1200); And a dubbing file generation step (S1300), and further includes a secondary audio file reproduction step (1400).

우선, 상기 제어부(130)는 레코더 구동부(141)와 연동하여 음향 입력부(122)를 활성화 또는 비활성화시켜, 언어학습용 음성정보를 생성 또는 저장할 수 있다.(S1100)The control unit 130 may activate or deactivate the sound input unit 122 in conjunction with the recorder driving unit 141 to generate or store language learning audio information.

구체적으로, 본 실시예에 따르면, 상기 원본 학습파일 생성단계(S1100)는, 상기 모바일 단말기(1000)의 음향 입력부(122)를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행된다. 여기서, 상기 1차 입력 음성정보는, 사용자의 선택에 따라 외국어 대화내용, 외국어 수업내용, 외국어 영화내용, 외국어 음악가사, 외국어 뉴스내용 등을 포함할 수 있으며, 그 종류에 제한을 두지 않는다.More specifically, according to the present embodiment, the original learning file generation step S1100 is a step of generating the original learning file using the sound input unit 122 of the mobile terminal 1000, Information is recorded and created and stored as an original learning file. Here, the primary input audio information may include a foreign language conversation content, a foreign language class content, a foreign language movie content, a foreign language music lyrics, a foreign language news content, and the like according to a user's selection, and does not limit the kind thereof.

즉, 제어부(130)는 터치형 입력부(121)를 통하여 입력된 제1 사용자 입력신호를 수신한다(S1110). 여기서 상기 제1 사용자 입력신호는 사용자가 레코더 구동부(141) 및 음향 입력부(122)를 구동시키도록 사용자가 터치형 입력부(121)를 통하여 입력하는 신호이다.That is, the controller 130 receives the first user input signal input through the touch-type input unit 121 (S1110). The first user input signal is a signal input by the user through the touch-type input unit 121 so that the user drives the recorder driving unit 141 and the sound input unit 122.

바람직하게는, 상기 제1 사용자 입력신호 수신단계(S1110)에서 상기 제1 사용자 입력신호를 수신한 이후에, 상기 제어부가 상기 메모리부의 잔존 저장용량이 기설정된 용량(예를 들어, 100 Mbyte) 미만인 것으로 판단하는 경우, 상기 제어부는 사용자가 메모리부의 용량부족 상황을 시각적으로 및/또는 청각적으로 인지할 수 있는 용량부족 알림정보를 출력하도록 상기 디스플레이부 및/또는 음향 출력부를 제어할 수 있다.Preferably, after receiving the first user input signal in the first user input signal receiving step (S1110), the control unit determines that the remaining storage capacity of the memory unit is less than a predetermined capacity (for example, 100 Mbytes) The control unit may control the display unit and / or the sound output unit to output the capacity shortage notification information that allows the user to visually and / or audibly recognize the capacity shortage state of the memory unit.

여기서, 상기 용량부족 알림정보는 예를 들어 "저장공간이 부족합니다. 불필요한 파일을 삭제 후 다시 시도하세요."라는 텍스트 정보일 수 있다.Here, the capacity shortage notification information may be text information such as "There is not enough storage space, delete unnecessary files and try again."

이후, 제어부(130)는 음향 입력부(122)를 통하여 입력된 1차 입력 음성정보(또는 언어학습용 음성정보)를 수신한다.(S1120) 여기서 상기 1차 입력 음성정보는 언어학습용 음성정보로서 외국어 대화내용, 외국어 수업내용, 외국어 영화내용, 외국어 음악가사, 외국어 뉴스내용 등을 포함할 수 있다.Then, the control unit 130 receives primary input audio information (or language learning audio information) input through the audio input unit 122 (S1120). Here, the primary input audio information is a language learning audio information, Contents of a foreign language class, content of a foreign language movie, lyrics of a foreign language music, contents of a foreign language news, and the like.

이후, 제어부(130)는 상기 1차 입력 음성정보를 원본 학습파일로 생성한 후(S1130), 메모리부에 상기 원본 학습파일을 저장한다.(S1140) 상기 원본 학습파일은 이후에 사용자의 선택에 의해 재생 구동부(142)에 의해 재생될 수 있다.Then, the controller 130 generates the primary input audio information as an original learning file (S1130), and stores the original learning file in the memory unit (S1140). And can be reproduced by the reproduction drive section 142. [

바람직하게는, 상기 1차 입력 음성정보 수신단계(S1120) 실행 중에, 상기 제어부(130)는 노이즈 제거부(148)를 활성화시켜, 상기 1차 입력 음성정보에서 주변 노이즈 음성정보를 제거하도록 제어할 수 있다.Preferably, during the execution of the primary input voice information receiving step (S1120), the control unit 130 activates the noise removing unit 148 to remove the surrounding noise voice information from the primary input voice information .

한편 추가 실시예에 따르면, 도 4에 도시된 바와 같이, 상기 원본 학습파일 생성단계(S1100)는, 사용자의 입력신호에 따라 또는 자동으로, 상기 모바일 단말기(1000)의 메모리부(160)에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행될 수 있다. 4, the original learning file generation step S1100 may be performed in accordance with a user's input signal or automatically stored in the memory unit 160 of the mobile terminal 1000 Extracting speech information for language learning from audio information contents and moving picture contents, and storing the extracted audio information.

이를 위하여, 우선 제어부(130)는 상기 메모리부(160)에 저장된 각동 데이터 및 정보들 중에서 동영상 컨텐츠를 검색하여 동영상 컨텐츠 리스트를 상기 디스플레이부(152)에 출력한다(S1150).In operation S1150, the control unit 130 searches the moving picture content and displays the moving picture content list on the display unit 152, among the key data and information stored in the memory unit 160.

이후, 상기 제어부(130)는 사용자의 입력신호가 수신되는 경우 재생 구동부(142)를 활성화시켜 사용자의 입력신호에 따라 선택된 동영상 컨텐츠를 재생하도록 제어한다(S1160). 이때, 상기 동영상 컨텐츠는 실제 디스플레이부(152)에 출력될 수도 있지만, 디스플레이부(152)에 출력되지 않고 이후에 실행되는 음성정보 출력단계만 실행될 수도 있다.In step S1160, the control unit 130 activates the playback driver 142 to play the selected moving image content according to the input signal of the user when the input signal of the user is received. At this time, the moving picture content may be output to the actual display unit 152, but only the audio information output step to be performed later may be performed without being output to the display unit 152. [

이후, 상기 제어부(130)는 음성정보 추출부(149)를 활성화시켜 재생 구동부(142)에 의해 재생된 동영상 컨텐츠에서 음성정보만 추출하도록 제어한다(S1170).In step S1170, the control unit 130 activates the audio information extraction unit 149 to extract only audio information from the moving picture content played by the playback drive unit 142. [

이후, 상기 제어부(130)는 추출된 음성정보를 원본 학습파일로 메모리부(160)에 저장한다(S1180).Thereafter, the control unit 130 stores the extracted voice information in the memory unit 160 as an original learning file (S1180).

도면에 도시되진 않았지만, 또 다른 추가 실시예로서, 상기 원본 학습파일 생성단계(S1100)는, 상기 모바일 단말기(1000)의 무선 통신부(110)를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행될 수 있다.Although not shown in the drawing, in still another embodiment, the original learning file generation step S1100 may be performed by using the wireless communication unit 110 of the mobile terminal 1000, The language learning contents can be downloaded from the language self learning service providing server and generated and stored as an original learning file.

상기 원본 학습파일 생성단계(S1100) 이후에, 상기 제어부(130)는 음향 출력부(151) 및 재생 구동부(142)를 활성화시켜 상기 원본 학습파일의 1차 입력 음성정보를 출력한다(S1200).After the original learning file generation step S1100, the controller 130 activates the audio output unit 151 and the playback driving unit 142 to output the primary input audio information of the original learning file (S1200).

구체적으로, 우선 제어부(130)는 터치형 입력부(121)를 통하여 입력된 제2 사용자 입력신호를 수신한다.(S1210) 여기서, 상기 제2 사용자 입력신호는 원본 학습파일을 재생하고자 하는 사용자의 입력신호이다.Specifically, the control unit 130 receives the second user input signal input through the touch-type input unit 121 (S1210). Here, the second user input signal is input to a user Signal.

이후, 상기 제어부(130)는 재생 구동부(142) 및 음향 출력부(151)를 구동시켜 상기 원본 학습파일의 음성정보(즉, 1차 입력 음성정보 또는 어학학습용 음성정보)을 출력한다(S1220).The control unit 130 drives the playback driver 142 and the audio output unit 151 to output audio information of the original learning file (i.e., primary input audio information or audio information for language learning) (S1220) .

이때, 제어부(130)는 더빙파일 생성단계(S1300)를 순차적으로 실행할 수 있다.At this time, the control unit 130 can sequentially execute the dubbing file generation step (S1300).

추가 실시예에 따르면, 상기 제어부(130)는 상기 제2 사용자 입력신호를 수신되는 경우, 상기 1차 음성파일 재생단계(S1200)와 후속하는 더빙파일 생성단계(S1300)가 동시에 실행되도록 상기 재생 구동부(142), 상기 음향 출력부(151), 상기 더빙 구동부(143) 및 상기 음향 입력부(122)를 동시에 활성화시킬 수 있다.According to a further embodiment, when the second user input signal is received, the control unit 130 controls the reproducing operation so that the first audio file reproducing step (S1200) and the subsequent dubbing file generating step (S1300) The sound output unit 151, the dubbing driving unit 143, and the sound input unit 122 may be activated at the same time.

바람직하게는, 상기 제어부는 상기 1차 음성파일 재생단계(S1100) 실행시 도 5a에 도시된 바와 같은 음성파일재생 출력화면(152a)을 디스플레이부에 출력할 수 있다.Preferably, the control unit may output the audio file reproduction output screen 152a as shown in FIG. 5A to the display unit during the execution of the primary audio file reproduction step S1100.

상기 음성파일재생 출력화면(152a)은 재생단계 제어부(121a), 재생가능파일 리스트부(121b), 더빙실행부를 포함한다.The audio file reproduction output screen 152a includes a reproduction step control section 121a, a reproducible file list section 121b, and a dubbing execution section.

상기 재생단계 제어부(121a)는 출력화면인 동시에 사용자의 입력신호를 수신하는 터치형 입력부이며, 재생/일시정지 조절용 아이콘부, 뒤로 감기용 아이콘부, 앞으로 감기용 아이콘부, 반복재생 선택용 아이콘부, 반복구간 지정용 아이콘부, 음량조절용 아이콘부를 포함한다.The playback step control unit 121a is a touch-type input unit for receiving an input signal of a user as well as an output screen, and includes a playback / pause control icon unit, a back-up icon unit, An icon section for specifying a repeated section, and an icon section for volume control.

상기 재생가능파일 리스트부(121b)는 언어 자가학습 서비스 제공부(140)가 재생가능한 메모리부 내의 파일리스트에 대한 출력화면이며, 동시에 사용자의 입력신호를 수신하는 터치형 입력부이다.The playable file list unit 121b is an output screen for a file list in a memory unit that can be reproduced by the language self-learning service providing unit 140 and is a touch-type input unit for receiving a user's input signal at the same time.

상기 더빙실행부는 더빙 안내 정보 출력부(152a-1)와, 더빙실행용 아이콘(121c)를 포함한다. The dubbing execution unit includes a dubbing guidance information output unit 152a-1 and a dubbing execution icon 121c.

상기 더빙실행용 아이콘(121c)을 통하여 사용자의 입력신호가 수신되는 경우, 상기 제어부는 도 5a의 음성파일재생 출력화면(152a)을 도 5b의 더빙 출력화면(152b)로 전환하도록 디스플레이부를 제어한다.When the user's input signal is received through the dubbing execution icon 121c, the control unit controls the display unit to switch the audio file reproduction output screen 152a of FIG. 5A to the dubbing output screen 152b of FIG. 5B .

상기 더빙 출력화면(152b)은 더빙실행부 이외에는 음성파일재생 출력화면(152a)과 동일하게 구성된다. 상기 더빙 출력화면(152b)의 더빙실행부는 더빙실행시간 출력부(152b-1)와, 더빙상태정보 출력부(152b-2)와, 더빙 실행/일시정지 조절용 아이콘부(121d)와, 더빙완료용 아이콘부(121e)를 포함한다. The dubbing output screen 152b is configured the same as the audio file reproduction output screen 152a except for the dubbing execution unit. The dubbing execution unit of the dubbing output screen 152b includes a dubbing execution time output unit 152b-1, a dubbing status information output unit 152b-2, a dubbing execution / pause control icon unit 121d, And an icon portion 121e.

전술한 출력화면의 구성은 예시적인 것으로서, 본 발명은 이에 제한되지 않음은 당연하다.The configuration of the above-described output screen is illustrative, and the present invention is of course not limited thereto.

상기 1차 음성파일 재생단계(S1200) 이후에, 상기 제어부(130)는 상기 모바일 단말기(1000)의 음향 입력부(122) 및 더빙 구동부(143)를 활성화시켜 사용자(즉, 학습자)의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하도록 제어한다(S1300). 여기서, 상기 2차 입력 음성정보는 사용자가 원본 학습파일의 음성정보를 따라서 발음한 음성정보이다.The control unit 130 activates the sound input unit 122 and the dubbing driving unit 143 of the mobile terminal 1000 to reproduce the voice information of the user (i.e., the learner) The secondary input audio information is received and controlled to be generated and stored as a dubbing file (S1300). Here, the secondary input audio information is audio information that the user has pronounced according to the audio information of the original learning file.

구체적으로, 우선 제어부(130)는, 상기 1차 음성파일 재생단계(S1200) 시작 후, 상기 더빙파일 생성단계(S1300)를 실행하는 제3 사용자 입력신호를 사용자로부터 수신한다(S1310). 예를 들어, 상기 제어부는 도 5a의 더빙실행용 아이콘부(121c)를 통하여 사용자의 입력신호를 수신하는 경우 상기 더빙파일 생성단계(S1300)를 시작한다.Specifically, the control unit 130 receives a third user input signal for executing the dubbing file generation step (S1300) from the user (S1310) after the first audio file playback step (S1200) is started. For example, the control unit starts the dubbing file generation step (S1300) when receiving a user's input signal through the dubbing execution icon unit 121c in FIG. 5A.

이후, 상기 제어부(130)는 상기 제3 사용자 입력신호에 기초하여 상기 모바일 단말기(1000)의 음향 입력부(122)를 구동시켜 상기 2차 입력 음성정보를 수신한다.(S1320)Thereafter, the control unit 130 drives the sound input unit 122 of the mobile terminal 1000 to receive the secondary input voice information based on the third user input signal (S1320)

이후, 상기 제어부(130)는 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 시간적으로 중첩하여(또는, 재생시간과 더빙시간을 중첩하여) 중첩 음성정보를 더빙파일로 생성한다(S1330).Thereafter, the control unit 130 superimposes the secondary input audio information temporally on the primary input audio information of the original learning file (or superimposes the reproduction time and the dubbing time), and generates superimposed audio information as a dubbing file (S1330).

이후, 상기 제어부(130)는, 상기 중첩 음성정보를 담고 있는 더빙파일을 상기 모바일 단말기(1000)의 메모리부(160)에 저장한다(S1340).Thereafter, the control unit 130 stores the dubbing file containing the overlapping audio information in the memory unit 160 of the mobile terminal 1000 (S1340).

바람직하게는, 상기 2차 입력 음성정보 수신단계(S1320) 실행 중에, 상기 제어부(130)는 노이즈 제거부(148)를 활성화시켜, 상기 2차 입력 음성정보에서 주변 노이즈 음성정보를 제거하도록 제어할 수 있다.Preferably, during the execution of the secondary input voice information receiving step (S1320), the control unit 130 activates the noise removing unit 148 to control to remove the surrounding noise voice information from the secondary input voice information .

상기 더빙파일 생성단계(S1300)는 전술한 바와 같이 상기 1차 음성파일 재생단계(S1200)의 제2 사용자 입력신호 수신단계(S1210)에서 입력된 제2 사용자 입력신호에 의해 실행될 수도 있고, 상기 더빙파일 생성단계(S1300)의 제3 사용자 입력신호 수신단계(S1310)에서 입력된 제3 사용자 입력신호에 의해 실행될 수도 있다.The dubbing file generation step S1300 may be performed by the second user input signal inputted in the second user input signal receiving step S1210 of the first audio file reproducing step S1200 as described above, May be executed by the third user input signal input in the third user input signal receiving step S1310 of the file generating step S1300.

상기 더빙파일 생성단계(S1300) 이후에, 상기 제어부(130)는 상기 모바일 단말기(1000)의 음향 출력부(151) 및 재생 구동부(142)를 활성화시켜, 상기 더빙파일의 중첩 음성정보를 사용자에게 출력하도록 제어할 수 있다(S1400).After the dubbing file generation step S1300, the control unit 130 activates the sound output unit 151 and the playback driving unit 142 of the mobile terminal 1000 and transmits the superimposed audio information of the dubbing file to the user (S1400).

구체적으로, 우선 제어부(130)는 터치형 입력부(121)를 통하여 2차 음성파일 재생단계(1400)를 실행하는 제4 사용자 입력신호를 사용자로부터 수신한다(S1410).Specifically, the control unit 130 receives a fourth user input signal for executing the second audio file playback step 1400 through the touch-type input unit 121 from the user (S1410).

이후, 상기 제어부(130)는 상기 제4 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 음향 출력부(151)로 출력한다(S1420).Thereafter, the control unit 130 outputs the superimposed audio information of the dubbing file to the audio output unit 151 based on the fourth user input signal (S1420).

추가 실시예로서, 상기 2차 음성파일 재생단계(1400) 이후에, 상기 제어부(130)는 사용자의 입력신호에 기초하여 더빙파일을 수정하도록 더빙 구동부(143), 메모리부(160) 및 음향 출력부(151)를 제어할 수 있다.As a further embodiment, after the secondary audio file reproduction step 1400, the control unit 130 controls the dubbing drive unit 143, the memory unit 160 and the audio output The control unit 151 can be controlled.

구체적으로, 우선, 상기 제어부(130)는 상기 더빙파일 재생성단계(미도시)를 실행하는 제5 사용자 입력신호를 사용자로부터 수신한다.Specifically, first, the control unit 130 receives a fifth user input signal for executing the dubbing file regeneration step (not shown) from the user.

이후, 상기 제어부(130)는 상기 제5 사용자 입력신호에 기초하여 원본 녹음파일의 음성정보를 재생하도록 메모리부(160), 재생 구동부(142) 및 음향 출력부(151)를 제어한다.Then, the control unit 130 controls the memory unit 160, the reproduction drive unit 142, and the sound output unit 151 to reproduce the audio information of the original recording file based on the fifth user input signal.

이후, 상기 제어부(130)는 상기 제5 사용자 입력신호에 기초하여 상기 모바일 단말기(1000)의 음향 입력부(122) 및 더빙 구동부(143)를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신한다.The control unit 130 drives the sound input unit 122 and the dubbing driving unit 143 of the mobile terminal 1000 based on the fifth user input signal to generate tertiary input voice information .

이후, 상기 제어부(130)는, 상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성한다.Thereafter, the controller 130 superimposes the third-order input audio information on the primary input audio information of the original learning file to generate additional superposed audio information.

이후, 상기 제어부(130)는 상기 추가 중첩 음성정보를 상기 모바일 단말기(1000)의 메모리부(160)에 저장한다.Then, the control unit 130 stores the additional superposed voice information in the memory unit 160 of the mobile terminal 1000.

상기 더빙파일 생성단계(S1300)의 추가 실시예로서, 상기 제어부(130)는, 사용자 입력신호에 따라(즉, 수동으로) 또는 자동으로, 상기 1차 입력 음성정보의 음량과 상기 2차 입력 음성정보의 음량크기를 상대적으로 조절하여 더빙파일을 생성하도록 제어할 수 있다.As a further embodiment of the dubbing file generation step S1300, the control unit 130 may control the volume of the primary input voice information and the secondary input voice, It is possible to control to generate a dubbing file by relatively adjusting the volume of the information.

구체적으로, 상기 제어부(130)는 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하거나, 또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하거나, 또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록 제어할 수 있다.Specifically, the controller 130 generates a first dubbing file in which the volume level of the primary input voice information is larger than the volume level of the secondary input voice information, or the volume level of the secondary input voice information It is possible to generate a second dubbing file that is larger than the volume level of the primary input audio information or to generate both the first dubbing file and the second dubbing file.

변형 실시예로서, 상기 더빙파일 생성단계(S1300)는, 초기 설정으로서, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 작은 제1 더빙파일을 생성하도록 실행되며, 이후에 입력되는 사용자의 입력신호에 따라 1차 입력 음성정보의 크기 및 2차 입력 음성정보의 크기가 조절된 더빙파일을 생성하도록 실행될 수도 있다. 즉, 상기 더빙파일 생성단계(S1300)는, 기본적으로 상기 제1 더빙파일(즉, 상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 작은 더빙파일)을 생성하도록 실행되나, 추후 입력부를 통해 입력되는 사용자의 입력신호에 따라 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 작은 제2 더빙파일을 생성하도록 실행되거나, 또는 상기 1차 입력 음성정보의 음량크기와 상기 2차 입력 음성정보의 음량크기가 동일한 제3 더빙파일을 생성하도록 실행될 수 있다. As an alternative embodiment, the dubbing file generation step (S1300) is executed as an initial setting to generate a first dubbing file in which the volume magnitude of the primary input voice information is smaller than the volume magnitude of the secondary input voice information, The size of the primary input audio information and the size of the secondary input audio information may be adjusted in accordance with the input signal of the user. That is, the dubbing file generation step (S1300) is basically performed so that the first dubbing file (i.e., a dubbing file in which the volume level of the primary input voice information is smaller than the volume level of the secondary input voice information) The second input audio information may be generated to generate a second dubbing file in which the volume magnitude of the secondary input voice information is smaller than the volume magnitude of the primary input voice information according to a user's input signal input through the input unit later, A third dubbing file having the same magnitude of the volume of the voice information and the volume magnitude of the secondary input voice information can be executed.

상기 더빙파일 생성단계(S1300)의 추가 실시예와 관련하여, 상기 2차 음성파일 재생단계(1400)의 추가 실시예로서, 상기 제어부(130)는 사용자 입력신호에 따라(수동으로) 또는 자동으로, 상기 제1 더빙파일을 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제2 더빙파일을 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 음향 출력부(151)를 통하여 출력하도록, 또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 음향 출력부(151)를 통하여 출력하도록, 제어할 수 있다.In a further embodiment of the dubbing file generation step S1300, as a further embodiment of the secondary audio file reproduction step 1400, the control unit 130 may generate a secondary audio file according to a user input signal (manually) , Outputting the first dubbing file through the sound output unit 151 or outputting the second dubbing file through the sound output unit 151 or outputting the first dubbing file and the second dubbing file sequentially And outputting the second dubbing file and the first dubbing file sequentially through the sound output unit 151. In this case,

도 6는 제1 추가 실시예에 따른 언어 자가학습 서비스 제공방법(S2000)에 대한 개략적인 플로우챠트이고, 도 7은 도 6의 상세 플로우챠트이다.FIG. 6 is a schematic flow chart of a method for providing a language self-learning service (S2000) according to a first additional embodiment, and FIG. 7 is a detailed flowchart of FIG.

본 실시예에 따른 언어 자가학습 서비스 제공방법(S2000)은 전술한 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)에 포함되는 기술적 특징을 (거의) 그대로 포함하므로, 설명의 명확성과 중복설명 방지를 위하여 전술한 내용과 중복되는 내용에 대해서는 이하에서 가급적 구체적인 설명을 생략하기로 한다.The method for providing a language self-learning service (S2000) according to the present embodiment substantially includes the technical features included in the language self-learning service providing method (S1000) according to the embodiment described above, The detailed description of the contents overlapping with the above-mentioned contents will be omitted as much as possible.

본 실시예에 따르며, 본 발명은, 원본 학습파일 생성단계(S2100); 1차 음성파일 재생단계(S2200); 더빙파일 생성단계(S2300); 2차 입력 음성정보 추출단계(S2400); 및 2차 음성파일 재생단계(S2500);를 포함한다. According to the present embodiment, the present invention provides an original learning file generation step (S2100); A primary audio file playback step (S2200); A dubbing file creation step (S2300); Secondary input speech information extraction step (S2400); And a secondary audio file playback step (S2500).

여기서, 본 실시예에 따른 원본 학습파일 생성단계(S2100), 1차 음성파일 재생단계(SQ200) 및 더빙파일 생성단계(S2300)는 전술한 실시예에 따른 원본 학습파일 생성단계(S1100), 1차 음성파일 재생단계(S1200) 및 더빙파일 생성단계(S1300)와 거의 동일하다.Here, the original learning file generation step S2100, the primary audio file playback step SQ200, and the dubbing file generation step S2300 according to the present embodiment may include an original learning file generation step S1100, (S1200) and the dubbing file generation step (S1300).

본 실시예에 따르면, 상기 더빙파일 생성단계(S2300) 이후에, 상기 제어부(130)는 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하는 2차 입력 음성정보 추출단계(S2400)를 실행한다.According to the present embodiment, after the dubbing file generation step (S2300), the control unit 130 extracts and stores only the secondary input voice information in the superimposed voice information of the dubbing file S2400).

구체적으로, 우선, 상기 제어부(130)는, 더빙파일을 복사하여 복사 더빙파일을 메모리부에 저장한다.Specifically, first, the control unit 130 copies the dubbing file and stores the copy dubbing file in the memory unit.

이후, 상기 제어부(130)는, 재생 구동부 및 음향 음성정보 필터부(144)를 활성화시켜 상기 복사 더빙파일의 음성정보에서 1차 입력 음성정보를 제거하도록 제어한다(S2410).Thereafter, the control unit 130 activates the playback driver and the audio voice information filtering unit 144 to control to remove the primary input audio information from the audio information of the copy dubbing file (S2410).

이후, 상기 제어부(130)는 상기 복사 더빙파일의 음성정보에서 잔존하는 2차 입력 음성정보(학습자 음성정보)를 생성한다(S2420).Thereafter, the control unit 130 generates secondary input audio information (learner audio information) remaining in the audio information of the copy dubbing file (S2420).

이후, 상기 제어부(130)는 상기 2차 입력 음성정보를 메모리부에 저장한다(S2430).Then, the control unit 130 stores the secondary input voice information in the memory unit (S2430).

본 실시예에 따른 2차 음성파일 재생단계(S2500)는, 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계(S2520); 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계(S2530); 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계(S2540);를 포함한다.The secondary audio file reproducing step S2500 according to the present embodiment includes an original learning file audio information output step S2520 of outputting primary input audio information which is audio information of the original learning file; A secondary input voice information output step (S2530) for outputting the secondary input voice information; And a dubbing file audio information output step (S2540) for outputting superimposed audio information which is audio information of the dubbing file.

예를 들어, 제어부(130)는, 원본 학습파일, 2차 입력 음성정보 및 더빙파일 순으로 출력되도록 재생 구동부 및 음향 출력부를 제어할 수 있다. 이러한 원본 학습파일, 2차 입력 음성정보 및 더빙파일의 출력 순서는 일예에 불과하며 사용자의 선택에 의해 적절하게 조절될 수 있다.For example, the control unit 130 may control the reproduction drive unit and the sound output unit so as to be output in the order of the original learning file, the secondary input audio information, and the dubbing file. The output order of the original learning file, the secondary input audio information, and the dubbing file is merely an example, and can be appropriately adjusted by the user's choice.

도 8은 제2 추가 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)에 대한 개략적인 플로우챠트이고, 도 9은 도 8의 스크립트 파일 생성단계(S3200)에 대한 개략적인 플로우챠트이고, 도 10는 도 8의 스크립트 파일 출력단계(S3400)에 대한 개략적인 플로우챠트이다.FIG. 8 is a schematic flow chart of a method for providing a language self-learning service (S3000) according to a second additional embodiment, FIG. 9 is a schematic flow chart for a script file generation step (S3200) Is a schematic flow chart for the script file output step (S3400) of Fig.

본 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)은 전술한 실시예에 따른 언어 자가학습 서비스 제공방법(S1000)(S2000)에 포함되는 기술적 특징을 (거의) 그대로 포함하므로, 설명의 명확성과 중복설명 방지를 위하여 전술한 내용과 중복되는 내용에 대해서는 이하에서 가급적 구체적인 설명을 생략하기로 한다.The method 300000 for providing a language self-learning service according to the present embodiment substantially includes the technical features included in the language self-learning service providing method S1000 (S2000) according to the embodiment described above, For the purpose of avoiding redundant explanations, the detailed description of the contents overlapping with the above-mentioned contents will be omitted below.

본 실시예에 따르며, 본 발명은, 원본 학습파일 생성단계(S3100); 스크립트 파일 생성단계(S3200); 1차 음성파일 재생단계(S3300); 스크립트 파일 출력단계(S3400); 더빙파일 생성단계(S3500); 및 2차 음성파일 재생단계(S3600);를 포함한다. According to the present embodiment, the present invention provides a method for generating an original learning file (S3100); A script file creation step (S3200); A primary audio file playback step (S3300); A script file output step (S3400); A dubbing file generation step S3500; And a secondary audio file playback step (S3600).

여기서, 본 실시예에 따른 원본 학습파일 생성단계(S3100), 1차 음성파일 재생단계(S3300) 및 더빙파일 생성단계(S3500) 및 2차 음성파일 재상단계(S3600)는 전술한 실시예에 따른 원본 학습파일 생성단계(S1100)(S2100), 1차 음성파일 재생단계(S1200)(S2200), 더빙파일 생성단계(S1300)(S2300) 및 2차 음성파일 재상단계(S1400)(S2500)와 거의 동일하며, 추가적으로 본 실시예에 따른 언어 자가학습 서비스 제공방법(S3000)은, 원본 녹음파일 생성단계(S3100)와 1차 음성파일 재생단계(S3300) 사이에 스크립트 파일 생성단계(S3200)와, 1차 음성파일 재생단계(S3300)와 순차적으로 또는 동시에 실행되는 스크립트 파일 출력단계(S3400)를 포함한다.Here, the original learning file generation step S3100, the primary audio file playback step S3300, the dubbing file generation step S3500, and the secondary audio file reconstruction step S3600 according to the present embodiment may be performed in accordance with the above- The steps S1100 and S2100 of the original sound file creation step S1100 and the steps S1200 and S2200 of the first sound file reproduction step S1300 and S2300 of the second sound file generation step S1400, In addition, the method for providing a language self-learning service (S3000) according to the present embodiment further includes a script file generation step (S3200), a script file generation step (S3200) between the original sound file creation step S3100 and the first sound file playback step A car audio file reproducing step (S3300) and a script file outputting step (S3400) executed sequentially or simultaneously.

구체적으로, 우선, 원본 학습파일 생성단계(S3100)의 시작 이후에 또는 도중에, 상기 제어부(130)는 음향 입력부, 레코더 구동부 및 음성-텍스트정보 변환부(146)를 활성화시켜 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하도록 제어한다(S3200).Specifically, the control unit 130 activates the sound input unit, the recorder driving unit, and the voice-to-text information conversion unit 146 to start text from the original learning file (step S300) Information is extracted and generated and stored as a script file (S3200).

즉, 상기 제어부(130)는, 음향 입력부를 통하여 수신되는 또는 메모리부에서 불러들인 원본 학습파일의 음성정보에서 텍스트 정보를 추출 및/또는 변환하여 메모리부에 저장한다(S3210).That is, the controller 130 extracts and / or converts the text information from the speech information of the original learning file received through the sound input unit or imported from the memory unit, and stores the extracted text information in the memory unit (S3210).

상기 S3210의 추가 실시예로서, 상기 텍스트 정보는 상기 원본 학습파일의 음성정보에 대응되는 텍스트 정보로서, 사용자의 입력신호에 따라 또는 자동으로 상기 언어 자가학습 서비스 제공서버로부터 다운로드되어 상기 메모리부에 저장되거나, 또는 사용자의 입력신호에 의해 상기 사용자의 외부 메모리장치에서 상기 메모리부로 이동되어 저장될 수 있다. 이때, 상기 텍스트 정보는 상기 원복 학습파일의 음성정보에 대응되는 대응 재생시각 정보를 포함한다.In a further embodiment of S3210, the text information is text information corresponding to speech information of the original learning file, and is downloaded from the self-learning service providing server according to a user's input signal or automatically, and stored Or may be moved from the user's external memory device to the memory part and stored by the user's input signal. At this time, the text information includes corresponding reproduction time information corresponding to the audio information of the original play file.

그리고, 상기 제어부(130)는 상기 음성-텍스트정보 변환단계와 동시에 또는 순차적으로 상기 원복 학습파일의 음성정보에 대응되는 대응 재생시각 정보를 추출하여 메모리부에 저장한다(S3220).The control unit 130 extracts corresponding reproduction time information corresponding to the audio information of the original play file at the same time or sequentially with the voice-text information conversion step and stores the information in the memory unit (S3220).

이후, 상기 제어부(130)는 메모리부에 저장된 텍스트 정보 및 이에 대응되는 대응 재생시각 정보를 매칭하여 결합시시켜 스크립트 파일을 생성한다(S3230).In step S3230, the controller 130 combines the text information stored in the memory unit and the corresponding reproduction time information corresponding to the text information, and creates a script file.

이후, 상기 제어부(130)는 상기 스크립트 파일을 메모리부에 저장한다(S3240).Thereafter, the control unit 130 stores the script file in the memory unit (S3240).

상기 1차 음성파일 재생단계(S3300)의 시작 후에 또는 도중에, 상기 제어부(130)는 상기 모바일 단말기의 디스플레이부(152)를 이용하여 상기 스크립트 파일의 텍스트정보를 출력한다(S3400).The control unit 130 outputs the text information of the script file using the display unit 152 of the mobile terminal in step S3400 after or after the start of the primary audio file playback step S3300.

이후, 바람직하게는, 상기 스크립트 파일 출력단계(S3400)는, 상기 1차 음성파일 재생단계(S3300)의 시작 후에, 먼저 스크립트 파일의 텍스트정보를 출력한 후(S3410), 상기 1차 입력 음성파일의 재생시각 정보에 기초(또는 연동)하여(S3420) 상기 텍스트정보를 시각적으로 변화시키도록 실행될 수 있다(S3430).Then, the script file outputting step S3400 may first output the text information of the script file after the start of the primary audio file reproducing step S3300 (S3410) (Step S3420) based on the reproduction time information of the text information (step S3430), and visually change the text information.

이때, 상기 텍스트정보는 1차 입력 음성파일의 재생시각 정보에 따라 글자의 색상 또는 크기가 변화하도록 출력될 수 있다.At this time, the text information may be output so that the color or size of the text changes according to the reproduction time information of the primary input voice file.

이하에서는, 본 발명의 일 실시예에 따른 모바일 단말기를 응용한 추가 실시예에 따른 모바일 단말기에 대하여 기술하기로 한다.Hereinafter, a mobile terminal according to a further embodiment of a mobile terminal according to an embodiment of the present invention will be described.

추가 실시예에 따른 모바일 단말기는, 사용자의 선택에 따른 동작 제어를 위한 입력 데이터를 입력하기 위한 터치형 입력부(121)와; 마이크(122)에 입력되는 음원을 녹음하는 레코더 구동부(141)와; 녹음된 음원을 스피커 등의 음향 출력부(151)를 통하여 재생하는 재생 구동부(142)와; 상기 재생되는 음원을 인식하고 상기 음원 재생 후 마이크(122)에 입력되는 사용자의 음성을 인식하는 음성정보 추출부(149)와; 상기 음원과 상기 음성정보 추출부에서 인식한 상기 사용자의 음성을 매칭시켜 매칭 데이터를 생성하는 매칭부(즉, 제어부(130)의 일 기능)와; 상기 매칭 데이터를 시각적으로 표시하는 디스플레이부(152); 사용자가 설정하는 재생 옵션에 따라 음원을 재생하도록 제어하는 제어부(130)를 포함한다. A mobile terminal according to a further embodiment of the present invention includes a touch-type input unit 121 for inputting input data for operation control according to a user's selection; A recorder driving unit 141 for recording a sound source input to the microphone 122; A reproduction drive unit 142 for reproducing the recorded sound source through an acoustic output unit 151 such as a speaker; A sound information extracting unit 149 for recognizing the sound source to be reproduced and recognizing the user's sound input to the microphone 122 after the sound source is reproduced; A matching unit (i.e., a function of the control unit 130) for matching the sound source with the voice of the user recognized by the voice information extracting unit to generate matching data; A display unit 152 for visually displaying the matching data; And a control unit 130 for controlling the reproduction of the sound source according to the reproduction option set by the user.

이때, 상기 재생 옵션은 음원의 재생 속도, 재생 단위, 재생 반복 구간을 포함하고, 상기 재생 단위는 단어, 의미상의 분절, 문장, 문단을 포함할 수 있다.At this time, the reproduction option includes a reproduction speed of a sound source, a reproduction unit, and a reproduction repeat section, and the reproduction unit may include a word, a semantic segment, a sentence, and a paragraph.

본 실시예에서, 상기 음성정보 추출부(149)는 마이크를 통해 입력되는 사용자의 음성을 인식하고, 음성 분석 프로세스를 이용하여 상기 음성에서 음성 신호의 주파수를 분석하여 포먼트(formant)를 찾아냄으로써 음성을 분석하도록 구성된다.In the present embodiment, the voice information extracting section 149 recognizes the voice of the user input through the microphone, analyzes the frequency of the voice signal in the voice using a voice analysis process, and finds a formant And is configured to analyze speech.

재생 구동부(142)는 사용자의 선택에 따라 음원 즉, 사용자 음성 또는 학습용 컨텐츠를 녹음하고 녹음된 컨텐츠를 출력한다.The reproduction driver 142 records a sound source, that is, a user's voice or learning contents, and outputs the recorded contents according to the user's selection.

재생 구동부(142)는 카메라와 연동하여 동영상을 녹화하고 녹화된 컨텐츠를 출력할 수도 있다.The playback drive unit 142 may record the moving image in cooperation with the camera and output the recorded content.

매칭부는 제어부에 포함된 일 기능으로서, 사용자의 음성과 학습용 컨텐츠를 매칭시킨다. 구체적으로, 매칭부는 사용자의 음성과 음원과의 매칭 정도를 파악하여 그 차이점을 보여주기 때문에 사용자는 음원(원어민의 발음)과 유사한 발음을 내기 위한 발음 연습을 효과적으로 할 수 있다.The matching unit is a function included in the control unit, and matches the voice of the user with the learning contents. Specifically, since the matching unit grasps the degree of matching between the user's voice and the sound source, and shows the difference, the user can effectively practice pronunciation for sound similar to a sound source (native speaker's pronunciation).

메모리부(160)는 컨텐츠 데이터베이스, 사용자 정보 데이터베이스, 음성 분석 프로세스, TSS(text to speech), STT(speech to text) 등을 저장한다.The memory unit 160 stores a content database, a user information database, a voice analysis process, text to speech (TSS), speech to text (STT), and the like.

음성 분석 프로세스에 의해 마이크(122)에 입력된 아날로그 음성은 디지털 신호로 바뀐다. 이 디지털 신호는 1/10,000 초 단위의 근접한 시차로 신호의 진폭을 나타내는 숫자들로 구성되어 있다. 음성 분석 프로세스는 음성 신호의 주파수를 분석하여 포먼트(formant)를 찾아냄으로써 음성을 분석한다.The analog voice input to the microphone 122 by the voice analysis process is converted into a digital signal. This digital signal consists of numbers representing the amplitude of the signal in close proximity to the 1 / 10,000 second unit. The voice analysis process analyzes the voice by analyzing the frequency of the voice signal and finding a formant.

포먼트는 사람의 소리를 주파수로 분석하여 어떤 주파수에 어느 정도의 에너지가 있는지를 그래프 등으로 나타낸 스펙트럼이다. 예를 들면 누구든지 '아' 하고 발음하면 소리의 성질에 관계없이 '아'하고 들린다. 이것은 ‘아’의 스펙트럼이 어떤 사람의 소리인지 관계없이 같은 스펙트럼 분포를 이루기 때문이다.A formant is a spectrum in which the sound of a person is analyzed by a frequency, and a graph or the like shows a certain degree of energy at a certain frequency. For example, if anyone pronounces 'ah', it sounds 'ah' regardless of the nature of the sound. This is because the spectrum of 'ah' has the same spectrum distribution regardless of the sound of any person.

TSS는 음성 합성이라고도 하며, 말소리의 음파를 기계가 자동으로 만들어 내는 기술로, 모델로 선정된 사람의 말소리를 녹음하여 일정한 음성 단위로 분할하고, 부호를 붙여 합성기에 입력하였다가 지시에 따라 필요한 음성단위만을 다시 합쳐 말소리를 인위로 만들어내는 기술이다. 반대로, STT는 입력되는 사람의 음성을 인식하여 문자화하는 기술이다.TSS is also called speech synthesis. It is a technology that automatically generates speech sound waves. The speech of a person selected by the model is recorded and divided into certain speech units. The signals are input to the synthesizer with a sign, It is a technique to articulate speech only by reassembling units. On the other hand, STT is a technique for recognizing the voice of a person to be input and characterizing the voice.

제어부(130)는 사용자의 설정에 따라 재생되는 음원의 재생 속도, 재생 단위, 재생 반복 구간을 제어한다. 여기에서 재생 단위는 단어, 의미상의 분절, 문장, 문단이 될 수 있다. 예컨대, 상기 설정되는 재생 단위가 문장인 경우, 문장별로 끊어 한 문장씩 출력하여, 사용자가 출력된 문장을 따라 읽을 수 있도록 한다.The control unit 130 controls the reproduction speed, the reproduction unit, and the reproduction repetition period of the sound source reproduced according to the setting of the user. Here, playback units can be words, semantic segments, sentences, and paragraphs. For example, when the set reproduction unit is a sentence, the sentence is divided into sentences one by one, so that the user can read along with the outputted sentence.

따라서, 본 발명은 학습 시에 음원과 사용자 목소리의 포먼트 대조를 통해 발음 유사도를 시각적으로 확인할 수 있기 때문에 사용자의 발음과 음원(원어민의 발음)이 어느 정도 유사한지 파악할 수 있어서 발음을 용이하게 교정할 수 있는 효과가 있다.Accordingly, since the pronunciation similarity can be visually confirmed through the formant contrast of the sound source and the user voice at the time of learning, the present invention can grasp the degree of similarity between the user's pronunciation and the sound source (pronunciation of the native speaker) There is an effect that can be done.

이하에서는, 추가 실시예에 따른 모바일 단말기를 이용한 추가 실시예에 따른 언어 자가학습 서비스 제공방법에 대하여 기술하기로 한다.Hereinafter, a method for providing a language self-learning service according to a further embodiment using a mobile terminal according to a further embodiment will be described.

추가 실시예에 따른 언어 자가학습 서비스 제공방법은, 녹음 또는 녹화된 학습용 컨텐츠들 중 하나가 사용자의 선택에 의해 재생되는 재생 단계; 상기 재생 이후 사용자의 음성을 입력받아 인식하는 인식 단계; 상기 인식 단계에서 인식한 음성과 상기 음성 컨텐츠를 매칭시켜 매칭 데이터를 생성하는 매칭 데이터 생성 단계; 및 상기 매칭 데이터를 사용자에게 제공하는 제공 단계;를 포함한다.A method for providing a language self-learning service according to a further embodiment includes: a reproducing step in which one of the recorded or recorded learning contents is reproduced by a user's selection; A recognition step of receiving and recognizing a user's voice after the reproduction; A matching data generation step of generating matching data by matching the voice recognized in the recognition step and the voice content; And a providing step of providing the matching data to a user.

위에 언급한 추가 실시예에 따른 서비스 제공방법에서 학습용 컨텐츠들 중 하나가 재생되는 재생단계는 전술한 도 2 또는 도 3에서 '1차 음성파일 재생단계(S1200)'에 해당할 수 있으며, 상기 재생 이후 사용자의 음성을 입력받아 인식하는 인식 단계는 전술한 도 2 또는 도 3에서 '2차 입력 음성정보 수신단계(S1320)'에 해당할 수 있다. In the service providing method according to the above-mentioned additional embodiment, the reproducing step in which one of the learning contents is reproduced may correspond to the 'first audio file reproducing step (S1200)' in FIG. 2 or 3 described above, Hereinafter, the recognition step of receiving and recognizing the voice of the user may correspond to the 'secondary input voice information receiving step (S1320)' in FIG. 2 or FIG.

또한, 위에 언급한 추가 실시예에 따른 서비스 제공방법에서 상기 인식 단계에서 인식한 음성과 상기 음성 컨텐츠를 매칭시켜 매칭 데이터를 생성하는 매칭 데이터 생성 단계 및 상기 매칭 데이터를 사용자에게 제공하는 제공 단계는, 사용자의 선택에 따라 또는 자동으로 전술한 도 2 또는 도 3에서 '더빙파일 생성단계(S1300)' 이후에 수행될 수 있다.In addition, in the service providing method according to the additional embodiment described above, the matching data generating step of generating matching data by matching the voice recognized in the recognizing step and the voice contents, and providing the matching data to the user, Or may be performed automatically after the 'dubbing file creation step (S1300)' in FIG. 2 or FIG. 3 as described above.

여기서, 상기 재생 단계는, 사용자 입력에 의해 재생 속도를 설정하는 과정; 사용자 입력에 의해 재생 단위를 설정하는 과정; 및 사용자 입력에 의해 반복 재생 구간을 설정하는 과정;을 포함하도록 구성될 수 있다.Here, the reproducing step may include: setting a reproduction speed by user input; Setting a playback unit by user input; And setting a repetitive playback interval by user input.

바람직하게는, 상기 인식 단계에서 사용자 음성을 주파수로 분석하여 어떤 주파수에 얼마큼의 에너지가 있는지를 확인할 수 있도록 실행될 수 있다.Preferably, the recognition step may be performed by analyzing the user's voice with a frequency so as to confirm how much energy is present at a certain frequency.

그리고, 상기 제공 단계에서 상기 매칭 데이터를 그래프 또는 매칭 백분율 중 적어도 하나로 제공할 수 있다.In the providing step, the matching data may be provided as at least one of a graph and a matching percentage.

게다가, 추가 실시예에 따른 언어 자가학습 서비스 제공방법은, 상기 매칭 데이터가 일정기준 이하인 경우 상기 재생 단계로 되돌아가도록 실행될 수 있다.In addition, the method of providing a language self-learning service according to a further embodiment may be executed to return to the regeneration step if the matching data is below a certain criterion.

추가 실시예에 따른 언어 자가학습 서비스 제공방법을 보다 구체적으로 살펴보면, 학습용 컨텐츠가 재생되면, 재생되는 학습용 컨텐츠의 포먼트가 디스플레이부(152)에 제공된다. 또한, 사용자의 설정에 따라 STT를 이용하여 디스플레이부(152)의 일부 영역에 학습용 컨텐츠의 텍스트가 표시될 수 있다.More specifically, the method for providing a language self-learning service according to a further embodiment of the present invention provides a formant of the learning content to be reproduced to the display unit 152 when the learning content is reproduced. In addition, the text of the learning contents can be displayed in a part of the display unit 152 using the STT according to the setting of the user.

상기 재생 단위에 따라 재생되는 학습용 컨텐츠를 사용자가 듣고 따라 말하면, 마이크(122)에 의해 입력되는 사용자 음성의 포먼트가 디스플레이부(152)에 제공된다.When the user listens to the learning contents reproduced according to the reproduction unit, a formant of the user voice input by the microphone 122 is provided to the display unit 152. [

마이크를 통해 입력된 사용자 음성은 음성 분석 프로세서에 의해 분석되며 그 분석에 따라 생성된 음성 포먼트는 FFT(Faster Fourier Transform)을 통해 필터링되어 제공되는 것이 바람직하다. 노이즈 제거부(148)을 이용한 필터링을 통해 잡음을 제거하면 신호처리의 품질을 향상시킬 수 있기 때문이다. 필터링된 포먼트는 그래프 등으로 시각화되어 저장될 수 있다.Preferably, the user voice input through the microphone is analyzed by a voice analysis processor, and the voice formants generated according to the analysis are provided by being filtered through an FFT (Faster Fourier Transform). This is because the quality of the signal processing can be improved by removing the noise through the filtering using the noise removing unit 148. The filtered formants can be visualized and stored in a graph or the like.

따라서, 사용자는 발음에 따라 변화되는 주파수 대역을 실시간 눈으로 보면면서 자신의 발음을 확인할 수 있다.Therefore, the user can check his or her pronunciation while looking at the frequency band that changes according to the pronunciation in real time.

예컨대, 한국어 마찰음 /ㅅ/ 과, 영어 마찰음은 /s/는 혀가 구강 내에서 접촉을 일으키는 조음점이 다르기 때문에 발음시 발생되는 소리의 주파수가 다르다. 이를 FFT 변환하면, 한국어 마찰음 /ㅅ/은 저역대(0~3000Hz)의 소리가 없으며, 중역대인 6000Hz 주변에서 가장 큰 음량이 분포되어 있는 반면, 영어 마찰음은 /s/는 /ㅅ/ 에 비해 저역대 주파수 음량이 적고 8000Hz 이상의 고역대 주파수의 음량이 더 크다는 것을 포먼트를 통해 시각적으로 확인할 수 있다.For example, Korean fricative / s / /, and English fricative / s / are different frequencies of sound produced when pronouncing, because the tongue has a different point of connection that causes contact in the mouth. When the FFT is performed, the Korean fricative / ㅅ / has no sound of low frequency (0 ~ 3000Hz) and the largest volume is distributed around 6000Hz in the middle frequency range, whereas the English fricatives are / You can visually confirm through the formant that the volume is low and the volume of the high frequency band above 8000Hz is greater.

이후, 상기 제어부는 매칭부를 구동시켜 상기 인식한 음성을 상기 재생되는 학습용 컨텐츠에 매칭하여 매칭 데이터를 생성한다.Thereafter, the controller drives the matching unit to match the recognized speech with the learning content to be reproduced, and generates matching data.

매칭 데이터를 생성하기 위해, 학습용 컨텐츠의 재생시 메모리부(160)에 저장된 해당 학습용 컨텐츠의 포먼트가 매칭부에 제공된다. 이 포먼트를 제1 포먼트라 한다. 또한 마이크에 입력되는 사용자 음성의 포먼트가 매칭부에 제공된다. 이 포먼트를 제2 포먼트라 한다.In order to generate matching data, a formant of the corresponding learning content stored in the memory unit 160 is provided to the matching unit when the learning content is reproduced. This formant is called the first formant. Also, a formant of the user voice inputted to the microphone is provided to the matching unit. This formant is called the second forme.

매칭부는 제1 포먼트와 제2 포먼트를 매칭시킨 후 생성한 매칭 데이터를 디스플레이부(152)에 제공한다.The matching unit matches the first formant and the second formant, and provides the generated matching data to the display unit 152.

상기 매칭 데이터는 매칭율을 포함한 학습에 대한 평가로서, 사용자가 확인하기 쉽도록 백분율, 점수 등으로 계량화 또는 수치화하여 점수로 제공된다. 학습자는 점수를 통해 매번 자신의 발음이 어느 정도 향상되었는지를 파악할 수 있다. 이러한 점수화는 학습자의 학습 동기를 유발하는 장점이 있다.The matching data is an evaluation for learning including a matching rate, and is provided as a score by quantifying or quantifying it by a percentage, a score or the like so that the user can easily check it. The learner can use the score to figure out how much his pronunciation has improved each time. This scoring has the advantage of motivating learners to learn.

이후, 상기 제어부는 상기 매칭 데이터가 일정 기준 이상인지를 판단하여, 예컨대 매칭율이 일정기준(예를 들어, 90%) 이하인 경우 해당 부분을 다시 재생하도록 설정할 수 있다. 만약 상기 매칭 데이터가 일정 기준 이상인 경우에는 다음 재생 구간을 재생한다.Thereafter, the controller may determine whether the matching data is equal to or greater than a predetermined criterion, and if the matching rate is equal to or less than a predetermined criterion (for example, 90%), If the matching data is equal to or greater than a predetermined reference value, the next reproduction section is reproduced.

이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, And the like. Accordingly, such modifications are deemed to be within the scope of the present invention, and the scope of the present invention should be determined by the following claims.

1000 : 모바일 단말기
110 : 무선 통신부
120 : 입력부
130 : 제어부
140 : 언어 자가학습 서비스 제공부
150 : 출력부
160 : 메모리부
170 : 인터페이스부
S1000, S2000, S3000 : 언어 자가학습 서비스 제공방법
1000: Mobile terminal
110:
120: Input unit
130:
140: Language Self-Study Service Offering
150:
160:
170:
S1000, S2000, S3000: Language Self-Learning Service Delivery Method

Claims (19)

모바일 단말기를 이용한 언어 자가학습 서비스 제공방법으로서,
언어학습용 음성정보를 생성 또는 저장하는 원본 학습파일 생성단계;
상기 모바일 단말기의 음향 출력부를 이용하여, 상기 원본 학습파일의 1차 입력 음성정보를 출력하는 1차 음성파일 재생단계;
상기 모바일 단말기의 음향 입력부를 이용하여 사용자의 음성정보인 2차 입력 음성정보를 수신하여 더빙파일로 생성 및 저장하는 더빙파일 생성단계; 및
사용자의 선택에 의해 상기 더빙파일의 중첩 음성정보에서 상기 2차 입력 음성정보만을 추출 및 저장하고, 상기 중첩 음성정보는 삭제되지 않는 2차 입력 음성정보 추출단계를 포함하고,
상기 더빙파일 생성단계는 상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하고, 상기 1차 입력 음성정보의 음량과 상기 2차 입력 음성정보의 음량크기를 상대적으로 조절하여 더빙파일을 생성하며,
상기 1차 음성파일 재생단계에서 제어부가 디스플레이부를 통해 음성파일재생 출력화면을 출력하는 단계를 더 포함하고, 상기 음성파일재생 출력화면은 재생단계 제어부, 재생가능파일 리스트부, 더빙실행부를 포함하고,
상기 재생단계 제어부는 재생/일시정지 조절용 아이콘부, 뒤로 감기용 아이콘부, 앞으로 감기용 아이콘부, 반복재생 선택용 아이콘부, 반복구간 지정용 아이콘부, 음량조절용 아이콘부를 포함하고, 상기 재생가능파일 리스트부는 언어 자가학습 서비스 제공부가 재생가능한 메모리부 내의 파일리스트에 대한 출력화면이며,상기 더빙실행부는 더빙 안내 정보 출력부와, 더빙실행용 아이콘을 포함하고,
상기 더빙실행용 아이콘을 통하여 사용자의 입력신호가 수신되는 경우 상기 제어부가 상기 디스플레이부를 제어하여 상기 음성파일재생 출력화면을 더빙 출력화면으로 전환하는 단계를 더 포함하고,
상기 더빙출력화면은 상기 재생단계 제어부, 상기 재생가능파일 리스트부와, 더빙실행시간 출력부와, 더빙상태정보 출력부와, 더빙 실행/일시정지 조절용 아이콘부와, 더빙완료용 아이콘부를 포함하고,
상기 모바일 단말기의 음향 출력부를 이용하여, 상기 더빙파일의 중첩 음성정보를 출력하는 2차 음성파일 재생단계를 더 포함하고, 상기 2차 음성파일 재생단계는 상기 원본 학습파일의 음성정보인 1차 입력 음성정보를 출력하는 원본 학습파일 음성정보 출력단계, 상기 2차 입력 음성정보를 출력하는 2차 입력 음성정보 출력단계 및 상기 더빙파일의 음성정보인 중첩 음성정보를 출력하는 더빙파일 음성정보 출력단계를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
A method for providing a language self-learning service using a mobile terminal,
An original learning file generation step of generating or storing speech learning speech information;
A primary audio file playback step of outputting primary input audio information of the original learning file using the sound output unit of the mobile terminal;
A dubbing file generation step of receiving the secondary input voice information, which is voice information of the user, using the acoustic input unit of the mobile terminal and generating and storing the secondary input voice information as a dubbing file; And
Extracting and storing only the secondary input audio information in the superimposed audio information of the dubbing file at the user's selection and extracting the superimposed audio information;
Wherein the dubbing file generating step generates superimposed audio information by superimposing the secondary input audio information on the primary input audio information of the original learning file and generates a superimposed audio information on the basis of the volume of the primary input audio information and the volume of the secondary input audio information The size is relatively adjusted to generate a dubbing file,
Wherein the audio file reproduction output screen includes a reproduction step control part, a reproducible file list part, and a dubbing execution part, wherein the audio file reproduction output screen comprises:
Wherein the playback step control section includes an icon section for playback / pause control, an icon section for fast forwarding, an icon section for fast forward, an icon section for repeated playback selection, an icon section for specifying a repeat section, and an icon for volume control, Wherein the list portion is an output screen for a file list in a playable memory unit of the language self-learning service providing unit, the dubbing execution unit includes a dubbing guide information output unit and a dubbing execution icon,
When the user input signal is received through the dubbing execution icon, the control unit controls the display unit to switch the audio file reproduction output screen to a dubbing output screen,
Wherein the dubbing output screen includes the playback step control unit, the playable file list unit, the dubbing execution time output unit, the dubbing status information output unit, the icon unit for dubbing execution / pause control, and the dubbing completion icon unit,
Further comprising a secondary audio file playback step of outputting superimposed audio information of the dubbing file using the sound output unit of the mobile terminal, wherein the secondary audio file playback step is a step of playing back the secondary audio file, A second learning input audio information output step of outputting the second input audio information and a dubbing file audio information output step of outputting superimposed audio information which is audio information of the dubbing file, Wherein the mobile terminal is a mobile terminal.
제1항에 있어서,
상기 원본 학습파일 생성단계는,
상기 모바일 단말기의 음향 입력부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보인 1차 입력 음성정보를 녹음하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
The original learning file generation step includes:
Wherein the voice input unit is used to record and store the primary input voice information as voice learning voice information to be learned by the user using the voice input unit of the mobile terminal, Delivery method.
제1항에 있어서,
상기 원본 학습파일 생성단계는, 사용자의 입력신호에 따라 또는 자동으로
상기 모바일 단말기의 메모리부에 저장된 음성정보 컨텐츠 및 동영상 컨텐츠에서 언어학습용 음성정보를 추출하여 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
The original learning file generation step may be performed in accordance with a user's input signal or automatically
And extracting and storing language learning audio information from the audio information content and the moving picture content stored in the memory unit of the mobile terminal.
제1항에 있어서,
상기 원본 학습파일 생성단계는,
상기 모바일 단말기의 무선 통신부를 이용하여, 사용자가 학습하고자 하는 언어학습용 음성정보 또는 언어학습용 컨텐츠를 언어 자가학습 서비스 제공서버로부터 다운로드하여 원본 학습파일로 생성 및 저장하도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
The original learning file generation step includes:
Characterized in that the mobile terminal is executed to download language learning audio information or language learning contents to be learned by a user from a language self learning service providing server using the wireless communication unit of the mobile terminal, A method for providing self - learning service using language.
제1항에 있어서,
상기 더빙파일 생성단계는,
상기 1차 음성파일 재생단계 시작 후, 상기 더빙파일 생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 상기 2차 입력 음성정보를 수신하는 2차 입력 음성정보 수신단계;
상기 원본 학습파일의 1차 입력 음성정보에 상기 2차 입력 음성정보를 중첩하여 중첩 음성정보를 생성하는 더빙파일 생성단계; 및
상기 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 더빙파일 저장단계;를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
The dubbing file generation step includes:
A user input signal receiving step of receiving, from a user, a user input signal for executing the dubbing file generating step after the first audio file reproducing step starts;
A secondary input voice information receiving step of driving the acoustic input unit of the mobile terminal based on the user input signal to receive the secondary input voice information;
A dubbing file generating step of superimposing the secondary input audio information on the primary input audio information of the original learning file to generate superposed audio information; And
And storing the overlapping audio information in a memory unit of the mobile terminal.
제1항에 있어서,
상기 1차 음성파일 재생단계는,
상기 1차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;를 포함하고,
상기 사용자 입력신호가 수신되는 경우, 상기 1차 음성파일 재생단계와 상기 더빙파일 생성단계는 동시에 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
Wherein the primary audio file reproducing step comprises:
And a user input signal receiving step of receiving from the user a user input signal for executing the primary audio file reproducing step,
Wherein the first audio file reproducing step and the dubbing file generating step are simultaneously performed when the user input signal is received.
제1항에 있어서,
상기 원본 학습파일 생성단계 및 상기 더빙파일 생성단계 중 적어도 하나 이상의 단계는,
상기 입력 음성정보에서 주변 노이즈 음성정보를 제거하는 노이즈 제거단계;를 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
At least one of the original learning file generation step and the dubbing file generation step comprises:
And a noise removing step of removing ambient noise speech information from the input speech information.
삭제delete 제1항에 있어서,
상기 2차 음성파일 재생단계는,
상기 2차 음성파일 재생단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 더빙파일의 중첩 음성정보를 출력하는 더빙파일의 음성정보 출력단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
Wherein the secondary audio file reproducing step comprises:
A user input signal receiving step of receiving a user input signal for executing the secondary audio file reproducing step from a user;
And outputting audio information of a dubbing file to output superimposed audio information of the dubbing file based on the user input signal.
제1항에 있어서,
상기 2차 음성파일 재생단계 이후에,
더빙파일 재생성단계를 실행하는 사용자 입력신호를 사용자로부터 수신하는 사용자 입력신호 수신단계;
상기 사용자 입력신호에 기초하여 상기 모바일 단말기의 음향 입력부를 구동시켜 사용자의 재입력 음성정보인 3차 입력 음성정보를 수신하는 3차 입력 음성정보 수신단계;
상기 원본 학습파일의 1차 입력 음성정보에 상기 3차 입력 음성정보를 중첩하여 추가 중첩 음성정보를 생성하는 더빙파일 재생성단계; 및
상기 추가 중첩 음성정보를 상기 모바일 단말기의 메모리부에 저장하는 추가 더빙파일 저장단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
After the secondary audio file playback step,
A user input signal receiving step of receiving a user input signal for executing a dubbing file reproducing step from a user;
A third input voice information receiving step of driving the sound input unit of the mobile terminal based on the user input signal to receive third input voice information which is re-input voice information of the user;
A dubbing file reproducing step of superimposing the third-order input audio information on the primary input audio information of the original learning file to generate additional superposed audio information; And
And storing the additional audio information in a memory unit of the mobile terminal. The method of claim 1, further comprising:
삭제delete 제1항에 있어서,
상기 더빙파일 생성단계는,
상기 1차 입력 음성정보의 음량크기가 상기 2차 입력 음성정보의 음량크기보다 큰 제1 더빙파일을 생성하도록,
또는 상기 2차 입력 음성정보의 음량크기가 상기 1차 입력 음성정보의 음량크기보다 큰 제2 더빙파일을 생성하도록,
또는 상기 제1 더빙파일과 상기 제2 더빙파일을 모두 생성하도록,
실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
The dubbing file generation step includes:
So as to generate a first dubbing file in which the volume magnitude of the primary input voice information is larger than the volume magnitude of the secondary input voice information,
Or a second dubbing file in which the volume level of the secondary input voice information is larger than the volume level of the primary input voice information,
Or both the first dubbing file and the second dubbing file,
Wherein the mobile terminal is a mobile terminal.
제12항에 있어서,
상기 2차 음성파일 재생단계는, 사용자 입력신호에 따라 또는 자동으로,
상기 제1 더빙파일을 출력하도록,
또는 상기 제2 더빙파일을 출력하도록,
또는 상기 제1 더빙파일 및 상기 제2 더빙파일을 순차적으로 출력하도록,
또는 상기 제2 더빙파일 및 상기 제1 더빙파일을 순차적으로 출력하도록,
실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
13. The method of claim 12,
The secondary audio file reproducing step may be performed in accordance with a user input signal or automatically,
To output the first dubbing file,
Or to output the second dubbing file,
Or sequentially outputting the first dubbing file and the second dubbing file,
Or sequentially outputting the second dubbing file and the first dubbing file,
Wherein the mobile terminal is a mobile terminal.
삭제delete 삭제delete 제1항에 있어서,
상기 원본 학습파일 생성단계의 시작 후에 실행되고, 상기 원본 학습파일로부터 텍스트정보를 추출하여 스크립트 파일로 생성 및 저장하는 스크립트 파일 생성단계; 및
상기 1차 음성파일 재생단계의 시작 후에 실행되고, 상기 모바일 단말기의 디스플레이부를 이용하여 상기 스크립트 파일의 텍스트정보를 출력하는 스크립트 파일 출력단계;를 더 포함하는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
The method according to claim 1,
A script file generation step that is executed after the start of the original learning file generation step, extracts text information from the original learning file, and generates and stores the extracted text information as a script file; And
And outputting a text file of the script file, the script file being executed after the start of the primary audio file playback step and using the display unit of the mobile terminal. Service delivery method.
제16항에 있어서,
상기 스크립트 파일 출력단계는,
상기 1차 음성파일 재생단계의 시작 후에, 상기 1차 입력 음성파일의 재생시각 정보에 기초하여 상기 텍스트정보를 시각적으로 변화시키도록 실행되는 것을 특징으로 하는 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법.
17. The method of claim 16,
The script file output step includes:
And after the start of the primary audio file reproduction step, the text information is visually changed based on reproduction time information of the primary input voice file.
제1항 내지 제7항 또는 제9항 내지 제10항 또는 제12항 내지 제13항 또는 제16항 내지 제17항 중 선택된 어느 한 항에 따른 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하는 모바일 단말기.A method for providing a language self-learning service using a mobile terminal according to any one of claims 1 to 7 or 9 to 10 or 12 to 13 or 16 to 17 The mobile terminal. 제1항 내지 제7항 또는 제9항 내지 제10항 또는 제12항 내지 제13항 또는 제16항 내지 제17항 중 선택된 어느 한 항에 따른 모바일 단말기를 이용한 언어 자가학습 서비스 제공방법을 실행하기 위한 애플리케이션을 기록한 컴퓨터로 읽을 수 있는 기록매체.A method for providing a language self-learning service using a mobile terminal according to any one of claims 1 to 7 or 9 to 10 or 12 to 13 or 16 to 17 Readable recording medium on which an application is recorded.
KR1020170093212A 2017-07-24 2017-07-24 Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method KR101877559B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170093212A KR101877559B1 (en) 2017-07-24 2017-07-24 Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170093212A KR101877559B1 (en) 2017-07-24 2017-07-24 Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160139241 Division 2016-10-25

Publications (2)

Publication Number Publication Date
KR20180045782A KR20180045782A (en) 2018-05-04
KR101877559B1 true KR101877559B1 (en) 2018-07-11

Family

ID=62199357

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170093212A KR101877559B1 (en) 2017-07-24 2017-07-24 Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method

Country Status (1)

Country Link
KR (1) KR101877559B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186540A1 (en) * 2021-03-05 2022-09-09 삼성전자 주식회사 Electronic device and method for processing recording and voice input in electronic device
US11991421B2 (en) 2021-03-05 2024-05-21 Samsung Electronics Co., Ltd. Electronic device and method for processing voice input and recording in the same

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102396263B1 (en) * 2018-10-08 2022-05-10 이재윤 A System for Smart Language Learning Services using Scripts
WO2022139559A1 (en) * 2020-12-24 2022-06-30 주식회사 셀바스에이아이 Device and method for providing user interface for pronunciation evaluation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128777A (en) * 2006-11-17 2006-12-14 주식회사 중앙교육진흥연구소 Audio instructional materials for learning foreign language and recording medium manufacturing thereby and readable by audio player
KR20100005177A (en) * 2008-07-05 2010-01-14 임영희 Customized learning system, customized learning method, and learning device
KR20120051790A (en) * 2010-11-13 2012-05-23 김경중 Digital learning system and digital learning application
KR20120075956A (en) * 2010-12-29 2012-07-09 박상철 Method for music-based language training and on-line training system thereof
KR20160093898A (en) * 2015-01-30 2016-08-09 이미옥 Method and System for providing stability by using the vital sound based smart device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060128777A (en) * 2006-11-17 2006-12-14 주식회사 중앙교육진흥연구소 Audio instructional materials for learning foreign language and recording medium manufacturing thereby and readable by audio player
KR20100005177A (en) * 2008-07-05 2010-01-14 임영희 Customized learning system, customized learning method, and learning device
KR20120051790A (en) * 2010-11-13 2012-05-23 김경중 Digital learning system and digital learning application
KR20120075956A (en) * 2010-12-29 2012-07-09 박상철 Method for music-based language training and on-line training system thereof
KR20160093898A (en) * 2015-01-30 2016-08-09 이미옥 Method and System for providing stability by using the vital sound based smart device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022186540A1 (en) * 2021-03-05 2022-09-09 삼성전자 주식회사 Electronic device and method for processing recording and voice input in electronic device
US11991421B2 (en) 2021-03-05 2024-05-21 Samsung Electronics Co., Ltd. Electronic device and method for processing voice input and recording in the same

Also Published As

Publication number Publication date
KR20180045782A (en) 2018-05-04

Similar Documents

Publication Publication Date Title
US10347238B2 (en) Text-based insertion and replacement in audio narration
KR101877559B1 (en) Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method
KR101164379B1 (en) Learning device available for user customized contents production and learning method thereof
CN110148427A (en) Audio-frequency processing method, device, system, storage medium, terminal and server
JP6128146B2 (en) Voice search device, voice search method and program
EP2207165A1 (en) Information processing apparatus and text-to-speech method
JP2007206317A (en) Authoring method and apparatus, and program
KR101819459B1 (en) Voice recognition system and apparatus supporting voice recognition error correction
CN111739556A (en) System and method for voice analysis
KR20090017414A (en) System for providing educational contents
Rubin et al. Capture-time feedback for recording scripted narration
JP2013072903A (en) Synthesis dictionary creation device and synthesis dictionary creation method
JP5083155B2 (en) Electronic device and program with dictionary function
US20190088258A1 (en) Voice recognition device, voice recognition method, and computer program product
JP2006189799A (en) Voice inputting method and device for selectable voice pattern
JP2006139162A (en) Language learning system
JP6044490B2 (en) Information processing apparatus, speech speed data generation method, and program
KR20220022822A (en) Method of teaching korean using voice recognition and tts function of terminal device
JP2011180416A (en) Voice synthesis device, voice synthesis method and car navigation system
JP6251219B2 (en) Synthetic dictionary creation device, synthetic dictionary creation method, and synthetic dictionary creation program
KR100707727B1 (en) A portable file player
KR102585031B1 (en) Real-time foreign language pronunciation evaluation system and method
Yong et al. Low footprint high intelligibility Malay speech synthesizer based on statistical data
KR102274275B1 (en) Application and method for generating text link
JP2005077678A (en) Text and voice synchronizing device and text and voice synchronization processing program

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant