KR100693658B1 - Poratable language study apparatus and method - Google Patents

Poratable language study apparatus and method Download PDF

Info

Publication number
KR100693658B1
KR100693658B1 KR1020040078985A KR20040078985A KR100693658B1 KR 100693658 B1 KR100693658 B1 KR 100693658B1 KR 1020040078985 A KR1020040078985 A KR 1020040078985A KR 20040078985 A KR20040078985 A KR 20040078985A KR 100693658 B1 KR100693658 B1 KR 100693658B1
Authority
KR
South Korea
Prior art keywords
sound source
language learning
source file
avatar
data
Prior art date
Application number
KR1020040078985A
Other languages
Korean (ko)
Other versions
KR20060030194A (en
Inventor
이근영
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020040078985A priority Critical patent/KR100693658B1/en
Publication of KR20060030194A publication Critical patent/KR20060030194A/en
Application granted granted Critical
Publication of KR100693658B1 publication Critical patent/KR100693658B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/00007Time or data compression or expansion
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2230/00General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
    • G10H2230/005Device type or category
    • G10H2230/015PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10527Audio or video recording; Data buffering arrangements
    • G11B2020/10537Audio or video recording

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

본 발명은 휴대용 어학학습 장치에 있어서, 특히 음성 파일과 아바타 정보를 이용하여 어학학습 효율을 높여 줄 수 있도록 한 어학학습 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a language learning apparatus and method for increasing the language learning efficiency by using a voice file and avatar information, in particular, in a portable language learning apparatus.

본 발명에 따른 휴대용 어학학습 장치의 어학학습 방법은, 음원 파일을 저장하고 재생시 외부로 출력하는 휴대용 어학학습 장치에 있어서, 상기 음원 파일 재생시, 상기 음원 파일에 동기되어 저장된 자막 및 아바타 데이터의 유무를 검색하는 단계; 상기 아바타 데이터만이 있을 경우 상기 음원 파일과 아바타 데이터를 동기호시켜 스피커 및 표시부로 출력하는 단계; 상기 자막 및 아바타 데이터가 있을 경우 상기 음원파일과 자막 및 아바타 데이터를 동기화시켜 스피커 및 표시부로 출력하는 단계를 포함하는 것을 특징으로 한다.A language learning method of a portable language learning apparatus according to the present invention is a portable language learning apparatus that stores a sound source file and outputs it externally at the time of reproduction, wherein the subtitle and avatar data stored in synchronization with the sound source file are reproduced when the sound source file is reproduced. Searching for presence; Synchronizing the sound source file with the avatar data and outputting the same to the speaker and the display unit when the avatar data is present; And when the caption and avatar data are present, synchronizing the sound source file with the caption and avatar data and outputting the same to the speaker and the display unit.

어학학습, 장치, 자막, 아바타Language learning, device, subtitles, avatar

Description

휴대용 어학학습 장치 및 방법{Poratable language study apparatus and method} Portable language study apparatus and method

도 1은 일반적인 엠피쓰리 플레이어의 블록 구성도.1 is a block diagram of a typical MP3 player.

도 2는 본 발명 실시 예에 따른 휴대용 어학학습 장치를 나타낸 구성도. 2 is a block diagram showing a portable language learning device according to an embodiment of the present invention.

도 3은 본 발명에 따른 휴대용 어학학습 장치의 어학학습 방법을 나타낸 플로우 챠트.Figure 3 is a flow chart showing a language learning method of the portable language learning apparatus according to the present invention.

도 4는 본 발명에 따른 어학학습 방법의 다른 예를 나타낸 플로우 챠트.4 is a flow chart showing another example of a language learning method according to the present invention.

도 5는 본 발명에 따른 어학학습을 위한 학습 데이터의 동기화 방법을 나타낸 플로우 챠트.5 is a flowchart illustrating a method of synchronizing learning data for language learning according to the present invention.

도 6은 본 발명에 따른 아바타 데이터의 동기화를 위해 자막, 음성 파형, 발음을 입력한 예를 나타낸 도면.6 is a diagram illustrating an example of inputting a caption, a sound waveform, and a pronunciation for synchronizing avatar data according to the present invention;

도 7은 도 6의 음성 파형을 유성음 및 무성음으로 분리한 도면.FIG. 7 is a diagram illustrating the voice waveform of FIG. 6 separated into voiced sound and unvoiced sound. FIG.

도 8은 도 7에서 분리된 발음 기호들의 시간의 측정한 도면.8 is a measurement of the time of the phonetic symbols separated in FIG.

도 9는 도 6에 나타낸 각각의 발음 순서별로 입술 모양을 나타낸 도면.FIG. 9 is a view showing lip shape for each phonetic sequence shown in FIG. 6; FIG.

도 10은 도 8에서 측정된 발음 시간에 맞추어 도 9의 입술 모양 데이터를 저장하는 예를 나타낸 도면.10 is a view showing an example of storing the lip shape data of FIG. 9 in accordance with the pronunciation time measured in FIG.

도 11은 본 발명에 따른 어학학습을 위해 음성, 자막, 아바타의 입술 모양을 동기화시킨 도면.11 is a view of synchronizing the lip shape of a voice, a caption, and an avatar for language learning according to the present invention.

<도면의 주요부분에 대한 부호의 설명><Description of Symbols for Main Parts of Drawings>

115...키 입력부 120...표시부115 ... key input 120 ... display

125...전원공급부 130...제어부125 Power supply 130 Control unit

135...디코더 140...D/A 변환부135 ... decoder 140 ... D / A converter

145...오디오 출력부 155...저장수단145 Audio output 155 Storage means

156...음원 저장부 157...자막 저장부156 Sound source storage 157 Subtitle storage

158...아바타 저장부158 Avatar Storage

본 발명은 휴대용 어학학습 장치에 있어서, 특히 음성 파일과 아바타 정보를 이용하여 어학학습 효율을 높여 줄 수 있도록 한 어학학습 장치 및 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a language learning apparatus and method for increasing the language learning efficiency by using a voice file and avatar information, in particular, in a portable language learning apparatus.

MPEG(Moving Picture Experts Group)는 동영상, 멀티미디어 전문가 그룹으로 이 분야에 관한 전문가들이 국제표준화기구(ISO)와 국제전기표준회의(IEC)와 같은 국제 표준 기구의 산하에 모여 제정한 규격으로 비디오와 오디오 신호를 압축해 전송하고 이를 다시 복원하는 것과 같은 기술적 기준을 제공한다. 그리고, MP3는 MPEG-1 Audio Layer-3를 의미하는 것으로, MPEG 기술의 오디오 부분 가운데 하나이 다. MPEG 오디오 압축 기술을 적용함으로써, CD의 오디오 사운드 정보를 1/12까지 줄일 수 있다.Moving Picture Experts Group (MPEG) is a group of video and multimedia experts that have been developed by experts in this field under the auspices of international standards bodies such as the International Organization for Standardization (ISO) and the International Electrotechnical Commission (IEC). It provides technical criteria such as compressing a signal, transmitting it, and restoring it again. MP3 stands for MPEG-1 Audio Layer-3, which is one of the audio parts of MPEG technology. By applying MPEG audio compression technology, audio sound information of a CD can be reduced to 1/12.

이와 같이, 과학 기술 및 디지털 오디오 데이터 처리 기술의 발전은 카세트 테이프 등과 같은 종래의 소리 축적 매체 외에 소리 데이터(즉, 오디오 사운드 정보)의 축적을 가능하게 하는 메모리 수단 및 MP3 플레이어 등과 같은 휴대용 디지털 오디오 재생기의 개발을 가능하게 하였다. As such, advances in science and digital audio data processing technology have resulted in portable digital audio players, such as memory means and MP3 players, which enable the accumulation of sound data (ie, audio sound information) in addition to conventional sound storage media such as cassette tapes and the like. Enabled the development of.

최근 보편적으로 사용되고 있는 MP3 플레이어에는 메모리 수단이 내장되어 있어 종래의 소리 축적 매체를 별도로 삽입하지 않더라도 원하는 소리 데이터를 음질의 저하 없이 장시간 재생할 수 있다. MP3 players commonly used in recent years have built-in memory means, so that the desired sound data can be reproduced for a long time without deterioration of sound quality even without inserting a conventional sound storage medium.

도 1은 일반적인 휴대용 오디오 재생기기의 블록 구성도이다.1 is a block diagram of a typical portable audio player.

도 1을 참조하면, MP3 플레이어는 키 입력부(15), 표시부(20), 전원 공급부(25), 제어부(30), 디코더(35), D/A 변환부(40), 오디오 출력부(45), 이어폰 잭(50)을 포함한다. Referring to FIG. 1, the MP3 player includes a key input unit 15, a display unit 20, a power supply unit 25, a control unit 30, a decoder 35, a D / A converter 40, and an audio output unit 45. ), The earphone jack 50.

키 입력부(15)는 MP3 저장부(55)에 저장된 음악파일 데이터의 재생 여부, 재생 방법, 표시부(20)에 표시 형태 등을 결정하기 위한 재생 버튼, 메뉴 버튼, 일시 정지 버튼, 곡 선택 버튼 등이 포함된다. 물론, 사용자의 키 입력이 있더라도 MP3 플레이어가 동작하지 않도록 하기 위한 홀드(HOLD) 스위치를 더 포함할 수 있다.The key input unit 15 may include a play button, a menu button, a pause button, a song selection button, etc. for determining whether to play music file data stored in the MP3 storage unit 55, a playback method, a display form on the display unit 20, and the like. This includes. Of course, even if the user's key input may further include a hold (HOLD) switch for the MP3 player does not operate.

그리고, 표시부(20)는 MP3 저장부(55)의 음악파일 인식 정보, 재생중인 음악 파일 정보(예를 들어, 곡명, 재생 시간, 해당 곡의 순번 정보 등), MP3 플레이어의 작동 상태 등을 디스플레이하기 위한 수단이다. 표시부(20)를 통해 디스플레이되는 정보는 해당 MP3 플레이어가 어떤 기능을 포함하고 있는지 여부에 따라 결정되는 것이며, 당해 MP3 플레이어에 의해 동작 가능한 기능 정보 중 해당 사용자에게 통지할 필요가 있는 모든 정보가 표시부(20)를 통해 디스플레이될 수 있다. In addition, the display unit 20 displays music file recognition information of the MP3 storage unit 55, music file information (for example, song name, playing time, sequence number information of the corresponding song, etc.) being played, the operation state of the MP3 player, and the like. It is a means for. The information displayed through the display unit 20 is determined according to which function the MP3 player includes, and all information that needs to be notified to the user among the function information that can be operated by the MP3 player is displayed on the display unit ( 20).

그리고, 전원 공급부(25)는 정상적인 동작을 수행하기 위해 필요한 전원을 제공하는 수단이다. 이러한 전원 공급부(25)로는 예를 들어, 충전지, 건전지 등과 같은 휴대용 전원 장치이거나, 외부 전원 소스로부터 구동 전원이 인가될 수 있도록 하는 어댑터 연결부 등일 수 있다.In addition, the power supply unit 25 is a means for providing power required for performing normal operation. The power supply 25 may be, for example, a portable power supply such as a rechargeable battery, a battery, or an adapter connection for allowing driving power to be applied from an external power source.

그리고, 제어부(30)는 키 입력부(15)를 통한 사용자의 조작에 의해 MP3 저장부(55)내에 저장된 음악 데이터를 이어폰 잭(50)을 통해 출력할 수 있도록 하기 위해 키 입력부(15), 표시부(20), 디코더(35), MP3 저장부(55) 등을 제어하는 기능을 수행한다. In addition, the controller 30 may output the music data stored in the MP3 storage unit 55 through the earphone jack 50 by a user's manipulation through the key input unit 15. 20, the decoder 35, the MP3 storage unit 55, and the like are controlled.

디코더(35)는 상기 제어부(30)의 제어에 의해 MP3 저장부(55)에 저장된 MP3 파일의 정보를 읽어내어 디코딩(decoding)하여 오디오 디지털 데이터를 생성하는 기능을 수행한다. The decoder 35 reads and decodes the information of the MP3 file stored in the MP3 storage unit 55 under the control of the controller 30 to generate audio digital data.

D/A 변환부(Digital/analog converter)(40)는 상기 디코더(35)에 의해 생성된 오디오 디지털 데이터를 아날로그 신호로 변환하여 오디오 아날로그 데이터를 생성하는 수단이다.The D / A converter 40 is a means for converting audio digital data generated by the decoder 35 into an analog signal to generate audio analog data.

그리고, 오디오 출력부(45)는 D/A 변환부(40)로부터 수신한 오디오 아날로그 데이터를 증폭 및 파형 정형화하여 증폭된 오디오 아날로그 데이터를 이어폰 잭(50)에 접속된 이어폰(2)을 통해 사용자가 최상의 조건으로 소리 데이터를 들을 수 있도록 하는 수단이다. In addition, the audio output unit 45 amplifies and waveform-shapes the audio analog data received from the D / A converter 40 and amplifies the audio analog data through the earphone 2 connected to the earphone jack 50. Is the means by which sound data can be heard in the best possible condition.

그러나, 일반적인 종래의 엠피쓰리 플레이어는 단순하게 음성만을 스피커를 통해 출력하거나 음성과 함께 자막정보를 출력하여 주는 기능을 갖고 있어서, 단순히 음성은 듣고 자막을 확인하는 듣기(Listening) 위주의 외국어 학습 기능만을 제공하고 있어, 어학 학습 기능을 다른 어느 장치들 보다 능률적으로 제공해 주지 못하고 있다.However, the conventional MP3 player has a function of simply outputting only the voice through a speaker or outputting subtitle information together with the voice, so that only the listening-oriented foreign language learning function of simply listening to the voice and checking the subtitle is provided. As a result, language learning is not as efficient as any other device.

본 발명의 제 1목적은 임의의 목적으로 만들어진 음성 파일에 매칭된 아바타 입술 모양을 파일화하여 상기 파일들을 이용하여, 상기 음성과 함께 아바타 입술 데이터가 함께 출력될 수 있도록 한 휴대용 어학학습 장치 및 방법을 제공함에 있다.A first object of the present invention is a portable language learning apparatus and method for outputting an avatar lip data together with the voice by using the files by filing an avatar lip shape matched to a voice file made for any purpose. In providing.

본 발명의 제 2목적은 음성 및 자막과 함께, 상기 음성에 매칭되는 아바타 입술 데이터가 함께 출력될 수 있도록 한 휴대용 어학학습 장치 및 방법을 제공함에 있다.
A second object of the present invention is to provide a portable language learning apparatus and method for outputting avatar lip data matching the voice together with voice and subtitles.

상기한 목적 달성을 위한 본 발명에 따른 휴대용 어학학습 장치는,Portable language learning apparatus according to the present invention for achieving the above object,

음원을 저장하고 재생시 외부로 출력하는 휴대용 어학학습 장치에 있어서,In the portable language learning device that stores the sound source and outputs to the outside during playback,

상기 음원 파일이 저장되는 음원 저장부, 상기 음원 파일의 음원 정보에 대응하는 아바타 데이터가 저장된 아바타 저장부를 포함하는 저장수단과; Storage means including a sound source storage unit for storing the sound source file and an avatar storage unit for storing avatar data corresponding to sound source information of the sound source file;

유성음 및 무성음을 분리하고 발음 기호들의 시간을 측정하는 제어수단을 포함하는 것을 특징으로 한다.And control means for separating voiced and unvoiced sounds and measuring time of phonetic symbols.

바람직하게, 상기 저장수단에는 상기 음원 파일의 음원 정보에 대응하는 자막이 저장되는 자막 저장부를 더 포함하는 것을 특징으로 한다.Preferably, the storage means further comprises a subtitle storage unit for storing a subtitle corresponding to the sound source information of the sound source file.

바람직하게, 상기 아타바 데이터, 상기 자막 데이터는 상기 음원 파일의 음원 정보에 동기화되어 저장되어 있는 것을 특징으로 한다.Preferably, the atava data and the caption data are stored in synchronization with the sound source information of the sound source file.

바람직하게, 상기 제어수단은 음원 파일의 재생시 상기 음원 파일의 음성 출력과 아바타 데이터를 동기화시켜 출력하는 것을 특징으로 한다.Preferably, the control means is characterized in that for outputting the audio output and the avatar data of the sound source file in synchronization with the reproduction.

본 발명에 따른 휴대용 어학학습 장치의 어학학습 방법은, The language learning method of the portable language learning apparatus according to the present invention,

음원 파일을 저장하고 재생시 외부로 출력하는 휴대용 어학학습 장치의 어학학습 방법에 있어서,In the language learning method of the portable language learning device that stores the sound source file and outputs to the outside when playing,

상기 음원 파일 재생시, 상기 음원 파일에 동기되어 저장된 자막 및 아바타 데이터의 유무를 검색하는 단계;Retrieving the presence or absence of subtitles and avatar data stored in synchronization with the sound source file when playing the sound source file;

상기 아바타 데이터만이 있을 경우, 즉 자막데이터가 없는경우에는 상기 음원 파일과 아바타 데이터를 동기화시켜 스피커 및 표시부로 출력하는 단계;Synchronizing the sound source file with the avatar data and outputting the same to the speaker and the display unit when there is only the avatar data;

상기 자막 및 아바타 데이터가 있을 경우 상기 음원파일과 자막 및 아바타 데이터를 동기화시켜 스피커 및 표시부로 출력하는 단계를 포함하는 것을 특징으로 한다.And when the caption and avatar data are present, synchronizing the sound source file with the caption and avatar data and outputting the same to the speaker and the display unit.

바람직하게, 상기 음원 파일의 음성 발음 기호에 각각 유성음 및 무성음으로 분리하고, 분리된 발음 기호들의 시간을 측정 한 후, 상기 각 발음 순서별로 맞추어 입술 모양 데이터를 저장하여, 음원 파일과 아바타 데이터를 동기화시켜 저장하는 것을 특징으로 한다.Preferably, the voice pronunciation symbols of the sound source file are separated into voiced sounds and unvoiced sounds, respectively, and after measuring time of the separated sound symbols, the lip shape data is stored according to the pronunciation order, and the sound source file and the avatar data are synchronized. It characterized in that the storage.

본 발명에 따른 휴대용 어학학습 장치의 예로서, 엠피쓰리 플레이어의 어학학습 장치는 도 2에 도시된 바와 같다.As an example of a portable language learning apparatus according to the present invention, the language learning apparatus of MP3 Player is as shown in FIG. 2.

도 2를 참조하면, 키 입력을 위한 키 입력부(115), 자막 및 아바타 정보 등의 음원 재생 정보가 표시되는 표시부(120)와, 시스템 각 부에 전원 공급을 위한 전원 공급부(125), 음성 재생 및 화면 출력을 제어하는 제어부(130)와, 음원 정보를 디코딩하는 디코더(135)와, 상기 디코더(135)의 출력을 아날로그 신호로 변환하는 D/A 변환부(140)와, 상기 아날로그 변환된 신호를 스피커 또는 이어폰 잭으로 출력하는 오디오 출력부(145)와, 음원 파일 및 자막, 그리고 아바타 데이터가 저장된 저장수단(155)을 포함한다.Referring to FIG. 2, a key input unit 115 for key input, a display unit 120 for displaying sound source reproduction information such as subtitles and avatar information, a power supply unit 125 for supplying power to each unit, and voice reproduction And a controller 130 for controlling screen output, a decoder 135 for decoding sound source information, a D / A converter 140 for converting an output of the decoder 135 into an analog signal, and the analog conversion. An audio output unit 145 for outputting a signal to a speaker or earphone jack, and a storage means 155 for storing sound source files, subtitles, and avatar data.

여기서, 상기 저장수단(155)은 음원 파일이 저장된 음원 저장부(156)와, 자막 정보가 저장된 자막 저장부(157)와, 음원 파일에 해당하는 아바타 데이터가 저장된 아바타 저장부(158)를 포함하는 구성이다.Here, the storage means 155 includes a sound source storage unit 156 storing a sound source file, a subtitle storage unit 157 storing subtitle information, and an avatar storage unit 158 storing avatar data corresponding to the sound source file. It is a constitution.

상기와 같이 구성되는 본 발명 실시 예에 따른 휴대용 어학학습 장치 및 방법에 대하여 첨부된 도면을 참조하여 설명하면 다음과 같다. 본 발명은 설명의 편의를 위해 휴대용 어학학습 장치를 엠피쓰리 플레이어의 구성요소를 예로 하여 설명하기로 한다.Referring to the accompanying drawings, a portable language learning apparatus and method according to an exemplary embodiment of the present invention configured as described above are as follows. For convenience of description, the present invention will be described using a portable language learning device as an example of an MP3 player.

먼저 도 2를 참조하면, 키 입력부(115)는 음원 파일의 재생 제어를 위한 각 종 키를 입력하며, 표시부(120)는 예컨대, LCD 표시부를 포함하고, 재생되는 음원 파일의 각 종 정보를 함께 표시해 준다. 그리고 전원 공급부(125)는 시스템 각 부에 전원을 공급하게 된다.First, referring to FIG. 2, the key input unit 115 inputs various keys for controlling playback of a sound source file, and the display unit 120 includes, for example, an LCD display unit, and includes various pieces of information of the reproduced sound source file together. Mark it. The power supply 125 supplies power to each part of the system.

제어부(130)는 시스템 각 부를 제어하며, 저장수단(155)에 저장된 파일 정보를 이용하여 음원의 재생 제어 및 화면 출력을 제어하게 된다.The controller 130 controls each unit of the system, and controls playback of the sound source and screen output using the file information stored in the storage unit 155.

이를 위해, 제어부(155)는 음원 재생시, 저장수단(155)의 음원 파일을 읽어들여 디코더(135)로 출력하는 한편, 상기 음원 파일과 매칭되는 자막 파일 및 아바타 데이터를 읽어들여 자막 및 아바타 정보를 화면 표시부(120)로 출력해 주게 된다.To this end, the controller 155 reads a sound source file of the storage means 155 and outputs it to the decoder 135 while reading a subtitle file and avatar data matching the sound source file and subtitle and avatar information. It is output to the screen display unit 120.

이때, 음원 파일의 음원과 자막, 아바타 데이터는 서로 동기화되어 각각의 파일로 저장되어 있으므로, 음원 재생과 동시에 해당 자막 파일과 아바타 데이터를 추출하면 된다.In this case, since the sound source, the subtitle, and the avatar data of the sound source file are synchronized with each other and stored as respective files, the subtitle file and the avatar data may be extracted simultaneously with the playback of the sound source.

그리고, 상기 디코더(135)로 출력된 음원이 D/A변환부(140)에 의해 아날로그 신호로 변환된 후 오디오 출력부(145)를 통해 외부로 출력될 때, 화면 표시부(120)에는 상기 오디오 출력 음성과 동기된 자막 정보와 아바타 정보가 함께 출력된다. When the sound source output to the decoder 135 is converted into an analog signal by the D / A converter 140 and then output to the outside through the audio output unit 145, the screen display unit 120 displays the audio. Subtitle information and avatar information synchronized with the output voice are output together.

그리고, 저장수단(155)에는 음원 파일들이 저장된 음원 저장부(156), 자막 파일들이 저장된 자막 저장부(157), 아바타 데이터들이 저장된 아바타 저장부(158)를 포함하고 있다.The storage means 155 includes a sound source storage unit 156 storing sound source files, a subtitle storage unit 157 storing subtitle files, and an avatar storage unit 158 storing avatar data.

상기 음원 저장부(156)는 휴대용 멀티미디어 기기에서 가장 많이 사용하는 오디오 압축 파일, 예컨대 MP3 파일로 저장된다. 상기 자막 저장부(156)는 상기 음 원 파일에 해당하는 문자가 자막 파일로 저장되어 있으며, 음원과 동기되어 화면으로 출력된다. 상기 아바타 저장부(158)는 각각의 음원 파일의 음성에 대응하는 아바타 정보로 이루어진 데이터로 저장하고 있으며 음원과 동기되어 화면으로 출력된다.The sound source storage unit 156 is stored as an audio compressed file, such as an MP3 file, which is most used in a portable multimedia device. The subtitle storage unit 156 stores a character corresponding to the sound source file as a subtitle file, and is output to the screen in synchronization with the sound source. The avatar storage unit 158 stores data consisting of avatar information corresponding to the voice of each sound source file, and is output to the screen in synchronization with the sound source.

여기서, 아바타 정보는 일반적으로 분신(分身)·화신(化身)을 뜻하는 말로, 사이버 공간에서 사용자의 역할을 대신하는 애니메이션 캐릭터로, 인터넷시대가 열리면서 2차원 또는 3차원이나 가상현실게임 또는 웹에서의 채팅 등에서 자기 자신을 나타내는 그래픽 아이콘을 가리킨다.Here, avatar information generally refers to an alter ego and incarnation, and is an animated character that replaces a user's role in cyberspace. In the Internet era, two-dimensional or three-dimensional or virtual reality games or the web are used. Point to a graphic icon that represents yourself in chat, etc.

본 발명에서의, 아바타 정보는 음원의 구성요소인 음성 또는 각각의 문장을 대표하는 그래픽 정보로 구성될 수도 있다. 예컨대, 음성과 대응되는 입술 모양으로 구성된다. In the present invention, the avatar information may be composed of graphic information representing each sentence or voice that is a component of the sound source. For example, it is composed of a lip shape corresponding to voice.

다른 예로서, 아바타 정보는 입술모양 뿐만 아니라 사람 모양, 물건 또는 음원과 매칭되는 대상물(들)을 포함하는 정보일 수도 있다. 또한 재생 음원이 음악 파일이면 멜로디와 대응되는 춤동작 또는 음성과 대응되는 입술 모양으로 이루어진 아바타 정보일 수도 있고, 어학학습이면 대상물이 음성과 대응하는 입술모양의 립싱크 동작이거나 물건을 나타내는 아바타 정보일 수도 있다. 그리고, 상기 아바타 정보는 음원 및 자막과 매칭되는 또는 이에 대응되는 이미지 정보 또는 그래픽 정보, 플래쉬 정보 등으로 만들어진 파일 정보일 수도 있다.As another example, the avatar information may be information including not only the shape of lips but also object (s) matching a person shape, an object, or a sound source. In addition, if the playback sound source is a music file, it may be avatar information consisting of a lip shape corresponding to a dance motion or a voice corresponding to a melody. have. The avatar information may be file information made of image information, graphic information, flash information, etc. that match or correspond to a sound source and a subtitle.

여기서, 자막 정보는 아바타 정보에 포함되어 표시되거나 해당 파일이 없을 때 화면상에 자막이 표시되지 않을 수 도 있다.Here, the caption information may be included in the avatar information and displayed or may not be displayed on the screen when there is no corresponding file.

그리고, 도 2와 같은 엠피쓰리 플레이어 장치에서는 마이크 및 인코더를 더 포함하여, 마이크로부터 입력되는 사용자 음성 또는 외부 음성을 입력받아 인코더로 인코딩한 후 MP3 파일로 녹음할 수도 있다. 이렇게 녹음된 MP3 파일에 대해서도 소프트웨어적으로 음성을 분석함으로써, 상기 녹음된 음성을 립 싱크의 입술 모양과 함께 출력해 줄 수도 있다.In addition, the MP3 player device as shown in FIG. 2 may further include a microphone and an encoder, and may receive a user voice or an external voice input from the microphone, encode the encoder, and then record an MP3 file. The recorded voice may be output along with the shape of the lips of the lip sync by analyzing the voice in the recorded MP3 file.

도 3은 본 발명에 따른 어학학습 방법을 나타낸 플로우 챠트로서, 음원 파일(예 MP3)의 재생이 선택되면(S101), 상기 재생 파일에 해당하는 자막 및 아바타 데이터를 검색하고(S103), 상기 검색결과 자막 데이터가 없으면 아바타 데이터를 음성 출력에 동기시켜 화면에 표시해 준다(S105,S107). 3 is a flowchart illustrating a language learning method according to the present invention. When playback of a sound source file (eg MP3) is selected (S101), the subtitle and avatar data corresponding to the playback file are searched (S103), and the search is performed. If there is no caption data, the avatar data is displayed on the screen in synchronization with the audio output (S105 and S107).

그리고, 상기 자막 및 아바타 데이터 검색 후(S103), 자막 정보가 있으면 음성 출력과 함께 자막 및 아바타 데이터를 화면에 표시해 준다(S105,S109).After the caption and avatar data search (S103), if there is caption information, the caption and avatar data are displayed on the screen together with the audio output (S105 and S109).

도 4는 본 발명의 어학학습 방법의 다른 예이다.4 is another example of the language learning method of the present invention.

도 4를 참조하면, 음원 파일이 재생되면(S121), 재생되는 음원 파일의 음성 발음을 분석한 후 유성음 및 무성음을 분리하고 발음 기호들의 시간을 측정하게 된다(S123). 이후 상기 분석된 음성 발음에 해당하는 아바타를 각각 검색한 후(S125), 재생 음성 출력과 동기화시켜 아바타를 화면으로 출력하게 된다(S127).Referring to FIG. 4, when the sound source file is reproduced (S121), voice pronunciation of the reproduced sound source file is analyzed, voiced sounds and unvoiced sounds are separated, and time of the pronunciation symbols is measured (S123). After searching each avatar corresponding to the analyzed voice pronunciation (S125), the avatar is output to the screen in synchronization with the reproduced voice output (S127).

도 5는 본 발명에 따른 어학학습에 있어, 아바타 동기화 방법을 나타낸 플로우 챠트이다.5 is a flowchart illustrating a method for synchronizing avatars in language learning according to the present invention.

도 5를 참조하면, 일정 문장과 이의 음성 파형, 그리고 발음을 입력하게 된다(S131). 이때, 상기 음성을 분석하여 유성음과 무성음으로 각각 분리한 후(S133), 분리된 발음 기호들의 시간을 각각 측정하게 된다(S135). 그리고, 각각의 발음 순서별로 립싱크할 입술 모양을 만들게 된다(S137).Referring to FIG. 5, a certain sentence, a voice waveform thereof, and a pronunciation thereof are input (S131). In this case, the voice is analyzed and separated into voiced and unvoiced sounds, respectively (S133), and time of the separated phonetic symbols is measured, respectively (S135). Then, a lip shape for lip-syncing is made for each pronunciation order (S137).

이후, 상기 측정된 발음 시간에 맞추어 상기 입술 모양 데이터를 저장하게 된다(S139). 즉, 발음 시간에 따라 음성의 발음(입술) 모양이 상이하므로 이를 계산하여 저장하게 된다. 또한 상기와 같이 만들어진 특정의 음원 파일에는 음원과 함께 자막(문장 정보), 그리고 아바타 정보가 함께 저장될 수도 있고, 상기 음원 정보와 자막, 아바타 정보가 각각 독립적으로 개개의 파일로 저장될 수도 잇다. Thereafter, the lip shape data is stored according to the measured pronunciation time (S139). That is, since the pronunciation (lip) shape of the voice is different according to the pronunciation time, it is calculated and stored. In addition, the specific sound source file may be stored together with the sound source, subtitles (sentence information), and avatar information, and the sound source information, subtitles, and avatar information may be separately stored as individual files.

한편, 상기와 같은 아바타 동기화를 위한 각 단계를 상세하게 설명하면 다음과 같다.Meanwhile, each step for avatar synchronization as described above will be described in detail as follows.

상기 아바타 정보를 동기화하는 방법을 음원의 입술 모양을 예로 하여 도 6 내지 도 11을 참조하기로 한다. 여기서, 음원 파형은 임의로 작성한 것이며 발음된 문장은 "It is a cat"이다. A method of synchronizing the avatar information will be described with reference to FIGS. 6 to 11 using the lip shape of the sound source as an example. Here, the sound source waveform is written arbitrarily and the pronounced sentence is "It is a cat".

먼저, 스피커로 출력되는 "It is a cat" 음성이 도 6과 같이 문장, 음성 파형, 발음으로 구분하여 표현된다면 이를 입력받아, 도 7과 같이 음성을 발음 기호에 맞춰 각각 유성음 및 무성음으로 분리하게 된다. 이때, 각각의 유성음과 무성음, 그리고 음성이 없는 구간은 수직 라인으로 분리되며 이 작업은 소프트웨어 적으로 또는 음성 전문가를 통해서 이루어질 수 있다. First, if the "It is a cat" voice outputted to the speaker is expressed by sentence, voice waveform, and pronunciation as shown in FIG. 6, it is inputted, and the voice is divided into voiced and unvoiced sounds, respectively, as shown in FIG. 7. do. At this time, each voiced, unvoiced, and no voice section is divided into vertical lines, which can be done in software or through a voice expert.

그리고, 도 8은 도 7과 같이 분리된 발음 기호들의 시간을 측정한다. 이 경우 각각의 유성음과 무성음의 발음 지속 시간이 다르기 때문에 정확한 시간 측정이 필요하게 된다. 도 8에서 A-K는 시간 흐름을 나타내는 정보이다.8 measures the time of the phonetic symbols separated as shown in FIG. 7. In this case, since the pronunciation duration of each voiced and unvoiced sound is different, accurate time measurement is required. In FIG. 8, A-K is information representing a time flow.

도 9는 각각의 발음 순서별로 입술 모양을 만들게 된다. 그리고, 발음에 따른 입술 모양별로 데이터베이스화한 후 각각의 발음 순서별로 해당 입술 모양을 링크시켜 줄 수도 있다. 여기서, 사람의 입술 모양은 무성음에 비해 유성음에 큰 영향을 받기 때문에 유성음 부분의 입술 모양 위주로 만들어 주게 된다.9 creates a lip shape for each pronunciation order. The database may be databased according to the shape of the lip according to the pronunciation and then linked to the corresponding shape of the lip according to the pronunciation order. Here, since the shape of the human lips is greatly affected by the voiced sound compared to the voiceless sound, the shape of the lips is mainly made of the shape of the lips.

도 10은 도 8에서 측정된 발음 시간에 맞추어 상기 음성 정보에 매칭되는 입술 모양 데이터를 저장한다. 여기서, 입술 모양을 디스플레이할 경우 음성 파형과 똑같이 동기화가 일어나야 하므로, 도 8에서 언급한 각각의 유성음과 무성음의 발음 지속 시간과 동일한 시간으로 입술 모양 데이터가 저장되어야 한다.FIG. 10 stores lip shape data matching the voice information according to the pronunciation time measured in FIG. 8. Here, since the lip shape is to be synchronized with the voice waveform, the lip shape data should be stored at the same time as the pronunciation duration of each voiced and unvoiced sound mentioned in FIG. 8.

도 11은 실제적으로 화면에 표시되는 예로서, 음성과 해당 자막, 그리고 아바타의 입술 모양이 적절히 동기화되었는지 최종적으로 확인하게 된다. FIG. 11 is an example displayed on the screen, and finally confirms whether the voice, the corresponding subtitle, and the lip shape of the avatar are properly synchronized.

상기와 같이, 음성 또는/및 자막 데이터에 해당하는 입술 모양 데이터를 얻을 수 있으므로, 이러한 데이터들을 엠피쓰리 플레이어에 저장시킨 후 해당 음성을 플레이할 경우 자동적으로 입술 모양 데이터 및 자막이 로딩되어 플레이될 수 있다.As described above, since the lip shape data corresponding to the voice or / and subtitle data can be obtained, the lip shape data and the subtitle can be automatically loaded and played when the corresponding voice is stored after storing the data in the MP3 player. have.

또한, 아타바 입술 모양 데이터를 데이터베이스화한 후, 음성 파일이 출력됨과 동시에 해당 음원 정보를 분석한 후, 상기 데이터베이스로부터 아바타 데이터(또는 그래픽 데이터)를 추출하여 재생시켜 줄 수도 있다.In addition, after the Ataba lip data is made into a database, an audio file is output and the corresponding sound source information is analyzed, and the avatar data (or graphic data) can be extracted and reproduced from the database.

여기서, 상기 저장수단의 용량에 맞추어 디스플레이되는 입술 모양을 실선으로 이용하여 표현하거나 애니메이션 방법으로 처리하여 저장할 수도 있다. Here, the lip shape displayed according to the capacity of the storage means may be expressed using a solid line or processed by an animation method and stored.

이제까지 본 발명에 대하여 그 바람직한 실시 예를 중심으로 살펴보았으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 본질적 기술 범위 내에서 상기 본 발명의 상세한 설명과 다른 형태의 실시 예들을 구현할 수 있을 것이다. 여기서 본 발명의 본질적 기술범위는 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.So far, the present invention has been described with reference to the preferred embodiments, and those skilled in the art to which the present invention pertains to the detailed description of the present invention and other forms of embodiments within the essential technical scope of the present invention. Could be implemented. Here, the essential technical scope of the present invention is shown in the claims, and all differences within the equivalent range will be construed as being included in the present invention.

상술한 바와 같이 본 발명에 따른 휴대용 어학학습 장치 및 방법에 의하면, 듣기와 자막 보기 등의 기본 적인 기능과 더블어, 화면을 통해 아바타가 출력되도록 함으로써, 어학 학습 효과를 높일 수 있다.As described above, according to the portable language learning apparatus and method according to the present invention, it is possible to enhance the language learning effect by outputting avatars through basic functions such as listening and viewing subtitles, and double screens.

그리고, 아바타를 현재 음성 발음에 해당하는 립싱크 모양으로 제공함으로써, 이동하면서도 듣기와 말하기 학습이 가능한 효과가 있다.

And, by providing the avatar in the shape of a lip sync corresponding to the current voice pronunciation, there is an effect that can be learned while listening and speaking while moving.

Claims (8)

음원을 저장하고 재생시 외부로 출력하는 휴대용 어학학습 장치에 있어서,In the portable language learning device that stores the sound source and outputs to the outside during playback, 상기 음원 파일이 저장되는 음원 저장부, 상기 음원 파일의 음원 정보에 대응하는 아바타 데이터가 저장된 아바타 저장부를 포함하는 저장수단과; Storage means including a sound source storage unit for storing the sound source file and an avatar storage unit for storing avatar data corresponding to sound source information of the sound source file; 유성음 및 무성음을 분리하고 발음 기호들의 시간을 측정하는 제어수단을 포함하는 것을 특징으로 하는 휴대용 어학학습 장치.And a control means for separating voiced and unvoiced sounds and measuring time of phonetic symbols. 제 1항에 있어서, The method of claim 1, 상기 저장수단에는 상기 음원 파일의 음원 정보에 대응하는 자막 파일이 저장되는 자막 저장부를 더 포함하는 것을 특징으로 하는 휴대용 어학학습 장치.The storage means further comprises a subtitle storage unit for storing a subtitle file corresponding to the sound source information of the sound source file. 제 2항에 있어서,The method of claim 2, 상기 자막 파일 및 아타바 데이터는 상기 음원 파일의 음원 정보에 동기화되어 저장되어 있는 것을 특징으로 하는 휴대용 어학학습 장치. And the caption file and the atava data are synchronized with and stored in the sound source information of the sound source file. 제 1항에 있어서,The method of claim 1, 상기 제어수단은 음원 파일의 재생시 상기 음원 파일의 음성 출력과 아바타 데이터를 동기화시켜 출력하는 것을 특징으로 하는 휴대용 어학학습 장치.The control means is a portable language learning device, characterized in that for outputting the synchronized audio output and avatar data of the sound source file when playing. 음원 파일을 저장하고 재생시 외부로 출력하는 휴대용 어학학습 장치에 있어      In the portable language learning device that stores the sound source files and outputs them to the outside during playback 서,book, 상기 음원 파일 재생시, 상기 음원 파일에 동기되어 저장된 자막 또는/및 아바타Subtitles and / or avatars stored in synchronization with the sound source file when playing the sound source file 데이터의 유무를 검색하는 단계; 및Retrieving the presence or absence of data; And 상기 검색결과, 상기 아바타 데이터만이 있을 경우 상기 음원 파일과 아바타 데이터를 동기화시켜 스피커 및 표시부로 출력하는 단계;를 포함하는 것을 특징으로And synchronizing the sound source file with the avatar data and outputting the same to the speaker and the display unit when there is only the avatar data. 하는 휴대용 어학학습 장치의 어학학습 방법.Language learning method of a portable language learning device. 제 5항에 있어서,The method of claim 5, 상기 음원 파일의 음성 발음 기호에 각각 유성음 및 무성음으로 분리하고, 분리된 발음 기호들의 시간을 측정 한 후, 상기 각 발음 순서별로 맞추어 아바타 데이터를 저장하여, 음원 파일과 아바타 데이터를 동기화시켜 저장하는 것을 특징으로 하는 휴대용 어학학습 장치의 어학학습 방법.The voice pronunciation symbols of the sound source file are divided into voiced sounds and unvoiced sounds, respectively, and after measuring the time of the separated phonetic symbols, storing the avatar data in accordance with the pronunciation order, and synchronizing and storing the sound source file and the avatar data. The language learning method of the portable language learning apparatus characterized by the above-mentioned. 제 5항 또는 제 6항에 있어서,The method according to claim 5 or 6, 상기 아바타 데이터는 상기 음원 파일의 각 발음 기호에 대응하는 그래픽 객체로서의 입술 모양인 것을 특징으로 하는 휴대용 어학학습 장치의 어학학습 방법.The avatar data has a lip shape as a graphic object corresponding to each phonetic symbol of the sound source file. 제 5항에 있어서, 상기 검색결과, 상기 자막 및 아바타 데이터가 있을 경우, 상기 자막 및 아바타 데이터와 음원파일을 동기화시켜 스피커 및 표시부로 출력하는 단계를 더 포함하는 것을 특징으로 하는 휴대용 어학학습 장치의 어학학습 방법.The portable language learning apparatus of claim 5, further comprising: synchronizing the subtitle and avatar data with the sound source file and outputting the same to the speaker and the display unit when the search result and the subtitle and avatar data are present. Language learning method.
KR1020040078985A 2004-10-05 2004-10-05 Poratable language study apparatus and method KR100693658B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020040078985A KR100693658B1 (en) 2004-10-05 2004-10-05 Poratable language study apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020040078985A KR100693658B1 (en) 2004-10-05 2004-10-05 Poratable language study apparatus and method

Publications (2)

Publication Number Publication Date
KR20060030194A KR20060030194A (en) 2006-04-10
KR100693658B1 true KR100693658B1 (en) 2007-03-14

Family

ID=37140263

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040078985A KR100693658B1 (en) 2004-10-05 2004-10-05 Poratable language study apparatus and method

Country Status (1)

Country Link
KR (1) KR100693658B1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111409A (en) 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
KR20000009490A (en) * 1998-07-24 2000-02-15 윤종용 Method and apparatus of lip-synchronization for voice composition
EP0992933A2 (en) 1998-10-09 2000-04-12 Mitsubishi Denki Kabushiki Kaisha Method for generating realistic facial animation directly from speech utilizing hidden markov models
KR20010017865A (en) * 1999-08-16 2001-03-05 정선종 Method Of Visual Communication On Speech Translating System Based On Avatar
KR20010088139A (en) * 2000-03-10 2001-09-26 백승헌 Apparatus and method for displaying lips shape according to taxt data
KR20010108615A (en) * 2000-05-30 2001-12-08 한상학 System and method for reproducing audio and caption data and portable digital audio player with a caption function
KR20020022504A (en) * 2000-09-20 2002-03-27 박종만 System and method for 3D animation authoring with motion control, facial animation, lip synchronizing and lip synchronized voice
KR200325408Y1 (en) 2003-04-24 2003-09-03 주식회사 현대오토넷 Car audio display apparatus using amplitude range analysis

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5111409A (en) 1989-07-21 1992-05-05 Elon Gasper Authoring and use systems for sound synchronized animation
KR20000009490A (en) * 1998-07-24 2000-02-15 윤종용 Method and apparatus of lip-synchronization for voice composition
EP0992933A2 (en) 1998-10-09 2000-04-12 Mitsubishi Denki Kabushiki Kaisha Method for generating realistic facial animation directly from speech utilizing hidden markov models
KR20010017865A (en) * 1999-08-16 2001-03-05 정선종 Method Of Visual Communication On Speech Translating System Based On Avatar
KR20010088139A (en) * 2000-03-10 2001-09-26 백승헌 Apparatus and method for displaying lips shape according to taxt data
KR20010108615A (en) * 2000-05-30 2001-12-08 한상학 System and method for reproducing audio and caption data and portable digital audio player with a caption function
KR20020022504A (en) * 2000-09-20 2002-03-27 박종만 System and method for 3D animation authoring with motion control, facial animation, lip synchronizing and lip synchronized voice
KR200325408Y1 (en) 2003-04-24 2003-09-03 주식회사 현대오토넷 Car audio display apparatus using amplitude range analysis

Also Published As

Publication number Publication date
KR20060030194A (en) 2006-04-10

Similar Documents

Publication Publication Date Title
US9601029B2 (en) Method of presenting a piece of music to a user of an electronic device
WO2001061684A1 (en) Methods and system for encoding an audio sequence with synchronized data and outputting the same
JP2006195385A (en) Device and program for music reproduction
JP2008170685A (en) Voice evaluation device and karaoke device
JP4817388B2 (en) Music information calculation apparatus and music reproduction apparatus
JP2007310204A (en) Musical piece practice support device, control method, and program
JP2007295218A (en) Nonlinear editing apparatus, and program therefor
JP5137031B2 (en) Dialogue speech creation device, utterance speech recording device, and computer program
JP2007264569A (en) Retrieval device, control method, and program
US20060199161A1 (en) Method of creating multi-lingual lyrics slides video show for sing along
JP2006133521A (en) Language training machine
JP4483936B2 (en) Music / video playback device
US20060084047A1 (en) System and method of segmented language learning
KR100693658B1 (en) Poratable language study apparatus and method
JP2007304489A (en) Musical piece practice supporting device, control method, and program
JP4720974B2 (en) Audio generator and computer program therefor
KR100670443B1 (en) Computer recordable medium recording data file for sound/image syncronization and method for inserting image data sample into audio file
JP4277512B2 (en) Electronic device and program
JP3978465B2 (en) Recording / playback device
JP4407119B2 (en) Instruction code creation device
JP4354337B2 (en) Karaoke device with sign language learning function
JP2007163801A (en) Content reproduction device
JP2003271158A (en) Karaoke device having image changing function and program
JP2005077678A (en) Text and voice synchronizing device and text and voice synchronization processing program
JP2009282528A (en) Recording and reproducing device, recording and reproducing method and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130226

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee