KR100879667B1 - Method of learning language in multimedia processing apparatus - Google Patents

Method of learning language in multimedia processing apparatus Download PDF

Info

Publication number
KR100879667B1
KR100879667B1 KR1020070071890A KR20070071890A KR100879667B1 KR 100879667 B1 KR100879667 B1 KR 100879667B1 KR 1020070071890 A KR1020070071890 A KR 1020070071890A KR 20070071890 A KR20070071890 A KR 20070071890A KR 100879667 B1 KR100879667 B1 KR 100879667B1
Authority
KR
South Korea
Prior art keywords
learning
file
subtitle
mode
language
Prior art date
Application number
KR1020070071890A
Other languages
Korean (ko)
Inventor
김성수
Original Assignee
(주)케이티에프테크놀로지스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)케이티에프테크놀로지스 filed Critical (주)케이티에프테크놀로지스
Priority to KR1020070071890A priority Critical patent/KR100879667B1/en
Application granted granted Critical
Publication of KR100879667B1 publication Critical patent/KR100879667B1/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied
    • GPHYSICS
    • G06COMPUTING; CALCULATING; COUNTING
    • G06QDATA PROCESSING SYSTEMS OR METHODS, SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL, SUPERVISORY OR FORECASTING PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Abstract

A language studying method of a multimedia processing device is provided to make the whole language studying such as listening, writing, speaking and reading possible without the necessity of separately manufacturing contents. A user stores a digital data file including a movie or drama in a multimedia processing device through a wire/wireless connection, and then tries to reproduce the digital file for the language studying(S1). The multimedia processing device parses a caption file from the digital data file, and generates a caption table which has time information and caption information as fields and in which the time information is arranged in the ascending order(S2,S3). The caption table passes the start time and the end time corresponding to the first sentence to a reproduction routine(S4). The multimedia processing device enters the playback mode by a key input of the user(S5). If the reproduction of a moving picture file such as the MPEG4 is completed as much as the start and end time with respect to the first sentence, the multimedia processing device enters the first learning mode after performing the file pause(S6-S8).

Description

멀티미디어 처리 장치의 어학 학습 방법{METHOD OF LEARNING LANGUAGE IN MULTIMEDIA PROCESSING APPARATUS}Language learning method of multimedia processing device {METHOD OF LEARNING LANGUAGE IN MULTIMEDIA PROCESSING APPARATUS}

본 발명은 멀티미디어 처리 장치에 관한 것으로, 더욱 상세하게는 자막 파일의 시간 정보와 자막 정보를 이용한 멀티미디어 처리 장치의 어학 학습 방법에 관한 것이다.The present invention relates to a multimedia processing apparatus, and more particularly, to a language learning method of a multimedia processing apparatus using time information and subtitle information of a subtitle file.

요즘, 핸드폰, PDA(Personal Digital Assistant) 등과 같은 멀티미디어 처리 장치는 무선통신 기능 이외에 다양한 정보들을 문자나 이미지 형태로 송수신하며 무선 인터넷을 통해 정보를 제공받는데 유용하게 사용되고 있다. Nowadays, multimedia processing devices such as mobile phones and PDAs (Personal Digital Assistants) are used to receive and transmit various types of information in the form of text or images in addition to wireless communication functions and to receive information through the wireless Internet.

이러한 멀티미디어 처리 장치에 부가되는 다양한 부가서비스 기능에는 인터넷 접속기능, 게임 다운로드 및 실행, 동영상 다운로드 및 감상, 동영상 통신, 음악 파일 다운로드 및 실행, 문자 통신, 폰북(Phone book) 기록관리, 메모 기능 등과 같이 매우 다양하며, 계속하여 더욱 많은 종류의 부가서비스가 개발되어 제공되고 있다.Various additional service functions added to the multimedia processing apparatus include Internet access, game download and play, video download and watch, video communication, music file download and play, text communication, phone book record management, memo function, etc. There is a great variety and many more kinds of supplementary services are being developed and provided.

최근, 멀티미디어 처리 장치에서는 오디오 및 비디오 파일과 자막 파일로 구성된 디지털 데이터 파일에 포함된 자막 데이터 파일을 먼저 독출하여 메모리 등에 다운로드한 후, 상기 오디오 및 비디오 데이터를 재생하면서 상기 자막 데이터를 독출하여, 오디오 및 비디오 데이터와 연계 재생하게 된다.Recently, a multimedia processing apparatus first reads a caption data file included in a digital data file consisting of an audio and video file and a caption file, downloads the caption data, and then reads the caption data while playing the audio and video data. And playback in conjunction with video data.

이에 따라, 사용자는 비디오 영상에 중첩 표시되는 자막 영상을 보면서, 오디오 음성을 동시에 시청할 수 있기 때문에, 디지털 데이터 파일을 어학 학습용으로 이용하는 사례가 급증하고 있는 실정이다.Accordingly, since users can watch audio and audio at the same time while watching subtitle images superimposed on a video image, there is an increasing number of cases of using digital data files for language learning.

그러나, 일반적인 멀티미디어 처리 장치에서 사용자가 어학 학습을 위해 정지(stop)나 일시 정지 키를 눌러 듣기와 쓰기 등의 필요한 학습 내용을 일일이 체크해야 하는 문제점이 있고, 특정 위치의 오디오 및 비디오 데이터를 정확하게 탐색 재생할 수 없게 되는 문제점이 있다.However, there is a problem in a general multimedia processing device that a user needs to check necessary learning contents such as listening and writing by pressing a stop or pause key for language learning, and accurately searches audio and video data at a specific location. There is a problem that it cannot be reproduced.

한국 공개 특허 2007-0018202호("자막정보를 이용한 점프 재생 제어 방법")에서는 오디오 및 비디오 파일과 자막 파일이 하나로 구성된 디빅스(DVIX) 파일 등과 같은 디지털 데이터 파일을 재생하던 도중, 프리뷰 점프(Preview Jump) 또는 넥스트 점프(Next Jump)가 요청되면, 이전 자막의 시작 시간(Start Time) 정보 또는 프레임(Frame) 정보를 검색 확인하여 그에 대응되는 기록위치로 점프하고, 상기 점프된 기록위치에서부터 자막 데이터와 오디오 및 비디오 데이터를 재생 출력함으로써, 자막 데이터를 기준으로 하여, 이전(Preview) 자막 데이터의 시작 시점, 또는 이후(Next) 자막 데이터의 시작 시점에서부터 오디오 및 비디오 데이터를 간편하게 탐색 재생할 수 있다.In Korean Patent Publication No. 2007-0018202 ("Jump method using subtitle information control"), a preview jump is performed while playing a digital data file such as a Divix file including an audio and video file and a subtitle file. Or Next Jump is requested, search for Start Time information or Frame information of the previous subtitle, check and jump to the corresponding recording position, and the caption data from the jumped recording position. By reproducing and outputting audio and video data, the audio and video data can be easily searched and reproduced from the start point of the preview caption data or the start point of the next caption data on the basis of the caption data.

따라서, 상기 한국 공개 특허 2007-0018202호는 디빅스 파일 등의 자막 데이터를 어학학습용 데이터로 보다 용이하게 활용할 수 있고, 사용자 편의성을 크게 향상시킬 수 있다.Accordingly, the Korean Laid-Open Patent Publication No. 2007-0018202 can more easily utilize subtitle data, such as a Divix file, as language learning data, and can greatly improve user convenience.

상기한 종래 방법은 디지털 데이터 파일 등의 자막 데이터를 어학 학습용 데이터로 활용하기 위해, 컨텐츠 제공사가 자체 제작한 컨텐츠를 구입하고, 상기 구입한 컨텐츠를 지원하는 디지털 기기를 사용해야 하므로 사용자 취향에 맞는 학습이 어렵고 제한적이며 컨텐츠 종속적인 어학 학습이 이루어졌다.According to the conventional method, in order to use subtitle data such as a digital data file as language learning data, a content provider needs to purchase content produced by a content provider and use a digital device that supports the purchased content. Difficult, limited and content-dependent language learning was achieved.

또한, 영어 학습 비디오나 오디오 시청각 교재를 구입하여 학습 하는 경우에, 틀에 짜여진 학습 내용으로 인해 지속적인 학습을 유지하기 어렵고 사용자가 중도에 흥미를 잃어 포기하는 사례도 빈번히 발생하였다.In addition, in the case of learning by learning English learning video or audiovisual textbook, it is difficult to maintain continuous learning due to the structured learning contents, and the user frequently loses interest in the middle and often gives up.

특히, 상기 한국 공개 특허 2007-0018202호는 사용자 요청에 다라 이전 자막 데이터와 이후 자막 데이터의 시작 시점 위치로 정확하고 간편하게 탐색할 수 있도록 하는 것으로서, 듣고 받아쓰기, 듣고 말하기, 또는 적어도 1개 이상의 다국어를 지원하는 등의 효율적이고 총체적인 어학 학습은 불가능하다는 문제점이 있다. In particular, the Korean Patent Application Publication No. 2007-0018202 allows accurate and easy navigation to the starting position of the previous subtitle data and the subsequent subtitle data according to a user's request. There is a problem in that it is impossible to efficiently and comprehensively learn a language.

따라서, 본 발명의 목적은 별도의 컨텐츠 제작 없이 듣기, 쓰기, 말하기, 독해 등의 효율적이고 총체적인 어학 학습이 가능하며, 적어도 1개 이상의 다국어를 지원할 수 있는 멀티미디어 처리 장치의 어학 학습 방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a language learning method of a multimedia processing apparatus capable of efficiently and comprehensive language learning such as listening, writing, speaking, reading, etc., and capable of supporting at least one or more languages without producing content. .

상술한 본 발명의 목적을 달성하기 위한 본 발명의 일측면에 따른 멀티미디어 처리 장치의 어학 학습 방법은, 오디오 파일, 비디오 파일, 자막 파일을 포함하는 디지털 데이터 파일에서, 상기 자막 파일을 파싱하여 시간 정보와 자막 정보를 필드로 하는 자막 테이블을 생성하는 단계; 재생 모드 진입시, 상기 자막 테이블의 시간 정보를 기초로 하여 소정 자막 단위별 상기 비디오 파일 또는 오디오 파일을 재생한 후 일시 정지하고 제1 학습 모드를 진행하는 단계 및 상기 제1 학습 모드가 완료되면, 상기 제1 학습 모드의 재생 부분에 대한 상기 자막 정보를 출력하여 제2 학습 모드를 진행하는 단계를 포함한다. Language learning method of the multimedia processing apparatus according to an aspect of the present invention for achieving the above object of the present invention, in the digital data file including an audio file, a video file, a subtitle file, parsing the subtitle file time information Generating a subtitle table having subtitle information as a field; Upon entering the play mode, playing the video file or the audio file by a predetermined subtitle unit based on the time information of the subtitle table, pausing and proceeding to the first learning mode, and when the first learning mode is completed, And outputting the caption information for the reproduction portion of the first learning mode to proceed to the second learning mode.

상기한 멀티미디어 처리 장치의 어학 학습 방법은, 사용자의 학습 진행 상황 및 학습 결과를 통계화하고, 사용자별 학습 진도를 관리할 수 있는 학습 관리 모드를 진행하는 단계를 더 포함할 수 있다. The language learning method of the multimedia processing apparatus may further include performing a learning management mode in which a user's learning progress and learning results are statistically calculated and user learning progress can be managed.

상기 오디오 파일, 비디오 파일, 자막 파일을 포함하는 디지털 데이터 파일에서, 상기 자막 파일을 파싱하여 시간 정보와 자막 정보를 필드로 하는 자막 테이블을 생성하는 단계는, 상기 자막 테이블은 상기 시간 정보를 오름차순 키로 하고, 상기 시간 정보와 자막 정보를 이용해 1 문장에 해당하는 시작 시간과 끝 시간을 재생 루틴(PLAY ROUTINE)으로 넘겨줄 수 있다. In the digital data file including the audio file, the video file, and the subtitle file, generating the subtitle table by parsing the subtitle file as a field of time information and subtitle information, wherein the subtitle table includes the time information as an ascending key. The start time and the end time corresponding to one sentence may be passed to a play routine using the time information and the subtitle information.

상기 재생 모드 진입시, 상기 자막 테이블의 시간 정보를 기초로 하여 소정 자막 단위별 상기 비디오 파일 또는 오디오 파일을 재생한 후 일시 정지하고 제1 학습 모드를 진행하는 단계는, 상기 특정 문장의 시작 시간과 끝 시간만큼 비디오 파일 및 오디오 파일을 재생하고 파일 일시 정지할 수 있다. When entering the play mode, the step of pausing after playing the video file or the audio file for each predetermined subtitle unit based on the time information of the subtitle table and proceeding to the first learning mode may include a start time and an end of the specific sentence. Video files and audio files can be played and file paused for a period of time.

상기 제1 학습 모드는 듣기, 받아쓰기, 말하기 중 적어도 어느 하나를 포함하는 학습 입력 모드일 수 있다. 상기 제1 학습 모드는 구간 반복 기능과 힌트 기능을 사용할 수 있다. The first learning mode may be a learning input mode including at least one of listening, dictation, and speaking. The first learning mode may use an interval repeating function and a hint function.

상기 제2 학습 모드는 상기 제1 학습 모드의 재생 부분에 대한 자막 정보를 화면상에 출력해 주는 번역 모드일 수 있다. 상기 제2 학습 모드는 적어도 1개의 외국어에 대한 자막 정보를 상기 화면상에 출력하는 번역 모드 일 수 있다. 상기 제2 학습 모드는 외국어 사전 기능을 사용할 수 있다. 상기 제2 학습 모드는 특정 재생 부분에 대한 단어, 또는 문장의 저장 기능을 사용할 수 있다. The second learning mode may be a translation mode for outputting caption information on a reproduction part of the first learning mode on a screen. The second learning mode may be a translation mode for outputting caption information for at least one foreign language on the screen. The second learning mode may use a foreign language dictionary function. The second learning mode may use a function of storing words or sentences for a specific playback portion.

상기 소정 자막 단위는 1개의 문장 단위, 1줄 단위, 및 소정 시간 단위 중의 하나 일 수 있다.The predetermined subtitle unit may be one sentence unit, one line unit, or one time unit.

상기와 같은 멀티미디어 처리 장치의 어학 학습 방법에 따르면, 오디오 파일, 비디오 파일, 및 자막 파일을 포함하는 디지털 데이터 파일에서 자막 파일의 시간 정보와 자막 정보를 필드로 하는 자막 테이블을 생성하고, 상기 자막 테이블의 시간 정보를 기초로 하여 1문장씩 또는 소정 단위로 오디오 파일 및 비디오 파일만 재생한 후 일시 정지하고 말하기, 듣기, 받아 쓰기, 독해가 가능하도록 학습모드로 진입한다.According to the language learning method of the multimedia processing apparatus as described above, a caption table having a time information and caption information of a caption file as a field is generated from a digital data file including an audio file, a video file, and a caption file. Based on the time information, the audio file and the video file are played only one sentence or a predetermined unit, and then paused and enters the learning mode to enable speaking, listening, dictating, and reading.

따라서, 현재 널리 사용되고 있는 비디오 파일과 오디오 파일, 및 자막 파일을 학습 도구로 사용하고 있으며, 특히 자막 파일의 동기(sync) 정보와 언어 정보만을 이용하므로 간단하게 구현할 수 있고, 오디오 및 비디오 파일을 듣거나 보면서, 받아쓰기 및 말하기 학습이 가능하므로, 듣기, 말하기, 쓰기, 및 독해가 모두 동시에 가능하다.Therefore, video files, audio files, and subtitle files, which are widely used at present, are used as learning tools. In particular, only the sync information and language information of the subtitle files can be used to easily implement them. Listening, speaking, writing, and reading are all possible at the same time, as learning the dictation and speaking is possible.

또한, 자막 파일을 추가/편집하여 적어도 1개 이상의 언어를 동시에 학습할 수 있고, 영어 학습 비디오나 오디오 시청각 교재를 구입할 필요가 없어 어학 학습에 소요되는 경제적 부담이 대폭 감소되고, 사용자가 좋아하는 영화나 드라마 등의 동영상 파일을 이용하고, 퀴즈 형식으로 학습이 진행되어 사용자의 지속적인 흥미를 유발시킬 수 있다.In addition, you can add / edit subtitle files to learn at least one language at the same time, and there is no need to purchase English learning videos or audiovisual materials, greatly reducing the economic burden of language learning, and users' favorite movies. By using video files such as dramas, dramas, and learning in the form of a quiz can cause users' continuous interest.

또, 영화나 드라마 등의 동영상 파일을 이용하기 때문에 다양한 사람들의 발음을 청취할 수 있고, 다양한 어구 및 문장을 접할 수 있어 실생활 위주의 학습이 가능하고, 구간반복, 전자사전 연계 등의 기존 어학 학습 프로그램의 모든 기능을 추가적으로 이용할 수 있어 학습 통게 및 진행 상태 등을 쉽게 파악할 수 있다.In addition, because it uses movie files such as movies and dramas, it is possible to listen to the pronunciation of various people, and to access various phrases and sentences, enabling real-life-oriented learning, and existing language learning such as section repetition and electronic dictionary connection. All the features of the program can be used in addition, so you can easily keep track of your learning trends and progress.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description.

그러나, 이는 본 발명의 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.However, this is not intended to be limited to the specific embodiment of the present invention, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다.Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

그리고, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명 의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term and / or includes a combination of a plurality of related items or any item of a plurality of related items.

이하, 본 발명의 실시예에서 디지털 데이터 파일이라 함은 오디오 및/또는 비디오 파일과 자막 파일을 포함하는 개념이다.Hereinafter, in the embodiment of the present invention, a digital data file is a concept including an audio and / or video file and a subtitle file.

도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다.In describing the drawings, similar reference numerals are used for similar components.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. 이하, 도면상의 동일한 구성요소에 대해서는 동일한 참조부호를 사용하고 동일한 구성요소에 대해서 중복된 설명은 생략한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention. Hereinafter, the same reference numerals are used for the same components in the drawings, and duplicate descriptions of the same components are omitted.

도 1은 본 발명의 일 실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법의 순서도이고, 도 2는 본 발명의 일 실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법의 예시 화면이 도시된 도면이다. 그리고, 도 3은 본 발명의 일 실시예에 따라 다국적 언어를 동시에 지원하기 위한 예시 화면이 도시된 도면이다.1 is a flowchart of a language learning method of a multimedia processing apparatus according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an example screen of a language learning method of the multimedia processing apparatus according to an embodiment of the present invention. 3 is a diagram illustrating an example screen for simultaneously supporting a multinational language according to an embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 일실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법은, 사용자가 멀티미디어 처리 장치에 유무선 연결을 통해 영화나 드라마 등의 디지털 데이터 파일을 저장하고, 어학 학습을 위해 상기 디지털 파일의 재생을 시도한다.(단계 S1)1 to 3, in a language learning method of a multimedia processing apparatus according to an embodiment of the present invention, a user stores a digital data file such as a movie or drama through a wired or wireless connection to a multimedia processing apparatus, and learns language. Attempt to play the digital file (step S1).

상기에서, 본 발명의 일 실시예에 따른 멀티미디어 처리 장치는 멀티미디어 처리를 수행하는 휴대폰, PMP, PDA, 및 MP3 등과 같은 휴대용 단말기와 같은 장치 에 적용할 수 있다.In the above, the multimedia processing apparatus according to an embodiment of the present invention can be applied to devices such as mobile terminals, mobile phones, PMPs, PDAs, and MP3s that perform multimedia processing.

멀티미디어 처리 장치는 디지털 데이터 파일에서 자막 파일을 파싱하여, 시간 정보와 자막 정보를 필드로 하고 시간 정보를 오름차순 키로 하는 자막 테이블을 생성한다.(단계 S2와 S3)The multimedia processing apparatus parses the caption file from the digital data file to generate a caption table with the time information and the caption information as fields and the time information as an ascending key (steps S2 and S3).

자막 테이블에서는 1문장에 해당하는 시작 시간과 끝 시간을 재생루틴에 넘겨주고, 사용자의 키 입력에 의해 재생 모드에 진입한다.(단계 S4 및 S5) 이때, 도 2의 (a)에 도시된 바와 같이 재생 모드에서는 일반적인 동영상을 재생하는 모드로서, 디지털 데이터 파일에서 오디오 파일과 비디오 파일만을 재생하고, 자막 파일을 표시하지 않는다.In the caption table, the start time and the end time corresponding to one sentence are passed to the playback routine, and the playback mode is entered by the user's key input. (Steps S4 and S5) At this time, as shown in FIG. Similarly, the playback mode is a mode for reproducing a general video, and plays only audio files and video files in a digital data file, and does not display subtitle files.

도 2의(b), (c), 및 (d)에 도시된 바와 같이 멀티미디어 처리 장치는 자막 테이블을 토대로 제1 문장에 대해 시작 시간과 끝 시간만큼 MPEG4와 같은 동영상 파일 재생이 완료되면, 파일 일시 정지를 수행한 후 제1 학습 모드로 진입한다.(단계 S6, S7, 및 S8)As shown in (b), (c), and (d) of FIG. 2, when the multimedia processing apparatus finishes playing a video file such as MPEG4 by the start time and the end time for the first sentence based on the subtitle table, the file is processed. After the pause is performed, the first learning mode is entered (steps S6, S7, and S8).

제1 학습 모드는 상기 제1 문장에 대한 받아쓰기 또는 말하기 입력 모드로서, 듣고 말하기, 듣고 받아쓰기, 받아쓰기, 말하기, 받아쓰기와 말하기 등의 다양한 학습 방식이 가능하다. 제1 학습 모드는 받아쓰기의 경우 키패드, 터치 패드등과 같은 다양한 입력 도구를 이용해 수행될 수 있고, 말하기의 경우 음성인식 장치와 같은 입력 장치를 이용하여 수행될 수 있다. 제1 학습 모드에서는 사용자가 모르는 부분에 대해 반복 재생이 가능하고, 힌트 기능을 추가하여 말하기 또는 받아쓰기를 용이하게 수행할 수 있도록 가이드해 줄 수도 있다.The first learning mode is a dictation or speaking input mode for the first sentence, and various learning methods such as listening, speaking, hearing dictation, dictation, speaking, dictation, and speaking are possible. The first learning mode may be performed using various input tools such as a keypad and a touch pad in the case of dictation, and may be performed using an input device such as a voice recognition device in the case of speaking. In the first learning mode, the user may repeatedly play the part that the user does not know, and may add a hint function to guide the user easily to speak or dictate.

예를 들어, 도 2의 (d)에 도시된 바와 같이, 사용자가 받아쓰기 수행시 제1 문장을"I love you so OOOO"로 입력하고, ‘OOOO’부분에 대한 단어 입력이 일정 시간 이상 늦어질 경우나 사용자가 힌트 기능을 사용할 경우에 ‘0000’의 단어의 첫 글자인 ‘m’을 출력한다. For example, as shown in (d) of FIG. 2, when the user performs the dictation, the first sentence is input as "I love you so OOOO", and the word input for the 'OOOO' portion may be delayed for a predetermined time or more. If the user uses the hint function, the first letter of the word '0000' is printed.

사용자가 제1 문장에 대한 구간 반복 재생을 요청하면, 상기 제1 문장에 대해 다시 한번 오디오 및 비디오 파일을 재생하거나, 특정 위치의 단어만을 반복 재생한다.(단계 S9)If the user requests the section repetition reproduction for the first sentence, the audio and video file is reproduced once for the first sentence, or only the word at a specific position is repeatedly reproduced (step S9).

제1 학습 모드가 완료되면, 제1 학습 모드의 재생 부분인 제1 문장에 대한 자막 정보를 화면 출력하는 번역 모드인 제2 학습 모드로 진입한다.(단계 S10)When the first learning mode is completed, a second learning mode is entered, which is a translation mode in which subtitle information of the first sentence, which is a reproduction part of the first learning mode, is displayed on the screen.

번역 모드에서는 도 2의 (e) 및 (f)에 도시된 바와 같이, 제1 문장에 대한 한국어의 자막 정보를 화면 출력하고, 사용자의 선택에 따라 다국어-예를 들어, 일본어-에 대한 자막 정보를 화면 출력한다.In the translation mode, as shown in FIGS. 2E and 2F, the subtitle information of the first sentence is displayed on the screen, and the subtitle information of the multilingual language, for example, Japanese language, is selected according to the user's selection. Will print the screen.

또는, 도 3에 도시된 바와 같이, 번역 모드에서는 자막 파일의 추가 또는 편집을 통해 영어, 일본어, 중국어, 한글 등의 다국적 언어를 동시에 지원할 수도 있다. 일례로, 한국어, 영어, 일본어, 중국어, 러시아어 등의 다국어 중에서 적어도 1개 이상의 언어를 동시에 자막을 표시하거나, 사용자가 선택한 언어 자막만 표시할 수도 있다. 또한 사용자는 재생중 언제라도 변경하고자 하는 언어를 선택할 수 있다.Alternatively, as illustrated in FIG. 3, the translation mode may simultaneously support multilingual languages such as English, Japanese, Chinese, and Korean by adding or editing subtitle files. For example, subtitles may be simultaneously displayed in at least one or more languages from among multiple languages such as Korean, English, Japanese, Chinese, and Russian, or only a language subtitle selected by a user. The user can also select a language to change at any time during playback.

번역 모드에서는 학습 효율을 더욱 증대시키기 위해 외국어 사전 기능을 사용할 수 있고, 사용자가 추후 반복 학습을 위해 특정 단어 또는 문장을 해당 오디 오 파일 및 비디오 파일과 함께 저장할 수도 있다.In the translation mode, the foreign language dictionary function can be used to further increase the learning efficiency, and the user can save a specific word or sentence along with the corresponding audio file and video file for further repetitive learning.

현재 시간이 제1 문장의 끝 시간을 초과할 경우에, 학습 관리 모드에서는 사용자의 학습 진행 상황 및 학습 결과를 통계화 하고, 개인 학습 진도를 관리할 있도록 지원해준다.(단계 S11 및 S12)In the case where the current time exceeds the end time of the first sentence, the learning management mode provides statistics for the user's learning progress and learning results, and manages the individual learning progress (steps S11 and S12).

상기에서는 자막 파일로부터 시간 정보와 자막 정보를 추출하여 1문장 단위씩 끊어서 받아쓰기 또는 말하기 모드로 어학 학습을 하는 경우를 예로 들어 설명하였으나, 1 문장 단위가 아닌 소정 자막 단위로 끊어서 받아쓰기 또는 말하기 모드로 어학 학습을 할 수도 있음은 물론이다. 여기서 소정 자막 단위는 1줄 단위 또는 소정 시간 단위가 될 수 있다. 예를 들어, 어학 학습용으로 사용하기에는 자막 정보에 포함된 1개의 문장이 너무 긴 경우에는 어학 학습에 적합한 소정 시간 길이로 끊어서 받아쓰기 또는 말하기 모드로 어학 학습을 할수 있다. In the above description, the time information and subtitle information are extracted from the subtitle file, and the language learning is performed in the dictation or speaking mode by cutting by one sentence unit, but the language is determined in the dictation or speaking mode by cutting in the predetermined subtitle unit instead of one sentence unit. Of course, you can learn. Here, the predetermined subtitle unit may be one line unit or a predetermined time unit. For example, when one sentence included in the subtitle information is too long to be used for language learning, the language learning may be performed in a dictation or speaking mode by cutting a predetermined length of time suitable for language learning.

상기와 같이 동작되는 본 발명의 일실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법이 디지털 데이터 파일에서 자막(SAMI) 파일을 파싱하여 자막 테이블을 생성하여 어학 학습에 활용하는 예를 들어 설명하면 다음과 같다.For example, the language learning method of the multimedia processing apparatus according to an embodiment of the present invention operated as described above uses a subtitle table generated by parsing a subtitle (SAMI) file from a digital data file. same.

자막 파일에는 상기 디지털 데이터 파일에 포함된 오디오 및 비디오 데이터와의 연계 재생을 위한 재생 시작/끝 시간(Start/End Time) 정보 또는 시작/끝 프레임(Start/End Frame) 정보가 시간 정보(동기(SYNC))와 함께 포함 기록된다.The subtitle file includes playback start / end time information or start / end frame information for cooperative reproduction with audio and video data included in the digital data file. SYNC)) is included and recorded.

따라서, 동기 정보의 시작(Start) 속성값을 이용해 자막이 표시되는 시작 위치를 알 수 있고, 이 시작 위치 정보를 근거로 재생 모드, 제1 학습 모드, 제2 학습 모드를 변환시킬 수 있으며, P의 클래스(Class) 속성값을 통해 외국어의 언어 선택도 가능하다.Accordingly, the start position of the subtitle can be known using the start attribute value of the synchronization information, and the play mode, the first learning mode, and the second learning mode can be switched based on the start position information. You can also select the language of a foreign language through the Class attribute value of.

아래에는 자막(SAMI) 파일의 시간(SYNC) 정보와 자막 정보를 이용하여 한국어, 영어, 일본어를 동시 지원하는 SAMI 자막의 형식을 나타낸 것이다. The following shows the format of SAMI subtitles that simultaneously support Korean, English, and Japanese by using the time (SYNC) and subtitle information of the subtitle (SAMI) file.

<SAMI><SAMI>

<HEAD><HEAD>

<Title>테스트 자막</Title><Title> Test subtitle </ Title>

</HEAD></ HEAD>

<BODY><BODY>

<SYNC Start=1951><P Class=KRCC>첫번째 자막줄 입니다.<SYNC Start = 1951> <P Class = KRCC> First subtitle line.

<SYNC Start=1951><P Class=ENCC>This is first sentence.<SYNC Start = 1951> <P Class = ENCC> This is first sentence.

<SYNC Start=1951><P Class=JRCC>これは最初の字幕です。<SYNC Start = 1951> <P Class = JRCC> こ れ は 最初 の 字幕 で す。

(최초 영상 재생 시를 기준으로 1951ms 후에 "첫번째 자막줄 입니다.", "This is first sentence.". "これは最初の字幕です。" 란 자막 표시)(Subtitle line is displayed after 1951ms, "This is first sentence.". "こ れ は 最初 の 字幕 で す。")

<SYNC Start=3304><P Class=KRCC>&nbsp;<SYNC Start = 3304> <P Class = KRCC> &nbsp;

<SYNC Start=3304><P Class=ENCC>&nbsp;<SYNC Start = 3304> <P Class = ENCC> &nbsp;

<SYNC Start=3304><P Class=JRCC>&nbsp;<SYNC Start = 3304> <P Class = JRCC> &nbsp;

(최초 영상 재생 시를 기준으로 3304ms에 한국어, 영어, 일본어의 자막 사라짐)(Subtitles in Korean, English and Japanese disappear in 3304ms when the video is first played)

<SYNC Start=5116><P Class=KRCC>이건 두번째<br>자막줄이네.<SYNC Start = 5116> <P Class = KRCC> This is the second subtitle line.

<SYNC Start=5116><P Class=ENCC>This is second<br>sentence.<SYNC Start = 5116> <P Class = ENCC> This is second <br> sentence.

<SYNC Start=5116><P Class=JRCC>これは二番目の<br>字幕ですね。<SYNC Start = 5116> <P Class = JRCC> Koreha 二 番 目 の <br> 字幕 で す ね.

(최초 영상 재생 시를 기준으로 5116ms 후에 "이건 두번째<br>자막줄이네.", "This is second<br>sentence.". "これは二番目の<br>字幕ですね。" 란 자막 표시)(5116ms after the first video is played. "This is the second subtitle line.", "This is second <br> sentence.". "こ れ は 二 番 目 の <br> 字幕 で す ね。" )

<SYNC Start=6178><P Class=KRCC>&nbsp;<SYNC Start = 6178> <P Class = KRCC> &nbsp;

<SYNC Start=6178><P Class=ENCC>&nbsp;<SYNC Start = 6178> <P Class = ENCC> &nbsp;

<SYNC Start=6178><P Class=JRCC>&nbsp;<SYNC Start = 6178> <P Class = JRCC> &nbsp;

(최초 영상 재생 시를 기준으로 6178ms 후에 한국어, 영어, 일본어의 자막 사라짐)(Subtitles in Korean, English, and Japanese disappear after 6178 ms of initial video playback)

<SYNC Start=7494><P Class=KRCC>마지막 자막줄 입니다.<SYNC Start = 7494> <P Class = KRCC> Last subtitle line.

<SYNC Start=5116><P Class=ENCC>This is last<br>sentence.<SYNC Start = 5116> <P Class = ENCC> This is last <br> sentence.

<SYNC Start=5116><P Class=JRCC>これは最後の<br>字幕だよ。<SYNC Start = 5116> <P Class = JRCC> こ れ は 最後 の <br> 字幕 だ よ。

(최초 영상 재생 시를 기준으로 5116ms 후에 "마지막 자막줄 입니다.", "This is last<br>sentence.". "これは最後の<br>字幕だよ。" 란 자막 표시)(Subtitle line is "Last subtitle line", "This is last <br> sentence.". "Koreha 最後 の <br> 字幕 だ よ。" after 5116ms when the first video is played.)

<SYNC Start=8440><P Class=KRCC>&nbsp;<SYNC Start = 8440> <P Class = KRCC> &nbsp;

<SYNC Start=8440><P Class=ENCC>&nbsp;<SYNC Start = 8440> <P Class = ENCC> &nbsp;

<SYNC Start=8440><P Class=JRCC>&nbsp;<SYNC Start = 8440> <P Class = JRCC> &nbsp;

(최초 영상 재생 시를 기준으로 8440ms 후에 한국어, 영어, 일본어의 자막 사라짐)(Subtitles in Korean, English, and Japanese disappear after 8440 ms when the video is first played)

</BODY></ BODY>

</SAMI></ SAMI>

상기에서, <br>은 한줄 띄움의 표시로서, 실제 화면 출력 시에는 해당 부분을 한 줄 띄워 표시한다. In the above description, <br> is a display of one line spacing, and when the actual screen is output, the corresponding section is spaced one line.

예를 들어, "<SYNC Start=5116><P Class=ENCC>This is second<br>sentence."의 자막 파일은 최초 영상 재생 시를 기준으로 5116ms 후에 아래와 같은 자막 정보가 화면에 표시된다. For example, a subtitle file of "<SYNC Start = 5116> <P Class = ENCC> This is second <s>" is displayed on the screen after 5116 ms based on the initial video playback.

"This is second  "This is second

sentence."sentence. "

상기한 SAMI 자막은 마이크로소프트 미디어플레이어에서 사용하는 자막 형식으로서, 다른 자막 파일도 상기한 SAMI 자막 파일과 동일한 방식으로 시간 정보를 기초로 하여 재생 모드, 제1 및 제2 학습 모드를 변환시킬 수 있음은 자명하다. The SAMI subtitle is a subtitle format used by Microsoft Media Player, and other subtitle files can be converted to a playback mode, first and second learning modes based on time information in the same manner as the SAMI subtitle file. Is self explanatory.

이와 같이, 본 발명의 일 실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법은 현재 범용적으로 사용되고 있는 자막 파일의 시간 정보와 자막 정보를 통해 영화나 드라마를 보면서 받아쓰기, 말하기, 듣기, 독해와 같은 외국어 학습이 가능 하고, 무엇보다도 다국어 지원이 가능하며, 동영상 도구(TOOL)을 이용한 간단한 조작만으로 사용자 정의 학습 동영상 제작도 가능하다.As such, the language learning method of the multimedia processing apparatus according to an embodiment of the present invention is a foreign language such as dictation, speech, listening, reading while watching a movie or drama through time information and subtitle information of a subtitle file that is currently being used in general. Learning is possible, and above all, multi-language support is possible, and custom learning videos can be produced with simple operation using the video tool.

상기에서는 이동통신 단말기에서 디지털 데이터 파일을 실행하는 실시예를 설명하였으나, 본 발명의 어학 학습 방법은 이동통신 단말기에서 수행되는 것으로 한정되지 않으며, 컴퓨터, 텔레비전(TV) 등의 멀티미디어 처리 장치에도 적용될 수 있다. In the above description, an embodiment of executing a digital data file in a mobile communication terminal has been described, but the language learning method of the present invention is not limited to being performed in a mobile communication terminal, and may be applied to a multimedia processing device such as a computer and a television. have.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

도 1은 본 발명의 일 실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법의 순서도이다.1 is a flow chart of a language learning method of a multimedia processing apparatus according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 멀티미디어 처리 장치의 어학 학습 방법의 예시 화면이 도시된 도면이다. 2 is a diagram illustrating an example screen of a language learning method of a multimedia processing apparatus according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 다국적 언어를 동시에 지원하기 위한 예시 화면이 도시된 도면이다.3 is a diagram illustrating an example screen for simultaneously supporting a multinational language according to an embodiment of the present invention.

Claims (11)

오디오 파일, 비디오 파일, 자막 파일을 포함하는 디지털 데이터 파일에서, 상기 자막 파일을 파싱하여 시간 정보와 자막 정보를 필드로 하는 자막 테이블을 생성하는 단계;Parsing the caption file in a digital data file including an audio file, a video file, and a caption file to generate a caption table having time information and caption information as fields; 재생 모드 진입시, 상기 자막 테이블의 시간 정보를 기초로 하여 소정 자막 단위별 상기 비디오 파일 또는 오디오 파일을 재생한 후 일시 정지하고 제1 학습 모드를 진행하는 단계; 및When entering a play mode, playing the video file or the audio file for each predetermined subtitle unit based on the time information of the subtitle table, pausing the first learning mode; And 상기 제1 학습 모드가 완료되면, 상기 제1 학습 모드의 재생 부분에 대한 상기 자막 정보를 출력하여 제2 학습 모드를 진행하는 단계를 포함하는 멀티미디어 처리 장치의 어학 학습 방법.And when the first learning mode is completed, outputting the caption information on the playback portion of the first learning mode to proceed with a second learning mode. 제1항에 있어서, 사용자의 학습 진행 상황 및 학습 결과를 통계화하고, 사용자별 학습 진도를 관리할 수 있는 학습 관리 모드를 진행하는 단계를 더 포함하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 1, further comprising: performing a learning management mode in which statistics of a user's learning progress and learning results are statistically calculated and user's learning progress is managed. 제1항에 있어서, 상기 오디오 파일, 비디오 파일, 자막 파일을 포함하는 디지털 데이터 파일에서, 상기 자막 파일을 파싱하여 시간 정보와 자막 정보를 필드로 하는 자막 테이블을 생성하는 단계 중 상기 자막 테이블은,The subtitle table of claim 1, wherein the subtitle table is generated by parsing the subtitle file in a digital data file including the audio file, a video file, and a subtitle file. 상기 자막 테이블은 상기 시간 정보를 오름차순 키로 하고, 상기 시간 정보와 자막 정보를 이용해 1 문장에 해당하는 시작 시간과 끝 시간을 재생 루틴(PLAY ROUTINE)으로 넘겨주는 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The caption table uses the time information as an ascending key, and transmits a start time and an end time corresponding to one sentence to a play routine using the time information and the caption information. Way. 제3항에 있어서, 상기 재생 모드 진입시, 상기 자막 테이블의 시간 정보를 기초로 하여 소정 자막 단위별 상기 비디오 파일 또는 오디오 파일을 재생한 후 일시 정지하고 제1 학습 모드를 진행하는 단계는,4. The method of claim 3, wherein, when the play mode is entered, the video file or the audio file is paused after the predetermined subtitle unit is played based on the time information of the subtitle table and the first learning mode is paused. 상기 특정 문장의 시작 시간과 끝 시간만큼 비디오 파일 및 오디오 파일을 재생하고 파일 일시 정지하는 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.And reproducing and pausing the video file and the audio file by the start time and the end time of the specific sentence. 제1항에 있어서, 상기 제1 학습 모드는 듣기, 받아쓰기, 말하기 중 적어도 어느 하나를 포함하는 학습 입력 모드인 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 1, wherein the first learning mode is a learning input mode including at least one of listening, dictation, and speaking. 제1항에 있어서, 상기 제1 학습 모드는 구간 반복 기능과 힌트 기능을 사용하는 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 1, wherein the first learning mode uses an interval repeating function and a hint function. 제1항에 있어서, 상기 제2 학습 모드는 상기 제1 학습 모드의 재생 부분에 대한 자막 정보를 화면상에 출력해 주는 번역 모드인 것을 특징으로 하는 멀티미디 어 처리 장치의 어학 학습 방법.The language learning method of claim 1, wherein the second learning mode is a translation mode that outputs subtitle information of a reproduction part of the first learning mode on a screen. 제7항에 있어서, 상기 제2 학습 모드는 적어도 1개의 외국어에 대한 자막 정보를 상기 화면상에 출력하는 번역 모드인 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 7, wherein the second learning mode is a translation mode for outputting subtitle information of at least one foreign language on the screen. 제7항에 있어서, 상기 제2 학습 모드는 외국어 사전 기능을 사용할 수 있는 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 7, wherein the second learning mode may use a foreign language dictionary function. 제7항에 있어서, 상기 제2 학습 모드는 특정 재생 부분에 대한 단어, 또는 문장의 저장 기능을 사용하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 7, wherein the second learning mode uses a function of storing a word or a sentence for a specific playback portion. 제1항에 있어서, 상기 소정 자막 단위는 1개의 문장 단위, 1줄 단위, 및 소정 시간 단위 중의 하나인 것을 특징으로 하는 멀티미디어 처리 장치의 어학 학습 방법.The language learning method of claim 1, wherein the predetermined subtitle unit is one sentence unit, one line unit, or a predetermined time unit.
KR1020070071890A 2007-07-18 2007-07-18 Method of learning language in multimedia processing apparatus KR100879667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070071890A KR100879667B1 (en) 2007-07-18 2007-07-18 Method of learning language in multimedia processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070071890A KR100879667B1 (en) 2007-07-18 2007-07-18 Method of learning language in multimedia processing apparatus

Publications (1)

Publication Number Publication Date
KR100879667B1 true KR100879667B1 (en) 2009-01-21

Family

ID=40482926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070071890A KR100879667B1 (en) 2007-07-18 2007-07-18 Method of learning language in multimedia processing apparatus

Country Status (1)

Country Link
KR (1) KR100879667B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101111688B1 (en) 2009-03-03 2012-06-12 주식회사 네오위즈모바일 Apparatus and Method for Helping Language Learning

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070018202A (en) * 2005-08-09 2007-02-14 엘지전자 주식회사 Method for controlling jump play using text information

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070018202A (en) * 2005-08-09 2007-02-14 엘지전자 주식회사 Method for controlling jump play using text information

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101111688B1 (en) 2009-03-03 2012-06-12 주식회사 네오위즈모바일 Apparatus and Method for Helping Language Learning

Similar Documents

Publication Publication Date Title
JP4251634B2 (en) Multimedia data reproducing apparatus and multimedia data reproducing method
JP2012527007A (en) Multimedia file playback method and multimedia playback device
KR20090004990A (en) Internet search-based television
JP2007511858A (en) Recording medium on which meta information and subtitle information for providing an extended search function are recorded, and a reproducing apparatus thereof
CN104349173A (en) Video repeating method and device
JP2012133662A (en) Electronic comic viewer device, electronic comic browsing system, viewer program and recording medium recording viewer program
JP2005321706A (en) Method for reproducing digital book and apparatus for the same
US20080005100A1 (en) Multimedia system and multimedia search engine relating thereto
KR102093938B1 (en) System for learning languages using the video selected by the learners and learning contents production method thereof
US20150111189A1 (en) System and method for browsing multimedia file
KR20000012538A (en) Method and storing media for controlling caption function for studying foreign language subscript included in moving picture
JP2004325905A (en) Device and program for learning foreign language
JP5083155B2 (en) Electronic device and program with dictionary function
KR100879667B1 (en) Method of learning language in multimedia processing apparatus
JP4865469B2 (en) Content production server, content presentation device, content production program, and content presentation program
KR101279178B1 (en) Multimedia File Playing Method and Player
KR20090124240A (en) Device for caption edit and method thereof
JP2018146961A (en) Voice reproduction device and voice reproduction program
KR100944958B1 (en) Apparatus and Server for Providing Multimedia Data and Caption Data of Specified Section
KR101180127B1 (en) Multimedia File Playing Method and Player
KR19990064823A (en) Method and storing media for controlling caption function for studying foreign language subscript included in moving picture
US20160196253A1 (en) Annotation sharing method, annotation sharing apparatus, and computer program product
KR102396263B1 (en) A System for Smart Language Learning Services using Scripts
KR101103329B1 (en) Play method of language learning system
JP6382423B1 (en) Information processing apparatus, screen output method, and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121212

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140106

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150105

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160107

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161227

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180102

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190102

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 12