KR20130089992A - Method and apparatus for providing media contents - Google Patents

Method and apparatus for providing media contents Download PDF

Info

Publication number
KR20130089992A
KR20130089992A KR1020120007673A KR20120007673A KR20130089992A KR 20130089992 A KR20130089992 A KR 20130089992A KR 1020120007673 A KR1020120007673 A KR 1020120007673A KR 20120007673 A KR20120007673 A KR 20120007673A KR 20130089992 A KR20130089992 A KR 20130089992A
Authority
KR
South Korea
Prior art keywords
section
user terminal
media
media content
sentence
Prior art date
Application number
KR1020120007673A
Other languages
Korean (ko)
Inventor
김덕훈
Original Assignee
주식회사 국제언어교육진흥원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 국제언어교육진흥원 filed Critical 주식회사 국제언어교육진흥원
Priority to KR1020120007673A priority Critical patent/KR20130089992A/en
Publication of KR20130089992A publication Critical patent/KR20130089992A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling

Abstract

PURPOSE: A media content providing method and a device thereof are provided to simultaneously reproduce voices and images corresponding to a marking section by dividing a document into a plurality of sections. CONSTITUTION: The list of media content is displayed on a user terminal in a list display step. The media content includes one or more media sections. Integrated synchronization information and the integrated synchronization information are included in each section of a sentence. The caption of the media content selected by the user terminal is displayed on the displayed list in a caption display step. The media content in which voices and images are marked is provided to the user terminal. [Reference numerals] (502) Search words are recorded?; (504) Displaying a list of media contents; (506) Arbitrary media contents are selected?; (508) Sentence marking or section marking?; (510) Playing images and sounds corresponding to the marked section while subtitles of the media contents which a user terminal selects are divided by sections of letters and mark; (512) Playing images and sounds corresponding to the marked letters while subtitles of the media contents which the user terminal selects are divided by letters and mark; (514) Arbitrary section is selected?; (516) Playing corresponding images and sounds while the selected section is highlighted; (520) Collecting media contents including the search word; (522) Extracting a media section including the search word; (AA) Start; (BB,EE,II) Yes; (CC,DD,HH) No; (FF) Sentence marking; (GG) Section marking; (JJ) End

Description

미디어 컨텐츠 제공 방법 및 장치{Method and apparatus for providing media contents}Method and apparatus for providing media content

실시예는 오디오 및 비디오와 같은 미디어 컨텐츠를 제공하는 방법 및 장치에 관한 것이다.Embodiments relate to methods and apparatus for providing media content such as audio and video.

최근 인터넷의 발달로 다양한 오디오와 비디오를 쉽게 접하고 볼 수 있다. 예를 들어, 인터넷을 통해 뉴스나 드라마 같은 미디어 컨텐츠와 자막을 함께 제공 받을 수 있다.With the recent development of the Internet, various audio and video can be easily seen and viewed. For example, it is possible to receive subtitles and media content such as news or drama through the Internet.

그러나, 긴 문장의 자막의 경우 문장 단위로 자막이 제공되지 않으므로, 사용자는 자막의 내용을 정확히 파악하기 어렵다. 게다가, 긴 문장의 자막이 의미있도록 분할되어 제공되지도 않는다. 특히, 미디어 컨텐츠를 이용하여 외국어 학습을 하고자 할 경우, 언어 학습자의 입장에서는 긴 문장의 자막을 이용하여 제대로 학습 효과를 얻을 수 없는 문제점이 있다.However, in the case of a subtitle of a long sentence, since the subtitle is not provided in units of sentences, it is difficult for the user to accurately grasp the contents of the subtitle. In addition, long sentences of subtitles are not provided that are meaningfully divided. In particular, when trying to learn a foreign language using media content, there is a problem that a language learner cannot properly obtain a learning effect by using a subtitle of a long sentence.

대한민국 특허 등록 번호 1009973(출원번호 10-2010-31681)Republic of Korea Patent Registration No. 1009973 (Application No. 10-2010-31681)

실시예는 미디어 컨텐츠에 포함된 문장을 복수의 구간별로 구분하여 마킹(marking)하면서, 마킹 구간에 대응하는 음성 및/또는 영상을 함께 재생시킬 수 있는 미디어 컨텐츠 제공 방법 및 장치를 제공한다.The embodiment provides a method and apparatus for providing media content that can simultaneously play a speech and / or an image corresponding to a marking section while marking and marking a sentence included in the media content into a plurality of sections.

실시예의 미디어 컨텐츠 제공 방법은, 미디어 컨텐츠의 목록을 사용자 단말로 제공하여 디스플레이시키되, 상기 미디어 컨텐츠는 적어도 하나의 미디어 섹션을 갖고, 상기 미디어 섹션은 복수의 구간으로 구분되어 있는 문장과, 상기 문장의 전체에 동기된 통합 동기 정보와, 상기 문장의 각 구간에 동기된 분할 동기 정보를 포함하는 목록 디스플레이 단계; 및 상기 디스플레이된 목록에서, 상기 사용자 단말로부터 선택받은 미디어 컨텐츠의 자막에 포함된 각 문장을 상기 분할 동기 정보에 따라 분할된 상기 복수의 구간별로 구분하여 마킹하면서, 상기 마킹된 구간에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 제공하는 자막 디스플레이 단계를 포함한다.The media content providing method of the embodiment includes providing a list of media contents to a user terminal and displaying the media contents, wherein the media contents have at least one media section, and the media section is divided into a plurality of sections, and A list display step including integrated synchronization information synchronized with the whole and divided synchronization information synchronized with each section of the sentence; And a voice corresponding to the marked section while marking and marking each sentence included in the subtitle of the media content selected from the user terminal by the plurality of sections divided according to the division synchronization information. A subtitle display step of providing the media content to the user terminal so that at least one of the image is played on the user terminal.

상기 미디어 컨텐츠 제공 방법은 상기 사용자 단말로부터 전송된 검색어에 기반하여, 상기 검색어를 포함하는 미디어 컨텐츠를 수집하는 단계; 및 상기 수집된 미디어 컨텐츠에서 상기 검색어를 포함하는 적어도 하나의 미디어 섹션을 추출하는 단계를 더 포함하고, 상기 자막 디스플레이 단계에서, 상기 추출된 적어도 하나의 미디어 섹션이 상기 사용자 단말에서 상기 자막으로서 디스플레이되도록 상기 추출된 미디어 섹션을 상기 사용자 단말로 전송한다.The media content providing method may include collecting media content including the search term based on a search term transmitted from the user terminal; And extracting at least one media section including the search word from the collected media content, wherein in the caption display step, the extracted at least one media section is displayed as the caption in the user terminal. The extracted media section is transmitted to the user terminal.

또한, 상기 자막 디스플레이 단계에서 상기 사용자 단말의 요청에 따라, 상기 자막이 상기 통합 동기 정보에 따라 분할된 복수의 문장별로 구분하여 순차적으로 마킹되면서, 상기 마킹된 문장에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 전송한다.In addition, at the request of the user terminal in the subtitle display step, the subtitles are sequentially divided into a plurality of sentences divided according to the integrated synchronization information, and at least one of audio and video corresponding to the marked sentences. The media content is transmitted to the user terminal to be played on the user terminal.

또한, 상기 자막 디스플레이 단계에서 상기 구분되어 마킹되는 상기 복수의 구간 중 상기 사용자 단말에서 요청한 임의의 구간이 하이라이트되고, 상기 하이라이트된 임의의 구간에 해당하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 제공한다.Further, in the caption display step, any section requested by the user terminal is highlighted among the plurality of sections marked and marked, and at least one of audio and video corresponding to the highlighted section is played on the user terminal. The media content is provided to the user terminal.

또한, 상기 미디어 컨텐츠 제공 방법은 상기 마킹된 구간에 해당하는 음성을 상기 사용자 단말에서 사용자 자신의 음성으로 녹음할 때, 상기 녹음된 음성을 상기 사용자 단말로부터 받아서 저장하는 단계; 및 상기 저장된 음성과 상기 마킹된 구간에 해당하는 원래 음성을 비교하고, 비교된 결과를 상기 사용자 단말로 제공하는 단계를 더 포함한다.The media content providing method may further include receiving and storing the recorded voice from the user terminal when recording the voice corresponding to the marked section as the user's own voice in the user terminal; And comparing the stored voice with the original voice corresponding to the marked section, and providing the compared result to the user terminal.

또한, 상기 미디어 컨텐츠 제공 방법은 상기 미디어 컨텐츠를 언어별, 카테고리별 및 미디어 섹션별 중 적어도 하나에 따라 계층화하여 코딩하고, 상기 코딩된 미디어 섹션의 문장 및 상기 문장에 포함된 구간을 상기 통합 및 분할 동기 정보에 각각 동기화시켜 데이타 베이스를 생성하는 단계; 상기 데이타 베이스와 연계된 사용자 어플리케이션을 생성하는 단계; 및 상기 사용자 단말이 상기 사용자 어플리케이션의 수신을 요청할 때, 상기 사용자 어플리케이션을 상기 사용자 단말로 제공하는 단계를 더 포함한다. In addition, the media content providing method hierarchically codes the media content according to at least one of language, category, and media section, and merges and divides a sentence of the coded media section and a section included in the sentence. Generating a database by synchronizing with synchronization information, respectively; Creating a user application associated with the database; And providing the user application to the user terminal when the user terminal requests the reception of the user application.

또한, 상기 사용자 어플레이션의 실행시에 상기 사용자 단말로 제공되는 사용자 인터페이스 화면은 상기 미디어 컨텐츠의 목록이 디스플레이되는 목록 디스플레이 영역; 상기 자막이 디스플레이되되, 상기 문장이 상기 복수의 구간별 또는 문장별로 구분되어 디스플레이되고, 상기 사용자 단말에서 요청하는 상기 임의의 자막을 선택받는 자막 디스플레이 영역; 상기 마킹된 구간에 대응하는 영상을 재생하기 위한 영상 재생 영역; 상기 음성 및 상기 영상 중 적어도 하나의 재생, 정지, 일시정지, 또는 녹음 중 적어도 하나의 제어를 위한 제어 영역; 상기 검색어를 기입할 검색어 기입 영역; 상기 문장의 구간별 또는 문장별 디스플레이의 선택을 받는 제1 선택키; 상기 녹음된 음성의 상기 사용자 단말로부터의 전송을 원할 때 선택되는 제2 선택키; 상기 저장된 음성과 마킹된 구간에 해당하는 음성의 비교 결과를 받기를 상기 사용자 단말이 요청할 때 선택되는 제3 선택 키; 및 상기 통합 동기 정보 및 상기 분할 동기 정보 중 적어도 하나를 디스플레이하는 동기 정보 영역 중 적어도 하나를 포함한다.The user interface screen provided to the user terminal when the user application is executed may include a list display area in which a list of the media content is displayed; A subtitle display area in which the subtitle is displayed, the sentence is divided and displayed by the plurality of sections or sentences, and the arbitrary subtitle requested by the user terminal is selected; An image reproducing area for reproducing an image corresponding to the marked section; A control area for controlling at least one of playing, stopping, pausing, or recording at least one of the audio and the video; A search word entry area for writing the search word; A first selection key receiving selection of a display by section or sentence by sentence; A second selection key selected when the recorded voice is to be transmitted from the user terminal; A third selection key selected when the user terminal requests to receive a comparison result between the stored voice and a voice corresponding to the marked section; And a synchronization information area displaying at least one of the integrated synchronization information and the split synchronization information.

다른 실시예에 의한 미디어 컨텐츠 제공 장치는, 미디어 컨텐츠를 언어별, 카테고리별 및 미디어 섹션별 중 적어도 하나에 따라 계층화하여 코딩하고, 상기 코딩된 미디어 섹션의 문장 및 상기 문장에 포함된 구간을 통합 및 분할 동기 정보에 각각 동기화시켜 저장하는 데이타 베이스; 상기 데이타 베이스와 연계된 사용자 어플리케이션을 생성하는 사용자 어플리케이션 생성부; 사용자 단말 및 웹 서버 중 적어도 하나와 인터페이스되는 인터페이스부; 및 디스플레이된 미디어 컨텐츠의 목록에서, 상기 사용자 단말에서 요청한 미디어 컨텐츠의 자막에 포함된 각 문장이 상기 분할 동기 정보에 따라 분할된 복수의 구간별로 구분하여 마킹되면서, 상기 마킹된 구간에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록, 상기 데이터 베이스, 상기 사용자 어플리케이션 생성부 및 상기 인터페이스부를 제어하는 제어부를 포함하고, 상기 미디어 컨텐츠는 적어도 하나의 상기 미디어 섹션을 갖고, 상기 미디어 섹션은 상기 복수의 구간으로 구분되어 있는 상기 문장과, 상기 문장의 전체에 동기된 상기 통합 동기 정보와, 상기 문장의 각 구간에 동기된 상기 분할 동기 정보를 포함한다.The media content providing apparatus according to another embodiment may layer and code media content according to at least one of language, category, and media section, and integrate a sentence of the coded media section and a section included in the sentence and A database for synchronizing and storing the divided synchronization information; A user application generator configured to generate a user application associated with the database; An interface unit interfaced with at least one of a user terminal and a web server; And a sentence corresponding to the marked section, wherein each sentence included in the caption of the media content requested by the user terminal is classified and displayed according to the plurality of sections divided according to the division synchronization information in the list of displayed media contents. And a control unit for controlling the database, the user application generation unit, and the interface unit such that at least one of the images is reproduced in the user terminal, wherein the media content has at least one media section. The sentence is divided into a plurality of sections, the integrated synchronization information synchronized to the entirety of the sentence, and the divided synchronization information synchronized to each section of the sentence.

또한, 상기 제어부는 상기 사용자 단말로부터 수신한 검색어에 기반하여, 상기 검색어를 포함하는 미디어 컨텐츠를 상기 데이터 베이스 및 상기 웹 서버 중 적어도 하나를 통해 수집하고, 상기 수집된 미디어 컨텐츠에서 상기 검색어를 포함하는 적어도 하나의 미디어 섹션을 추출하고, 상기 추출된 적어도 하나의 미디어 섹션이 상기 자막으로서 상기 사용자 단말에서 디스플레이되도록 상기 데이터 베이스, 상기 사용자 어플리케이션 생성부 및 상기 인터페이스부를 제어한다.The controller may be further configured to collect media content including the search word through at least one of the database and the web server based on the search word received from the user terminal, and to include the search word in the collected media content. Extract at least one media section, and control the database, the user application generator and the interface unit such that the extracted at least one media section is displayed on the user terminal as the caption.

또한, 상기 미디어 컨텐츠 제공 장치는 상기 사용자 단말에 대한 정보, 상기 사용자 단말에서 사용자 자신이 녹음한 음성 및 상기 녹음한 음성과 원래의 음성을 비교한 결과 중 적어도 하나를 저장하는 저장부; 및 상기 사용자 단말이 상기 사용자 어플리케이션을 이용한 대가에 대한 정보를 과금으로서 계산하고 저장하는 과금부를 더 포함하고, 상기 제어부는 상기 녹음한 음성과 상기 원래의 음성을 비교하고, 상기 저장부와 상기 과금부를 제어한다.The media content providing apparatus may further include a storage unit which stores at least one of information on the user terminal, a voice recorded by the user in the user terminal, and a result of comparing the recorded voice with the original voice; And a charging unit configured to calculate and store information about the price using the user application as the charging unit, wherein the controller compares the recorded voice with the original voice, and stores the storage unit and the charging unit. To control.

실시예에 따른 미디어 컨텐츠 제공 방법 및 장치는 관심있는 미디어 컨텐츠에 포함된 문장을 복수의 문장별 및/또는 문장의 구간별로 구분하여 마킹하면서, 마킹된 문장이나 구간에 해당하는 음성 및/또는 영상을 함께 사용자에게 제공할 수 있기 때문에, 사용자로 하여금 전체 문장의 의미를 끊김없이 파악하도록 할 수 있도록 도와주고, 특히 외국어를 공부하는 학생이나 청각 장애자와 같은 사용자는 학습에 관심 있는 구간(또는, 문장의 일부)만을 계속해서 반복적으로 해당하는 음성 및/또는 영상과 함께 듣거나 볼 수 있어, 자막의 문장이 짧지 않고 길 경우에도 보다 쉽게 문장의 의미를 이해할 수 있도록 언어 습득 효과를 극대화시켜줄 수 있는 학습 환경을 제공한다.The method and apparatus for providing media content according to an embodiment divides a sentence included in the media content of interest into a plurality of sentences and / or sections of a sentence, and then displays audio and / or video corresponding to the marked sentence or section. Because it can be provided to the user together, it helps the user to grasp the meaning of the whole sentence seamlessly, especially for the students who are studying foreign languages or the hearing impaired. A part of the learning environment that can maximize the effect of language acquisition so that it is easier to understand the meaning of a sentence even if the sentence is not short or long, because only a part of it can be repeatedly listened or viewed with the corresponding voice and / or video. To provide.

도 1은 실시예에 의한 미디어 컨텐츠의 예시적인 구조를 나타낸다.
도 2는 실시예에 의한 미디어 컨텐츠 제공 장치를 포함하는 네트워크 시스템의 예시적인 블럭도이다.
도 3은 도 2에 도시된 미디어 컨텐츠 제공 장치의 실시예에 의한 개략적인 블럭도이다.
도 4는 도 2 또는 도 3에 도시된 미디어 컨텐츠 제공 장치에서 수행되는 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.
도 5는 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.
도 6a 내지 도 6c는 실시예에 의한 사용자 인터페이스 화면을 나타낸다.
도 7은 다른 실시예에 의한 사용자 인터페이스 화면을 나타낸다.
도 8은 다른 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.
1 illustrates an exemplary structure of media content according to an embodiment.
2 is an exemplary block diagram of a network system including an apparatus for providing media content according to an embodiment.
FIG. 3 is a schematic block diagram of an embodiment of a media content providing apparatus shown in FIG. 2.
FIG. 4 is a flowchart for describing a method of providing media content according to an embodiment performed by the apparatus for providing media content shown in FIG. 2 or 3.
5 is a flowchart illustrating a method of providing media content according to an embodiment.
6A to 6C illustrate a user interface screen according to an embodiment.
7 illustrates a user interface screen according to another embodiment.
8 is a flowchart for describing a method of providing media content according to another embodiment.

이하, 본 발명을 구체적으로 설명하기 위해 실시예를 들어 설명하고, 발명에 대한 이해를 돕기 위해 첨부도면을 참조하여 상세하게 설명하기로 한다. 그러나, 본 발명에 따른 실시예들은 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 상술하는 실시예들에 한정되는 것으로 해석되지 않아야 한다. 본 발명의 실시예들은 당 업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to facilitate understanding of the present invention. However, the embodiments according to the present invention can be modified into various other forms, and the scope of the present invention should not be construed as being limited to the embodiments described below. Embodiments of the invention are provided to more fully describe the present invention to those skilled in the art.

본 발명의 다른 목적, 특징 및 이점들은 첨부한 도면을 참조한 실시 예들의 상세한 설명을 통해 명백해질 것이다.Other objects, features and advantages of the present invention will become apparent from the detailed description of the embodiments with reference to the accompanying drawings.

이하, 첨부한 도면을 참조하여 실시예에 따른 미디어 컨텐츠 제공 방법 및 장치를 다음과 같이 설명한다.Hereinafter, a method and apparatus for providing media content according to an embodiment will be described with reference to the accompanying drawings.

실시예에서 미디어 컨텐츠는 적어도 하나의 미디어 섹션을 포함한다. 각 미디어 섹션은 하나의 문장, 통합 동기 정보 및 분할 동기 정보를 포함한다. 이외에, 미디어 섹션은 영상 및 음성을 포함하는 비디오 부분과, 음성 같은 소리만을 포함하는 오디오 부분과, 화자정보를 포함할 수 있다.In an embodiment the media content comprises at least one media section. Each media section contains one sentence, integrated synchronization information and split synchronization information. In addition, the media section may include a video portion including an image and a voice, an audio portion including only a sound such as voice, and speaker information.

여기서, 문장은 사용자에게 의미를 갖는 복수의 문장 구간(이하, '구간'이라 한다.)으로 구분된다. 예를 들어, 각 구간은 문장에서 주어, 동사, 목적어, 보어, 의미구(전치사+명사) 및 의미절(주어+동사) 중 적어도 하나일 수 있다.In this case, the sentences are divided into a plurality of sentence sections (hereinafter, referred to as “sections”) that have meaning to the user. For example, each section may be at least one of a subject, a verb, an object, a bore, a semantic phrase (preposition + noun), and a semantic clause (subject + verb) in a sentence.

또한, 통합 동기 정보는 하나의 문장의 전체에 동기되고, 문장의 전체 재생 시작 시점(TSS:Total Sync Start) 및 전체 재생 종료 시점(TSE:Total Sync End)을 포함한다. 분할 동기 정보는 각 구간에 동기되어 있고, 각 구간의 부분 재생 시작 시점(PSS:Partial Sync Start) 및 부분 재생 종료 시점(PSE:Partial Sync End)을 포함한다.In addition, the integrated synchronization information is synchronized to the entirety of one sentence and includes the total reproduction start time (TSS: Total Sync Start) and the total reproduction end time (TSE: Total Sync End) of the sentence. The partition synchronization information is synchronized with each section, and includes a partial playback start time (PSS: Partial Sync Start) and a partial playback end time (PSE: Partial Sync End) of each section.

도 1은 실시예에 의한 미디어 컨텐츠의 예시적인 구조를 나타낸다.1 illustrates an exemplary structure of media content according to an embodiment.

도 1에서 "File_ID"는 미디어 컨텐츠를 구분하기 위한 미디어 컨텐츠 식별자를 나타내고, "Sentence_ID"는 미디어 섹션을 구분하기 위한 미디어 섹션 식별자를 나타내고, "Speaker"는 화자정보를 나타내고, "<word/.../word>"은 미디어 섹션에 포함된 자막인 하나의 문장을 나타낸다.In FIG. 1, "File_ID" indicates a media content identifier for identifying media content, "Sentence_ID" indicates a media section identifier for identifying media sections, "Speaker" indicates speaker information, and "<word / .." ./word> "indicates a sentence which is a subtitle included in a media section.

도 1에 도시된 바와 같이, 복수의 미디어 컨텐츠는 서로 다른 미디어 컨텐츠 식별자를 가지며, 하나의 미디어 컨텐츠를 구성하는 복수의 미디어 섹션들도 서로 다른 미디어 섹션 식별자를 가진다.As illustrated in FIG. 1, the plurality of media contents have different media content identifiers, and the plurality of media sections constituting one media content also have different media section identifiers.

예를 들어, 첫 번째 미디어 컨텐츠(File_ID=1)의 세 번째 미디어 섹션(Sentence_ID=3)에서, 화자(speaker)는 "토론자2"이고, "환경 운동에 대하여 관심이 많아졌기 때문에 자전거를 타는 아이들이 많습니다."라는 문장을 갖는다. 이 문장은 세 개의 제1, 제2 및 제3 구간을 갖는다. 제1 구간은 "환경 운동에 대하여"이고, 제2 구간은 "관심이 많아졌기 때문에"이고, 제3 구간은 "자전거를 타는 아이들이 많습니다."이다. 통합 동기 정보에서 전체 재생 시작 시점(TSS)은 21이고, 전체 재생 종료 시점(TSE)는 35이므로, 21초부터 35초까지 상기 전체 문장이 재생됨을 알 수 있다.For example, in the third media section (Sentence_ID = 3) of the first media content (File_ID = 1), the speaker is "discussor2" and "children who ride bicycles because of their interest in environmental movement. There are many. " This sentence has three first, second and third intervals. The first section is "about environmental movements", the second section is "because I have a lot of interest", and the third section is "a lot of children ride bikes." In the integrated synchronization information, the total reproduction start time TSS is 21, and the total reproduction end time TSE is 35. Therefore, it can be seen that the entire sentence is reproduced from 21 to 35 seconds.

또한, 세 번째 미디어 섹션에서, 분할 동기 정보(PSS1, PSE1)는 제1 구간에 동기된 정보로서, 제1 구간을 위한 분할 동기 정보에서 분할 재생 시작 시점(PSS1)은 21이고, 분할 재생 종료 시점(PSE1)은 25이므로, 21초부터 25초까지 제1 구간이 재생됨을 알 수 있다. 또한, 분할 동기 정보(PSS2, PSE2)는 제2 구간에 동기된 정보로서, 제2 구간을 위한 분할 동기 정보에서 분할 재생 시작 시점(PSS2)은 26이고, 분할 재생 종료 시점(PSE2)은 30이므로, 26초부터 30초까지 제2 구간이 재생됨을 알 수 있다. 또한, 분할 동기 정보(PSS3, PSE3)는 제3 구간에 동기된 정보로서, 분할 동기 정보에서 분할 재생 시작 시점(PSS3)은 31이고, 분할 재생 종료 시점(PSE3)은 35이므로, 31초부터 35초까지 제3 구간이 재생됨을 알 수 있다.Also, in the third media section, the division synchronization information PSS 1 and PSE 1 are information synchronized to the first section, and the division reproduction start time point PSS 1 is 21 in the division synchronization information for the first section. Since the reproduction end point PSE 1 is 25, it can be seen that the first section is reproduced from 21 to 25 seconds. In addition, the division synchronization information PSS 2 and PSE 2 are information synchronized to the second section, and the division reproduction start time point PSS 2 is 26 in the division synchronization information for the second section, and the division reproduction end point PSE 2 is performed. ) Is 30, so it can be seen that the second section is played from 26 to 30 seconds. Further, since the division synchronization information PSS 3 and PSE 3 are information synchronized to the third section, the division reproduction start time PSS 3 is 31 and the division reproduction end point PSE 3 is 35 in the division synchronization information. It can be seen that the third section is played from 31 to 35 seconds.

이와 비슷하게, 첫 번째 미디어 컨텐츠의 나머지 미디어 섹션들도 구성된다. 또한, 두 번째 및 세 번째 미디어 컨텐츠도 첫 번째 미디어 컨텐츠와 동일한 구성을 갖는다.Similarly, the remaining media sections of the first media content are also organized. In addition, the second and third media content also has the same configuration as the first media content.

도 2는 실시예에 의한 미디어 컨텐츠 제공 장치(400)를 포함하는 네트워크 시스템의 예시적인 블럭도이다.2 is an exemplary block diagram of a network system including a media content providing apparatus 400 according to an embodiment.

본 실시예에 의한 미디어 컨텐츠 제공 장치(400)는 네트워크망을 통해 적어도 하나의 웹 서버(100, 200, 300) 및 적어도 하나의 사용자 단말(500)과 연결된다. 여기서, 사용자 단말(500)은 개인용 컴퓨터나 셀룰러 폰 등과 같이 영상 및 음성 중 적어도 하나를 사용자에게 제공할 수 있고, 네트워크망을 통해 웹 서버와 통신할 수 있는 어떠한 형식의 디바이스를 의미할 수 있다.The media content providing apparatus 400 according to the present embodiment is connected to at least one web server 100, 200, 300 and at least one user terminal 500 through a network. Here, the user terminal 500 may provide a user with at least one of an image and a voice, such as a personal computer or a cellular phone, and may refer to any type of device capable of communicating with a web server through a network.

도 3은 도 2에 도시된 미디어 컨텐츠 제공 장치(400)의 실시예에 의한 개략적인 블럭도로서, 제어부(410), 데이터 베이스(420), 어플리케이션 생성부(430), 인터페이스부(440), 저장부(450) 및 과금부(460)로 구성된다.FIG. 3 is a schematic block diagram of an embodiment of the media content providing apparatus 400 shown in FIG. 2. The controller 410, the database 420, the application generator 430, the interface 440, It is composed of a storage unit 450 and the charging unit 460.

도 4는 도 2 또는 도 3에 도시된 미디어 컨텐츠 제공 장치(400)에서 수행되는 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.4 is a flowchart for describing a media content providing method according to an embodiment performed by the media content providing apparatus 400 illustrated in FIG. 2 or 3.

도 3에 도시된 데이터 베이스(420)는 미디어 컨텐츠를 언어별, 카테고리별 및 미디어 섹션별 중 적어도 하나에 따라 계층화하여 코딩하고, 코딩된 미디어 섹션의 문장 및 구간을 통합 및 분할 동기 정보에 각각 동기화시켜 저장한다(제482 단계).The database 420 illustrated in FIG. 3 hierarchically codes media content according to at least one of language, category, and media section, and synchronizes sentences and sections of the coded media section with integrated and split synchronization information, respectively. In operation 482, the controller stores the data in a stored manner (step 482).

구체적으로, 제어부(410)는 네트워크망을 통해 연결된 적어도 하나의 웹 서버(100, 200, 300) 및 적어도 하나의 사용자 단말(500)로부터 복수의 미디어 컨텐츠를 사전에 인터페이스부(440)를 통해 입력단자 IN을 통해 받아서 수집한다. 이후, 제어부(410)는 수집된 미디어 컨텐츠를 언어(영어, 국어, 일어 등)별 및 카테고리(환경, 과학, 미용, 학습 등)별로 계층적으로 구분한 후, 계층적으로 구분된 미디어 컨텐츠를 도 1에 도시된 바와 같은 구성에 기반하여 코딩한다.In detail, the controller 410 inputs a plurality of media contents from the at least one web server 100, 200, 300 and at least one user terminal 500 connected through a network in advance through the interface unit 440. Collect via terminal IN. Thereafter, the controller 410 classifies the collected media content hierarchically by language (English, Korean, Japanese, etc.) and by category (environment, science, beauty, learning, etc.), and then divides the media content hierarchically classified. Code based on the configuration as shown in FIG.

다음의 표 1과 2는 도 1의 미디어 컨텐츠 구조에 적용된 일 예를 나타낸 것으로 표 1은 화자정보를 화자 식별자(Speaker_ID)로 코딩한 경우를 나타내고, 표 2는 단어를 단어 식별자(Word_ID)로 코딩한 경우를 나타낸 것이다.Tables 1 and 2 below show an example applied to the media content structure of FIG. 1, and Table 1 shows a case in which speaker information is coded by a speaker identifier (Speaker_ID), and Table 2 is coded by a word identifier (Word_ID). One case is shown.

Speaker_IDSpeaker_ID SpeakerSpeaker 1111 사회자moderator 1212 토론자 1Debater 1 1313 토론자 2Debater 2 ...... ......

Word_IDWord_ID WordWord 101101 요즘Nowadays 203203 아이children 707707 field 704704 silver 508508 자전거bicycle 304304 Get 705705 The 670670 that 710710 on 510510 관심Attention 703703 this 450450 Many ...... ...... 530530 환경Environment 521521 운동Exercise 717717 대하여about 452452 많아many 903903 졌기Losing ...... ......

또한, 제어부(410)는 코딩된 각 미디어 섹션에서 문장을 통합 동기 정보(TSS, TSE)에 동기화시켜 저장하고, 문장의 일부인 구간을 분할 동기 정보(PSS, PSE)에 동기화시켜 데이타 베이스(420)에 저장시킨다.In addition, the controller 410 synchronizes and stores the sentences in the coded media sections to the integrated synchronization information (TSS, TSE), and synchronizes the sections that are part of the sentences to the divided synchronization information (PSS, PSE) of the database 420. Save it to

제482 단계 후에, 제어부(410)에 의해 제어되어, 어플리케이션 생성부(430)는 데이타 베이스(420)와 연계된 사용자 어플리케이션을 생성한다(제484 단계).After operation 482, controlled by the controller 410, the application generator 430 generates a user application associated with the database 420 (operation 484).

다음, 제어부(410)는 인터페이스부(440)의 입력 단자 IN를 통해 사용자 단말(500)로부터 사용자 어플리케이션의 수신이 요청되는가를 판단한다(제486 단계). 만일, 사용자 어플레케이션의 수신이 요청되면, 제어부(410)는 어플리케이션 생성부(430)에서 생성되어 저장된 사용자 어플리케이션을 사용자 단말(500)로 출력단자 OUT를 통해 제공되고, 사용자 단말(500)에서 사용자 어플리케이션은 자동으로 설치될 수 있다(제488 단계).Next, the controller 410 determines whether the reception of the user application is requested from the user terminal 500 through the input terminal IN of the interface unit 440 (step 486). If the reception of the user application is requested, the control unit 410 provides the user application generated and stored in the application generating unit 430 to the user terminal 500 through the output terminal OUT, and the user terminal 500. The user application may be automatically installed (step 488).

사용자 어플리케이션은 사용자 단말(500)이 미디어 컨텐츠 제공 장치(400)로의 접속과, 검색어 기입과, 미디어 컨텐츠의 자막과 영상의 디스플레이와, 미디어 컨텐츠 제공 장치(400)로 전달할 각종 명령의 생성을 위해 이용된다.The user application is used by the user terminal 500 to access the media content providing apparatus 400, to write a search word, to display subtitles and images of the media content, and to generate various commands to be transmitted to the media content providing apparatus 400. do.

사용자 단말(500)에서 사용자 어플레이션이 실행될 때, 사용자 단말(500)은 미디어 컨텐츠 제공 장치(400)로 접속될 수 있다. 또한, 사용자 어플리케이션은 사용자 식별자(User ID)와 암호(password)의 입력에 따른 사용자 인증 기능을 가질 수 있으며, 인증에 성공한 사용자 단말(500)만이 미디어 컨텐츠 제공 장치(400)에 자동 접속될 수 있다. 사용자 단말(500)에 구비되는 사용자 어플리케이션이 실행됨에 따라, 사용자 단말(500)의 화면에 사용자 인터페이스 화면이 디스플레이될 수 있다. 실시예의 의한 미디어 컨텐츠 제공 장치(400)는 사용자 인터페이스 화면(500)을 통해 사용자 단말(500)에 자막을 문장별로 또는 문장의 구간별로 다음과 같이 재생시킬 수 있다.When the user application is executed in the user terminal 500, the user terminal 500 may be connected to the media content providing apparatus 400. In addition, the user application may have a user authentication function according to input of a user ID and password, and only the user terminal 500 that has been successfully authenticated may be automatically connected to the media content providing apparatus 400. . As the user application provided in the user terminal 500 is executed, a user interface screen may be displayed on the screen of the user terminal 500. The media content providing apparatus 400 according to an exemplary embodiment may play the caption on the user terminal 500 by sentence or section of a sentence through the user interface screen 500 as follows.

도 5는 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.5 is a flowchart illustrating a method of providing media content according to an embodiment.

도 6a 내지 도 7은 실시예에 의한 사용자 인터페이스 화면을 예시적으로 나타내는 도면이다. 구체적으로, 도 6a 내지 도 6c에 도시된 사용자 인터페이스 화면은 목록 디스플레이 영역을 예시적으로 나타낸다. 도 7에 도시된 사용자 인터페이스 화면은 자막 디스플레이 영역(610), 제1 내지 제3 선택키(622, 624, 626), 동기 정보 영역(628), 검색어 기입 영역(630), 영상 재생 영역(640), 제어 영역(650) 및 기타 영역(660)을 포함한다.6A to 7 are views illustrating a user interface screen according to an embodiment. Specifically, the user interface screen shown in FIGS. 6A to 6C exemplarily shows a list display area. The user interface screen illustrated in FIG. 7 includes a subtitle display area 610, first to third selection keys 622, 624, and 626, a synchronization information area 628, a search word entry area 630, and an image playback area 640. ), Control region 650, and other region 660.

자막 디스플레이 영역(610)은 영상 재생 영역(640)에 재생되는 미디어 섹션에 동기되는 문장을 문장별로 또는 구간별로 디스플레이하기 위한 영역이다. 자막 디스플레이 영역(610)에서 문장의 분할된 구간을 슬래쉬("/")라는 구분자로 마킹(marking)할 수 있다.The caption display area 610 is an area for displaying sentences synchronized with a media section played in the image reproduction area 640 by sentence or by section. In the caption display area 610, the divided section of the sentence may be marked with a slash “/”.

또한, 자막 디스플레이 영역(610)은 영상 재생 영역(640) 상에 현재 디스플레이되고 있는 미디어 섹션이 속하는 미디어 컨텐츠의 전체 시간적 길이를 나타내는 스크롤바(612)와, 그 스크롤바(612)가 나타내는 전체 시간적 길이 중 현재 디스플레이되고 있는 미디어 섹션에 동기되는 구간의 시간적 위치를 나타내는 인디케이터(614)를 더 포함할 수 있다.In addition, the caption display area 610 may include a scroll bar 612 indicating the total temporal length of the media content to which the media section currently displayed on the image playback area 640 belongs, and a total temporal length indicated by the scroll bar 612. The display apparatus may further include an indicator 614 indicating a temporal position of a section synchronized with a media section currently being displayed.

스크롤바(612)에서 인디케이터(614)를 이동할 경우, 사용자 단말(500)은 그 인디케이터(614)가 이동한 위치의 구간에 해당하는 미디어 섹션(예를 들면, 인디케이터(614)가 이동한 위치의 구간에 동기되는 영상)을 영상 재생 영역(640)에 디스플레이시킨다. 예로써, 현재 디스플레이되고 있는 영상에 동기되는 구간의 위치에서 인디케이터(614)를 이동한 후에 그 이동된 위치의 구간을 선택하는 경우, 그 선택된 구간에 동기되는 미디어 섹션이 디스플레이될 수 있다.When the indicator 614 is moved on the scroll bar 612, the user terminal 500 may include a media section corresponding to the section of the position where the indicator 614 has moved (for example, the section of the position where the indicator 614 has moved). The image synchronous to the second display unit) is displayed on the image reproducing area 640. For example, when the indicator 614 is moved after moving the indicator 614 at the position of the section synchronized with the image currently being displayed, the media section synchronized with the selected section may be displayed.

검색어 기입 영역(630)은 검색어를 기입하는 영역으로서, 검색어 기입 영역(630)에 사용자가 검색어를 기입하면, 그 기입된 검색어는 미디어 컨텐츠 제공 장치(400)로 제공된다.The search word entry area 630 is an area for entering a search word. When a user enters a search word in the search word entry area 630, the written search word is provided to the media content providing apparatus 400.

영상 재생 영역(640)은 자막 디스플레이 영역(610) 또는 기타 영역(660)에서 마킹된 구간에 해당하는 미디어 섹션의 영상을 디스플레이하는 영역이다. 즉, 영상 재생 영역(640)은 특정 미디어 섹션의 스트리밍에 따른 재생을 위한 영역으로서, 자막 디스플레이 영역(610)에 디스플레이되는 특정한 문장 또는 구간이 선택됨에 따라 미디어 컨텐츠 제공 장치(400)로부터 스트리밍되는 특정 문장 또는 구간에 동기된 미디어 섹션을 재생한다.The image reproduction area 640 is an area for displaying an image of a media section corresponding to a section marked in the subtitle display area 610 or the other area 660. That is, the image reproduction area 640 is an area for reproducing according to the streaming of a specific media section, which is streamed from the media content providing device 400 as a specific sentence or section displayed on the subtitle display area 610 is selected. Play a media section synchronized to a sentence or section.

여기서, 미디어 섹션의 재생이란, 미디어 섹션이 이미지나 동영상일 경우 오디오와 함께 그 이미지나 동영상의 재생을 의미할 수도 있고, 미디어 섹션이 오디오만일 경우 사용자 단말(500)의 스피커를 통한 오디오의 출력을 의미할 수도 있다.Here, the playback of the media section may mean the playback of the image or video with audio when the media section is an image or a video, or the output of audio through the speaker of the user terminal 500 when the media section is audio only. It may mean.

제어 영역(650)은 사용자 어플리케이션 실행에 따라 영상 재생 영역(640)에 디스플레이되는 미디어 섹션의 재생, 중단, 일시정지, 사용자 자신의 음성 녹음 등의 제어를 위한 키(652, 654, 656, 658)가 배치된 영역이다.The control area 650 is a key 652, 654, 656, 658 for controlling playback, interruption, pause, recording of a user's own voice, etc. of a media section displayed in the image playback area 640 according to execution of a user application. Is the area where it is arranged.

기타 영역(660)은 미디어 컨텐츠 제공 장치(400)로부터 제공된 미디어 섹션을 디스플레이시키기 위한 영역이다. 특히, 검색어 기입 영역(630)에 기입된 검색어의 검색에 대한 응답으로써 미디어 컨텐츠 제공 장치(400)로부터 수신된 미디어 컨텐츠의 목록이 기타 영역(660)에 디스플레이될 수 있다. 미디어 컨텐츠의 목록은 검색된 미디어 컨텐츠에 포함된 후 추출된 적어도 하나의 미디어 섹션의 자막 등의 텍스트 부분을 다수 카테고리별 기준에 따라 정렬하는 기능을 가질 수 있다. 여기서, 기타 영역(660)에 디스플레이되는 목록의 카테고리별 기준은 미디어 컨텐츠의 부류(예를 들어, 환경, 사회, 과학), 사용자에 의한 검색 빈도수, 사용자에 의한 선택 빈도수, 미디어 섹션에 동기되는 텍스트 길이, 미디어 섹션의 재생 시간(RUNNING TIME), 미디어 섹션에서의 검색어의 위치, 미디어 컨텐츠별 동일 검색어를 포함하는 미디어 섹션의 개수 등일 수 있다.The other area 660 is an area for displaying a media section provided from the media content providing apparatus 400. In particular, a list of media content received from the media content providing apparatus 400 may be displayed in the other area 660 in response to the search for the search word written in the search word entry area 630. The list of media contents may have a function of sorting text portions such as captions of at least one media section extracted after being included in the searched media contents according to a plurality of categories. Here, the category-based criteria of the list displayed in the other area 660 may be a class of media content (for example, environment, society, science), a frequency of searching by a user, a frequency of selection by a user, and text synchronized with a media section. The length, the running time of the media section, the location of the search word in the media section, the number of media sections including the same search word for each media content, and the like.

추가 예로써, 기타 영역(660)에는 미디어 섹션의 저작권(copyright) 정보 및 가격 정보를 더 포함할 수 있다. 여기서, 저작권 정보는 미디어 섹션의 저작권자와 저작권 유효기간과 저작권 만료시기를 포함한다.As a further example, the other area 660 may further include copyright information and price information of the media section. Here, the copyright information includes the copyright holder of the media section and the copyright expiration date and copyright expiration date.

다른 실시예에 의하면, 기타 영역(660)은 자막 디스플레이 영역(610)보다 미디어 컨텐츠의 내용을 좀 더 상세하게 나타내기 위한 영역 또는 검색어에 기반하여 추출된 미디어 섹션들만을 위해 사용되는 영역이며, 생략될 수도 있다.According to another embodiment, the other area 660 is an area used only for media sections extracted based on a search word or an area for representing the content of the media content in more detail than the subtitle display area 610, and is omitted. May be

실시예의 이해를 돕기 위해, 도 5에 도시된 미디어 컨텐츠 제공 방법은 도 3에 도시된 미디어 컨텐츠 제공 장치에서 수행되고, 이 방법의 수행을 위해 필요하며 사용자 단말(500)에서 디스플레이되는 사용자 인터페이스 화면은 도 6a 내지 도 7에 도시된 바와 같다고 가정하지만, 본 실시예는 이에 국한되지 않으며 다양한 형태의 사용자 인터페이스 화면이나 다양한 구성의 미디어 컨텐츠 제공 장치가 사용될 수 있음은 물론이다.For better understanding of the embodiment, the media content providing method illustrated in FIG. 5 is performed in the media content providing apparatus illustrated in FIG. 3, and a user interface screen necessary for performing the method and displayed on the user terminal 500 is described. 6A to 7, the present embodiment is not limited thereto, and various types of user interface screens or various types of media content providing apparatuses may be used.

제어부(410)는 도 7에 도시된 검색어 기입 영역(630)에 사용자가 검색어를 기입하였는가를 판단한다(제502 단계).The controller 410 determines whether the user enters a search word in the search word input area 630 shown in FIG. 7 (operation 502).

만일, 검색어가 기입되지 않았다면, 미디어 컨텐츠의 목록을 사용자 단말(500)로 제공한다(제504 단계). 여기서, 목록에 나열된 미디어 컨텐츠는 예를 들면 전술한 도 1에 도시된 바와 같은 구성으로 데이터 베이스(420)에 저장되며, 제어부(410)의 제어 하에, 인터페이스부(440)를 통해 사용자 단말(500)로 전송될 수 있다. 도 6a 내지 도 6b에 도시된 바와 같이, 사용자가 원하는 미디어 컨텐츠의 목록은 계층적으로 제공될 수 있다.If the search word is not entered, a list of media contents is provided to the user terminal 500 (operation 504). Here, the media content listed in the list is stored in the database 420 in the configuration as shown in FIG. 1, for example, and under the control of the controller 410, the user terminal 500 through the interface unit 440. ) May be sent. As illustrated in FIGS. 6A to 6B, a list of media contents desired by a user may be provided hierarchically.

제504 단계 후에, 디스플레이된 미디어 컨텐츠의 목록에서 선택된 미디어 컨텐츠의 자막에 포함된 각 문장을 분할 동기 정보에 따라 분할된 복수의 구간별로 구분하여 마킹하면서, 마킹된 구간에 대응하는 미디어 섹션 즉, 영상 및 음성 중 적어도 하나가 사용자 단말(500)에서 재생되도록 제어부(410)는 미디어 컨텐츠를 데이터 베이스(420)로부터 독출하여 인터페이스부(440)를 통해 사용자 단말(500)로 제공한다(제506 내지 제510 단계).After operation 504, the respective sections included in the subtitles of the selected media content in the displayed list of the media content are divided and marked according to the plurality of sections divided according to the division synchronization information, and the media sections corresponding to the marked sections, that is, the images, are marked. And the controller 410 reads the media content from the database 420 and provides the media content to the user terminal 500 through the interface unit 440 so that at least one of the voices is played in the user terminal 500 (the 506 th to the second). 510 steps).

구체적으로, 제어부(410)는 사용자 단말(500)에 디스플레이된 미디어 컨텐츠의 목록에서 임의의 미디어 컨텐츠가 사용자에 의해 선택되었는가를 판단한다(제506 단계). 만일, 도 6a 내지 도 6c에 도시된 컨텐츠 목록을 통해 사용자가 임의의 미디어 컨텐츠를 선택하면, 선택한 미디어 컨텐츠의 식별자가 인터페이스부(440)를 통해 제어부(410)로 전송될 수 있다. 이때, 제어부(410)는 전송받은 미디어 컨텐츠의 식별자를 이용하여 해당하는 미디어 컨텐츠를 데이타 베이스(420)로부터 독출하고, 독출한 미디어 컨텐츠를 인터페이스부(440)의 출력단자 oOUT를 통해 사용자 단말(500)로 전송한다. 이후, 도 7에 도시된 자막 디스플레이 영역(610)을 통해 미디어 컨텐츠에 포함된 자막이 디스플레이된다. 이때, 자막은 통합 동기 정보에 따라 복수의 문장별로 또는 분할 동기 정보에 따라 문장의 구간별로 디스플레이될 수 있다.In detail, the controller 410 determines whether any media content is selected by the user from the list of media content displayed on the user terminal 500 (step 506). If a user selects arbitrary media content through the content list illustrated in FIGS. 6A to 6C, an identifier of the selected media content may be transmitted to the controller 410 through the interface unit 440. In this case, the controller 410 reads out the corresponding media content from the database 420 using the received media content identifier, and reads the read media content through the output terminal oOUT of the interface unit 440. To send). Subtitles included in the media content are then displayed through the subtitle display area 610 shown in FIG. 7. In this case, the subtitle may be displayed for each of a plurality of sentences according to the integrated synchronization information or for each section of the sentence according to the divided synchronization information.

실시예에 의하면, 임의의 미디어 컨텐츠가 사용자에 의해 선택될 때, 디폴트(default)로 자막 디스플레이 영역(610) 상에, 자막에 포함된 각 문장은 분할 동기 정보에 따라 분할된 복수의 구간별로 마킹되면서, 마킹된 구간에 대응하는 음성 및 영상 중 적어도 하나가 함께 재생될 수 있다(제510 단계). 마킹된 구간에 대응하는 영상은 영상 재생 영역(640)을 통해 재생되고 마킹된 구간에 대응하는 음성은 사용자 단말의 스피커를 통해 출력될 수 있다. 영상이 영상 재생 영역(640)에서 사용자는 재생키(652)를 눌러 영상의 재생을 개시할 수 있고, 중단키(654)를 눌러 영상의 재생을 일시적이 아니라 오랫동안 중단시킬 수 있고, 일시정지키(656)를 눌러 영상의 재생을 일시적으로 정지시킬 수도 있다.According to an embodiment, when any media content is selected by the user, by default, on the subtitle display area 610, each sentence included in the subtitle is marked by a plurality of sections divided according to the division synchronization information. In operation 510, at least one of an audio and an image corresponding to the marked section may be played together. An image corresponding to the marked section may be reproduced through the image reproducing area 640, and the voice corresponding to the marked section may be output through the speaker of the user terminal. In the image playback area 640, the user can press the play key 652 to start the play of the image, press the stop key 654 to stop the play of the video for a long time, not temporarily, the pause key Press 656 to temporarily stop playback of the video.

다른 실시예에 의하면, 사용자가 임의의 미디어 컨텐츠를 선택하였다고 판단되면, 디폴트로 제510 단계로 진행하는 대신에, 선택된 임의의 미디어 컨텐츠의 자막을 문장별로 마킹할 것인가 구간별로 마킹할 것인가를 판단한다(제508 단계). 이를 위해, 사용자는 도 7에 도시된 제1 선택 키(622)를 이용할 수 있다. 만일, 사용자가 제1 선택 키(622)를 한 번 누르면, '문장별 마킹'에 해당하는 제1 신호가 제어부(410)로 전송되고, 제1 선택 키(622)를 두 번 누르면 '구간별 마킹'에 해당하는 제2 신호가 제어부(410)로 전송된다. 즉, 제1 선택 키(622)는 사용자가 문장의 구간별 재생을 원하는가 문장별 재생을 원하는가의 선택을 받는 키이다. 도 7에 도시된 바와 달리, 제1 선택 키(622)는 문장의 구간별 디스플레이의 선택에 전용된 하나의 키와 문장의 구간별 디스플레이의 선택에 전용된 다른 키를 별개로 마련할 수도 있다.According to another embodiment, if it is determined that the user selects arbitrary media content, instead of proceeding to step 510, it is determined whether to mark subtitles of the selected arbitrary media content by sentence or by section. (Step 508). To this end, the user may use the first selection key 622 shown in FIG. 7. If the user presses the first selection key 622 once, the first signal corresponding to the 'marking per sentence' is transmitted to the controller 410, and if the user presses the first selection key 622 twice, the 'by segment' The second signal corresponding to 'marking' is transmitted to the controller 410. That is, the first selection key 622 is a key for receiving a selection of whether the user wants to play the sentence by section or the sentence by sentence. Unlike FIG. 7, the first selection key 622 may separately provide one key dedicated to the selection of the section-by-sentence display and another key dedicated to the selection of the section-by-sentence display.

만일, 사용자가 '구간별 마킹'을 원하도록 제1 선택 키(622)를 조작했다면, 제2 신호가 제어부(410)로 전송되고, 구간별로 문장이 자막 디스플레이 영역(610)에서 디스플레이될 수 있도록, 제어부(410)는 데이터 베이스(420)로부터 구간과 분할 동기 정보를 독출하여 인터페이스부(440)를 통해 사용자 단말(500)로 전송한다(제510 단계).If the user has manipulated the first selection key 622 to desire 'marking by section', the second signal is transmitted to the controller 410 so that the sentence can be displayed in the subtitle display area 610 for each section. In operation 510, the controller 410 reads interval and division synchronization information from the database 420 and transmits the interval and the divided synchronization information to the user terminal 500 through the interface unit 440.

그러나, 사용자가 '문장별 마킹'을 원하도록 제1 선택 키(622)를 조작했다면, 제1 신호가 제어부(410)로 전송된다. 선택된 임의의 미디어 컨텐츠의 자막이 통합 동기 정보에 따라 분할된 복수의 문장별로 구분되어 순차적으로 자막 디스플레이 영역(610)에 디스플레이되고, 마킹된 문장에 대응하는 음성 및 영상 중 적어도 하나가 사용자 단말(500)에서 재생되도록 제어부(410)는 데이터 베이스(420)로부터 통합 동기 정보와 문장을 독출하여 인터페이스부(440)를 통해 사용자 단말(500)로 전송한다(제512 단계).However, if the user has manipulated the first selection key 622 to desire 'marking by sentence', the first signal is transmitted to the controller 410. Subtitles of the selected media content are divided into a plurality of sentences divided according to the integrated synchronization information, and are sequentially displayed on the subtitle display area 610, and at least one of an audio and a video corresponding to the marked sentences is displayed in the user terminal 500. The controller 410 reads the integrated synchronization information and the sentence from the database 420 and transmits it to the user terminal 500 through the interface unit 440 (step 512).

전술한 바와 같이, '구간별 마킹'은 사용자 인터페이스 화면을 통해 디폴트로 사용자에게 제공될 수도 있고, 사용자가 원할 때만 사용자에게 제공될 수도 있다.As described above, 'section marking' may be provided to the user by default through a user interface screen, or may be provided to the user only when the user desires.

자막 디스플레이 영역(610)에서 문장이 구간별로 마킹되고 있는 동안, 사용자가 임의의 구간을 선택하였는가를 판단한다(제514 단계). 예를 들어, 자막 디스플레이 영역(610)에 구간별로 보여지는 자막에서 사용자는 관심있는 임의의 구간을 선택할 수 있다. 만일, 사용자가 임의의 구간을 선택하였다면, 그 선택된 구간은 자막 디스플레이 구간에서 하이라이트되고, 하이라이트된 임의의 구간에 해당하는 음성 및 영상 중 적어도 하나가 사용자 단말(500)에서 재생된다(제516 단계). 예를 들어, 선택된 구간은 색깔, 굵기, 음영 등 다양한 형태로 하이라이트될 수 있다. 예를 들어, 구간(662a)이 사용자에 의해 선택되었을 때, 도 7에 도시된 바와 같이, 미디어 섹션의 구간(662a)은 자막 디스플레이 영역(610)에서 굵은 글씨체로 하이라이트될 수 있다.While the sentence is marked for each section in the subtitle display area 610, it is determined whether the user selects an arbitrary section (step 514). For example, in a subtitle displayed in the subtitle display area 610 for each section, the user may select an arbitrary section of interest. If the user selects an arbitrary section, the selected section is highlighted in the subtitle display section, and at least one of an audio and a video corresponding to the highlighted section is played in the user terminal 500 (step 516). . For example, the selected section may be highlighted in various forms such as color, thickness, and shadow. For example, when the section 662a is selected by the user, as shown in FIG. 7, the section 662a of the media section may be highlighted in bold in the subtitle display area 610.

구체적으로, 첫 번째 미디어 컨텐츠의 세 번째 미디어 섹션의 두 번째 문장이 구간별로 도 7에 도시된 자막 디스플레이 영역(610)에서 슬래쉬(/)에 의해 구분되어 디스플레이될 때, 사용자가 두 번째 문장의 제3 구간("자전가를 타는 아이들이 많습니다.")을 선택하면, 선택된 제3 구간에 해당하는 선택 명령이 제어부(410)로 전송된다. 이때, 선택 명령은 선택된 제3 구간에 연계된 미디어 컨텐츠의 식별자, 미디어 섹션의 식별자 및 제3 구간을 위한 분할 동기 정보 중 적어도 하나를 포함할 수 있다. 제어부(410)는 선택 명령이 수신됨에 따라 선택된 제3 구간에 동기된 음성 및 영상 중 적어도 하나를 제3 구간을 위한 분할 동기 정보에 따라 사용자 단말(500)로 스트리밍한다. 따라서, 사용자 단말(500)은 선택 명령에 대한 응답으로써 미디어 컨텐츠 제공 장치(400)로부터 수신되는 스트리밍된 미디어 섹션을 분할 재생 동기 정보에 따라 영상 재생 영역(640) 상에 디스플레이한다.Specifically, when the second sentence of the third media section of the first media content is displayed separately by the slash (/) in the caption display area 610 shown in FIG. When the third section ("a lot of children riding the bicycle.") Is selected, a selection command corresponding to the selected third section is transmitted to the controller 410. In this case, the selection command may include at least one of an identifier of media content associated with the selected third section, an identifier of the media section, and split synchronization information for the third section. As the selection command is received, the controller 410 streams at least one of an audio and a video synchronized with the selected third section to the user terminal 500 according to the split synchronization information for the third section. Accordingly, the user terminal 500 displays the streamed media section received from the media content providing apparatus 400 on the image reproduction area 640 according to the divisional reproduction synchronization information in response to the selection command.

한편, 사용자가 검색어 기입 영역(630)을 통해 검색어를 기입하였다고 판단되면, 제어부(410)는 검색어를 포함하는 미디어 컨텐츠를 데이터 베이스(420) 또는 네트워크망을 통해 연결된 웹 서버(100, 200, 300)를 통해 수집한다(제520 단계).On the other hand, if it is determined that the user has entered a search word through the search word entry area 630, the controller 410 is a web server (100, 200, 300) connected to the media content including the search word via the database 420 or a network; Collect through step (520).

미디어 컨텐츠 제공 장치(400)는 검색어를 포함하는 미디어 컨텐츠를 수집함에 있어서, 데이터 베이스(420)에 저장된 다수 미디어 컨텐츠를 검색하거나, 도 2에 도시된 네크워크망에 의해 서로 연결된 다수의 웹 서버들(100, 200, 300)로부터 검색어를 포함하는 미디어 컨텐츠를 수집할 수도 있다. The media content providing apparatus 400 may retrieve a plurality of media contents stored in the database 420 or collect a plurality of web servers connected to each other by a network shown in FIG. Media content including a search word may be collected from 100, 200, and 300.

여러 웹 서버들(100, 200, 300)로부터 미디어 컨텐츠들은 수집한 후, 수집된 미디어 컨텐츠는 도 1에 도시된 바와 같은 구조로 가공되어 데이타베이스(420)에 저장될 수 있다. 또한, 데이터 베이스(420)는 수집된 미디어 컨텐츠로의 접근을 위한 액세스 데이터를 더 저장할 수도 있다.After the media contents are collected from various web servers 100, 200, and 300, the collected media contents may be processed into a structure as shown in FIG. 1 and stored in the database 420. In addition, the database 420 may further store access data for access to the collected media content.

제520 단계 후에, 제어부(410)는 수집된 각 미디어 컨텐츠를 구성하는 복수의 미디어 섹션의 문장 부분(word/ ... /word)을 검색하여, 검색어를 포함하는 미디어 섹션을 추출한다(제522 단계). 이때, 추출된 미디어 섹션을 인터페이스부(440)를 통해 사용자 단말(500)로 전송한다. 여기서, 사용자 단말(500)로 전송되는 데이터는 각 미디어 섹션으로 접근하게 해주는 엑세스 데이타일 수 있다. 예를 들어, 사용자 단말(500)로 전송되는 데이터는 추출된 미디어 섹션의 식별자, 그 미디어 섹션이 포함된 미디어 컨텐츠의 식별자, 그 미디어 섹션에 포함된 문장의 통합 및 분할 동기 정보 중 적어도 하나를 포함할 수 있다. 이후, 전술한 제508 내지 제516 단계가 자막 디스플레이 영역(610)에 디스플레이된 자막에 대해 수행될 수 있다.After operation 520, the controller 410 searches for sentence portions (word / ... / word) of the plurality of media sections constituting each of the collected media contents, and extracts a media section including a search word (522). step). In this case, the extracted media section is transmitted to the user terminal 500 through the interface unit 440. Here, the data transmitted to the user terminal 500 may be access data that allows access to each media section. For example, the data transmitted to the user terminal 500 may include at least one of an identifier of an extracted media section, an identifier of media content including the media section, and merge and division synchronization information of sentences included in the media section. can do. Subsequently, steps 508 to 516 described above may be performed on the subtitles displayed in the subtitle display area 610.

즉, 사용자 단말(500)은 추출된 미디어 섹션을 미디어 컨텐츠 제공 장치(400)로부터 받아서 자막 디스플레이 영역(610)에 자막으로서 디스플레이한다(제508 내지 제512 단계). 또는, 사용자 단말(500)은 추출된 미디어 섹션을 미디어 컨텐츠 제공 장치(400)로부터 받아서 기타 영역(660)에 디스플레이할 수도 있다(제506 내지 제512 단계). 즉, 사용자는 제1 선택키(622)를 조작하여 문장별 또는 구간별 재생을 선택(제508 단계) 할 수도 있고, 디폴트로 제510 단계가 수행될 수도 있다. 또한, 추출된 미디어 섹션의 문장이 자막 디스플레이 영역(610)에서 구간별로 디스플레이되거나(제510 단계) 문장별로 디스플레이되는(제512 단계) 동안, 검색어에 일치되는 단어/구/절/문장이 포함된 미디어 섹션들이 기타 영역(660)에 보다 상세하게 디스플레이될 수 있다.That is, the user terminal 500 receives the extracted media section from the media content providing apparatus 400 and displays the extracted media section in the caption display area 610 as captions (steps 508 to 512). Alternatively, the user terminal 500 may receive the extracted media section from the media content providing apparatus 400 and display the extracted media section in the other area 660 (operations 506 to 512). That is, the user may operate the first selection key 622 to select playback per sentence or section (step 508), or step 510 may be performed by default. In addition, while the sentences of the extracted media section are displayed for each section in the subtitle display area 610 (step 510) or for each sentence (step 512), words / phrases / phrases / phrases matching the search word are included. Media sections may be displayed in more detail in the other area 660.

따라서, 사용자가 원하는 구간은 자막 디스플레이 영역(610)에서 선택될 수도 있지만, 기타 영역(660)에서도 선택될 수도 있다(제514 단계). 기타 영역(660)에 포함된 특정한 문장(662) 또는 구간(662a)이 선택될 경우, 사용자 단말(500)은 그 선택에 의한 선택 명령을 미디어 컨텐츠 제공 장치(400)로 전송한다. 이때, 선택 명령은 선택된 문장(662) 또는 구간(662a)에 연계된 미디어 섹션의 식별자, 그 미디어 섹션이 포함된 미디어 컨텐츠의 식별자, 그 미디어 섹션이 포함하는 문장의 통합 및 분할 동기 정보 중 적어도 하나를 포함할 수 있다. 따라서, 제어부(410)는 사용자 단말(500)로부터 전송된 미디어 섹션의 식별자에 해당하는 문장(662) 또는 구간(662a)의 음성 및 영상 중 적어도 하나를 사용자 단말(500)로 제공한다. 즉, 제어부(410)는 수신되는 선택 명령에 대한 응답으로써 선택된 문장(662) 또는 구간(662a)에 연계되는 미디어 섹션을 사용자 단말(500)로 스트리밍한다. 그에 따라, 사용자 단말(500)은 선택 명령에 대한 응답으로써 수신되는 미디어 섹션을 영상 재생 영역(640)에 디스플레이한다(제516 단계).Accordingly, the section desired by the user may be selected in the subtitle display area 610 but may also be selected in the other area 660 (step 514). When the specific sentence 662 or the section 662a included in the other area 660 is selected, the user terminal 500 transmits a selection command based on the selection to the media content providing apparatus 400. In this case, the selection command may include at least one of an identifier of a media section associated with the selected sentence 662 or the section 662a, an identifier of media content including the media section, and a merge and split synchronization information of the sentence included in the media section. It may include. Accordingly, the controller 410 provides the user terminal 500 with at least one of a sentence 662 or an audio and video of the section 662a corresponding to the identifier of the media section transmitted from the user terminal 500. That is, the controller 410 streams the media section associated with the selected sentence 662 or the section 662a to the user terminal 500 in response to the received selection command. Accordingly, the user terminal 500 displays the media section received in response to the selection command in the image playback area 640 (step 516).

한편, 다른 실시예에 의하면, 검색어는 미디어 컨텐츠의 타이틀 자체일 수 있다. 이 경우, 도 5에 도시된 바와 달리, 제어부(410)는 검색어로서 기입된 타이틀을 갖는 미디어 컨텐츠를 수집하고, 수집된 미디어 컨텐츠의 목록을 사용자 단말(500)로 전송하여, 수집된 미디어 컨텐츠의 목록이 사용자 단말(500)에서 디스플레이되도록 한다(제504 단계). 이후, 제506 단계 내지 제516 단계가 수행된다. 이때, 전술한 바와 같이, 여러 웹 서버들(100, 200, 300)로부터 미디어 컨텐츠들은 수집한 후, 수집된 미디어 컨텐츠는 도 1에 도시된 바와 같은 구조로 가공되어 데이타베이스(420)에 저장될 수 있다. 또한, 데이터 베이스(420)는 수집된 미디어 컨텐츠로의 접근을 위한 액세스 데이터를 더 저장할 수도 있다.Meanwhile, according to another exemplary embodiment, the search word may be a title itself of the media content. In this case, unlike FIG. 5, the controller 410 collects media content having a title written as a search word, and transmits a list of collected media content to the user terminal 500 to collect the media content. The list is displayed on the user terminal 500 (operation 504). Thereafter, steps 506 to 516 are performed. At this time, as described above, after collecting the media content from the various web servers (100, 200, 300), the collected media content is processed into a structure as shown in Figure 1 to be stored in the database 420 Can be. In addition, the database 420 may further store access data for access to the collected media content.

또 다른 실시예에 의하면, 도 5에 도시된 바와 달리, 검색어가 기입될 경우, 제어부(410)는 검색어를 포함하는 미디어 섹션들을 수집하고, 수집된 미디어 섹션의 목록을 사용자 단말(500)로 전송한다. 따라서, 수집된 미디어 섹션의 목록이 사용자 단말(500)에서 디스플레이될 수 있다. 이 경우, 전술한 바와 같이, 여러 웹 서버들(100, 200, 300)로부터 수집된 미디어 섹션들은 도 1에 도시된 바와 같은 구조로 가공되어 데이타베이스(420)에 저장될 수 있다. 또한, 데이터 베이스(420)는 수집된 미디어 섹션으로의 접근을 위한 액세스 데이터를 더 저장할 수도 있다. 이때, 디스플레이된 미디어 섹션에서 임의의 미디어 섹션이 선택될 경우, 선택된 미디어 섹션에 대해 제508 단계 내지 제516 단계가 수행된다. 즉, 선택된 미디어 섹션에 해당하는 음성 및/또는 영상이 문장 마킹되든지(제512 단계) 또는 구간 마킹된다(제510 단계).According to another embodiment, unlike FIG. 5, when a search word is entered, the controller 410 collects media sections including the search word and transmits a list of the collected media sections to the user terminal 500. do. Thus, a list of collected media sections may be displayed at the user terminal 500. In this case, as described above, the media sections collected from the various web servers 100, 200, and 300 may be processed into a structure as shown in FIG. 1 and stored in the database 420. In addition, the database 420 may further store access data for access to the collected media sections. In this case, when any media section is selected from the displayed media section, steps 508 to 516 are performed on the selected media section. That is, the voice and / or video corresponding to the selected media section are sentence-marked (step 512) or section-marked (step 510).

도 8은 다른 실시예에 의한 미디어 컨텐츠 제공 방법을 설명하기 위한 플로우차트이다.8 is a flowchart for describing a method of providing media content according to another embodiment.

자막 디스플레이 영역(610)에서 마킹된 구간에 해당하는 음성을 사용자는 자신의 음성으로 녹음해 볼 수 있다. 즉, 제어 영역(650)에 배치된 녹음키(658)을 누른 후, 마킹된 구간에 해당하는 음성을 자신의 음성으로 녹음시킨다.In the caption display area 610, the user may record a voice corresponding to the marked section as his own voice. That is, after pressing the recording key 658 disposed in the control area 650, the voice corresponding to the marked section is recorded as its own voice.

이후, 사용자가 자신의 녹음된 음성을 미디어 컨텐츠 제공 장치(400)로 전송하고자 하는가를 판단한다(제702 단계). 이를 원하는 사용자는 제2 선택키(624)를 누를 수 있다. 만일, 제2 선택기(624)가 눌려지면, 녹음된 음성은 사용자 단말(500)로부터 장치(400)로 전송되어 저장된다(제704 단계). 즉, 제2 선택키(624)가 눌려질 때 제3 신호가 발생하고, 제어부(410)는 사용자 단말(500)로부터 제3 신호가 수신될 때, 인터페이스부(440)를 통해 녹음된 음성을 받아서 저장부(450)에 저장시킨다. 그 밖에 저장부(450)는 복수의 사용자 단말(500)에 대한 정보를 저장할 수 있다. 왜냐하면, 저장부(450)에 저장된 녹음된 음성이 여러 사용자 단말 중 어느 사용자 단말로부터 전송되었는가를 제어부(410)가 체크하도록 하기 위해서이다.Thereafter, it is determined whether the user wants to transmit his / her recorded voice to the media content providing apparatus 400 (operation 702). The user who wants this can press the second selection key 624. If the second selector 624 is pressed, the recorded voice is transmitted from the user terminal 500 to the device 400 and stored (step 704). That is, a third signal is generated when the second selection key 624 is pressed, and the controller 410 receives the voice recorded through the interface unit 440 when the third signal is received from the user terminal 500. Receive and store in the storage unit 450. In addition, the storage unit 450 may store information on the plurality of user terminals 500. This is because the controller 410 checks which user terminal the recorded voice stored in the storage unit 450 is transmitted from.

이후, 녹음된 음성을 원래의 음성과 비교하기를 사용자가 원하는가를 판단한다(제706 단계). 예를 들어, 저장된 음성과 자막 디스플레이 영역(610)에 마킹된 구간에 해당하는 음성의 비교 결과를 사용자가 받기를 원할 경우, 사용자는 제3 선택 키(626)를 누를 수 있다. 제3 선택키(626)가 눌려질 때 제4 신호가 발생되고, 제어부(410)는 제4 신호에 응답하여 저장부(450)에 저장된 녹음된 음성과 마킹된 구간에 해당하는 원래의 음성을 비교하고, 비교된 결과를 인터페이스부(440)를 통해 사용자 단말(500)로 전송한다(제708 단계). 이때, 비교된 결과는 제어부(410)의 제어하에 저장부(450)에 저장될 수도 있다.Then, it is determined whether the user wants to compare the recorded voice with the original voice (step 706). For example, when the user wants to receive a comparison result between the stored voice and the voice corresponding to the section marked on the subtitle display area 610, the user may press the third selection key 626. When the third selection key 626 is pressed, a fourth signal is generated, and the controller 410 outputs the recorded voice stored in the storage 450 and the original voice corresponding to the marked section in response to the fourth signal. In operation 708, the comparison result is transmitted to the user terminal 500 through the interface unit 440. In this case, the compared result may be stored in the storage 450 under the control of the controller 410.

한편, 도 7에 도시된 동기 정보 영역(628)은 통합 동기 정보 및 분할 동기 정보 중 적어도 하나를 디스플레이할 수 있다.Meanwhile, the sync information area 628 illustrated in FIG. 7 may display at least one of integrated sync information and split sync information.

그 밖에, 미디어 컨텐츠 제공 장치(400)는 과금부(460)를 더 포함할 수 있다. 과금부(460)는 사용자 단말(500)이 사용자 어플리케이션을 통해 미디어 컨텐츠 제공 장치(400)를 이용한 대가인 과금을 계산하고 그 계산된 결과를 저장한다. 이를 위해, 과금부(460)는 제어부(410)의 제어를 받는다.In addition, the media content providing apparatus 400 may further include a charging unit 460. The accounting unit 460 calculates the charge for the user terminal 500 using the media content providing apparatus 400 through the user application and stores the calculated result. To this end, the charging unit 460 is controlled by the controller 410.

전술한 본 실시예에 의한 미디어 컨텐츠 제공 방법 및 장치를 구체적으로 예를 들어 설명하면 다음과 같다.Hereinafter, a method and apparatus for providing media content according to the present embodiment will be described in detail.

검색어가 기입되지 않았을 때, 제어부(410)는 도 6a 내지 도 6c에 도시된 사용자 인터페이스의 형태로 미디어 컨텐츠의 목록을 사용자 단말(500)에 디스플레이시킨다고 가정한다. 이때, 사용자가 도 6a에 도시된 언어 목록에서 '국어'를 선택하면 도 6b에 도시된 바와 같이, 카테고리가 국어로 사용자에게 디스플레이된다. 이때, 도 6b에 도시된 카테고리에서 사용자가 '환경'을 선택하면 도 6c에 도시된 바와 같이 '환경'에 관련된 미디어 컨텐츠가 국어로 사용자에게 디스플레이된다. 도 6c의 경우 카테고리 '환경'에 관련된 다양한 미디어 컨텐츠로서, 지구, 최신 기사 등을 예시적으로 디스플레이할 수 있다. 언어, 카테고리, 미디어 컨텐츠의 선택이 있을 때마다, 선택된 항목에 대한 식별자가 미디어 컨텐츠 제공 장치(400)로 전송되고, 미디어 컨텐츠 제공 장치(400)는 사용자 단말(500)로부터 수신한 식별자를 통해 도 6a 내지 도 6c에 도시된 사용자 인터페이스 화면을 구성하여 사용자 단말(500)로 제공한다.When the search word is not entered, it is assumed that the controller 410 displays the list of media contents on the user terminal 500 in the form of the user interface illustrated in FIGS. 6A to 6C. In this case, when the user selects 'Korean' from the language list shown in FIG. 6A, the category is displayed to the user in Korean as shown in FIG. 6B. In this case, when the user selects 'environment' in the category illustrated in FIG. 6B, the media content related to 'environment' is displayed to the user in Korean as illustrated in FIG. 6C. In the case of FIG. 6C, various media contents related to the category 'environment' may be exemplarily displayed, such as an earth and a recent article. Whenever a language, a category, or media content is selected, an identifier for the selected item is transmitted to the media content providing apparatus 400, and the media content providing apparatus 400 may also use an identifier received from the user terminal 500. The user interface screen shown in FIGS. 6a to 6c is configured and provided to the user terminal 500.

만일, 사용자가 최신기사에서 '자전거'라는 제목을 갖는 미디어 컨텐츠를 선택하면, 사용자 단말(500)은 자전가라는 제목을 갖는 미디어 컨텐츠의 식별자를 제어부(410)로 전송하고, 제어부(410)는 그 식별자를 이용하여 데이터 베이스(420)로부터 "자전거"에 해당하는 저장된 미디어 컨텐츠를 독출하여 인터페이스부(440)를 통해 도 7에 도시된 바와 같이 사용자 인터페이스 화면의 형태로 사용자 단말(500)에 제공한다.If the user selects the media content titled 'bicycle' in the latest article, the user terminal 500 transmits an identifier of the media content titled the bicycle to the controller 410, and the controller 410 Using the identifier, the stored media content corresponding to “bicycle” is read from the database 420 and provided to the user terminal 500 in the form of a user interface screen as shown in FIG. 7 through the interface unit 440. .

혹은, 사용자가 검색어 기입 영역(630)에 '자전거'라는 검색어를 기입하면, 사용자 단말(500)은 자전가라는 제목을 갖는 미디어 컨텐츠의 식별자를 제어부(410)로 전송하고, 제어부(410)는 그 식별자를 이용하여 데이터 베이스(420)에 저장된 미디어 컨텐츠 중 '저전거'라는 검색어를 포함하는 미디어 컨텐츠를 수집하거나 웹 서버(100, 200, 300)들로부터 '자전거'라는 검색어을 포함하는 미디어 컨텐츠를 수집한다. 이후, 제어부(410)는 수집된 미디어 컨텐츠에서 "자전거"를 포함하는 미디어 섹션을 검색하여 추출하여 도 7에 도시된 바와 같은 사용자 인터페이스 화면의 형태로 사용자 단말(500)로 제공한다.Alternatively, when the user enters a search term 'bicycle' in the search word entry area 630, the user terminal 500 transmits an identifier of media content having a title of a bicycle to the controller 410, and the controller 410 transmits the identifier. Collect the media content including the search term 'bicycle' among the media contents stored in the database 420 using the identifier or collect the media content including the search term 'bicycle' from the web servers 100, 200 and 300. . Thereafter, the controller 410 searches for and extracts a media section including "bicycle" from the collected media content and provides the same to the user terminal 500 in the form of a user interface screen as shown in FIG. 7.

예시적으로, 첫 번째 미디어 컨텐츠(File_ID=1)의 세 번째 미디어 섹션(Sentence_ID=3)의 자막의 문장에서 제1, 제2 및 제3 구간은 도 7의 자막 디스플레이 영역(610)에 도시된 바와 같이, 구간별로 구분하여 마킹되면서, 마킹된 구간에 대응하는 음성은 사용자 단말의 스피커를 통해 출력되고, 마킹된 구간에 대응하는 영상은 영상 재생 영역(640)에 디스플레이된다.For example, in the sentence of the subtitle of the third media section (Sentence_ID = 3) of the first media content File_ID = 1, the first, second and third sections are shown in the subtitle display area 610 of FIG. 7. As described above, the voices corresponding to the marked sections are output through the speaker of the user terminal, and the images corresponding to the marked sections are displayed on the video reproduction region 640.

그러나, 사용자가 제1 선택키(622)를 누를 경우, 문장은 자막 디스플레이 영역(610)에서 구간별이 아닌 문장별로 디스플레이될 수도 있음은 물론이다.However, when the user presses the first selection key 622, the sentence may be displayed in the caption display area 610 by sentence rather than section.

이상에서 실시예를 중심으로 설명하였으나 이는 단지 예시일 뿐 본 발명을 한정하는 것이 아니며, 본 발명이 속하는 분야의 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성을 벗어나지 않는 범위에서 이상에 예시되지 않은 여러 가지의 변형과 응용이 가능함을 알 수 있을 것이다. 예를 들어, 실시예에 구체적으로 나타난 각 구성 요소는 변형하여 실시할 수 있는 것이다. 그리고 이러한 변형과 응용에 관계된 차이점들은 첨부된 청구 범위에서 규정하는 본 발명의 범위에 포함되는 것으로 해석되어야 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood that various modifications and applications are possible. For example, each component specifically shown in the embodiments can be modified and implemented. It is to be understood that all changes and modifications that come within the meaning and range of equivalency of the claims are therefore intended to be embraced therein.

100, 200, 300: 웹 서버 400: 미디어 컨텐츠 제공 장치
410: 제어부 420: 데이터 베이스
430: 어플리케이션 생성부 440: 인터페이스부
450: 저장부 460: 과금부
500: 사용자 단말
100, 200, 300: Web server 400: Media content providing device
410: control unit 420: database
430: application generation unit 440: interface unit
450: storage unit 460: charging unit
500: user terminal

Claims (10)

미디어 컨텐츠의 목록을 사용자 단말로 제공하여 디스플레이시키되, 상기 미디어 컨텐츠는 적어도 하나의 미디어 섹션을 갖고, 상기 미디어 섹션은 복수의 구간으로 구분되어 있는 문장과, 상기 문장의 전체에 동기된 통합 동기 정보와, 상기 문장의 각 구간에 동기된 분할 동기 정보를 포함하는 목록 디스플레이 단계; 및
상기 디스플레이된 목록에서, 상기 사용자 단말로부터 선택받은 미디어 컨텐츠의 자막에 포함된 각 문장을 상기 분할 동기 정보에 따라 분할된 상기 복수의 구간별로 구분하여 마킹하면서, 상기 마킹된 구간에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 제공하는 자막 디스플레이 단계를 포함하는 미디어 컨텐츠 제공 방법.
Providing a list of media contents to a user terminal and displaying the media contents, wherein the media contents have at least one media section, and the media section includes a sentence divided into a plurality of sections, integrated synchronization information synchronized to the entirety of the sentence, and the like. A list display step including division synchronization information synchronized to each section of the sentence; And
In the displayed list, each sentence included in the caption of the media content selected from the user terminal is divided and marked according to the plurality of sections divided according to the division synchronization information, and the audio and video corresponding to the marked section are marked. And displaying the media content to the user terminal so that at least one of the media content is played on the user terminal.
제1 항에 있어서, 상기 미디어 컨텐츠 제공 방법은
상기 사용자 단말로부터 전송된 검색어에 기반하여, 상기 검색어를 포함하는 미디어 컨텐츠를 수집하는 단계; 및
상기 수집된 미디어 컨텐츠에서 상기 검색어를 포함하는 적어도 하나의 미디어 섹션을 추출하는 단계를 더 포함하고,
상기 자막 디스플레이 단계에서, 상기 추출된 적어도 하나의 미디어 섹션이 상기 사용자 단말에서 상기 자막으로서 디스플레이되도록 상기 추출된 미디어 섹션을 상기 사용자 단말로 전송하는 미디어 컨텐츠 제공 방법.
The method of claim 1, wherein the media content providing method
Collecting media content including the search term based on the search term transmitted from the user terminal; And
Extracting at least one media section including the search term from the collected media content,
And displaying the extracted media section to the user terminal such that the extracted at least one media section is displayed as the subtitle in the user terminal.
제2 항에 있어서, 상기 자막 디스플레이 단계에서
상기 사용자 단말의 요청에 따라, 상기 자막이 상기 통합 동기 정보에 따라 분할된 복수의 문장별로 구분하여 순차적으로 마킹되면서, 상기 마킹된 문장에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 전송하는 미디어 컨텐츠 제공 방법.
The method of claim 2, wherein the caption display step
In response to a request of the user terminal, the subtitles are sequentially marked by being divided into a plurality of sentences divided according to the integrated synchronization information, so that at least one of an audio and a video corresponding to the marked sentences is reproduced in the user terminal. The media content providing method for transmitting the media content to the user terminal.
제3 항에 있어서, 상기 자막 디스플레이 단계에서
상기 구분되어 마킹되는 상기 복수의 구간 중 상기 사용자 단말에서 요청한 임의의 구간이 하이라이트되고, 상기 하이라이트된 임의의 구간에 해당하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록 상기 미디어 컨텐츠를 상기 사용자 단말로 제공하는 미디어 컨텐츠 제공 방법.
The method of claim 3, wherein in the caption display step
The media content is displayed so that any section requested by the user terminal is highlighted among the plurality of sections that are marked and marked, and at least one of a voice and a video corresponding to the highlighted section is played on the user terminal. Media content providing method provided to the terminal.
제4 항에 있어서, 상기 미디어 컨텐츠 제공 방법은
상기 마킹된 구간에 해당하는 음성을 상기 사용자 단말에서 사용자 자신의 음성으로 녹음할 때, 상기 녹음된 음성을 상기 사용자 단말로부터 받아서 저장하는 단계; 및
상기 저장된 음성과 상기 마킹된 구간에 해당하는 원래 음성을 비교하고, 비교된 결과를 상기 사용자 단말로 제공하는 단계를 더 포함하는 미디어 컨텐츠 제공 방법.
The method of claim 4, wherein the media content providing method
Receiving and storing the recorded voice from the user terminal when recording the voice corresponding to the marked section as the user's own voice in the user terminal; And
And comparing the stored voice with an original voice corresponding to the marked section and providing the compared result to the user terminal.
제1 항 내지 제5 항 중 어느 한 항에 있어서, 상기 미디어 컨텐츠 제공 방법은
상기 미디어 컨텐츠를 언어별, 카테고리별 및 미디어 섹션별 중 적어도 하나에 따라 계층화하여 코딩하고, 상기 코딩된 미디어 섹션의 문장 및 상기 문장에 포함된 구간을 상기 통합 및 분할 동기 정보에 각각 동기화시켜 데이타 베이스를 생성하는 단계;
상기 데이타 베이스와 연계된 사용자 어플리케이션을 생성하는 단계; 및
상기 사용자 단말이 상기 사용자 어플리케이션의 수신을 요청할 때, 상기 사용자 어플리케이션을 상기 사용자 단말로 제공하는 단계를 더 포함하는 미디어 컨텐츠 제공 방법.
The method of any one of claims 1 to 5, wherein the media content providing method
Hierarchically coding the media content according to at least one of language, category, and media section, and synchronizing a sentence of the coded media section and a section included in the sentence with the integrated and split synchronization information, respectively, Generating a;
Creating a user application associated with the database; And
And providing the user application to the user terminal when the user terminal requests the reception of the user application.
제6 항에 있어서, 상기 사용자 어플레이션의 실행시에 상기 사용자 단말로 제공되는 사용자 인터페이스 화면은
상기 미디어 컨텐츠의 목록이 디스플레이되는 목록 디스플레이 영역;
상기 자막이 디스플레이되되, 상기 문장이 상기 복수의 구간별 또는 문장별로 구분되어 디스플레이되고, 상기 사용자 단말에서 요청하는 상기 임의의 자막을 선택받는 자막 디스플레이 영역;
상기 마킹된 구간에 대응하는 영상을 재생하기 위한 영상 재생 영역;
상기 음성 및 상기 영상 중 적어도 하나의 재생, 정지, 일시정지, 또는 녹음 중 적어도 하나의 제어를 위한 제어 영역;
상기 검색어를 기입할 검색어 기입 영역;
상기 문장의 구간별 또는 문장별 디스플레이의 선택을 받는 제1 선택키;
상기 녹음된 음성의 상기 사용자 단말로부터의 전송을 원할 때 선택되는 제2 선택키;
상기 저장된 음성과 마킹된 구간에 해당하는 음성의 비교 결과를 받기를 상기 사용자 단말이 요청할 때 선택되는 제3 선택 키; 및
상기 통합 동기 정보 및 상기 분할 동기 정보 중 적어도 하나를 디스플레이하는 동기 정보 영역 중 적어도 하나를 포함하는 미디어 컨텐츠 제공 방법.
The user interface screen of claim 6, wherein the user interface screen is provided to the user terminal when the user application is executed.
A list display area on which the list of media contents is displayed;
A subtitle display area in which the subtitle is displayed, the sentence is divided and displayed by the plurality of sections or sentences, and the arbitrary subtitle requested by the user terminal is selected;
An image reproducing area for reproducing an image corresponding to the marked section;
A control area for controlling at least one of playing, stopping, pausing, or recording at least one of the audio and the video;
A search word entry area for writing the search word;
A first selection key receiving selection of a display by section or sentence by sentence;
A second selection key selected when the recorded voice is to be transmitted from the user terminal;
A third selection key selected when the user terminal requests to receive a comparison result between the stored voice and a voice corresponding to the marked section; And
And at least one of a synchronization information area displaying at least one of the integrated synchronization information and the divided synchronization information.
미디어 컨텐츠 제공 장치에 있어서,
미디어 컨텐츠를 언어별, 카테고리별 및 미디어 섹션별 중 적어도 하나에 따라 계층화하여 코딩하고, 상기 코딩된 미디어 섹션의 문장 및 상기 문장에 포함된 구간을 통합 및 분할 동기 정보에 각각 동기화시켜 저장하는 데이타 베이스;
상기 데이타 베이스와 연계된 사용자 어플리케이션을 생성하는 사용자 어플리케이션 생성부;
사용자 단말 및 웹 서버 중 적어도 하나와 인터페이스되는 인터페이스부; 및
디스플레이된 미디어 컨텐츠의 목록에서, 상기 사용자 단말에서 요청한 미디어 컨텐츠의 자막에 포함된 각 문장이 상기 분할 동기 정보에 따라 분할된 복수의 구간별로 구분하여 마킹되면서, 상기 마킹된 구간에 대응하는 음성 및 영상 중 적어도 하나가 상기 사용자 단말에서 재생되도록, 상기 데이터 베이스, 상기 사용자 어플리케이션 생성부 및 상기 인터페이스부를 제어하는 제어부를 포함하고,
상기 미디어 컨텐츠는 적어도 하나의 상기 미디어 섹션을 갖고, 상기 미디어 섹션은 상기 복수의 구간으로 구분되어 있는 상기 문장과, 상기 문장의 전체에 동기된 상기 통합 동기 정보와, 상기 문장의 각 구간에 동기된 상기 분할 동기 정보를 포함하는 미디어 컨텐츠 제공 장치.
In the media content providing apparatus,
A database that hierarchically codes media content according to at least one of language, category, and media section, and codes and stores sections of the coded media section and sections included in the sentences in synchronization with integrated and split synchronization information, respectively. ;
A user application generator configured to generate a user application associated with the database;
An interface unit interfaced with at least one of a user terminal and a web server; And
In the list of displayed media contents, each sentence included in the caption of the media content requested by the user terminal is marked and divided into a plurality of sections divided according to the division synchronization information, and thus the audio and video corresponding to the marked sections. A control unit for controlling the database, the user application generation unit, and the interface unit such that at least one of them is reproduced in the user terminal,
The media content has at least one of the media sections, wherein the media section is synchronized with each sentence of the sentence, the integrated synchronization information synchronized with the entirety of the sentence, and the respective sections of the sentence. Media content providing device including the division synchronization information.
제8 항에 있어서, 상기 제어부는
상기 사용자 단말로부터 수신한 검색어에 기반하여, 상기 검색어를 포함하는 미디어 컨텐츠를 상기 데이터 베이스 및 상기 웹 서버 중 적어도 하나를 통해 수집하고, 상기 수집된 미디어 컨텐츠에서 상기 검색어를 포함하는 적어도 하나의 미디어 섹션을 추출하고, 상기 추출된 적어도 하나의 미디어 섹션이 상기 자막으로서 상기 사용자 단말에서 디스플레이되도록 상기 데이터 베이스, 상기 사용자 어플리케이션 생성부 및 상기 인터페이스부를 제어하는 미디어 컨텐츠 제공 장치.
The method of claim 8, wherein the control unit
At least one media section that collects media content including the search word through at least one of the database and the web server based on the search word received from the user terminal and includes the search word in the collected media content. Extracting and controlling the database, the user application generating unit, and the interface unit such that the extracted at least one media section is displayed on the user terminal as the caption.
제8 항 또는 제9 항에 있어서, 상기 미디어 컨텐츠 제공 장치는
상기 사용자 단말에 대한 정보, 상기 사용자 단말에서 사용자 자신이 녹음한 음성 및 상기 녹음한 음성과 원래의 음성을 비교한 결과 중 적어도 하나를 저장하는 저장부; 및
상기 사용자 단말이 상기 사용자 어플리케이션을 이용한 대가에 대한 정보를 과금으로서 계산하고 저장하는 과금부를 더 포함하고,
상기 제어부는 상기 녹음한 음성과 상기 원래의 음성을 비교하고, 상기 저장부와 상기 과금부를 제어하는 미디어 컨텐츠 제공 장치.
The apparatus of claim 8 or 9, wherein the media content providing apparatus is
A storage unit for storing at least one of information on the user terminal, a voice recorded by the user in the user terminal, and a result of comparing the recorded voice with the original voice; And
And a charging unit for the user terminal to calculate and store the information on the price using the user application as the charging,
And the control unit compares the recorded voice with the original voice and controls the storage unit and the charging unit.
KR1020120007673A 2012-01-26 2012-01-26 Method and apparatus for providing media contents KR20130089992A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120007673A KR20130089992A (en) 2012-01-26 2012-01-26 Method and apparatus for providing media contents

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120007673A KR20130089992A (en) 2012-01-26 2012-01-26 Method and apparatus for providing media contents

Publications (1)

Publication Number Publication Date
KR20130089992A true KR20130089992A (en) 2013-08-13

Family

ID=49215733

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120007673A KR20130089992A (en) 2012-01-26 2012-01-26 Method and apparatus for providing media contents

Country Status (1)

Country Link
KR (1) KR20130089992A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230031413A (en) 2021-08-27 2023-03-07 (주)일산전자 Artificial intelligence-based biometric signals and image analysis methods for monitoring livestock conditions

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230031413A (en) 2021-08-27 2023-03-07 (주)일산전자 Artificial intelligence-based biometric signals and image analysis methods for monitoring livestock conditions

Similar Documents

Publication Publication Date Title
US10034028B2 (en) Caption and/or metadata synchronization for replay of previously or simultaneously recorded live programs
US10225625B2 (en) Caption extraction and analysis
JP6150405B2 (en) System and method for captioning media
US9576581B2 (en) Metatagging of captions
US8374845B2 (en) Retrieving apparatus, retrieving method, and computer program product
KR101009973B1 (en) Method for providing media contents, and apparatus for the same
US20210272569A1 (en) Voice feedback for user interface of media playback device
US20150098018A1 (en) Techniques for live-writing and editing closed captions
KR20090004990A (en) Internet search-based television
US10692497B1 (en) Synchronized captioning system and methods for synchronizing captioning with scripted live performances
GB2532174A (en) Information processing device, control method therefor, and computer program
JP2008252322A (en) Apparatus and method for summary presentation
KR100451004B1 (en) Apparatus and Method for Database Construction of News Video based on Closed Caption and Method of Content-based Retrieval/Serching It
JP3998187B2 (en) Content commentary data generation device, method and program thereof, and content commentary data presentation device, method and program thereof
KR20130089992A (en) Method and apparatus for providing media contents
KR102414993B1 (en) Method and ststem for providing relevant infromation
KR20140077730A (en) Method of displaying caption based on user preference, and apparatus for perfoming the same
KR20140137219A (en) Method for providing s,e,u-contents by easily, quickly and accurately extracting only wanted part from multimedia file
KR100944958B1 (en) Apparatus and Server for Providing Multimedia Data and Caption Data of Specified Section
JP2004215094A (en) Electronic apparatus and keyword generation device
JP2008020767A (en) Recording and reproducing device and method, program, and recording medium
JP2006195900A (en) Multimedia content generation device and method
WO2006030995A9 (en) Index-based authoring and editing system for video contents
KR20130125930A (en) Learning system using subtitles and method thereof
CN109977239B (en) Information processing method and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application