KR20090054139A - Apparatus and method for sharing multimedia caption in communication terminal - Google Patents

Apparatus and method for sharing multimedia caption in communication terminal Download PDF

Info

Publication number
KR20090054139A
KR20090054139A KR1020070120865A KR20070120865A KR20090054139A KR 20090054139 A KR20090054139 A KR 20090054139A KR 1020070120865 A KR1020070120865 A KR 1020070120865A KR 20070120865 A KR20070120865 A KR 20070120865A KR 20090054139 A KR20090054139 A KR 20090054139A
Authority
KR
South Korea
Prior art keywords
subtitle
multimedia
information
audio
text
Prior art date
Application number
KR1020070120865A
Other languages
Korean (ko)
Inventor
안재민
박상호
송정화
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020070120865A priority Critical patent/KR20090054139A/en
Publication of KR20090054139A publication Critical patent/KR20090054139A/en

Links

Images

Abstract

본 발명은 통신 단말기의 멀티미디어 자막 공유 장치 및 방법에 관한 것으로서, 자막 서버로부터 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하는 과정과, 상기 멀티미디어 자막에 대한 정보를 이용하여, 상기 멀티미디어 자막에 해당하는 텍스트 혹은 이미지 혹은 오디오 데이터를 출력하는 과정을 포함하여, 기존의 텍스트 위주의 자막 형식을 확장하여 다양한 멀티미디어 효과를 손쉽게 표현하고, 이를 다른 사용자와 실시간 또는 비실시간으로 손쉽게 공유할 수 있는 이점이 있다.The present invention relates to an apparatus and method for sharing a multimedia caption in a communication terminal, the method comprising: receiving information on a multimedia caption in one of text, image, and audio form from a caption server, and using the information on the multimedia caption. Including the process of outputting text, image or audio data corresponding to the multimedia subtitles, the existing text-oriented subtitle format is easily extended to express various multimedia effects, and easily share them with other users in real time or non-real time. There is an advantage to this.

단말, 자막, 자막 공유, 멀티미디어 자막, 컨텐츠 Terminal, Subtitles, Subtitle Sharing, Multimedia Subtitles, Contents

Description

통신 단말기의 멀티미디어 자막 공유 장치 및 방법{APPARATUS AND METHOD FOR SHARING MULTIMEDIA CAPTION IN COMMUNICATION TERMINAL}Apparatus and method for sharing multimedia subtitle in communication terminal {APPARATUS AND METHOD FOR SHARING MULTIMEDIA CAPTION IN COMMUNICATION TERMINAL}

본 발명은 통신 단말기에 관한 것으로, 특히 멀티미디어 자막 공유 장치 및 방법에 관한 것이다. The present invention relates to a communication terminal, and more particularly, to an apparatus and method for sharing multimedia subtitles.

인터넷의 도움으로 최근에는 많은 영화나 애니메이션 등을 동영상의 형태로 손쉽게 구할 수 있게 되었다. 특히, DivX 포맷의 개발로 인하여 동영상의 화질, 음질도 이전과는 비교할 수 없을 정도로 향상 되었다. 이로 인해 많은 사람들이 영화나 애니메이션을 동영상을 통해 감상하고 있으며, 또 다른 많은 사람들이 외국 영화나 애니메이션을 번역하여 자막 파일로 제작 및 공개하고 있다.Recently, with the help of the Internet, many movies and animations can be easily obtained in the form of video. In particular, with the development of the DivX format, the video quality and sound quality have improved to a level that is unparalleled. As a result, many people are watching movies or animations through video, and many others are translating foreign films or animations into subtitle files.

상기 자막 파일의 확장자로 sub, sort, 및 smi 등이 있다. 그 중 현재 국내에서 가장 많이 사용되고 있는 smi 자막 파일은 작은 용량과 간단한 제작법으로 인해서 외국어로 된 컨텐츠를 번역하기 위한 용도로 광범위하게 사용되고 있으며, 곰 플레이어 등의 대부분의 동영상 재생기에서 이를 지원한다. 그러나, 상기 확장자가 smi인 자막 파일은 텍스트 형태의 자막만을 지원한다는 한계를 가지고 있으며, 따라서 번역 등의 용도로만 사용되고 있는 문제점이 있다. 또한, 파일 형태의 자막만을 지원하므로 실시간 공유가 불가능한 문제점이 있다. Subtitle files include sub, sort, smi, and the like. Among them, the smi subtitle file which is used most frequently in Korea is widely used for translating foreign language contents due to its small size and simple production method, and is supported by most video players such as the bear player. However, the subtitle file having the extension smi has a limitation that only subtitles in a text form are supported, and thus, the subtitle file has a problem of being used only for translation purposes. In addition, since only subtitles in the form of files are supported, there is a problem that real-time sharing is impossible.

본 발명의 목적은 통신 단말기의 멀티미디어 자막 공유 장치 및 방법을 제공함에 있다.An object of the present invention is to provide an apparatus and method for sharing multimedia subtitles in a communication terminal.

본 발명의 다른 목적은 통신 단말기에서 기존의 텍스트 위주의 자막 형식을 확장하여 다양한 멀티미디어 효과를 손쉽게 표현하고, 이를 다른 사용자와 실시간 또는 비실시간으로 손쉽게 공유하기 위한 장치 및 방법을 제공함에 있다. Another object of the present invention is to provide an apparatus and method for easily expressing various multimedia effects by extending the existing text-based subtitle format in a communication terminal and easily sharing them with other users in real time or non-real time.

상기 목적을 달성하기 위해 본 발명의 실시 예에 따르면, 통신 단말기의 멀티미디어 자막 공유 방법은, 자막 서버로부터 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하는 과정과, 상기 멀티미디어 자막에 대한 정보를 이용하여, 상기 멀티미디어 자막에 해당하는 텍스트 혹은 이미지 혹은 오디오 데이터를 출력하는 과정을 포함하는 것을 특징으로 한다. According to an embodiment of the present invention to achieve the above object, a method for sharing a multimedia subtitle of a communication terminal, the process of receiving information on the multimedia subtitle of one of the form of text, image, audio from the subtitle server, and the multimedia And outputting text, an image, or audio data corresponding to the multimedia caption using information on the caption.

상기 목적을 달성하기 위해 본 발명의 실시 예에 따르면, 통신 단말기의 멀티미디어 자막 공유 장치는, 자막 서버로부터 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하고, 상기 멀티미디어 자막에 대한 정보를 이용하여, 상기 멀티미디어 자막에 해당하는 텍스트 혹은 이미지 혹은 오디오 데이터를 제공하는 제어부와, 상기 제어부의 제공에 따라 텍스트 혹은 이미지 혹은 오디오 데이터를 출력하는 표시부 혹은 스피커를 포함하는 것을 특징으로 한다. In order to achieve the above object, according to an embodiment of the present invention, a multimedia subtitle sharing apparatus of a communication terminal receives information on a multimedia subtitle of one of text, image, and audio form from a subtitle server, And a control unit for providing text, image or audio data corresponding to the multimedia subtitles using the information about the multimedia caption, and a display unit or a speaker for outputting text, image or audio data according to the provision of the control unit.

상기 목적을 달성하기 위해 본 발명의 실시 예에 따르면, 자막 서버의 멀티미디어 자막 공유 방법은, 단말로부터 특정 컨텐츠의, 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하는 과정과, 상기 수신된 멀티미디어 자막에 대한 정보를 동일 컨텐츠를 이용하는 사용자에게 실시간 전송하는 과정을 포함하는 것을 특징으로 한다. According to an embodiment of the present invention to achieve the above object, the method for sharing a multimedia subtitle of the caption server, the process of receiving information on the multimedia subtitle of one of the form of text, image, audio of the specific content from the terminal; And transmitting the information on the received multimedia subtitles to a user using the same content in real time.

상기 목적을 달성하기 위해 본 발명의 실시 예에 따르면, 멀티미디어 자막 공유 장치는, 사용자에 의해 특정 컨텐츠에 대한 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막이 입력될 시, 상기 멀티미디어 자막에 대한 정보를 자막 서버로 전송하는 단말과, 상기 단말로부터의 멀티미디어 자막에 대한 정보를 동일 컨텐츠를 이용하는 사용자에게 실시간 전송하는 상기 자막 서버를 포함하는 것을 특징으로 한다. According to an embodiment of the present invention, in order to achieve the above object, the multimedia subtitle sharing apparatus, when a multimedia subtitle of one type of text, image, audio for the specific content is input by the user, And a caption server for transmitting information to the caption server in real time and the caption server for transmitting in real time information about multimedia captions from the terminal to a user using the same content.

본 발명은 통신 단말기의 멀티미디어 자막 공유 장치 및 방법을 제공함으로써, 기존의 텍스트 위주의 자막 형식을 확장하여 다양한 멀티미디어 효과를 손쉽게 표현하고, 이를 다른 사용자와 실시간 또는 비실시간으로 손쉽게 공유할 수 있는 이점이 있다. 이와 같이 자막에 다양한 멀티미디어 효과를 추가함으로써, 상기 자막은 단순한 번역 수단을 넘어서 컨텐츠를 확장하는 새로운 수단이 될 수 있다. 또한, 이렇게 패러다임이 변화하게 되면 기존에 수동적인 형태로 컨텐츠를 소비하던 많은 사용자들이 자막을 이용한 컨텐츠의 재생산에 자연스럽게 참여할 수 있게 되어, UCC 등 광범위한 분야에 활용될 수 있다. 특히, 본 발명에 따른 멀티미디어 자막은 간단한 태그로 이루어진 텍스트 형태의 자막으로써, 저성능의 모바일 기기 등에서도 손쉽게 저작 및 공유가 가능한 이점이 있다. The present invention provides an apparatus and method for sharing a multimedia subtitle of a communication terminal, thereby extending the existing text-based subtitle format to easily express various multimedia effects, and share the same with other users in real time or in real time. have. By adding various multimedia effects to the subtitles as described above, the subtitles can be a new means of extending the content beyond the simple translation means. In addition, when the paradigm is changed, many users who have previously consumed content in a passive form can naturally participate in reproduction of content using subtitles, and can be utilized in a wide range of fields such as UCC. In particular, the multimedia subtitle according to the present invention is a subtitle in the form of a text consisting of a simple tag, there is an advantage that can be easily authored and shared even in a low-performance mobile device.

또한, 멀티미디어 자막의 실시간/비실시간 공유 기능은 기존의 온라인 컨텐츠 업체에서 제공하는 실시간 채팅 기능을 대체할 경우, 사용자간 좀 더 효과적이고 화려한 커뮤니케이션을 가능하게 한다. 인터넷 서비스도 초기 단계에는 텍스트 위주로 진행되다가 현재 화려하게 발전하고 있고, 음성통화 서비스도 점차 화상통화 서비스로 발전하고 있는 현재 추세로 볼 때, 함께 컨텐츠를 즐기는 사용자 간의 커뮤니케이션도 텍스트에서 점차 본 발명에서 제안하는 멀티미디어 커뮤니케이션으로 진화할 것으로 기대한다. 특히, 본 발명의 멀티미디어 자막은 간단한 태그로 이루어진 텍스트 형태의 자막이므로, 기존의 텍스트 기반 채팅 시스템의 전송 기술 및 인프라를 그대로 사용할 수 있어, 손쉽게 적용할 수 있는 이점이 있다. In addition, the real-time and non-real-time sharing of multimedia subtitles enables more effective and colorful communication between users when it replaces the real-time chat function provided by existing online contents companies. In the early stages of the Internet service, the text-oriented process proceeds in a flashy fashion, and the voice call service is gradually developed into a video call service. As a result, communication between users who enjoy content together is gradually proposed in the present invention. It is expected to evolve into multimedia communication. In particular, since the multimedia subtitle of the present invention is a subtitle in the form of a text consisting of a simple tag, the transmission technology and infrastructure of the existing text-based chat system can be used as it is, and there is an advantage that it can be easily applied.

이하 본 발명의 바람직한 실시 예를 첨부된 도면의 참조와 함께 상세히 설명한다. 그리고, 본 발명을 설명함에 있어서, 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우, 그 상세한 설명은 생략한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description of the present invention, when it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

이하, 본 발명은 통신 단말기의 멀티미디어 자막 공유 장치 및 방법에 대해 설명하기로 한다. 이하 설명에서 '자막'은 텍스트 혹은 이미지 혹은 오디오 형식의 자막을 모두 포함하는 의미의 멀티미디어 자막이다. Hereinafter, an apparatus and method for sharing multimedia subtitles of a communication terminal will be described. In the following description, a subtitle is a multimedia subtitle that includes all subtitles in text, image, or audio format.

도 1은 본 발명에 따른 네트워크의 구성을 도시한 도면이다. 1 is a diagram showing the configuration of a network according to the present invention.

상기 도 1을 참조하면, 본 발명은 다수의 사용자 간 비디오 컨텐츠에 기반한 자막 데이터를 공유하는 네트워크를 제공한다. 상기 네트워크는 다수의 단말(110)들과 자막 서버(100)를 포함하여 구성되며, 실시간 자막 스트리밍과 자막 파일 다운로드를 모두 지원한다. Referring to FIG. 1, the present invention provides a network for sharing caption data based on video content among a plurality of users. The network includes a plurality of terminals 110 and a subtitle server 100 and supports both real-time subtitle streaming and subtitle file download.

여기서, 단말(110)의 사용자는 컨텐츠에 대해 새로운 자막을 입력할 수 있으며, 상기 입력된 자막에 대한 정보를 자막 서버(100)를 통해 동일한 컨텐츠를 이용하는 사용자의 단말(110)에게 실시간으로 전송할 수 있다. 이때, 상기 자막 서버(100)는 상기 자막 정보를 이용하여 자막 파일을 생성할 수 있으며, 상기 생성된 자막 파일로 자막 파일 데이터베이스에 저장된 상기 컨텐츠에 대한 자막 파일을 업데이트한 후, 다른 사용자가 해당 컨텐츠에 대한 자막의 다운로드를 요청하면, 상기 자막 파일 데이터베이스에서 해당 자막 파일을 검색 및 추출하여 해당 사용자의 단말(110)로 전송할 수 있다. Here, the user of the terminal 110 may input a new subtitle for the content, and transmit the information about the input subtitle to the terminal 110 of the user using the same content through the subtitle server 100 in real time. have. In this case, the subtitle server 100 may generate a subtitle file by using the subtitle information, and after updating the subtitle file for the content stored in the subtitle file database with the generated subtitle file, another user corresponding content When the subtitle is requested to download, the subtitle file may be searched for and extracted from the subtitle file database and transmitted to the terminal 110 of the corresponding user.

여기서, 상기 단말(110)의 멀티미디어 자막 입력 방법은, 사용자의 키 조작에 따른 메뉴 선택을 통해서 입력될 수도 있고, 간단한 태그(tag)에 기반한 텍스트 형태로 입력될 수도 있다. 이때, 상기 멀티미디어 자막은 사전에 정의된 이미지 또 는 오디오일 수 있고, 특정 URI에 링크된 이미지 또는 오디오일 수도 있다. 이로써, 사용자는 각종 음성 효과 및 도형 등을 비디오 컨텐츠에 손쉽게 오버레이 할 수 있게 된다. Here, the method for inputting the multimedia subtitle of the terminal 110 may be input through a menu selection according to a user's key manipulation, or may be input in a text form based on a simple tag. In this case, the multimedia subtitle may be a predefined image or audio, or may be an image or audio linked to a specific URI. As a result, the user can easily overlay various voice effects and figures on the video content.

도 2는 본 발명에 따른 통신 단말기의 구성을 도시한 블록도이다.2 is a block diagram showing the configuration of a communication terminal according to the present invention.

도시된 바와 같이, 통신 단말기는 제어부(201), 저장부(202), 코덱(203), 입력부(206), 표시부(207), 통신부(208)를 포함하여 구성된다. As shown, the communication terminal includes a control unit 201, a storage unit 202, a codec 203, an input unit 206, a display unit 207, and a communication unit 208.

상기 도 2를 참조하면, 상기 제어부(201)는 상기 통신 단말기의 전반적인 동작을 위한 제어 및 처리를 수행하며, 특히 본 발명에 따라 확장된 형식의 멀티미디어 자막 기능과 자막 서버를 통한 자막 공유 기능을 처리한다. 즉, 사용자에 의해 컨텐츠에 대한 새로운 멀티미디어 자막이 입력될 시, 상기 입력된 자막에 대한 정보를 자막 서버로 전송하며, 상기 자막 서버로부터 자막 파일 혹은 실시간 자막 정보가 수신될 시, 해당 컨텐츠에 대한 멀티미디어 자막을 출력하는 기능을 처리한다. 상기 저장부(202)는 상기 통신 단말기의 전반적인 동작에 필요한 프로그램 및 각종 정보들을 저장하며, 특히 자막 서버로부터 수신된 자막 파일 혹은 자막 정보를 저장한다. Referring to FIG. 2, the control unit 201 performs control and processing for the overall operation of the communication terminal, and in particular, the multimedia subtitle function of the expanded format and the subtitle sharing function through the subtitle server according to the present invention. do. That is, when a new multimedia subtitle for the content is input by the user, the information about the input subtitle is transmitted to the subtitle server, and when the subtitle file or real time subtitle information is received from the subtitle server, the multimedia for the corresponding content is received. Handles the subtitle output function. The storage unit 202 stores programs and various information necessary for the overall operation of the communication terminal, and in particular, a subtitle file or subtitle information received from a subtitle server.

상기 제어부(201)에 연결된 코덱(Coder-Decoder : CODEC)(203)과, 상기 코덱(203)에 접속된 스피커(205) 및 마이크(204)는 전화 통신 및 음성 녹음에 사용되는 음성 입출력 블록이다. 상기 코덱(203)은 상기 제어부(201)에서 제공되는 디지털데이터를 아날로그 음성신호로 변환하여 상기 스피커(205)를 통해 송출하고, 상기 마이크(204)를 통해 수신되는 음성신호를 디지털데이터로 변환하여 상기 제어부(201)로 제공한다. A coder-coder 203 connected to the control unit 201 and a speaker 205 and a microphone 204 connected to the codec 203 are voice input / output blocks used for telephony communication and voice recording. . The codec 203 converts the digital data provided from the control unit 201 into an analog voice signal, transmits the same through the speaker 205, and converts the voice signal received through the microphone 204 into digital data. The control unit 201 is provided.

상기 입력부(206)는 다수의 기능키들을 구비하여 사용자가 누르는 키에 대응하는 데이터를 상기 제어부(201)로 제공한다. 상기 표시부(207)는 상기 통신 단말기의 동작 중에 발생되는 상태 정보, 숫자 및 문자, 이미지들을 디스플레이한다. 상기 통신부(208)는 안테나를 통해 송수신되는 신호를 처리하는 역할을 수행한다. The input unit 206 is provided with a plurality of function keys to provide the control unit 201 with data corresponding to a key pressed by the user. The display unit 207 displays state information, numbers, letters, and images generated during the operation of the communication terminal. The communication unit 208 processes a signal transmitted and received through an antenna.

도 3은 본 발명에 따른 통신 단말기의 멀티미디어 자막 출력 방법을 도시한 예시도이다.3 is an exemplary view showing a multimedia subtitle output method of a communication terminal according to the present invention.

상기 도 3을 참조하면, 단말은 기존의 smi 기반의 대부분의 재생기에서 일부 영역만을 이용하여 텍스트 오버레이를 지원한 것에 반해서, 전체 비디오 영역을 오버레이 영역으로 설정해서 화면(300) 어디에든 오버레이 이미지 및 텍스트를 표시할 수 있다. 또한, 상기 단말은 자막 파일(.smi)(320) 형태 뿐만 아니라, 자막 서버(330)로부터 실시간으로 자막 정보를 스트리밍 받아서 이를 동영상 파일(.avi)(310)과 함께 표시하는 것도 가능하다.Referring to FIG. 3, the terminal supports text overlay using only a partial area in most existing Smi-based players, whereas the entire video area is set as an overlay area to overlay images and text anywhere on the screen 300. Can be displayed. In addition, the terminal may receive the subtitle information in real time from the subtitle server 330 in addition to the subtitle file (.smi) 320 form and display it together with the video file (.avi) 310.

도 4는 본 발명의 실시 예에 따른 자막 서버의 멀티미디어 자막 공유 방법의 절차를 도시한 흐름도이다.4 is a flowchart illustrating a procedure of a method for sharing multimedia captions in a caption server according to an exemplary embodiment of the present invention.

상기 도 4를 참조하면, 자막 서버(100)는 401단계에서 사용자로부터 컨텐츠에 대한 자막 정보가 수신되는지 여부를 검사한다. 사용자는 컨텐츠에 대해 새로운 자막을 입력할 수 있으며, 이에 따라 단말(110)은 상기 입력된 자막에 대한 정보를 상기 자막 서버(100)로 전송할 수 있다. Referring to FIG. 4, the caption server 100 checks whether caption information on content is received from the user in step 401. The user may input a new subtitle for the content, and thus the terminal 110 may transmit the information about the input subtitle to the subtitle server 100.

여기서, 본 발명에서 제안하는 자막 정보는 멀티미디어 자막을 지원하기 위해 하기 <표 1>과 같이 확장된 형태를 가진다. 즉, 텍스트 형태의 자막만이 아닌 오디오, 이미지 형태의 자막을 모두 표현할 수 있도록 확장된 형태를 가진다. Here, the caption information proposed in the present invention has an extended form as shown in Table 1 to support multimedia captions. That is, it has an extended form to express not only subtitles in text form but also audio and image subtitles.

태그tag 설명Explanation Show Show 표시 시작 시간Display start time Hide Hide 표시 종료 시간Mark end time Text Text 표시될 텍스트Text to be displayed Type Type 미디어 형식 - 텍스트(기본값) - 오디오 - 이미지Media Format-Text (Default)-Audio-Image Data Data 미디어 데이터 기정의된 데이터 : 오디오 (박수/환호/야유) : 이미지 (원/타원/직사각형/별/풍선) 또는 해당 자원에 대한 링크 : 오디오 또는 이미지 파일 URIMedia data Predefined data: Audio (applause / cheer / boo): Image (circle / ellipse / rectangular / star / balloon) or link to the resource: Audio or image file URI PositionPosition 표시될 위치Location to be displayed Size Size 표시될 크기Size to be displayed ColorColor 표시될 색상Color to be displayed FromFrom 해당 자막 제공자The subtitle provider LocationLocation 해당 자막 제공자의 위치Location of the subtitle provider

여기서, 상기 show, hide, text 항목은 기존의 자막 정보에 존재하는 항목이고, 나머지 항목은 본 발명에 따라 새롭게 추가된 항목이다. 상기 show 항목은 자막의 표시 시작 시간을 나타내고, 상기 hide 항목은 자막의 표시 종료 시간을 나타내며, 상기 text 항목은 자막의 형식이 텍스트일 경우, 표시될 텍스트를 나타낸다. Here, the show, hide, and text items are items existing in the existing subtitle information, and the remaining items are newly added items according to the present invention. The show item indicates the display start time of the subtitle, the hide item indicates the display end time of the subtitle, and the text item indicates the text to be displayed when the subtitle format is text.

상기 Type 항목은 자막의 미디어(Media) 형식을 나타내고, 상기 미디어 형식에는 텍스트(Text), 오디오(Audio), 이미지(Image) 등이 있으며, 상기 Type 항목이 설정되어 있지 않을 경우 기본값인 텍스트로 처리한다.The Type item represents a media type of subtitles, and the media type includes text, audio, and image, and if the Type item is not set, it is treated as text, which is a default value. do.

상기 Data 항목은 상기 미디어 형식에 따라 필요한 추가적인 항목으로 미디어 데이터를 나타낸다. 여기서, 상기 미디어 데이터가 사전에 정의된 오디오 혹은 이미지일 경우, 상기 Data 항목에는 사전에 정의된 오디오 혹은 이미지 식별자가 포함되고, 상기 사전에 정의된 오디오 혹은 이미지 식별자를 수신한 단말은 해당 오디오 혹은 이미지를 출력한다. 상기 미디어 데이터가 특정 URI(Uniform Resource Identifier)에 링크되어 있는 자원인 경우, 상기 Data 항목에는 해당 자원에 대한 URI가 포함되며, 상기 URI를 수신한 단말은 상기 URI에서 해당 자원 즉 오디오 혹은 이미지를 다운로드하여 출력한다. 예를 들어, 사전에 정의된 오디오에는 박수/환호/야유 등이 있을 수 있으며, 사전에 정의된 이미지에는 원/타원/직사각형/별/풍선 등의 도형 등이 있을 수 있다. 이와 같이, 박수/환호/야유 등의 미디어 데이터를 활용하면, 사용자는 온라인 스포츠 중계 컨텐츠를 마치 실제 경기장에 있는 것처럼 생생하게 즐길 수 있게 된다. 또한, 그룹 스터디 등에서도 다양한 이미지 효과를 활용해서 서로 실시간으로 의견을 교환할 수 있으며, 상기 자막 정보를 자막 파일로 생성 및 저장하여 다른 사용자에게 공유하거나 향후 다시 컨텐츠를 볼 때 함께 보는 것이 가능하게 된다.The Data item represents media data as an additional item required according to the media type. Here, when the media data is a predefined audio or image, the Data item includes a predefined audio or image identifier, and the terminal receiving the predefined audio or image identifier is the corresponding audio or image. Outputs When the media data is a resource linked to a specific Uniform Resource Identifier (URI), the Data item includes a URI for the resource, and the terminal receiving the URI downloads the resource, that is, an audio or image from the URI. To print. For example, the predefined audio may include clapping, cheering, booing, and the like, and the predefined image may include shapes such as circles, ellipses, rectangles, stars, and balloons. As such, utilizing media data such as applause, cheering and booing, the user can enjoy the online sports relay content vividly as if they are in a real stadium. In addition, group studies, etc. can be used to exchange opinions in real time using various image effects, and the subtitle information can be generated and stored as subtitle files to be shared with other users or viewed together in the future. .

상기 Position 항목은 해당 자막이 표시될 위치를 나타낸다. 기존의 재생기에서도 자막이 표시될 위치를 조절할 수는 있으나, 이는 전체 자막에 대해서 적용되어 모든 자막이 동일한 위치에 표시된다. 반면, 본 발명에서는 상기 Position 항목을 활용하여 각각의 자막을 원하는 위치에 표시하는 기능을 제공한다.The Position item indicates a position where the corresponding subtitle is to be displayed. It is possible to adjust the position where the subtitle is displayed in the existing player, but this is applied to all subtitles so that all subtitles are displayed at the same position. On the other hand, the present invention provides a function of displaying each subtitle at a desired position by utilizing the Position item.

상기 Size 항목은 표시되는 자막의 크기를 나타내고, 상기 Color 항목은 표시되는 자막의 색상을 나타낸다. 즉, 각종 이미지 및 텍스트는 상기 Size 항목 및 Color 항목에 따른 크기와 색상으로 화면에 표시된다. The Size item indicates the size of the subtitle to be displayed, and the Color item indicates the color of the subtitle to be displayed. That is, various images and texts are displayed on the screen in sizes and colors according to the Size item and Color item.

상기 From 항목은 해당 자막의 제공자에 대한 정보를 나타낸다. 본 발명에서 제안하는 자막은 여러 사용자가 함께 만들어가는 자막의 개념으로, 상기 정보를 해당 자막의 제공자와의 커뮤니케이션에 활용하거나, 특정 사용자가 올린 자막을 필터링(filtering) 하는 등의 용도로 활용할 수 있다.The From item represents information about the provider of the subtitle. The subtitle proposed by the present invention is a concept of a subtitle created by several users, and the information may be used for communication with a provider of the subtitle, or for filtering a subtitle posted by a specific user. .

상기 Location 항목은 해당 자막의 제공자의 위치 정보를 나타내며, 상기 위치 정보로서 GPS 데이터가 활용될 수 있다. 상기 정보를 이용하면 자막 제공자의 위치에 따라 자막의 출력 위치를 제어하는 것이 가능하여, 스포츠 컨텐츠 등을 감상할 때 보다 실감나는 효과를 줄 수 있다.The Location item represents location information of a provider of a corresponding subtitle, and GPS data may be used as the location information. By using the information, it is possible to control the output position of the subtitle according to the position of the subtitle provider, which can give a more realistic effect when watching sports content.

사용자로부터 컨텐츠에 대한 자막 정보가 수신될 시, 상기 자막 서버(100)는 403단계에서 동일 컨텐츠를 이용하는 사용자들에게 상기 수신된 자막 정보를 실시간으로 전송한다. 또한, 상기 자막 서버(100)는 405단계에서 상기 수신된 자막 정보를 이용하여 자막 파일을 생성하고, 상기 생성된 자막 파일로 자막 파일 데이터베이스에 저장된 상기 컨텐츠에 대한 자막 파일을 업데이트한다. When caption information on content is received from a user, the caption server 100 transmits the received caption information in real time to users who use the same content in step 403. In operation 405, the subtitle server 100 generates a subtitle file using the received subtitle information, and updates the subtitle file for the content stored in the subtitle file database with the generated subtitle file.

이후, 상기 자막 서버(100)는 407단계에서 다른 사용자로부터 해당 컨텐츠에 대한 자막 다운로드 요청이 수신되는지 여부를 검사한다. 상기 자막 다운로드 요청이 수신될 시, 상기 자막 서버(100)는 409단계에서 상기 자막 파일 데이터베이스에서 상기 컨텐츠에 대한 자막 파일을 검색 및 추출하여 해당 사용자에게 전송한다. In step 407, the subtitle server 100 checks whether a subtitle download request for the corresponding content is received from another user. When the subtitle download request is received, the subtitle server 100 searches for and extracts a subtitle file for the content from the subtitle file database in step 409 and transmits the subtitle file to the corresponding user.

이후, 상기 자막 서버(100)는 본 발명에 따른 알고리즘을 종료한다. Subsequently, the subtitle server 100 ends the algorithm according to the present invention.

도 5는 본 발명의 실시 예에 따른 통신 단말기의 멀티미디어 자막 출력 방법의 절차를 도시한 흐름도이다.5 is a flowchart illustrating a procedure of a method for outputting a multimedia subtitle of a communication terminal according to an exemplary embodiment of the present invention.

상기 도 5를 참조하면, 단말(110)은 501단계에서 컨텐츠에 대한 자막 정보가 존재하는지 여부를 검사한다. 상기 단말(110)은 자막 서버(100)로 요청하여 컨텐츠에 대한 자막 파일을 다운로드 받을 수 있고, 상기 자막 서버(100)로부터 컨텐츠에 대한 자막 정보를 실시간 수신할 수도 있다. Referring to FIG. 5, in step 501, the terminal 110 checks whether caption information for content exists. The terminal 110 may request the caption server 100 to download the caption file for the content and may receive caption information about the content from the caption server 100 in real time.

상기 자막 정보가 존재할 시, 상기 단말(110)은 503단계에서 상기 자막 정보를 이용하여 해당 자막의 제공자가 허용된 자막 제공자인지 여부를 검사한다. 여기서, 상기 허용된 자막 제공자인지 여부는 상기 <표 1>의 From 항목을 확인하여 검사할 수 있다. 만일, 상기 단말(110)의 사용자가 상기 자막 제공자를 차단(disable) 시켜놓은 경우, 즉 상기 자막의 제공자가 허용된 자막 제공자가 아닐 경우, 상기 단말(110)은 해당 자막을 무시하고 상기 501단계로 돌아가 이하 단계를 반복 수행한다. 이는 스포일러 또는 스팸 방지를 위해 유용하게 활용될 수 있다. When the subtitle information exists, the terminal 110 checks whether the provider of the subtitle is an allowed subtitle provider using the subtitle information in step 503. Here, whether or not the permitted subtitle provider is checked may be checked by checking the From item of Table 1. If the user of the terminal 110 has disabled the subtitle provider, that is, if the provider of the subtitle is not a permitted subtitle provider, the terminal 110 ignores the subtitle and proceeds to step 501. Go back and repeat the steps below. This can be useful for preventing spoilers or spam.

반면, 상기 자막의 제공자가 허용된 자막 제공자일 경우, 상기 단말(110)은 505단계에서 해당 자막의 미디어 형식이 텍스트인지 여부를 검사한다. 여기서, 상기 미디어 형식이 텍스트인지 여부는 상기 <표 1>의 Type 항목을 확인하여 검사할 수 있다. 만일, 상기 자막의 미디어 형식이 텍스트일 경우, 상기 단말(110)은 507단계에서 해당 텍스트를 표시부(207)에 출력한다. On the other hand, if the provider of the subtitle is the permitted subtitle provider, the terminal 110 checks whether the media format of the subtitle is text in step 505. Here, whether the media type is text can be checked by checking the Type item of Table 1 below. If the media format of the subtitle is text, the terminal 110 outputs the corresponding text to the display unit 207 in step 507.

반면, 상기 자막의 미디어 형식이 텍스트가 아닐 경우, 상기 단말(110)은 상기 자막의 미디어 형식이 오디오 혹은 이미지임을 판단하고, 509단계로 진행하여 해당 미디어 데이터가 기 정의된(predefined) 데이터인지 여부를 검사한다. 여기서, 상기 미디어 데이터가 기 정의된 데이터인지 여부는 상기 <표 1>의 Data 항목을 확인하여 검사할 수 있다. 만일, 해당 미디어 데이터가 기 정의된 데이터일 경우, 상기 단말(110)은 511단계에서 해당 미디어 데이터가 오디오인지 여부를 검사하며, 오디오가 아닐 경우, 513단계에서 기 정의된 이미지를 상기 표시부(207)에 출력하고, 오디오일 경우, 515단계에서 기 정의된 오디오를 상기 표시부(207)에 출력한다. On the other hand, if the media format of the caption is not text, the terminal 110 determines that the media format of the caption is audio or an image, and proceeds to step 509 to determine whether the media data is predefined data. Check it. In this case, whether the media data is predefined data may be checked by checking the Data item of the <Table 1>. If the media data is predefined data, the terminal 110 checks whether the media data is audio in step 511. If the media data is not audio, the display unit 207 displays the image defined in step 513. In the case of audio, the audio, which is predefined in operation 515, is output to the display unit 207.

반면, 해당 미디어 데이터가 기 정의된 데이터가 아닐 경우, 상기 단말(110)은 해당 미디어 데이터가 링크된 데이터임을 판단하고, 517단계에서 해당 미디어 데이터가 오디오인지 여부를 검사한다. 만일, 오디오일 경우, 상기 단말(110)은 519단계에서 해당 URI에서 자원을 다운로드하여 링크된 오디오를 상기 표시부(207)에 출력하고, 오디오가 아닐 경우, 521단계에서 해당 URI에서 자원을 다운로드하여 링크된 이미지를 상기 표시부(207)에 출력한다. On the other hand, if the media data is not predefined data, the terminal 110 determines that the media data is linked data, and in step 517 determines whether the media data is audio. In the case of audio, the terminal 110 downloads the resource from the URI in step 519 and outputs the linked audio to the display unit 207. If not, in step 521, the terminal 110 downloads the resource from the URI. The linked image is output to the display unit 207.

여기서, 상기 텍스트, 오디오, 이미지는 나머지 정보(즉, 상기 <표 1>의 Show, Hide, Position, Size, Color, Location 항목 등)를 이용하여 상기 표시부(207)에 출력된다. 즉, 해당 표시 시간 동안 해당 위치에 해당 크기와 색상으로 해당 텍스트, 오디오, 이미지를 출력한다. 만약, 상기 <표 1>의 Position 항목이 설정되어 있다면, 상기 단말(110)은 해당 텍스트, 이미지, 오디오를 해당 위치에 출력하고, 상기 Position 항목이 설정되지 않고 Location 항목이 설정되어 있다면, 상기 단말(110)은 사용자의 현재 위치 정보와 상기 Location 항목의 위치 정보를 비교하여 표시할 위치를 결정할 수 있다. Here, the text, audio, and image are output to the display unit 207 using the remaining information (ie, items of Show, Hide, Position, Size, Color, Location, etc. of Table 1). That is, the corresponding text, audio, and image are output in the corresponding size and color at the corresponding position during the corresponding display time. If the Position item of Table 1 is set, the terminal 110 outputs the corresponding text, image, and audio at the corresponding location, and if the Position item is not set and the Location item is set, the terminal is set. 110 may determine a location to display by comparing the current location information of the user with the location information of the Location item.

이후, 상기 단말(110)은 본 발명에 따른 알고리즘을 종료한다. Thereafter, the terminal 110 terminates the algorithm according to the present invention.

한편, 본 발명에 따른 실시 예는 확장된 형식의 멀티미디어 자막 기능과, 자막 서버를 통한 자막 공유 기능을 모두 포함하고 있으나, 상기 자막 공유 기능을 제외하고 상기 확장된 형식의 멀티미디어 자막 기능만을 이용하는 것도 가능하다. 이 경우, 기존과 마찬가지로 자막 정보는 자막 파일 형태로 저장되며 실시간 온라인 공유 이외의 모든 기능은 기존과 동일하다.On the other hand, the embodiment according to the present invention includes both an extended form of a multimedia subtitle function and a subtitle sharing function through a subtitle server, but it is also possible to use only the extended form of the multimedia subtitle function except for the subtitle sharing function. Do. In this case, the subtitle information is stored in the form of a subtitle file as before, and all functions other than real-time online sharing are the same as before.

또한, 상기 자막 서버를 경유하지 않고 사용자 간에 P2P 네트워크를 구성하여 실시간 자막 공유 기능을 이용하는 것도 가능하다. 이 경우에도 전체적인 구조는 변함이 없으며, 단말 간의 자막 데이터 전송이 P2P 방식의 메신저의 메시지 전송 방식과 유사하게 이루어진다.In addition, it is also possible to use a real-time subtitle sharing function by configuring a P2P network between users without passing through the subtitle server. Even in this case, the overall structure is not changed, and the caption data transmission between the terminals is similar to that of the message transmission method of the P2P messenger.

또한, 본 발명에서 예시한 오디오(박수/환호/야유)/이미지(원/타원/직사각형/별/풍선) 등의 기정의된 효과 이외에도 다양한 효과의 추가가 가능하다.In addition, various effects may be added in addition to the predefined effects such as audio (applause / cheer / boo) / image (circle / ellipse / rectangular / star / balloon) illustrated in the present invention.

한편 본 발명의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.

도 1은 본 발명에 따른 네트워크의 구성을 도시한 도면,1 is a diagram showing the configuration of a network according to the present invention;

도 2는 본 발명에 따른 통신 단말기의 구성을 도시한 블록도,2 is a block diagram showing the configuration of a communication terminal according to the present invention;

도 3은 본 발명에 따른 통신 단말기의 멀티미디어 자막 출력 방법을 도시한 예시도,3 is an exemplary view showing a multimedia subtitle output method of a communication terminal according to the present invention;

도 4는 본 발명의 실시 예에 따른 자막 서버의 멀티미디어 자막 공유 방법의 절차를 도시한 흐름도, 및4 is a flowchart illustrating a procedure of a method for sharing multimedia captions in a caption server according to an embodiment of the present invention;

도 5는 본 발명의 실시 예에 따른 통신 단말기의 멀티미디어 자막 출력 방법의 절차를 도시한 흐름도.5 is a flowchart illustrating a procedure of a method for outputting a multimedia subtitle of a communication terminal according to an exemplary embodiment of the present invention.

Claims (25)

통신 단말기의 멀티미디어 자막 공유 방법에 있어서,In the multimedia subtitle sharing method of the communication terminal, 자막 서버로부터 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하는 과정과, Receiving information about multimedia subtitles in one of text, image, and audio form from the subtitle server; 상기 멀티미디어 자막에 대한 정보를 이용하여, 상기 멀티미디어 자막에 해당하는 텍스트 혹은 이미지 혹은 오디오 데이터를 출력하는 과정을 포함하는 것을 특징으로 하는 방법. And outputting text, an image, or audio data corresponding to the multimedia subtitle by using the information on the multimedia subtitle. 제 1 항에 있어서, The method of claim 1, 상기 멀티미디어 자막에 대한 정보는 상기 자막 서버로부터 실시간 수신되거나 혹은 상기 단말의 요청에 따라 상기 자막 서버로부터 정보 파일 형태로 수신되는 것을 특징으로 하는 방법. The information on the multimedia caption is received in real time from the caption server or in the form of an information file from the caption server at the request of the terminal. 제 1 항에 있어서, The method of claim 1, 상기 멀티미디어 자막에 대한 정보는 해당 자막의 표시 시작 시간, 표시 종료 시간, 표시될 텍스트, 미디어 형식, 미디어 데이터, 표시될 위치, 표시될 크기, 표시될 색상, 해당 자막 제공자, 해당 자막 제공자의 위치 중 적어도 하나의 정보 를 포함하는 것을 특징으로 하는 방법. The information on the multimedia subtitles may include information about a display start time, display end time, text to be displayed, media format, media data, location to be displayed, size to be displayed, color to be displayed, a corresponding subtitle provider, and a location of the subtitle provider. At least one information. 제 3 항에 있어서, The method of claim 3, wherein 상기 미디어 형식은 텍스트 형식, 오디오 형식, 이미지 형식 중 하나를 포함하고, 상기 텍스트 형식을 기본 값으로 하는 것을 특징으로 하는 방법. Wherein the media format includes one of a text format, an audio format, and an image format, and defaults to the text format. 제 3 항에 있어서, The method of claim 3, wherein 상기 미디어 데이터는 기 정의된 오디오 혹은 이미지 데이터의 식별자, 또는 해당 오디오 혹은 이미지 데이터가 링크된 URI(Uniform Resource Identifier)를 포함하는 것을 특징으로 하는 방법. The media data may include an identifier of predefined audio or image data, or a Uniform Resource Identifier (URI) to which the audio or image data is linked. 제 5 항에 있어서, 상기 출력하는 과정은, The method of claim 5, wherein the outputting process, 상기 멀티미디어 자막이 기 정의된 오디오 혹은 이미지 데이터일 경우, 기 정의된 오디오 혹은 이미지 데이터를 출력하고, 상기 멀티미디어 자막에 대한 데이터가 특정 URI(Uniform Resource Identifier)에 링크된 자원인 경우, 해당 URI에서 자원을 다운로드하여 해당 오디오 혹은 이미지 데이터를 출력하는 과정임을 특징으로 하는 방법.If the multimedia subtitle is predefined audio or image data, output the predefined audio or image data, and if the data for the multimedia subtitle is a resource linked to a specific URI (Uniform Resource Identifier), the resource in the URI And downloading the audio or image data. 제 3 항에 있어서, The method of claim 3, wherein 상기 멀티미디어 자막의 제공자가 사용자에 의해 허용된 자막 제공자가 아닐 경우, 상기 멀티미디어 자막을 무시하는 과정을 더 포함하는 것을 특징으로 하는 방법. And if the provider of the multimedia subtitle is not a subtitle provider permitted by the user, ignoring the multimedia subtitle. 제 3 항에 있어서, The method of claim 3, wherein 상기 멀티미디어 자막에 대한 정보에 상기 표시될 위치에 대한 정보가 포함되어 있지 않은 경우, 상기 해당 자막 제공자의 위치에 대한 정보와 상기 단말의 현재 위치를 비교하여 표시할 위치를 결정하는 과정을 더 포함하는 것을 특징으로 하는 방법. If the information on the location to be displayed is not included in the information on the multimedia subtitle, further comprising: determining a location to display by comparing the information on the location of the corresponding subtitle provider with the current location of the terminal; Characterized in that the method. 통신 단말기의 멀티미디어 자막 공유 장치에 있어서,In the multimedia subtitle sharing device of the communication terminal, 자막 서버로부터 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하고, 상기 멀티미디어 자막에 대한 정보를 이용하여, 상기 멀티미디어 자막에 해당하는 텍스트 혹은 이미지 혹은 오디오 데이터를 제공하는 제어부와, A control unit which receives information on the multimedia subtitles in one of text, image and audio form from the subtitle server, and provides text, image or audio data corresponding to the multimedia subtitles using the information on the multimedia subtitles; , 상기 제어부의 제공에 따라 텍스트 혹은 이미지 혹은 오디오 데이터를 출력하는 표시부 혹은 스피커를 포함하는 것을 특징으로 하는 장치.And a display unit or a speaker for outputting text, an image, or audio data according to the provision of the controller. 제 9 항에 있어서, The method of claim 9, 상기 멀티미디어 자막에 대한 정보는 상기 자막 서버로부터 실시간 수신되거나 혹은 상기 단말의 요청에 따라 상기 자막 서버로부터 정보 파일 형태로 수신되는 것을 특징으로 하는 장치.The information on the multimedia subtitle is received in real time from the subtitle server, or at the request of the terminal characterized in that it is received from the subtitle server in the form of an information file. 제 9 항에 있어서, The method of claim 9, 상기 멀티미디어 자막에 대한 정보는 해당 자막의 표시 시작 시간, 표시 종료 시간, 표시될 텍스트, 미디어 형식, 미디어 데이터, 표시될 위치, 표시될 크기, 표시될 색상, 해당 자막 제공자, 해당 자막 제공자의 위치 중 적어도 하나의 정보를 포함하는 것을 특징으로 하는 장치.The information on the multimedia subtitles may include information about a display start time, display end time, text to be displayed, media format, media data, location to be displayed, size to be displayed, color to be displayed, a corresponding subtitle provider, and a location of the subtitle provider. And at least one piece of information. 제 11 항에 있어서, The method of claim 11, 상기 미디어 형식은 텍스트 형식, 오디오 형식, 이미지 형식 중 하나를 포함하고, 상기 텍스트 형식을 기본 값으로 하는 것을 특징으로 하는 장치.Wherein the media format includes one of a text format, an audio format, and an image format, and defaults to the text format. 제 11 항에 있어서, The method of claim 11, 상기 미디어 데이터는 기 정의된 오디오 혹은 이미지 데이터의 식별자, 또는 해당 오디오 혹은 이미지 데이터가 링크된 URI(Uniform Resource Identifier)를 포함하는 것을 특징으로 하는 장치.The media data may include an identifier of predefined audio or image data, or a Uniform Resource Identifier (URI) to which the audio or image data is linked. 제 13 항에 있어서, 상기 제어부는,The method of claim 13, wherein the control unit, 상기 멀티미디어 자막이 기 정의된 오디오 혹은 이미지 데이터일 경우, 기 정의된 오디오 혹은 이미지 데이터를 제공하고, 상기 멀티미디어 자막에 대한 데이터가 특정 URI(Uniform Resource Identifier)에 링크된 자원인 경우, 해당 URI에서 자원을 다운로드하여 해당 오디오 혹은 이미지 데이터를 제공하는 것을 특징으로 하는 장치.If the multimedia subtitle is a predefined audio or image data, provides the predefined audio or image data, and if the data for the multimedia subtitle is a resource linked to a specific URI (Uniform Resource Identifier), the resource in the URI Device for downloading and providing the corresponding audio or image data. 제 11 항에 있어서, The method of claim 11, 상기 멀티미디어 자막의 제공자가 사용자에 의해 허용된 자막 제공자가 아닐 경우, 상기 제어부는 상기 멀티미디어 자막을 무시하는 것을 특징으로 하는 장치.And if the provider of the multimedia subtitle is not a subtitle provider permitted by the user, the control unit ignores the multimedia subtitle. 제 11 항에 있어서, The method of claim 11, 상기 멀티미디어 자막에 대한 정보에 상기 표시될 위치에 대한 정보가 포함되어 있지 않은 경우, 상기 제어부는 상기 해당 자막 제공자의 위치에 대한 정보와 상기 단말의 현재 위치를 비교하여 표시할 위치를 결정하는 것을 특징으로 하는 장치. If the information on the location to be displayed is not included in the information on the multimedia subtitles, the controller compares the information on the location of the corresponding subtitle provider with the current location of the terminal to determine a location to display. Device. 자막 서버의 멀티미디어 자막 공유 방법에 있어서,In the multimedia subtitle sharing method of the subtitle server, 단말로부터 특정 컨텐츠의, 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막에 대한 정보를 수신하는 과정과, Receiving information about a multimedia subtitle of one type of text, image, or audio of a specific content from the terminal; 상기 수신된 멀티미디어 자막에 대한 정보를 동일 컨텐츠를 이용하는 사용자에게 실시간 전송하는 과정을 포함하는 것을 특징으로 하는 방법. And transmitting the information on the received multimedia subtitles to a user using the same content in real time. 제 17 항에 있어서,The method of claim 17, 상기 수신된 멀티미디어 자막에 대한 정보를 이용하여 자막 파일을 생성하고, 상기 생성된 자막 파일로 자막 파일 데이터베이스에 저장된 상기 컨텐츠에 대한 자막 파일을 업데이트하는 과정과, Generating a subtitle file using the received information about the multimedia subtitle, and updating the subtitle file for the content stored in the subtitle file database with the generated subtitle file; 다른 단말로부터 해당 컨텐츠에 대한 자막 다운로드 요청이 수신될 시, 상기 자막 파일 데이터베이스에서 상기 컨텐츠에 대한 자막 파일을 검색 및 추출하여 해당 사용자에게 전송하는 과정을 더 포함하는 것을 특징으로 하는 방법. And receiving a subtitle download request for the corresponding content from another terminal, searching for and extracting the subtitle file for the content from the subtitle file database, and transmitting the subtitle file to the corresponding user. 제 17 항에 있어서, The method of claim 17, 상기 멀티미디어 자막에 대한 정보는 해당 자막의 표시 시작 시간, 표시 종료 시간, 표시될 텍스트, 미디어 형식, 미디어 데이터, 표시될 위치, 표시될 크기, 표시될 색상, 해당 자막 제공자, 해당 자막 제공자의 위치 중 적어도 하나의 정보를 포함하는 것을 특징으로 하는 방법. The information on the multimedia subtitles may include information about a display start time, display end time, text to be displayed, media format, media data, location to be displayed, size to be displayed, color to be displayed, a corresponding subtitle provider, and a location of the subtitle provider. At least one piece of information. 제 19 항에 있어서, The method of claim 19, 상기 미디어 형식은 텍스트 형식, 오디오 형식, 이미지 형식 중 하나를 포함하고, 상기 텍스트 형식을 기본 값으로 하는 것을 특징으로 하는 방법. Wherein the media format includes one of a text format, an audio format, and an image format, and defaults to the text format. 제 19 항에 있어서, The method of claim 19, 상기 미디어 데이터는 기 정의된 오디오 혹은 이미지 데이터의 식별자, 또는 해당 오디오 혹은 이미지 데이터가 링크된 URI(Uniform Resource Identifier)를 포함하는 것을 특징으로 하는 방법. The media data may include an identifier of predefined audio or image data, or a Uniform Resource Identifier (URI) to which the audio or image data is linked. 멀티미디어 자막 공유 장치에 있어서,In the multimedia subtitle sharing device, 사용자에 의해 특정 컨텐츠에 대한 텍스트, 이미지, 오디오 형태 중 하나의 형태의 멀티미디어 자막이 입력될 시, 상기 멀티미디어 자막에 대한 정보를 자막 서버로 전송하는 단말과, A terminal for transmitting information on the multimedia subtitles to the subtitle server when the user inputs the multimedia subtitles in one of text, image, and audio form for a specific content; 상기 단말로부터의 멀티미디어 자막에 대한 정보를 동일 컨텐츠를 이용하는 사용자에게 실시간 전송하는 상기 자막 서버를 포함하는 것을 특징으로 하는 장치. And the caption server for real-time transmission of information on multimedia captions from the terminal to a user using the same content. 제 22 항에 있어서, 상기 자막 서버는, The method of claim 22, wherein the subtitle server, 상기 수신된 멀티미디어 자막에 대한 정보를 이용하여 자막 파일을 생성하고, 상기 생성된 자막 파일로 자막 파일 데이터베이스에 저장된 상기 컨텐츠에 대한 자막 파일을 업데이트한 후, 다른 단말로부터 해당 컨텐츠에 대한 자막 다운로드 요청이 수신될 시, 상기 자막 파일 데이터베이스에서 상기 컨텐츠에 대한 자막 파일을 검색 및 추출하여 해당 사용자에게 전송하는 것을 특징으로 하는 장치. After generating a subtitle file using the received information about the multimedia subtitle, and updating the subtitle file for the content stored in the subtitle file database with the generated subtitle file, a subtitle download request for the corresponding content is received from another terminal. When received, the device characterized in that for searching and extracting the caption file for the content in the caption file database and transmits it to the user. 제 22 항에 있어서, The method of claim 22, 상기 멀티미디어 자막에 대한 정보는 해당 자막의 표시 시작 시간, 표시 종료 시간, 표시될 텍스트, 미디어 형식, 미디어 데이터, 표시될 위치, 표시될 크기, 표시될 색상, 해당 자막 제공자, 해당 자막 제공자의 위치 중 적어도 하나의 정보를 포함하는 것을 특징으로 하는 장치. The information on the multimedia subtitles may include information about a display start time, display end time, text to be displayed, media format, media data, location to be displayed, size to be displayed, color to be displayed, a corresponding subtitle provider, and a location of the subtitle provider. And at least one piece of information. 제 24 항에 있어서, The method of claim 24, 상기 미디어 형식은 텍스트 형식, 오디오 형식, 이미지 형식 중 하나를 포함하고, 상기 텍스트 형식을 기본 값으로 하며, 상기 미디어 데이터는 기 정의된 오디오 혹은 이미지 데이터의 식별자, 또는 해당 오디오 혹은 이미지 데이터가 링크된 URI(Uniform Resource Identifier)를 포함하는 것을 특징으로 하는 장치. The media format includes one of a text format, an audio format, and an image format, and the text format is a default value, and the media data is an identifier of predefined audio or image data, or a corresponding audio or image data is linked. Device comprising a URI (Uniform Resource Identifier).
KR1020070120865A 2007-11-26 2007-11-26 Apparatus and method for sharing multimedia caption in communication terminal KR20090054139A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070120865A KR20090054139A (en) 2007-11-26 2007-11-26 Apparatus and method for sharing multimedia caption in communication terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070120865A KR20090054139A (en) 2007-11-26 2007-11-26 Apparatus and method for sharing multimedia caption in communication terminal

Publications (1)

Publication Number Publication Date
KR20090054139A true KR20090054139A (en) 2009-05-29

Family

ID=40861359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070120865A KR20090054139A (en) 2007-11-26 2007-11-26 Apparatus and method for sharing multimedia caption in communication terminal

Country Status (1)

Country Link
KR (1) KR20090054139A (en)

Similar Documents

Publication Publication Date Title
CN107918653B (en) Intelligent playing method and device based on preference feedback
CN105635764B (en) Method and device for playing push information in live video
US8209385B2 (en) Multimedia mood messages
US20090187577A1 (en) System and Method Providing Audio-on-Demand to a User&#39;s Personal Online Device as Part of an Online Audio Community
US20100251094A1 (en) Method and apparatus for providing comments during content rendering
KR20160015319A (en) Generating a feed of content items associated with a topic from multiple content sources
US20090265022A1 (en) Playback of multimedia during multi-way communications
CN109474843A (en) The method of speech control terminal, client, server
CN104735480A (en) Information sending method and system between mobile terminal and television
US20110112821A1 (en) Method and apparatus for multimodal content translation
Lacey Smart radio and audio apps: The politics and paradoxes of listening to (anti-) social media
US20130332170A1 (en) Method and system for processing content
US20160247522A1 (en) Method and system for providing access to auxiliary information
JP2002288213A (en) Data-forwarding device, data two-way transmission device, data exchange system, data-forwarding method, data-forwarding program, and data two-way transmission program
CN113282770A (en) Multimedia recommendation system and method
KR20090054139A (en) Apparatus and method for sharing multimedia caption in communication terminal
US8782689B2 (en) Method of broadcasting content and at least one complementary element, utilizing a server and a terminal
CN111869225B (en) Information processing apparatus, information processing method, and non-transitory computer readable storage medium
Euritt et al. ‘And if we don’t stop him, I don’t know who will’: recoding intimacy in My Dad Wrote a Porno
US11792467B1 (en) Selecting media to complement group communication experiences
KR20120050016A (en) Apparatus for construction social network by using multimedia contents and method thereof
JP2014154029A (en) Useful information presentation system and method for controlling useful information presentation system
CN116017145B (en) Remote intelligent control system and method for live camera
WO2007147334A1 (en) Method for converting text information to stream media or multimedia to be received by terminal
KR102544612B1 (en) Method and apparatus for providing services linked to video contents

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination