KR101330524B1 - Method, Terminal, Server and System for Searching Subtitle of Video - Google Patents
Method, Terminal, Server and System for Searching Subtitle of Video Download PDFInfo
- Publication number
- KR101330524B1 KR101330524B1 KR1020090066196A KR20090066196A KR101330524B1 KR 101330524 B1 KR101330524 B1 KR 101330524B1 KR 1020090066196 A KR1020090066196 A KR 1020090066196A KR 20090066196 A KR20090066196 A KR 20090066196A KR 101330524 B1 KR101330524 B1 KR 101330524B1
- Authority
- KR
- South Korea
- Prior art keywords
- information
- video
- user
- subtitle
- user video
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
본 발명의 일 실시예는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다. One embodiment of the present invention relates to a method, a terminal, a server, and a system for providing a caption information retrieval function.
본 발명의 일 실시예는 사용자 동영상의 특성정보를 입력받는 특성정보 입력부; 데이터베이스에 기 저장된 동영상의 특성정보와 입력된 특성정보를 비교하여, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하는 자막정보 검색부; 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부를 포함하는 것을 특징으로 하는 자막정보 검색 서버를 제공한다. According to an embodiment of the present invention, a feature information input unit may receive feature information of a user video; A caption information search unit for comparing caption information of the video previously stored in the database with the input characteristic information and searching for caption information of the same video as the user video in the database; And a subtitle information providing unit for providing the retrieved subtitle information to the user terminal.
본 발명의 일 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다. According to an embodiment of the present invention, when only the user video is stored in the terminal and the subtitle information is not stored, the subtitle information of the user video to be played by the user by searching for the subtitle information of the corresponding user video is provided to the user. There is an effect that makes it easy and convenient to search for information.
사용자 동영상, 자막정보, 검색 User video, subtitle information, search
Description
본 발명의 일 실시예는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다. 더욱 상세하게는, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해주는 자막정보 검색 기능을 제공하는 방법, 단말기, 서버 및 시스템에 관한 것이다.One embodiment of the present invention relates to a method, a terminal, a server, and a system for providing a caption information retrieval function. More specifically, when only the user video is stored in the terminal and the subtitle information is not stored, a method, terminal, server, and system for providing a subtitle information search function to search for and provide the user with subtitle information of the corresponding user video. It is about.
요즈음, 많은 사용자는 자신의 컴퓨터 또는 이동통신단말기 등의 단말기에 인터넷 등으로부터 동영상을 다운로드 받아 저장해두었다가 이를 재생하는 기능을 많이 이용하고 있다. 이와 같이 단말기에서 재생하고자 하는 사용자 동영상에 관련된 자막정보가 있는 경우, 사용자는 자신의 단말기에 사용자 동영상과 이와 관련된 자막정보를 함께 저장해두고 사용자 동영상을 재생하게 되면, 단말기는 재생할 사용자 동영상과 관련되어 저장된 자막정보를 함께 동기화시켜 사용자 동영상과 자막정보를 함께 재생시킨다. Nowadays, many users use a function of downloading and storing a video from the Internet and playing it on a terminal such as a computer or a mobile communication terminal. When there is subtitle information related to the user video to be played on the terminal as described above, when the user stores the user video and the subtitle information associated with it on his terminal and plays the user video, the terminal is stored in association with the user video to be played. Synchronize subtitle information together to play user video and subtitle information together.
만약, 단말기에 사용자 동영상만 저장되어 있고, 해당 자막정보가 저장되어 있지 않은 경우에는, 사용자가 인터넷 등을 통해서 사용자 동영상과 관련된 자막정보를 검색해야만 불편함이 있다. 또한 인터넷 등을 통해 사용자 동영상의 자막정보를 검색할 때, 인터넷상에 존재하는 자막정보의 파일명이 해당 사용자 동영상과 관련된 이름 등과 같이 쉽게 확인할 수 있는 파일명으로 되어 있지 않은 경우, 원하는 사용자 동영상의 자막정보를 쉽게 검색하지 못하는 문제점도 있다. If only the user video is stored in the terminal and the corresponding subtitle information is not stored, it is inconvenient for the user to search the subtitle information related to the user video through the Internet. In addition, when searching for subtitle information of a user's video through the Internet, if the file name of the subtitle information existing on the Internet is not a file name that can be easily identified such as a name associated with the user's video, the subtitle information of the desired user's video There is also a problem that can not be easily retrieved.
이러한 배경에서, 본 발명의 실시예의 목적은, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 데 있다. In this background, the purpose of the embodiment of the present invention, when only the user video is stored in the terminal and the subtitle information is not stored, by searching for the subtitle information of the user video and providing it to the user, the user that the user wants to play It is to make it possible to search subtitle information of a video easily and conveniently.
본 발명의 실시예의 다른 목적은, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 해당 사용자 동영상의 자막정보를 내용 기반으로 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 데 있다. Another object of the embodiment of the present invention, if only the user video is stored in the terminal and the subtitle information is not stored, by using the characteristic information of the user video to search for the subtitle information of the user video based on the content provided to the user By zooming in, the user's subtitle information of the user's video to be played back can be accurately and efficiently searched.
본 발명의 실시예는, 사용자 동영상의 특성정보를 입력받는 특성정보 입력부; 데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스 에서 검색하는 자막정보 검색부; 및 상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부를 포함하는 것을 특징으로 하는 자막정보 검색 서버를 제공한다. Embodiment of the present invention, the characteristic information input unit for receiving the characteristic information of the user video; A caption information search unit for searching for the caption information of the same video as the user video in the database by comparing the characteristic information of the video previously stored in the database with the input characteristic information; And a caption information providing unit providing the searched caption information to a user terminal.
또한, 본 발명의 실시예는, 자막정보 검색 서버가 제공하는 자막정보 검색 방법에 있어서, 사용자 동영상으로부터 추출된 특성정보를 입력받는 특성정보 입력 단계; 데이터베이스에 기 저장된 동영상의 특성정보와 상기 입력된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색 단계; 및 상기 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공 단계를 포함하는 것을 특징으로 하는 자막정보 검색 방법을 제공한다. In addition, an embodiment of the present invention, a caption information search method provided by a caption information search server, comprising: a characteristic information input step of receiving characteristic information extracted from a user video; A caption information searching step of searching for the caption information of the same video as the user video in the database by comparing the characteristic information of the video previously stored in the database with the input characteristic information; And providing subtitle information providing the retrieved subtitle information to a user terminal.
또한, 본 발명의 실시예는, 사용자 동영상의 특성정보를 추출하는 특성정보 추출부; 상기 특성정보를 자막정보 검색 요청에 포함시켜 송신하는 자막정보 검색 요청부; 및 상기 자막정보 검색 요청에 대하여, 상기 사용자 동영상의 자막정보를 수신하는 자막정보 수신부를 포함하는 것을 특징으로 하는 자막정보 검색 기능을 제공하는 단말기를 제공한다. In addition, an embodiment of the present invention, the feature information extraction unit for extracting the feature information of the user video; A caption information search request unit including the feature information in a caption information search request and transmitting the caption information; And a caption information receiving unit configured to receive caption information of the user video in response to the caption information search request.
또한, 본 발명의 실시예는, 사용자 동영상으로부터 특성정보를 추출하여 송신하고, 상기 사용자 동영상의 자막정보를 수신하는 사용자 단말기; 및 상기 특성정보를 수신하고, 데이터베이스에 기 저장된 동영상의 특성정보와 상기 수신된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 상기 자막정보를 상기 데이터베이스에서 검색하여 상기 사용자 단말기로 송신하는 자막정보 검색 서 버를 포함하는 것을 특징으로 하는 자막정보 검색 시스템을 제공한다. In addition, an embodiment of the present invention, the user terminal extracts and transmits the characteristic information from the user video, and receives the subtitle information of the user video; And a caption for receiving the characteristic information, comparing the characteristic information of a video previously stored in a database with the received characteristic information, and searching the database for the caption information of the same video as the user video and transmitting the same to the user terminal. Provided is a caption information retrieval system comprising an information retrieval server.
또한, 본 발명의 실시예는, 사용자 동영상을 송신하고, 상기 사용자 동영상의 자막정보를 수신하는 사용자 단말기; 및 상기 사용자 동영상을 수신하여, 상기 사용자 동영상의 특성정보를 추출하고, 데이터베이스에 기 저장된 동영상의 특성정보와 상기 추출된 특성정보를 비교하여, 상기 사용자 동영상과 동일한 동일 동영상의 상기 자막정보를 상기 데이터베이스에서 검색하여 상기 사용자 단말기로 송신하는 자막정보 검색 서버를 포함하는 것을 특징으로 하는 자막정보 검색 시스템을 제공한다. In addition, an embodiment of the present invention, a user terminal for transmitting a user video, and receives subtitle information of the user video; And extracting the characteristic information of the user video by receiving the user video, comparing the extracted characteristic information with the characteristic information of a video previously stored in a database, and converting the caption information of the same video as that of the user video into the database. Provides a caption information retrieval system comprising a subtitle information search server to search for and transmit to the user terminal.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다. As described above, according to the embodiment of the present invention, when only the user video is stored in the terminal and the subtitle information is not stored, the user wants to play by searching for the subtitle information of the corresponding user video and providing the same to the user. The subtitle information of the user video can be easily and conveniently searched.
또한, 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 내용 기반으로 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 효과가 있다. In addition, according to an embodiment of the present invention, when only the user video is stored in the terminal and the corresponding caption information is not stored, the caption information of the corresponding user video is searched to the user based on the content using the characteristic information of the user video. By providing the user, it is possible to search the caption information of the user's video to be played accurately and efficiently.
이하, 본 발명의 일부 실시예들을 예시적인 도면을 통해 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, some embodiments of the present invention will be described in detail with reference to exemplary drawings. In adding reference numerals to the components of each drawing, it should be noted that the same reference numerals are assigned to the same components as much as possible even though they are shown in different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In addition, in describing the component of this invention, terms, such as 1st, 2nd, A, B, (a), (b), can be used. These terms are intended to distinguish the constituent elements from other constituent elements, and the terms do not limit the nature, order or order of the constituent elements. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected to or connected to the other component, It should be understood that an element may be "connected," "coupled," or "connected."
도 1은 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)을 개략적으로 나타낸 도면이다. 1 is a diagram schematically showing a subtitle information retrieval system 100 according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 재생하고자 하는 사용자 동영상의 자막정보를 검색 요청하는 사용자 단말기(110)와, 사용자 단말기(110)로부터의 자막정보 검색 요청에 대하여, 검색 요청시 수신된 데이터(예: 사용자 동영상, 또는 사용자 동영상으로부터 추출된 특성정보)를 토대로 해당 자막정보를 검색하여 사용자 단말기(110)로 제공하는 자막정보 검색 서버(120) 등을 포함한다. As shown in FIG. 1, the subtitle information retrieval system 100 according to an embodiment of the present invention includes a
위에서 언급된 사용자 동영상이란, 사용자 단말기(110)에 저장되어 해당 자막정보와 동기화되어 재생되는 동영상이며, 본 발명에서는, 이러한 사용자 동영상의 자막정보, 즉 사용자 동영상을 재생하기 위해 사용자 동영상과 동기화되는 자막정보는, 사용자 단말기(110)에 사용자 동영상과 함께 저장되어 있지 않고, 자막정보 검색 서버(120)로부터 검색되어 제공받는다. The user video mentioned above is a video stored in the
사용자 단말기(110)는, 재생하고자 하는 사용자 동영상에 대해 저장되지 않은 자막정보를 자막정보 검색 서버(120)로부터 제공받기 위한 자막정보 검색 요청시, 해당 사용자 동영상을 자막정보 검색 서버(120)로 송신하면서 자막정보 검색 요청을 송신할 수 있고, 또는 해당 사용자 동영상을 송신하지 않는 대신 해당 사용자 동영상으로부터 특성정보를 추출하여 추출된 특성정보를 자막정보 검색 서버(120)로 송신하여 자막정보 검색 요청을 송신할 수도 있다.The
이에 따라, 자막정보 검색 서버(120)는, 자막정보 검색 요청 수신시 사용자 단말기(110)로부터 해당 사용자 동영상을 수신한 경우에는 수신된 사용자 동영상으로부터 특성정보를 직접 추출하여 추출된 특성정보를 토대로 해당 자막정보를 검색하게 된다. 한편 자막정보 검색 서버(120)가 자막정보 검색 요청 수신시 사용자 단말기(110)로부터 해당 사용자 동영상의 특성정보를 수신한 경우에는 수신된 특성정보를 토대로 해당 자막정보를 바로 검색할 수도 있다. Accordingly, when the subtitle
즉, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정보 검색 요청시, 송신되는 데이터가 "사용자 동영상"인 경우(도 2의 (a) 참조)와, 사용자 동영상의 "특성정보"인 경우(도 2의 (b) 참조)로 구분하여, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)을 따라오는 도 2를 참조하여 다시 설명한다. In other words, when the
도 2는 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)에서 사용자 단말기(110) 및 자막정보 검색 서버(120) 간의 데이터 흐름에 대한 2가지 유형을 나타낸 도면이다. 2 is a diagram illustrating two types of data flows between the
도 2의 (a)는, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정보 검색 요청시, 송신되는 데이터가 "사용자 동영상"인 경우, 데이터 흐름을 나타낸 도면이다. FIG. 2A is a diagram illustrating a data flow when the
도 2의 (a)를 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 사용자 동영상을 송신하고, 사용자 동영상의 자막정보를 수신하는 사용자 단말기(110); 및 사용자 동영상을 사용자 단말기(110)로부터 수신하여, 수신된 사용자 동영상의 특성정보를 추출하고, 데이터베이스에 기 저장된 동영상의 특성정보 및 추출된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하여 사용자 단말기(110)로 송신하는 자막정보 검색 서버(120) 등을 포함한다.Referring to FIG. 2A, a caption information retrieval system 100 according to an embodiment of the present invention includes a
도 2의 (a)에 도시된 자막정보 검색 서버(120)는, 사용자 단말기(110)로부터 수신된 사용자 동영상의 분석을 통해, 사용자 동영상에 대한 컬러 히스토그램(Color Histogram), 에지(Edge Shape), 오브젝트 모양(Object Shape) 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함하는 "핑거프린트(Fingerprint)"를 특성정보로서 추출할 수 있다. Subtitle
도 2의 (b)는, 사용자 단말기(110)에서 자막정보 검색 서버(120)로의 자막정 보 검색 요청시, 송신되는 데이터가 사용자 동영상의 "특성정보"인 경우, 데이터 흐름을 나타낸 도면이다. 2B is a diagram illustrating a data flow when the
도 2의 (b)를 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 시스템(100)은, 사용자 동영상으로부터 특성정보를 추출하여 송신하고, 사용자 동영상의 자막정보를 수신하는 사용자 단말기(110); 및 사용자 단말기(110)로부터 특성정보를 수신하고, 데이터베이스에 기 저장된 동영상의 특성정보 및 수신된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하여 사용자 단말기(110)로 송신하는 자막정보 검색 서버(120) 등을 포함한다. Referring to FIG. 2B, the caption information retrieval system 100 according to an exemplary embodiment of the present invention extracts and transmits characteristic information from a user video, and receives the caption information of the
도 2의 (b)에 도시된 사용자 단말기(110)는, 재생하고자 하는 사용자 동영상의 분석을 통해, 사용자 동영상에 대한 컬러 히스토그램(Color Histogram), 에지(Edge Shape), 오브젝트 모양(Object Shape) 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함하는 "핑거프린트(Fingerprint)"를 특성정보로서 추출할 수 있다. The
도 1 및 도 2를 참조하여 전술한 사용자 단말기(110) 및 자막정보 검색 서버(120)는, 도 1에 도시된 바와 같이, 유선 또는 무선 기반의 인터넷 이동통신망 등 중에서 하나 이상을 포함하는 유무선 통신망(130)을 통해 서로 연결될 수 있다 As illustrated in FIG. 1, the
전술한 사용자 단말기(110)는, 이러한 유무선 통신망(130)을 통해 자막정보 검색 서버(120)에 접속하여 사용자 동영상 또는 사용자 동영상의 특성정보를 송신함으로써 자막정보 검색을 요청하여 사용자 동영상의 자막정보를 제공받는 단말기로서, 컴퓨터 및 이동통신단말기 등 중에서 하나 이상을 포함할 수 있다. The
전술한 자막정보 검색 서버(120)는, 유무선 통신망(130)을 통해 접속한 사용자 단말기(110)로부터 사용자 동영상 또는 사용자 동영상의 특성정보를 수신함으로써 자막정보 검색을 요청받고, 이에 대하여 사용자 동영상의 자막정보를 검색하여 사용자 단말기(110)로 제공하는 서버로서, 사용자 단말기(110)가 유무선 통신망(130)을 통해 접속할 수 있는 웹 서버(Web Server) 또는 왑 서버(WAP Server) 등의 형태로 구현될 수 있으며, 동영상, 자막정보 및 특성정보 등을 서로 연계하여 데이터베이스에 저장시켜 관리할 수 있다. 이러한 자막정보 검색 서버(120)는 따라오는 도 3을 참조하여 더욱 상세하게 설명한다. The above-described subtitle
도 3은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 대한 블록 구성도이다. 3 is a block diagram of a subtitle
도 3을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)는, 사용자 동영상의 특성정보를 입력받는 특성정보 입력부(320); 데이터베이스에 기 저장된 동영상의 특성정보 및 입력된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 데이터베이스에서 검색하는 자막정보 검색부(330); 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공부(340) 등을 포함한다. Referring to FIG. 3, the caption
도 3을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)는, 사용자 단말기(110)로부터 "사용자 동영상" 또는 "사용자 동영상의 특성정보"가 포함된 자막정보 검색 요청을 수신하는 자막정보 검색 요청 수신부(310)를 더 포함할 수 있다. Referring to FIG. 3, the caption
전술한 특성정보 입력부(320)는 이러한 자막정보 검색 요청 수신부(310)로부터 특성정보를 입력받을 수 있는데, 특성정보를 입력받는 2가지 유형을 도 4를 참조하여 아래에서 설명한다. The characteristic
도 4는 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 특성정보 입력부(320)가 특성정보를 자막정보 검색 요청 수신부(310)로부터 입력받는 2가지 유형을 나타낸 도면이다. 4 is a diagram illustrating two types of characteristic
도 4를 참조하면, 자막정보 검색 요청 수신부(310)는 사용자 단말기(110)로부터 자막정보 검색 요청을 수신할 때, 사용자 동영상의 특성정보를 수신하거나, 사용자 동영상을 수신할 수 있다. 이에 대하여, 자막정보 검색 요청 수신부(310)는 수신한 특성정보를 특성정보 입력부(320)로 입력시키거나, 수신한 사용자 동영상으로부터 특성정보를 추출하여 추출된 특성정보를 특성정보 입력부(320)로 입력시킬 수 있다. Referring to FIG. 4, when the caption information
이를 위해서, 도 4를 참조하면, 자막정보 검색 요청 수신부(310)는, 수신된 자막정보 검색 요청에 사용자 동영상의 "특성정보"가 포함된 경우, 포함된 특성정보를 특성정보 입력부(320)에 입력시키는 특성정보 전달부(410); 및 수신된 자막정보 검색 요청에 "사용자 동영상"이 포함된 경우, 포함된 사용자 동영상으로부터 특성정보를 추출하여 특성정보 입력부(320)에 입력시키는 특성정보 추출부(420) 중에서 하나 이상을 포함할 수 있다. To this end, referring to FIG. 4, when the received caption information search request includes “characteristic information” of the user video, the caption information
전술한 특성정보 입력부(320)가 특성정보 추출부(420)로부터 사용자 동영상의 특성정보를 입력받는 경우, 특성정보 추출부(420)는 사용자 단말기(110)로부터 수신한 사용자 동영상에서 사용자 동영상의 특성정보를 추출하기 위해서, 일 예로서 도시된 도 5와 같이, 세그먼테이션화부(510), 대표 영상 추출부(520) 및 핑거프린트 추출부(530) 등의 모듈을 포함할 수 있다. When the feature
도 5는 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)의 자막정보 검색 요청 수신부(310)에 포함된 특성정보 추출부(420)에 대한 블록 구성도이다. 5 is a block diagram of the feature
도 5를 참조하면, 이러한 특성정보 추출부(420)는, 사용자 동영상의 샷(Shot)을 검출하여 검출된 샷 단위로 사용자 동영상을 세그먼테이션(Segmentation)화 하여 복수 개의 세그먼트(Segment)로 분할하는 세그먼테이션화부(510); 각 세그먼트를 대표하는 대표 영상을 추출하는 대표 영상 추출부(520); 및 추출된 대표 영상으로부터 핑거프린트를 사용자 동영상의 특성정보로서 추출하는 핑거프린트 추출부(530) 등을 포함한다. Referring to FIG. 5, the feature
예를 들어, 사용자 동영상의 샷(Shot)을 사용자 동영상에서의 프레임(Frame)으로 가정하면, 특성정보 추출부(420)는, 사용자 동영상으로부터 복수 개의 프레임(이는 픽처, 프레임 영상 또는 그냥 줄여서 영상이라고도 함)을 검출하고, 검출된 복수 개의 프레임으로 이루어진 사용자 동영상을 프레임 단위로 세그먼테이션화 함으로써, 사용자 동영상을 복수 개의 세그먼트로 분할한다. 이때 분할된 각 세그먼트는 하나 이상의 프레임을 포함할 수 있다. 이후 특성정보 추출부(420)는, 각 세그먼트에 포함된 하나 이상의 프레임 중에서 각 세그먼트를 대표하는 하나의 프레임을 대표 영상으로 추출하고, 이 대표 영상으로부터 사용자 동영상에서 분할된 각 세그먼트에 대한 특성정보로서의 핑거프린트를 추출한다. For example, assuming that a shot of the user video is a frame in the user video, the
핑거프린트 추출부(530)에서 사용자 동영상의 특정정보로서 추출되는 핑거프린트는, 해당 영상의 고유특성을 나타내며, 해당 대표 영상을 다른 영상과 구별시켜주는 정보이다. The fingerprint extracted by the
일 예로서, 멀티미디어의 내용을 기술하고 동영상 데이터를 효율적으로 표현하고 검색하기 위해 MPEG-7 등의 동영상 압축 기술에서 사용되는 멀티미디어 시각 기술자(Visual Descriptor)를 전술한 핑거프린트로서 이용할 수 있다. 이러한 핑거프린트는 사용자 동영상에 대한 컬러 히스토그램, 에지, 오브젝트 모양 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함할 수 있다. As an example, a multimedia visual descriptor used in a video compression technique such as MPEG-7 may be used as the fingerprint described above in order to describe the contents of multimedia and to efficiently express and retrieve video data. The fingerprint may include one or more of color histograms, edges, object shapes, textures, and the like for the user video.
전술한 대표 영상 추출부(520)는, 각 세그먼트의 중간 시간에 가장 인접한 시간에 위치하는 하나 이상의 영상(즉, 세그먼트에 포함된 프레임 영상)을 대표 영상으로 추출하는 제 1 방식과, 각 세그먼트 내 영상(즉, 세그먼트에 포함된 프레임 영상)의 평균(즉, 각 세그먼트에 포함된 각 영상에 대한 컬러 히스토그램 등과 같은 특성 정보들의 평균)에 가장 가까운 하나 이상의 영상을 대표 영상으로 추출하는 제 2 방식 중 하나의 방식으로 대표 영상을 추출할 수 있다. The above-described representative
예를 들어, 특정 세그먼트가 5개의 프레임 영상을 포함하는 경우, 제 1 방식에 따라 특정 세그먼트로부터 대표 영상을 추출해보면, 5개의 프레임 영상 각각의 시간 분포 중에서 중간 시간을 구하고, 이렇게 구해진 중간 시간에 가장 인접한 시간에서의 프레임 영상을 5개의 프레임 영상 중에서 추출할 수 있다. 또한, 제 2 방식에 따라 특정 세그먼트로부터 대표 영상을 추출해보면, 5개의 프레임 영상 각각에 대한 컬러 히스토그램을 구하고, 각각 구해진 컬러 히스토그램에 대한 평균을 계산한 이후, 5개의 프레임 영상 중에서 계산된 평균과 가장 가까운 컬러 히스토그램을 보이는 프레임 영상을 대표 영상으로 추출할 수 있다. For example, when a specific segment includes five frame images, when the representative image is extracted from the specific segment according to the first method, the intermediate time is obtained from the time distribution of each of the five frame images, and the most significant time is obtained. Frame images at adjacent times may be extracted from five frame images. In addition, when the representative image is extracted from a specific segment according to the second method, color histograms for each of the five frame images are obtained, and the average of the obtained color histograms is calculated, and then the average and the calculated average among the five frame images are calculated. A frame image showing a nearby color histogram may be extracted as a representative image.
아래에서는, 전술한 2가지 대표 영상 추출 방식(제 1 방식, 제 2 방식)에 따라 추출된 대표 영상의 특성정보를 따라오는 예시적인 수학식 1 및 수학식 2를 각각 이용하여 설명한다. In the following, exemplary equations 1 and 2 which follow the characteristic information of the representative image extracted according to the two representative image extraction methods (first method and second method) described above will be described.
전술한 특성정보 추출부(420)는, 각 세그먼트의 중간 시간에 위치하는 영상을 대표 영상으로 추출하는 제 1 방식에 의해서, 특정 동영상 A의 n번째 세그먼트로부터 대표 영상을 추출하고, 이 대표 영상에서 추출된 특성정보 A n 은 다음과 같은 수학식 1을 이용하여 구할 수 있다. 여기서, 특성정보는 핑거프린트에 포함된 컬러 히스토그램인 것으로 가정한다. The above-described
상기 수학식 1에서, M은 특정 동영상 A의 n번째 세그먼트에 포함된 영상들(즉, 프레임들)의 개수이다. j는 특정 동영상 A의 n번째 세그먼트에 포함된 M개의 영상들의 시간 분포를 토대로 중간 시간에 위치한 영상의 시리얼 번호, 즉 M개의 영상들 중에서 대표 영상이 되는 영상의 시리얼 번호이며, 상기 수학식 1에서는 (M+1)/2로 계산될 수 있다. In Equation 1, M is the number of images (ie, frames) included in the n- th segment of the specific video A. j is a serial number of an image located at an intermediate time based on a time distribution of M images included in an n- th segment of a specific video A , that is, a serial number of an image that is a representative image among M images. It can be calculated as (M + 1) / 2 .
A nj 는 특정 동영상 A의 n번째 세그먼트에 포함된 M개의 영상들 중에서 중간 시간에 해당하는 시리얼 번호 j에 대응되는 영상의 컬러 히스토그램을 의미하고, 이것이 대표 영상의 컬러 히스토그램으로 구해지는 것이다. A nj means a color histogram of the image corresponding to the serial number j corresponding to the intermediate time among the M images included in the n- th segment of the specific video A , which is obtained as the color histogram of the representative image.
또한, 전술한 특성정보 추출부(420)는, 제 2 방식을 이용하여 대표 영상을 추출하여 특성정보를 추출하는 경우, 각 세그먼트 내 영상들에 대한 특성정보의 평균에 가장 가까운 특정정보를 나타낸 영상을 대표 영상으로 추출하고, 다시 이로부터 특성정보를 추출한다. 이를 위해, 특정 동영상 A의 n번째 세그먼트로부터 추출된 대표 영상에서 추출된 특성정보 A n 은 다음과 같은 수학식 2를 이용하여 얻을 수 있다. 여기서, 특성정보는 핑거프린트에 포함된 컬러 히스토그램인 것으로 가정한다. In addition, when the feature
상기 수학식 2에서, M은 특정 동영상 A의 n번째 세그먼트에 포함된 영상들(즉, 프레임들)의 개수이다. j는 특정 동영상 A의 n번째 세그먼트에 영상들 각각에 대한 시리얼 번호이다. In Equation 2, M is the number of images (ie, frames) included in the n- th segment of the specific video A. j is a serial number for each of the pictures in the n- th segment of the specific video A.
A nk 는 특정 동영상 A의 n번째 세그먼트에 포함된 k번째 영상에 대한 컬러 히스토그램을 의미한다. A navg 는 특정 동영상 A의 n번째 세그먼트에 포함된 M개의 영상들의 컬러 히스토그램 평균값을 의미한다. A nk means the color histogram of the k- th image included in the n- th segment of the specific video A. A navg means a color histogram mean value of M images included in the n- th segment of the specific video A. FIG.
상기 수학식 2에 따르면, 특정 동영상 A의 n번째 세그먼트에 포함된 k번째 영상 각각의 컬러 히스토그램 A nk 과, M개의 영상들의 컬러 히스토그램 평균값 A navg 의 차이값을 비교하여 차이값이 최소가 되도록 하는 컬러 히스토그램에 해당하는 영상, 즉 컬러 히스토그램 평균값에 가장 가까운 컬러 히스토그램을 보이는 영상을 대표 영상으로 추출하고 이 대표 영상에 대한 특성정보로서의 컬러 히스토그램인 A n 을 구할 수 있다. According to Equation 2, the color histogram A nk of each k- th image included in the n- th segment of the specific video A , and the color histogram average value A navg of the M images. The image corresponding to the color histogram which compares the difference values of the minimum values, i.e., the image whose color histogram is closest to the mean value of the color histogram, is extracted as the representative image and A is the color histogram A as the characteristic information of the representative image. n can be found.
전술한 대표 영상 추출 방식 중, 제 1 방식은 처리 속도가 빠르지만 정확도는 다소 낮을 수 있으며, 이에 비해 제 2 방식은 처리 속도가 느리지만 정확도는 높은 특징이 있다. Among the above-described representative image extraction methods, the first method may have a faster processing speed but a lower accuracy, whereas the second method may have a lower processing speed but a higher accuracy.
도 6은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 자막정보 검색부(330)에 대한 블록 구성도이다. 6 is a block diagram of a caption
도 6을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)에 포함된 자막정보 검색부(330)는, 특성정보 입력부(320)로 입력된 특성정보 및 자막정보 검색 서버(120)의 데이터베이스에 기 저장된 특성정보 간의 차이값을 계산하는 특성정보 비교부(610); 및 계산된 차이값에 근거하여, 데이터베이스에 기 저장된 특성정보 중에서, 계산된 차이값이 임계값 이하인 특성정보를 추출하고, 이렇게 추출된 특성정보와 연계되어 저장된 동영상을 동일 동영상으로서 데이터베이스에서 검색하는 동일 동영상 검색부(620); 및 검색된 동일 동영상의 자막정보를 데이터베이스에서 추출하는 자막정보 추출부(630) 등을 포함한다. Referring to FIG. 6, the caption
전술한 자막정보 검색부(330)에서, 특성정보에 기반하여 사용자 동영상과 동일한 동일 동영상을 데이터베이스에서 검색하는 과정을 따라오는 수학식 3과 수학 식 4를 참조하여 예시적으로 설명한다. The above-described subtitle
사용자 동영상으로부터 추출되어 특성정보 입력부(320)로 입력된 사용자 동영상(즉, A 비디오)의 특성정보(A n )는, 데이터베이스에 기 저장된 여러 동영상들 중에서 특정 동영상(즉, B 비디오)의 특성정보(B n +k )와 각각 비교되고, 비교 결과에 따른 차이값(D k )은 다음의 수학식 3을 이용하여 계산할 수 있다. 여기서, 특성정보는 핑거프린트에 포함 가능한 컬러 히스토그램인 것으로 가정한다. The characteristic information A n of the user video (ie, A video) extracted from the user video and input to the characteristic
상기 수학식 3에서, A n 은 사용자 동영상(A 비디오)에 포함된 n번째 세그먼트으로부터 추출된 대표 영상의 컬러 히스토그램이고, B n +k 는 데이터베이스에 기 저장된 동영상(B 비디오)에 포함된 n번째 세그먼트로부터 추출된 대표 영상의 컬러 히스토그램이다. 그리고, N은 A 비디오의 세그먼트 개수이다. 이때, k는, A 비디오(즉, 사용자 동영상)가 B 비디오(즉, 데이터베이스에 기 저장된 동영상)보다 세그먼트의 개수가 작은 경우, B 비디오 내에서 A 비디오와 일치하는 세그먼트을 찾기 위해 A 비디오에 포함된 세그먼트와 B 비디오 내 각 세그먼트 간의 차이값을 계산하기 위한 것으로, 최종적으로 A 비디오에 포함된 세그먼트와 B 비디오 내의 세그먼트들 각각 간의 차이값 중 가장 작은 차이값을 A 비디오와 B 비디오 간의 최종적 인 차이값으로 사용할 수 있으며, 이는 수학식 4와 같이 나타낼 수 있다.In Equation 3, A n is a color histogram of the representative image extracted from the n- th segment included in the user video ( A video), and B n + k is the n- th included in the video ( B video) previously stored in the database. Color histogram of a representative image extracted from a segment. N is the number of segments of the A video. In this case, k is included in the A video to find a segment that matches the A video in the B video when the A video (that is, the user video) has a smaller number of segments than the B video (that is, the video previously stored in the database). segment and B as for calculating the difference between each segment, video, and finally, the segment and the segments and finally the difference value to the smallest difference value of the difference between the between the a video and B video within each B video included in the a video It can be used as, can be represented as shown in Equation 4.
상기 수학식 4에서, N, L은 각각 A 비디오 및 B 비디오의 세그먼트 개수이다. A 비디오와 B 비디오 간의 차이값(D)이 미리 정해진 특정 임계값(Threthold)보다 낮으면, A 비디오와 B 비디오는 동일한 비디오로 간주한다.In Equation 4, N and L are the number of segments of A video and B video, respectively. If the difference D between the A video and the B video is lower than a predetermined threshold, the A video and the B video are regarded as the same video.
이와 같이, 동일 동영상으로 검색된 B 비디오의 자막정보를 데이터베이스에 추출하여 사용자 단말기(110)로 자막정보 검색 요청에 대한 검색 결과로서 제공한다. 이때 k가 0이 아닌 경우에는, k개의 각 세그먼트에 해당하는 자막정보를 삭제하여 A 비디오, 즉 사용자 동영상에 자막이 동기화되도록 하여 자막정보를 제공할 수 있다. As such, the caption information of the B video searched for the same video is extracted to the database and provided to the
도 7은 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)가 제공하는 자막정보 검색 방법에 대한 흐름도이다. 7 is a flowchart illustrating a method for searching for caption information provided by the caption
도 7을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 서버(120)가 제공하는 자막정보 검색 방법은, 사용자 동영상의 특성정보를 입력받는 특성정보 입력 단계(S700); 데이터베이스에 기 저장된 동영상의 특성정보 및 입력된 특성정보 간의 비교를 통해, 사용자 동영상과 동일한 동일 동영상의 자막정보를 상기 데이터베이스에서 검색하는 자막정보 검색 단계(S702); 및 검색된 자막정보를 사용자 단말기로 제공하는 자막정보 제공 단계(S704) 등을 포함한다. Referring to FIG. 7, the caption information search method provided by the caption
전술한 특성정보 입력 단계(S700) 이전에, 사용자 단말기로부터 사용자 동영상을 수신한 경우, 수신된 사용자 동영상의 분석을 통해 특성정보를 추출하는 특성정보 추출 단계를 더 포함할 수 있으며, 전술한 특성정보 입력 단계(S700)는 이러한 특성정보 추출 단계에서 추출된 특성정보를 입력받는다. Prior to the above-described characteristic information input step S700, when receiving the user video from the user terminal, the method may further include a feature information extraction step of extracting feature information through analysis of the received user video. The input step S700 receives the characteristic information extracted in the characteristic information extraction step.
도 8은 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 사용자 단말기(110)에 대한 블록 구성도이다. 단, 아래에서는 사용자 단말기(110)를 단말기(110)로 줄여서 기재한다. 8 is a block diagram of a
도 8을 참조하면, 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기(110)는, 재생하고자 하는 사용자 동영상의 특성정보를 추출하는 특성정보 추출부(810); 사용자 동영상 또는 사용자 동영상의 특성정보를 자막정보 검색 요청에 포함시켜 자막정보 검색 서버(120)로 송신하는 자막정보 검색 요청부(820); 및 자막정보 검색 요청에 대하여, 사용자 동영상의 자막정보를 자막정보 검색 서버(120)로부터 수신하는 자막정보 수신부(830) 등을 포함한다. Referring to FIG. 8, the terminal 110 providing a caption information retrieval function according to an embodiment of the present invention includes a feature
전술한 바와 같이, 단말기(110)는, 자막정보 검색 요청을 송신할 때, 사용자 동영상을 자막정보 검색 요청포함시켜 송신할 수도 있고, 사용자 동영상이 아니라 사용자 동영상의 특성정보를 자막정보 검색 요청에 포함시켜 송신할 수도 있다. As described above, when transmitting the caption information search request, the terminal 110 may transmit the user video by including the caption information search request, and include the characteristic information of the user video in the caption information search request instead of the user video. Can also be sent.
도 9는 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기(110)에 포함된 특성정보 추출부(810)에 대한 블록 구성도이다. 9 is a block diagram of a
도 9를 참조하면, 전술한 단말기(110)에 포함된 특성정보 추출부(810)는, 사용자 동영상의 샷(Shot)을 검출하여 검출된 샷 단위로 사용자 동영상을 세그먼테이 션화 하여 복수 개의 세그먼트(Segment)로 분할하는 세그먼테이션화부(910); 각 세그먼트를 대표하는 대표 영상을 추출하는 대표 영상 추출부(920); 및 추출된 대표 영상으로부터 핑거프린트를 특성정보로서 추출하는 핑거프린트 추출부(930) 등을 포함한다. Referring to FIG. 9, the feature
전술한 대표 영상 추출부(920)는, 각 세그먼트의 중간 시간에 위치하는 영상을 대표 영상으로 추출하는 제 1 방식과, 각 세그먼트 내 영상의 평균에 가까운 영상을 대표 영상으로 추출하는 제 2 방식 중 하나 이상을 이용하여 대표 영상을 추출할 수 있다. 이러한 단말기(110)의 특성정보 추출부(810)에 포함된 대표 영상 추출부(920)가 대표 영상을 추출하는 전술한 방식들은, 앞에서 수학식 1과 수학식 2를 참조하여 전술한 자막정보 검색 서버(120)에서의 대표 영상 추출 방식들과 동일한 방식으로 수행될 수 있다. The above-described representative
전술한 핑거프린트 추출부(530)에서 사용자 동영상의 특정정보로서 추출되는 핑거프린트는, 해당 영상의 고유특성을 나타내며 다른 영상과 구별되는 정보이다. The fingerprint extracted as the specific information of the user's video by the
일 예로서, 멀티미디어의 내용을 기술하고 동영상 데이터를 효율적으로 표현하고 검색하기 위해 MPEG-7 등의 동영상 압축 기술에서 사용되는 멀티미디어 시각 기술자(Visual Descriptor)를 전술한 핑거프린트로서 이용할 수 있다. 이러한 핑거프린트는 컬러 히스토그램, 에지, 오브젝트 모양 및 텍스쳐(Texture) 등 중에서 하나 이상을 포함할 수 있다. As an example, a multimedia visual descriptor used in a video compression technique such as MPEG-7 may be used as the fingerprint described above in order to describe the contents of multimedia and to efficiently express and retrieve video data. Such a fingerprint may include one or more of color histograms, edges, object shapes, textures, and the like.
이상에서 설명한 바와 같이 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 해당 사용자 동 영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과가 있다. As described above, according to the exemplary embodiment of the present invention, when only the user video is stored in the terminal and the subtitle information is not stored, the user wants to play the subtitle information by searching for the subtitle information of the corresponding user video. There is an effect that makes it easy and convenient to search the subtitle information of the user video.
또한, 본 발명의 실시예에 의하면, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있지 않은 경우, 사용자 동영상의 특성정보를 이용하여 내용 기반으로 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 정확하고 효율적으로 검색할 수 있게 하는 효과가 있다. In addition, according to an embodiment of the present invention, when only the user video is stored in the terminal and the corresponding caption information is not stored, the caption information of the corresponding user video is searched to the user based on the content using the characteristic information of the user video. By providing the user, it is possible to search the caption information of the user's video to be played accurately and efficiently.
이상에서, 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합되거나 결합되어 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiments, it is to be understood that the invention is not limited to the disclosed embodiments. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. Codes and code segments constituting the computer program may be easily inferred by those skilled in the art. Such a computer program may be stored in a computer readable storage medium and read and executed by a computer, thereby implementing embodiments of the present invention. As the storage medium of the computer program, a magnetic recording medium, an optical recording medium, a carrier wave medium, or the like may be included.
또한, 이상에서 기재된 "포함하다", "구성하다" 또는 "가지다" 등의 용어는, 특별히 반대되는 기재가 없는 한, 해당 구성 요소가 내재될 수 있음을 의미하는 것이므로, 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것으로 해석되어야 한다. 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥 상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.It is also to be understood that the terms such as " comprises, "" comprising," or "having ", as used herein, mean that a component can be implanted unless specifically stated to the contrary. But should be construed as including other elements. All terms, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are intended to illustrate rather than limit the scope of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.
이상에서 설명한 바와 같이 본 발명의 실시예는 동영상 관련 서비스 분야에 적용되어, 단말기에 사용자 동영상만 저장되어 있고 해당 자막정보가 저장되어 있 지 않은 경우, 해당 사용자 동영상의 자막정보를 검색하여 사용자에게 제공해줌으로써, 사용자가 재생하고자 하는 사용자 동영상의 자막정보를 쉽고 편리하게 검색할 수 있게 하는 효과를 발생하는 매우 유용한 발명이다.As described above, an embodiment of the present invention is applied to a video related service field, and when only a user video is stored in the terminal and the subtitle information is not stored, the subtitle information of the corresponding user video is searched and provided to the user. It is a very useful invention to generate an effect that enables the user to easily and conveniently search for subtitle information of a user video to be played back.
도 1은 본 발명의 일 실시예에 따른 자막정보 검색 시스템을 개략적으로 나타낸 도면, 1 is a view schematically showing a subtitle information retrieval system according to an embodiment of the present invention;
도 2는 본 발명의 일 실시예에 따른 자막정보 검색 시스템에서 사용자 단말기 및 자막정보 검색 서버 간의 데이터 흐름에 대한 2가지 유형을 나타낸 도면, 2 is a view showing two types of data flow between a user terminal and a subtitle information retrieval server in a subtitle information retrieval system according to an embodiment of the present invention;
도 3은 본 발명의 일 실시예에 따른 자막정보 검색 서버에 대한 블록 구성도, 3 is a block diagram of a subtitle information retrieval server according to an embodiment of the present invention;
도 4는 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 특성정보 입력부가 특성정보를 입력받는 2가지 유형을 나타낸 도면, 4 is a diagram illustrating two types of feature information input units included in a caption information search server according to an embodiment of the present invention that receive feature information;
도 5는 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 특성정보 추출부에 대한 블록 구성도, 5 is a block diagram illustrating a feature information extracting unit included in a subtitle information retrieval server according to an embodiment of the present invention;
도 6은 본 발명의 일 실시예에 따른 자막정보 검색 서버에 포함된 자막정보 검색부에 대한 블록 구성도, 6 is a block diagram illustrating a caption information search unit included in a caption information search server according to an embodiment of the present invention;
도 7은 본 발명의 일 실시예에 따른 자막정보 검색 방법에 대한 흐름도, 7 is a flowchart illustrating a method for searching subtitle information according to an embodiment of the present invention;
도 8은 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기에 대한 블록 구성도, 8 is a block diagram of a terminal providing a caption information retrieval function according to an embodiment of the present invention;
도 9는 본 발명의 일 실시예에 따른 자막정보 검색 기능을 제공하는 단말기에 포함된 특성정보 추출부에 대한 블록 구성도이다. 9 is a block diagram illustrating a feature information extracting unit included in a terminal providing a caption information retrieval function according to an embodiment of the present invention.
< 도면의 주요 부분에 대한 부호의 설명 >Description of the Related Art
100: 자막정보 검색 시스템100: subtitle information search system
110: 사용자 단말기110: user terminal
120: 자막정보 검색 서버120: subtitle information search server
130: 유무선 통신망130: wired and wireless network
310: 자막정보 검색 요청 수신부310: subtitle information search request receiving unit
320: 특성정보 입력부320: characteristic information input unit
330: 자막정보 검색부330: subtitle information search unit
340: 자막정보 제공부340: subtitle information provider
410: 특성정보 전달부410: characteristic information transmission unit
420: 특성정보 추출부420: feature information extraction unit
510: 세그먼테이션화부510: segmentation department
520: 대표 영상 추출부520: representative image extraction unit
530: 핑거프린트 추출부530: fingerprint extraction unit
610: 특성정보 비교부610: characteristic information comparison unit
620: 동일 동영상 검색부620: same video search unit
630: 자막정보 추출부630: caption information extraction unit
Claims (11)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090066196A KR101330524B1 (en) | 2009-07-21 | 2009-07-21 | Method, Terminal, Server and System for Searching Subtitle of Video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090066196A KR101330524B1 (en) | 2009-07-21 | 2009-07-21 | Method, Terminal, Server and System for Searching Subtitle of Video |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110008711A KR20110008711A (en) | 2011-01-27 |
KR101330524B1 true KR101330524B1 (en) | 2013-11-18 |
Family
ID=43614682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090066196A KR101330524B1 (en) | 2009-07-21 | 2009-07-21 | Method, Terminal, Server and System for Searching Subtitle of Video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101330524B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101403969B1 (en) * | 2013-04-05 | 2014-06-10 | 구재환 | How to recognize the point of the subtitles of the video playback time code is lost |
CN104462355B (en) * | 2014-12-05 | 2017-10-17 | 国家电网公司 | A kind of multimedia system and multi-media processing method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050071822A (en) * | 2004-01-02 | 2005-07-08 | 황정우 | Mobile communication terminal having function of editing moving-picture and method for editing and service server for editing moving-picture and method for editing |
KR20060099866A (en) * | 2005-03-15 | 2006-09-20 | (주)잉카엔트웍스 | Method of providing caption information and system thereof |
KR20080101075A (en) * | 2007-05-15 | 2008-11-21 | 삼성전자주식회사 | Method and apparatus for searching video and video information, and system performing the method |
-
2009
- 2009-07-21 KR KR1020090066196A patent/KR101330524B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20050071822A (en) * | 2004-01-02 | 2005-07-08 | 황정우 | Mobile communication terminal having function of editing moving-picture and method for editing and service server for editing moving-picture and method for editing |
KR20060099866A (en) * | 2005-03-15 | 2006-09-20 | (주)잉카엔트웍스 | Method of providing caption information and system thereof |
KR20080101075A (en) * | 2007-05-15 | 2008-11-21 | 삼성전자주식회사 | Method and apparatus for searching video and video information, and system performing the method |
Also Published As
Publication number | Publication date |
---|---|
KR20110008711A (en) | 2011-01-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112565825B (en) | Video data processing method, device, equipment and medium | |
US8995823B2 (en) | Method and system for content relevance score determination | |
US8879788B2 (en) | Video processing apparatus, method and system | |
KR101810578B1 (en) | Automatic media sharing via shutter click | |
US20090007202A1 (en) | Forming a Representation of a Video Item and Use Thereof | |
US20070101266A1 (en) | Video summary description scheme and method and system of video summary description data generation for efficient overview and browsing | |
JP2001155169A (en) | Method and system for dividing, classifying and summarizing video image | |
CN104216956B (en) | The searching method and device of a kind of pictorial information | |
US20110052086A1 (en) | Electronic Apparatus and Image Processing Method | |
CN108337482A (en) | The storage method and system of monitor video | |
KR20090019712A (en) | Information processing device and information processing method | |
KR101541495B1 (en) | Apparatus, method and computer readable recording medium for analyzing a video using the image captured from the video | |
KR100896336B1 (en) | System and Method for related search of moving video based on visual content | |
KR20150015016A (en) | Searching for events by attendants | |
JP2014006680A (en) | Video recorder, information processing system, information processing method, and recording media | |
CN114845149B (en) | Video clip method, video recommendation method, device, equipment and medium | |
EP2887259A1 (en) | Method for annotating an object in a multimedia asset | |
KR101330524B1 (en) | Method, Terminal, Server and System for Searching Subtitle of Video | |
KR20200024541A (en) | Providing Method of video contents searching and service device thereof | |
Bohm et al. | Prover: Probabilistic video retrieval using the Gauss-tree | |
US20150078730A1 (en) | Signal recording apparatus, camera recorder, and signal processing system | |
KR101334127B1 (en) | System and method for providing content sharing service using client terminal | |
KR100930529B1 (en) | Harmful video screening system and method through video identification | |
KR20090096158A (en) | System and Method for cross-media search based on moving video still cut | |
KR101749420B1 (en) | Apparatus and method for extracting representation image of video contents using closed caption |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
N231 | Notification of change of applicant | ||
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171102 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20181106 Year of fee payment: 6 |