KR20170027252A - Cluster method for using broadcast contents and broadcast relational data and user apparatus for performing the method - Google Patents

Cluster method for using broadcast contents and broadcast relational data and user apparatus for performing the method Download PDF

Info

Publication number
KR20170027252A
KR20170027252A KR1020160009764A KR20160009764A KR20170027252A KR 20170027252 A KR20170027252 A KR 20170027252A KR 1020160009764 A KR1020160009764 A KR 1020160009764A KR 20160009764 A KR20160009764 A KR 20160009764A KR 20170027252 A KR20170027252 A KR 20170027252A
Authority
KR
South Korea
Prior art keywords
scene
broadcast
scenes
story
association
Prior art date
Application number
KR1020160009764A
Other languages
Korean (ko)
Other versions
KR101934109B1 (en
Inventor
손정우
김선중
박원주
이상윤
류원
김상권
김승희
정우석
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to US15/253,309 priority Critical patent/US20170061215A1/en
Publication of KR20170027252A publication Critical patent/KR20170027252A/en
Application granted granted Critical
Publication of KR101934109B1 publication Critical patent/KR101934109B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

The present invention relates to a clustering method by using broadcast content and broadcast-associated data and a user terminal for performing the method. The cluster method generates a story graph for each of a plurality of scenes for broadcast content by using the broadcast content and broadcast-associated data, and generates a cluster for the scene by using the generated story graph.

Description

방송 컨텐츠 및 방송 연관 데이터를 이용한 클러스터 방법 및 상기 방법을 수행하는 사용자 단말{CLUSTER METHOD FOR USING BROADCAST CONTENTS AND BROADCAST RELATIONAL DATA AND USER APPARATUS FOR PERFORMING THE METHOD}CLAIMS AND METHODS FOR CLUSTER METHOD FOR USING BROADCAST CONTENTS AND BROADCAST RELATIONAL DATA AND USER APPARATUS FOR PERFORMING THE METHOD,

아래의 설명은 방송 컨텐츠 및 방송 연관 데이터를 이용한 클러스터 방법 및 상기 방법을 수행하는 사용자 단말에 관한 것으로 구체적으로는 방송 컨텐츠를 구성하는 물리적인 샷(shot) 또는 장면(scene)을 기반으로 방송 컨텐츠를 스토리 단위의 클러스터로 분할하는 클러스터 방법 및 방법을 수행하는 사용자 단말에 관한 것이다.The following description relates to a cluster method using broadcast content and broadcast-related data, and to a user terminal performing the method. More specifically, the present invention relates to a cluster method using broadcast contents and broadcast- And a user terminal performing a clustering method and a method for dividing the clusters into story-based clusters.

Netflix, Hulu, Amazon FireTV와 같은 국제적인 OTT 사업자의 성장과 국내 IPTV 및 CATV의 확산은 종래 방송 컨텐츠의 단방향 소비 형태를 변화시키고 있다. 다시 말해, 종래에는 방송국에서 시간에 맞춰 송출하는 컨텐츠를 시청자가 소비하였다면, 최근의 시청자는 요구에 따라 방송 컨텐츠를 선택적으로 소비하게 된다. 이와 같은 소비 형태의 변화는 방송 서비스의 변화를 촉진시키고 있다.The growth of international OTT operators such as Netflix, Hulu, and Amazon FireTV, and the proliferation of domestic IPTV and CATV are changing the unidirectional consumption pattern of conventional broadcasting contents. In other words, in the past, if the viewer consumes the content to be transmitted in time according to the time, the latest viewer selectively consumes the broadcast content according to the request. Such changes in consumption patterns are promoting changes in broadcasting services.

특히, 기존에는 방송 컨텐츠의 일부를 시청하기 위해 수동적으로 시청자가 기다렸다면, 웹 서비스나 IPTV의 VoD 서비스에서는 시청자가 원하는 일부분을 이동하여 시청하거나, 일부 컨텐츠의 경우, 특정 단위로 분할하여 서비스되고 있다. 이러한 서비스의 실현을 위한 주요 기반 기술 중 하나로, 방송 컨텐츠에 대한 분할 기술이 있으며, 이에 따라 수동, 반자동, 자동 분할 기술을 제안하고 있으며, 분할된 컨텐츠는 서비스의 기본 단위 컨텐츠로 사용되고 있다.Particularly, if a viewer manually waits for a part of broadcast contents to be watched, a part desired by a viewer is watched or watched in a Web service or a VoD service of IPTV, or in the case of some contents, . One of the main underlying technologies for realizing such a service is a division technology for broadcasting contents, and thus manual, semi-automatic, and automatic division technology are proposed, and the divided contents are used as basic unit contents of the service.

여기서, 기존의 방송 컨텐츠 분할은 컨텐츠의 물리적 변화에 기반한 방법으로 소리 정보가 급격하게 변화하거나, 화면이 변화하는 경우를 고려하여 이를 장면(scene)으로 분할한다. 이와 같은 종래의 기술은 물리적인 속성의 변화에 기반하기 때문에, 서로 다른 장소로 이동하며 이어지는 내용이나, 하나의 사건에 대해 여러 장소나 인물이 관여하고 있는 장소 등, 동일한 스토리 라인 내에서 나타나는 서로 다른 장면들을 연결할 수 없는 문제가 있다.In the conventional broadcast content segmentation, the sound information is rapidly changed in a method based on the physical change of the content or is divided into scenes in consideration of the change of the screen. Such conventional techniques are based on changes in physical properties, and therefore, they can be applied to different contents that appear in the same story line, such as contents moving to different places, places where various places or people are involved in one event There is a problem that the scenes can not be connected.

최근에는 이러한 서로 다른 장면들 간의 연결 문제를 해결하기 위하여 사람이 직접 방송 컨텐츠를 분할하거나, 자동 분할된 컨텐츠에 대한 검수함으로써, 서로 다른 장면 간의 연결 문제를 해결하였다. 그러나, 이러한 방법은 사람이 직접 분할 및 검수함에 따라 서로 다른 장면을 연결하는 데에 많은 시간과 비용을 할애하고 있다.Recently, in order to solve the connection problem between these different scenes, a problem of connection between different scenes is solved by dividing broadcasting contents directly by a person or inspecting an automatically divided contents. However, this method takes a lot of time and money to connect different scenes as a person divides and inspects them directly.

따라서, 방송 컨텐츠의 장면뿐만 아니라, 스토리를 고려하여 방송 컨텐츠의 장면에 대한 클러스터를 수행하는 방법이 필요하다.Accordingly, there is a need for a method of clustering scenes of broadcast contents in consideration of not only scenes of broadcast contents but also stories.

본 발명은 방송 컨텐츠에 대한 영상, 음성 및 연관 비정형 데이터를 분석하여 방송 컨텐츠를 구성하는 스토리 단위의 클러스터를 생성하는 클러스터 방법 및 상기 방법을 수행하는 사용자 단말을 제공할 수 있다.The present invention can provide a cluster method for generating a story-based cluster constituting broadcast contents by analyzing video, audio, and associated unstructured data for broadcast contents, and a user terminal performing the method.

본 발명은 스토리 단위의 클러스터를 수행하기 위하여 물리적 변화를 기반으로 장면에 대해 스토리 그래프를 구축하고, 스토리 그래프 간 일관성을 측정함으로써, 방송 컨텐츠를 계층화하여 클러스터를 생성하는 클러스터 방법 및 상기 방법을 수행하는 사용자 단말을 제공할 수 있다.The present invention relates to a cluster method for constructing a cluster by layering broadcast contents by constructing a story graph for scenes based on physical changes and measuring consistency between story graphs to perform clusters of story units, A user terminal can be provided.

일실시예에 따른 클러스터링 방법은 방송 컨텐츠 및 방송 연관 데이터를 수신하는 단계; 상기 방송 컨텐츠와 방송 연관 데이터를 이용하여 상기 방송 컨텐츠에 대한 복수의 장면을 결정하는 단계; 상기 결정된 복수의 장면들 각각에 대해 스토리 그래프를 생성하는 단계; 및 상기 생성된 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성하는 단계를 포함할 수 있다.A clustering method according to an exemplary embodiment of the present invention includes receiving broadcast content and broadcast-related data; Determining a plurality of scenes for the broadcast content using the broadcast content and the broadcast-related data; Generating a story graph for each of the determined plurality of scenes; And generating a cluster for a scene using the generated story graph.

일실시예에 따른 장면을 결정하는 단계는 상기 방송 컨텐츠에 대한 샷을 추출하는 단계; 상기 추출된 샷으로부터 복수의 제1 장면들 간의 제1 장면 연관성을 결정하는 단계; 방송 연관 데이터로부터 추출된 복수의 제2 장면들 간의 제2 장면 연관성을 결정하는 단계; 및 상기 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 단계를 포함할 수 있다.The step of determining a scene according to an exemplary embodiment includes: extracting a shot of the broadcast content; Determining a first scene association between a plurality of first scenes from the extracted shots; Determining a second scene association between a plurality of second scenes extracted from the broadcast association data; And generating a scene in which the first scene association and the second scene association are matched with each other.

일실시예에 따른 방송 컨텐츠에 대한 샷을 추출하는 단계는 상기 방송 컨텐츠를 구성하는 복수의 프레임들 간의 유사도에 기초하여 상기 방송 컨텐츠에 대한 샷을 추출할 수 있다.The step of extracting shots for broadcast contents according to an exemplary embodiment may extract shots of the broadcast contents based on a degree of similarity between a plurality of frames constituting the broadcast contents.

일실시예에 따른 장면을 생성하는 단계는 상기 복수의 제1 장면들과 상기 제2 복수의 장면들 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성할 수 있다.The step of generating a scene according to an embodiment may generate a scene in which first scene association and second scene association are matched based on the similarity between the plurality of first scenes and the second plurality of scenes.

일실시예에 따른 스토리 그래프를 결정하는 단계는 방송 연관 데이터로부터 키워드를 추출하는 단계; 및 상기 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성된 스토리 그래프를 생성하는 단계를 포함할 수 있다.The step of determining a story graph according to an exemplary embodiment of the present invention includes: extracting keywords from broadcast-related data; And generating a story graph including a node corresponding to the keyword and an edge corresponding to the association of the keyword.

일실시예에 따른 노드와 엣지는 상기 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 가질 수 있다.The node and the edge according to an exemplary embodiment may have a weight extracted from broadcast time for the broadcast content.

일실시예에 따른 스토리 그래프는 상기 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현될 수 있다.A story graph according to an exemplary embodiment may be represented by a matrix representing a change in a weight of the edge and a matrix representing a weight change of a node.

일실시예에 따른 클러스터를 생성하는 단계는 상기 장면들 각각의 스토리 그래프에 대한 일관성을 결정하는 단계; 및 상기 결정된 일관성에 기초하여 상기 장면들 각각의 스토리 그래프를 결합하는 단계를 포함할 수 있다.The step of creating a cluster according to an embodiment includes the steps of: determining consistency of a story graph of each of the scenes; And combining the story graph of each of the scenes based on the determined consistency.

일실시예에 따른 일관성을 결정하는 단계는 2 개의 스토리 그래프가 공유하는 서브 그래프의 크기를 기반으로 장면들 각각의 스토리 그래프에 대한 일관성을 결정할 수 있다.The step of determining consistency according to one embodiment may determine the consistency of the story graph of each of the scenes based on the size of the subgraph shared by the two story graphs.

일실시예에 따른 서브 그래프는 2개의 스토리 그래프가 겹쳐지는 중첩 영역을 의미하며, 상기 중첩 영역에서의 일관성은 2 개의 스토리 그래프가 공유하는 서브 그래프의 크기 및 공유된 서브 그래프의 밀도에 의해 결정될 수 있다.A subgraph according to an exemplary embodiment of the present invention refers to an overlapped region in which two story graphs overlap, and the consistency in the overlap region can be determined by the size of the subgraph shared by the two story graphs and the density of the shared subgraph have.

일실시예에 따른 장면에 대한 클러스터는 상기 스토리 그래프에 따른 비연속적인 장면으로 구성되어, 하나의 트리 형태로 표현될 수 있다.A cluster for a scene according to an exemplary embodiment may consist of a discontinuous scene according to the story graph, and may be expressed in a tree form.

일실시예에 따른 클러스터링 방법은 방송 컨텐츠 및 방송 연관 데이터를 수신하는 단계; 상기 방송 컨텐츠를 구성하는 복수의 프레임들 간의 유사도에 기초하여 상기 방송 컨텐츠에 대한 샷을 추출하는 단계; 상기 추출한 샷을 기반으로 상기 방송 컨텐츠 및 방송 연관 데이터에 따른 복수의 장면을 결정하는 단계; 및 상기 장면들 각각의 스토리 그래프에 대한 일관성을 고려하여 장면에 대한 클러스터를 생성하는 단계를 포함할 수 있다.A clustering method according to an exemplary embodiment of the present invention includes receiving broadcast content and broadcast-related data; Extracting a shot for the broadcast content based on a degree of similarity between a plurality of frames constituting the broadcast content; Determining a plurality of scenes according to the broadcast content and the broadcast-related data based on the extracted shot; And generating a cluster for a scene in consideration of consistency of the story graph of each of the scenes.

일실시예에 따른 복수의 장면을 결정하는 단계는 상기 추출된 샷으로부터 복수의 초기 장면을 생성하는 단계; 상기 복수의 초기 장면들 간의 제1 장면 연관성을 결정하는 단계; 방송 연관 데이터로부터 추출된 장면에 대한 정보를 이용하여 상기 방송 연관 데이터 내의 장면간의 제2 장면 연관성을 결정하는 단계; 상기 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 단계를 포함할 수 있다.The determining of the plurality of scenes according to an exemplary embodiment may include generating a plurality of initial scenes from the extracted shots; Determining a first scene association between the plurality of initial scenes; Determining a second scene association between scenes in the broadcast-related data using information on scenes extracted from the broadcast-related data; And generating a scene in which the first scene association is matched with the second scene association.

일실시예에 따른 장면을 생성하는 단계는 상기 복수의 초기 장면들과 상기 방송 연관 데이터로부터 추출된 장면 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성할 수 있다.The step of generating a scene according to an exemplary embodiment may generate a scene in which a first scene association and a second scene association are matched based on a similarity between the plurality of initial scenes and a scene extracted from the broadcast association data.

일실시예에 따른 클러스터를 생성하는 단계는 상기 방송 연관 데이터로부터 추출된 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성되는 장면들 각각의 스토리 그래프를 이용할 수 있다.The step of generating a cluster according to an exemplary embodiment may use a story graph of each of a scene corresponding to a node extracted from the broadcast-related data and an edge corresponding to the association of the keyword.

일실시예에 따른 노드와 엣지는 상기 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 가질 수 있다.The node and the edge according to an exemplary embodiment may have a weight extracted from broadcast time for the broadcast content.

일실시예에 따른 스토리 그래프는 상기 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현될 수 있다.A story graph according to an exemplary embodiment may be represented by a matrix representing a change in a weight of the edge and a matrix representing a weight change of a node.

일실시예에 따른 장면들 각각의 스토리 그래프에 대한 일관성은 2 개의 스토리 그래프가 공유하는 서브 그래프의 크기에 의해 결정될 수 있다.The consistency of the story graphs of each of the scenes according to one embodiment may be determined by the size of the subgraphs shared by the two story graphs.

일실시예에 따른 서브 그래프는 2개의 스토리 그래프가 겹쳐지는 중첩 영역을 의미하며, 상기 중첩 영역에서의 일관성은 2 개의 스토리 그래프가 공유하는 서브 그래프의 크기 및 공유된 서브 그래프의 밀도에 의해 결정될 수 있다.A subgraph according to an exemplary embodiment of the present invention refers to an overlapped region in which two story graphs overlap, and the consistency in the overlap region can be determined by the size of the subgraph shared by the two story graphs and the density of the shared subgraph have.

본 발명의 일실시예에 따른 클러스터 방법 및 상기 방법을 수행하는 사용자 단말은 방송 컨텐츠에 대하여 스토리 단위의 클러스터를 생성함으로써, 장면 단위로 방송 서비스를 제공하기 위한 시간 및 비용이 절감될 뿐만 아니라, 스토리 단위의 방송 컨텐츠를 제공함에 따라 서비스 범위를 확장할 수 있다.The cluster method according to an embodiment of the present invention and the user terminal performing the method can reduce the time and cost for providing a broadcast service on a scene-by-scene basis, The service range can be extended by providing the broadcasting contents of the unit.

도 1은 일실시예에 따른 방송 컨텐츠를 스토리 단위의 클러스터로 분할하는 사용자 단말의 전반적인 구성을 도시한 도면이다.
도 2는 일실시예에 따른 방송 컨텐츠에 대한 복수의 장면을 결정하는 동작을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 방송 컨텐츠에 대한 복수의 장면의 저장 형태를 도시한 도면이다.
도 4는 일실시예에 따른 방송 컨텐츠의 스토리 그래프를 추출하기 위한 절차를 도시한 도면이다.
도 5는 일실시예에 따른 장면들 각각의 스토리 그래프의 형태를 도시한 도면이다.
도 6은 일실시예에 따른 장면에 대한 클러스터를 생성하는 절차를 도시한 도면이다.
도 7은 일실시예에 따른 클러스터 방법을 설명하기 위한 흐름도이다.
FIG. 1 is a diagram illustrating a general configuration of a user terminal for dividing broadcast contents according to an embodiment into clusters in story units.
2 is a diagram for explaining an operation of determining a plurality of scenes for broadcast contents according to an exemplary embodiment.
3 is a diagram illustrating a storage format of a plurality of scenes for broadcast contents according to an exemplary embodiment.
4 is a flowchart illustrating a procedure for extracting a story graph of broadcast content according to an exemplary embodiment of the present invention.
FIG. 5 is a view showing the shape of a story graph of each of scenes according to an embodiment.
6 is a flowchart illustrating a procedure for creating a cluster for a scene according to an exemplary embodiment of the present invention.
7 is a flowchart illustrating a cluster method according to an embodiment.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 일실시예에 따른 방송 컨텐츠를 스토리 단위의 클러스터로 분할하는 사용자 단말의 전반적인 구성을 도시한 도면이다.FIG. 1 is a diagram illustrating a general configuration of a user terminal for dividing broadcast contents according to an embodiment into clusters in story units.

도 1을 참고하면, 사용자 단말(100)은 방송 컨텐츠와 방송 연관 데이터를 이용하여 상기 방송 컨텐츠에 대한 복수의 장면을 결정하고, 결정된 복수의 장면들 각각에 대한 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성할 수 있다. 여기서, 사용자 단말(100)은 사용자 단말(100)의 화면을 통해 방송 컨텐츠를 디스플레이하는 장치일 수 있다. 또는 사용자 단말(100)은 외부로부터 방송 컨텐츠를 수신하고, 별도의 디스플레이 장치로 수신한 방송 컨텐츠를 제공하는 장치일 수 있다. 또한, 사용자 단말(100)은 방송 컨텐츠를 입력으로 연관된 데이터를 수집, 가공, 분석하여 시맨틱 클러스터를 추출하는 동작을 수행하는 장치를 포함할 수 있다. 일례로, 사용자 단말(100)은 텔레비전, 셋톱 박스, 데스크 탑 등 디스플레이 또는 별도의 장치를 통해 방송 컨텐츠를 디스플레이 할 수 있는 장치를 포함할 수 있다. Referring to FIG. 1, the user terminal 100 determines a plurality of scenes for the broadcast content using broadcast content and broadcast-related data, and generates a cluster for a scene using a story graph for each of the determined plurality of scenes. Lt; / RTI > Here, the user terminal 100 may be a device for displaying broadcast content on the screen of the user terminal 100. [ Alternatively, the user terminal 100 may be a device for receiving broadcast content from outside and providing broadcast content received by a separate display device. In addition, the user terminal 100 may include an apparatus for collecting, processing, analyzing and extracting semantic clusters by inputting broadcast contents. In one example, the user terminal 100 may include a display, such as a television, set-top box, desk top, or other device capable of displaying broadcast content via a separate device.

사용자 단말(100)은 영상 기반 샷 추출부(110), 샷 기반 장면 추출부(120), 스토리 그래프 추출부(130) 및 클러스터 생성부(140)를 포함할 수 있다.The user terminal 100 may include an image-based shot extracting unit 110, a shot-based scene extracting unit 120, a story graph extracting unit 130, and a cluster generating unit 140.

영상 기반 샷 추출부(110)는 방송 컨텐츠(210) 및 방송 연관 데이터(220)를 수신할 수 있다. 영상 기반 샷 추출부(110)는 프레임 간 유사도에 기반하여 방송 컨텐츠(210)의 샷을 추출할 수 있다. 프레임 간 유사도는 프레임을 구성하는 객체 또는 배경 등의 색상, 텍스쳐, 영역 등의 차이를 기반으로 계산되는 결과를 나타낼 수 있다. 일례로, 프레임 간 유사도는 "프레임"으로부터 추출된 색상 히스토그램, 모션 등의 특징 벡터를 기반으로 코사인 유사도, 유클리디안 디스턴스 등을 이용하여 계산될 수 있다.The image-based shot extracting unit 110 may receive the broadcast content 210 and the broadcast-related data 220. The image-based shot extracting unit 110 may extract a shot of the broadcast content 210 based on the inter-frame similarity. The similarity between frames can represent a result calculated based on the difference in color, texture, area, etc. of the object or background constituting the frame. For example, the similarity between frames can be calculated using cosine similarity, euclidean distance, or the like based on a feature vector such as a color histogram and motion extracted from a "frame ".

결국, 영상 기반 샷 추출부(110)는 프레임 간의 유사도를 기반으로 방송 컨텐츠(210)의 샷을 추출하고, 이를 통해 방송 컨텐츠는 샷의 시퀀스로 표현될 수 있다. As a result, the image-based shot extracting unit 110 extracts shots of the broadcast contents 210 based on the degree of similarity between the frames, and the broadcast contents can be represented by a sequence of shots.

그리고, 방송 연관 데이터(220)는 방송 컨텐츠(210)와 연관된 자막, 대본 등의 정보를 포함할 수 있다. 영상 기반 샷 추출부(110)는 방송 컨텐츠를 구성하는 복수의 프레임들 간의 유사도에 기초하여 방송 컨텐츠에 대한 샷을 추출할 수 있다.The broadcast-related data 220 may include information such as subtitles, scripts, and the like associated with the broadcast content 210. The image-based shot extracting unit 110 may extract shots of broadcast contents based on the degree of similarity between a plurality of frames constituting broadcast contents.

구체적으로, 영상 기반 샷 추출부(110)는 방송 컨텐츠(210)에 대한 물리적인 변화를 고려하여 방송 컨텐츠에 대한 샷을 추출할 수 있다. 이를 위해, 영상 기반 샷 추출부(110)는 방송 컨텐츠(210)로부터 음성 특징과 영상 특징을 추출할 수 있다. 영상 기반 샷 추출부(110)는 추출한 영상 특징을 기반으로 물리적인 변화에 따른 방송 컨텐츠에 대한 샷을 추출할 수 있다.Specifically, the image-based shot extracting unit 110 may extract shots of the broadcast contents in consideration of a physical change of the broadcast contents 210. To this end, the image-based shot extracting unit 110 may extract a voice feature and an image feature from the broadcast content 210. [ The image-based shot extracting unit 110 may extract shots of broadcast contents according to physical changes based on the extracted image features.

샷 기반 장면 추출부(120)은 방송 컨텐츠와 방송 연관 데이터를 이용하여 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다. 샷 기반 장면 추출부(120)은 추출한 샷의 시간적 연관성과 방송 연관 데이터로부터 추출한 장면에 대한 정보를 기반으로 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다.The shot-based scene extracting unit 120 may determine a plurality of scenes for the broadcast content using the broadcast content and the broadcast-related data. The shot-based scene extracting unit 120 can determine a plurality of scenes for the broadcast contents based on the temporal relevance of the extracted shots and the information about scenes extracted from the broadcast-related data.

구체적으로, 샷 기반 장면 추출부(120)은 추출된 샷으로부터 복수의 제1 장면들 간의 제1 장면 연관성을 결정할 수 있다. 여기서, 제1 장면들은 샷으로부터 복수의 초기 장면을 의미할 수 있으며, 샷 기반 장면 추출부(120)은 복수의 초기 장면 간의 제1 장면 연관성을 결정할 수 있다. 즉, 제1 장면 연관성은 방송 컨텐츠의 샷 간의 연관성을 나타낼 수 있다.Specifically, the shot-based scene extracting unit 120 may determine a first scene-relevance among the plurality of first scenes from the extracted shot. Here, the first scenes may refer to a plurality of initial scenes from a shot, and the shot-based scene extractor 120 may determine a first scene correlation between a plurality of initial scenes. That is, the first scene association may indicate the association between the shots of the broadcast contents.

샷 기반 장면 추출부(120)은 방송 연관 데이터로부터 추출된 복수의 제2 장면들 간의 제2 장면 연관성을 결정할 수 있다. 여기서, 제2 장면들은 방송 연관 데이터로부터 추출된 장면에 대한 정보를 의미할 수 있으며, 샷 기반 장면 추출부(120)은 추출된 장면에 대한 정보를 이용하여 방송 연관 데이터 내의 장면간의 제2 장면 연관성을 결정할 수 있다. 샷 기반 장면 추출부(120)은 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성함으로써, 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다. 여기서, 샷 기반 장면 추출부(120)은 제1 장면 연관성과 제2 장면 연관성이 최대한 매칭되는 장면을 생성하는 것으로써, 방송 컨텐츠와 방송 연관 데이터 간에 연관성을 나타내는 다수의 데이터가 존재한다고 가정할 때, 최대한 매칭되는 장면은 다수의 데이터 중 제1 장면 연관성과 제2 장면 연관성에 따른 관련성이 가장 높게 매칭되는 장면을 의미할 수 있다.The shot-based scene extracting unit 120 may determine a second scene association between a plurality of second scenes extracted from the broadcast-related data. Here, the second scenes may be information on a scene extracted from the broadcast-related data, and the shot-based scene extracting unit 120 may extract second scene- Can be determined. The shot-based scene extracting unit 120 can determine a plurality of scenes for the broadcast content by generating scenes matching the first scene association and the second scene association. Here, the shot-based scene extracting unit 120 generates a scene in which the first scene association and the second scene association are matched to each other as much as possible, and assumes that there exist a plurality of pieces of data indicating association between the broadcast content and the broadcast- , A scene that is matched to the maximum may mean a scene in which a first scene-relevance and a second scene-relevance match most closely among a plurality of data.

스토리 그래프 추출부(130)는 결정된 복수의 장면들 각각에 대해 스토리 그래프를 생성할 수 있다. 구체적으로, 스토리 그래프 추출부(130)는 방송 연관 데이터로부터 키워드를 추출할 수 있다. 그리고, 스토리 그래프 추출부(130)는 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성된 스토리 그래프를 생성할 수 있다. 여기서, 노드와 엣지는, 상기 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 나타낼 수 있으며, 스토리 그래프는, 상기 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현될 수 있다.The story graph extracting unit 130 may generate a story graph for each of the determined plurality of scenes. Specifically, the story graph extracting unit 130 can extract keywords from the broadcast-related data. The story graph extracting unit 130 can generate a story graph composed of nodes corresponding to the keywords and edges corresponding to the associations of the keywords. Here, the node and the edge may represent a weight extracted from the broadcast time of the broadcast content, and the story graph may be expressed by a matrix representing a weight change of the edge and a matrix representing a weight change of a node.

클러스터 생성부(140)는 생성된 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성할 수 있다. 여기서, 클러스터 생성부(140)는 스토리 그래프의 의미적 일관성을 고려하여 장면에 대한 클러스터를 생성할 수 있으며, 장면에 대한 클러스터는 스토리 그래프에 따른 비연속적인 장면으로 다계층의 시맨틱 클러스터이며, 하나의 트리 형태로 표현일 수 있다.The cluster generating unit 140 may generate a cluster for a scene using the generated story graph. Here, the cluster generating unit 140 can generate clusters for scenes in consideration of semantic consistency of story graphs. Clusters for scenes are non-contiguous scenes according to story graphs, and are multi-layered semantic clusters. Lt; / RTI >

결국, 본 발명에서 제안하는 클러스터 방법은 방송 컨텐츠(210), 방송연관 데이터(220)를 수신하고, 수신한 방송 컨텐츠(210), 방송연관 데이터(220)를 기반으로 스토리 단위의 시맨틱 클러스터를 생성할 수 있다. 그리고, 클러스터 방법을 통해 생성된 스토리 단위의 시맨틱 클러스터는 클러스터 저장소(150)에 저장 및 보관될 수 있다.As a result, the cluster method proposed in the present invention receives broadcast contents 210 and broadcast related data 220 and generates a story-based semantic cluster based on the received broadcast contents 210 and broadcast related data 220 can do. The semantic cluster of the story unit generated through the cluster method can be stored and stored in the cluster storage 150.

본 발명에서 제안하는 클러스터 방법은 방송 컨텐츠에 대한 스토리 단위의 분할 기술을 제안하는 것으로 본 발명에서 제안하는 스토리 단위의 분할이란, 방송 컨텐츠를 이루는 다수의 스토리 라인을 보여줄 수 있도록 장면을 나누는 것을 의미할 수 있다. 이를 위해, 본 발명에서 제안하는 클러스터 방법은 방송 컨텐츠에 따른 프레임 간의 유사도에 따라 추출된 샷을 기반으로 나뉘어진 장면으로부터 장면의 스토리를 표현하는 스토리 그래프를 생성하고, 생성된 스토리 그래프의 의미적 일관성에 기반하여 장면들을 계층화하여 결합할 수 있다. 그리고, 본 발명에서는 최종적으로 스토리 단위로 분할된 방송 컨텐츠를 “시맨틱 클러스터“라고 표현할 수 있다.The cluster method proposed by the present invention proposes a story-based segmentation technique for broadcast contents. The segmentation of a story unit proposed in the present invention means dividing a scene so as to show a plurality of story lines constituting broadcast contents . To this end, the cluster method proposed in the present invention generates a story graph representing a story of a scene from a scene divided on the basis of a shot extracted based on the similarity between frames according to broadcast contents, and generates a semantic consistency The scenes can be layered and combined. In the present invention, the broadcast content finally divided into story units can be expressed as " semantic cluster ".

도 2는 일실시예에 따른 방송 컨텐츠에 대한 복수의 장면을 결정하는 동작을 설명하기 위한 도면이다.2 is a diagram for explaining an operation of determining a plurality of scenes for broadcast contents according to an exemplary embodiment.

도 2를 참고하면, 샷 기반 장면 추출부(120)는 방송 컨텐츠와 방송 연관 데이터를 이용하여 상기 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다. 구체적으로, 샷 기반 장면 추출부(120)는 방송 컨텐츠와 방송 연관 데이터 각각에 대응하여 장면에 대한 연관성을 추출하고, 추출된 연관성에 따른 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다.Referring to FIG. 2, the shot-based scene extracting unit 120 may determine a plurality of scenes for the broadcast content using broadcast content and broadcast-related data. Specifically, the shot-based scene extracting unit 120 may extract a relevance to a scene corresponding to each of the broadcast content and the broadcast-related data, and may determine a plurality of scenes for the broadcast content according to the extracted relevance.

(1) 방송 컨텐츠(1) broadcast contents

샷 기반 장면 추출부(120)는 방송 컨텐츠를 기반으로 장면에 대한 연관성을 추출할 수 있다. 상세하게, 샷 기반 장면 추출부(120)는 영상 기반 샷 추출부(110)로부터 추출된 샷으로부터 복수의 제1 장면들 간의 제1 장면 연관성을 결정할 수 있다. 여기서, 샷 기반 장면 추출부(120)는 방송 컨텐츠의 샷 간의 유사도를 기반으로 초기 장면을 생성할 수 있다. 이 때, 초기 장면은 제1 장면 연관성을 결정하기 위해 사용되는 장면을 의미할 수 있다.The shot-based scene extracting unit 120 may extract the relevance to the scene based on the broadcast contents. In detail, the shot-based scene extracting unit 120 may determine a first scene-relevance among the plurality of first scenes from the shots extracted from the image-based shot extracting unit 110. [ Here, the shot-based scene extracting unit 120 may generate an initial scene based on the similarity between the shots of the broadcast contents. In this case, the initial scene may mean a scene used for determining the first scene association.

샷 기반 장면 추출부(120)는 생성된 복수의 초기 장면들 간의 제1 장면 연관성을 결정할 수 있다. 즉, 샷 기반 장면 추출부(120)는 초기 장면 간 연관성 측정을 통해 구축된 장면 간의 연관성을 계산할 수 있다. 샷 기반 장면 추출부(120)는 샷을 추출한 이후, 샷 구간에 해당하는 방송 컨텐츠의 영상 특징, 음성 특징 등을 추출할 수 있다. 그리고, 샷 기반 장면 추출부(120)는 종래의 벡터 유사도 계산 기법(코사인 유사도, 유클리디안 디스턴스 등)을 이용하여 추출된 특징 벡터를 비교함으로써 샷 간 연관성을 측정할 수 있다.The shot-based scene extracting unit 120 may determine a first scene association between a plurality of generated initial scenes. That is, the shot-based scene extracting unit 120 may calculate the relevance between the scenes constructed through the inter-scene correlation measurement. The shot-based scene extracting unit 120 may extract a video feature, a voice feature, and the like of the broadcast content corresponding to the shot section after extracting the shot. The shot-based scene extracting unit 120 may measure the relevance between shots by comparing extracted feature vectors using a conventional vector similarity calculation technique (cosine similarity, euclidean distance, etc.).

(2) 방송 연관 데이터(2) broadcast-related data

샷 기반 장면 추출부(120)는 방송 연관 데이터를 분석하여 복수의 제2 장면들 간의 제2 장면 연관성을 결정할 수 있다. 상세하게, 샷 기반 장면 추출부(120)는 방송 연관 데이터로부터 복수의 장면과 관련된 정보를 추출하고, 추출된 정보를 바탕으로 비정형 데이터 기반 장면간 연관성 측정 기능을 이용하여 방송 연관 데이터 내의 장면 간 제2 장면 연관성을 추출할 수 있다. 샷 기반 장면 추출부(120)는 방송 연관 데이터(대본, 자막)를 분석하여 연관 데이터에 존재하는 장면의 연관성을 추출할 수 있다. 예컨데, 샷 기반 장면 추출부(120)는 자막의 경우 장면에 존재하는 자막을 추출하여 비교하거나, 대본의 경우 대본 상의 장면을 추출하여 단어를 비교함으로써 방송 컨텐츠를 구성하는 장면 간의 연관성 정보를 추출할 수 있다.The shot-based scene extracting unit 120 may analyze the broadcast-related data to determine a second scene association between a plurality of second scenes. In detail, the shot-based scene extracting unit 120 extracts information related to a plurality of scenes from the broadcast-related data, and based on the extracted information, 2 Scene associations can be extracted. The shot-based scene extracting unit 120 may extract the relevance of scenes existing in the association data by analyzing the broadcast-related data (script, subtitles). For example, the shot-based scene extracting unit 120 extracts the subtitles present in the scenes in the case of the subtitles and extracts the scenes on the scenes in the case of the scenes to extract the relevance information between the scenes constituting the broadcast contents .

이후, 샷 기반 장면 추출부(120)는 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성할 수 있다. 구체적으로, 샷 기반 장면 추출부(120)는 복수의 제1 장면들과 상기 제2 복수의 장면들 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성할 수 있다. 즉, 샷 기반 장면 추출부(120)는 1) 방송 컨텐츠로부터 추출된 제1 장면들과 방송 연관 데이터로부터 추출된 제2 장면들 간의 직접적인 유사성과 2) 측정된 제1 장면들과 제2 장면들간의 연관성이 매칭되도록 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다.Thereafter, the shot-based scene extracting unit 120 may generate a scene in which the first scene association and the second scene association match. Specifically, the shot-based scene extracting unit 120 may generate scenes in which the first scene association and the second scene association match based on the similarity between the plurality of first scenes and the second plurality of scenes. That is, the shot-based scene extracting unit 120 extracts 1) the direct similarity between the first scenes extracted from the broadcast contents and the second scenes extracted from the broadcast-related data, and 2) the similarity between the first scenes and the second scenes A plurality of scenes for the broadcast content can be determined so that the association of the broadcast contents is matched.

결과적으로, 샷 기반 장면 추출부(120)는 연관성 매칭을 통한 방송 컨텐츠에 대한 복수의 장면, 방송 컨텐츠의 장면 및 방송 연관 데이터로부터 얻어진 해당 장면에 대한 정보가 함께 구축될 수 있다. 장면에 대한 정보는 연관성 매칭을 위해 사용된 정보로써, 제1 장면 연관성과 제2 장면 연관성에 대한 정보를 포함할 수 있다.As a result, the shot-based scene extracting unit 120 may construct a plurality of scenes for the broadcast contents through the relevance matching, scenes of the broadcast contents, and information about the scenes obtained from the broadcast-related data. The information on the scene is information used for the association matching, and may include information on the first scene association and the second scene association.

도 3은 일실시예에 따른 방송 컨텐츠에 대한 복수의 장면의 저장 형태를 도시한 도면이다.3 is a diagram illustrating a storage format of a plurality of scenes for broadcast contents according to an exemplary embodiment.

도 3을 참고하면, 샷 기반 장면 추출부(120)는 복수의 제1 장면들과 상기 제2 복수의 장면들 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 방송 컨텐츠에 대한 복수의 장면을 생성할 수 있다. 그리고, 샷 기반 장면 추출부(120)는 생성된 방송 컨텐츠에 대한 복수의 장면을 저장하기 위한 데이터 구조를 나타낼 수 있다.Referring to FIG. 3, the shot-based scene extracting unit 120 extracts a shot based on a similarity between a plurality of first scenes and the second plurality of scenes, A plurality of scenes can be generated. The shot-based scene extracting unit 120 may display a data structure for storing a plurality of scenes for the generated broadcast content.

구체적으로, 방송 컨텐츠는 복수의 장면들로 구성된 집합이며, 이는 C = {S1, S2, S3, ..., Sm}으로 표현 되며, Si는 i번째 샷을 의미하며 시작 프레임 번호(Bi)와 종료 프레임 번호(Ei)를 가질 수 있다. 그리고, 복수의 장면들 각각은 하나 이상의 프레임들로 구성된 집합일 수 있으며, 방송 컨텐츠를 구성하는 하나의 장면은 시작 프레임과 마지막 프레임을 포함하며, 장면의 영상 특징 벡터와 음성 특징 벡터를 포함할 수 있다. 방송 컨텐츠를 구성하는 하나의 장면은 해당 장면과 연결된 연관 데이터를 가지며, 연관 데이터는 키워드로 구성될 수 있다.Specifically, the broadcast content is a set of a plurality of scenes, which is expressed as C = {S 1 , S 2 , S 3 , ..., S m }, Si denotes an i th shot, And may have a number ( Bi ) and an end frame number ( Ei ). In addition, each of the plurality of scenes may be a set of one or more frames, and one scene constituting broadcast contents includes a start frame and a last frame, and may include a scene feature vector and a speech feature vector have. One scene constituting broadcast contents has association data linked to the scene, and association data can be composed of keywords.

또한, 연관 데이터는 방송 연관 데이터를 통해 추출되는 키워드를 표현하기 위하여 키워드간의 관계를 표현하는 그래프, 트리 등으로 변환하여 구현될 수 있다. 여기서, 연관 데이터는 추출된 장면에 따른 스토리 그래프로 변환되기 위한 정보로 활용될 수 있다.In addition, the association data may be implemented by converting a graph, a tree, or the like expressing the relationship between the keywords to express the keyword extracted through the broadcast-related data. Here, the associated data can be utilized as information for being converted into a story graph according to the extracted scene.

도 4는 일실시예에 따른 방송 컨텐츠의 스토리 그래프를 추출하기 위한 절차를 도시한 도면이다.4 is a flowchart illustrating a procedure for extracting a story graph of broadcast content according to an exemplary embodiment of the present invention.

도 4를 참고하면, 스토리 그래프 추출부(130)는 결정된 복수의 장면들 각각에 대해 스토리 그래프를 생성할 수 있다. 구체적으로, 스토리 그래프 추출부(130)는 방송 연관 데이터로부터 키워드를 추출할 수 있다. 여기서, 방송 연관 데이터로부터 추출된 키워드는 연관 데이터로 구현될 수 있으며, 이는 추출된 장면에 따른 스토리 그래프로 변환되기 위한 정보로 활용될 수 있다.Referring to FIG. 4, the story graph extracting unit 130 may generate a story graph for each of a plurality of determined scenes. Specifically, the story graph extracting unit 130 can extract keywords from the broadcast-related data. Here, the keyword extracted from the broadcast-related data can be implemented as association data, and it can be utilized as information to be converted into a story graph according to the extracted scene.

다시 말해, 방송 연관 데이터로부터 추출된 키워드를 포함하는 연관 데이터는 각 장면에 대한 스토리 그래프로 변환될 수 있다. 즉, 스토리 그래프 추출부(130)는 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성된 스토리 그래프를 생성할 수 있다. 스토리 그래프는 1) 노드, 엣지 및 노드, 2) 노드 및 엣지에 대한 가중치로 정의될 수 있다.In other words, the association data including the keyword extracted from the broadcast association data can be converted into a story graph for each scene. That is, the story graph extracting unit 130 can generate a story graph composed of nodes corresponding to the keywords and edges corresponding to the associations of the keywords. Story graphs can be defined as 1) nodes, edges and nodes, and 2) weights for nodes and edges.

노드는 연관 데이터로부터 추출된 키워드이며, 엣지는 키워드간 연관성을 의미할 수 있다. 그리고, 노드와 엣지는 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 포함할 수 있다. 따라서 본 발명에서 제안한 노드 및 엣지로 구성된 스토리 그래프는 N × N 형렬로 표현될 수 있다. 여기서, N은 노드의 수이며, 행렬의 값은 엣지가 가지는 연관성을 수치화한 것 일 수 있다.A node is a keyword extracted from association data, and an edge may mean association between keywords. The node and the edge may include a weight extracted from the broadcast time for the broadcast content. Therefore, a story graph composed of nodes and edges suggested by the present invention can be represented by an NxN matrix. Here, N is the number of nodes, and the value of the matrix may be a numerical value of the relevance of the edge.

결국, 스토리 그래프 추출부(130)는 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현할 수 있으며, 이에 따라 표현된 행렬은 도 5과 같은 형태를 가질 수 있으며, 이는 클러스터 저장소에 저장 및 관리될 수 있다. 자세한 구성은 도 5를 통해 설명하도록 한다.In other words, the story graph extracting unit 130 may represent a matrix representing a weight change of an edge and a matrix representing a weight change of a node, and the matrix expressed thereby may have the form shown in FIG. 5, Stored and managed. The detailed configuration will be described with reference to FIG.

도 5는 일실시예에 따른 장면들 각각의 스토리 그래프의 형태를 도시한 도면이다.FIG. 5 is a view showing the shape of a story graph of each of scenes according to an embodiment.

도 5를 참고하면, 스토리 그래프 추출부(130)는 노드와 엣지에 대한 정보를 기반으로 노드 구축 기능과 엣지 구축 기능을 수행할 수 있다. 그리고, 스토리 그래프 추출부(130)는 노드 구축 기능과 엣지 구축 기능을 포함하여 추가적으로 시간 t에 따른 가중치를 각 노드와 엣지에 부가시킬 수 있다.Referring to FIG. 5, the story graph extracting unit 130 may perform a node building function and an edge building function based on information about a node and an edge. In addition, the story graph extracting unit 130 may add a weight according to time t to each node and an edge, including a node building function and an edge building function.

다시 말해, 스토리 그래프 추출부(130)는 장면이 갖는 시간적인 흐름을 고려하여 스토리 그래프에 대하여 시간 t에 따른 가중치를 각 노드와 엣지에 부가할 수 있다. 따라서, 스토리 그래프는 엣지의 가중치 변화를 담기 위한 N × N × T 행렬(도 5의 (a))과 노드의 가중치 변화를 표현하는 N × T 행렬(도 5의 (b))로 정의될 수 있다.In other words, the story graph extracting unit 130 may add a weight according to time t to each node and an edge of the story graph considering the temporal flow of the scene. Therefore, the story graph can be defined as an N x N x T matrix (Fig. 5 (a)) for accommodating changes in the weight of edges and an N x T matrix (Fig. 5 have.

또한, 스토리 그래프 추출부(130)는 각 노드와 엣지에 시간에 따른 가중치를 부가하기 위하여 시간에 따른 가중치는 survival function, forgetting curve 등의 기술을 통해 계산될 수 있다.In addition, the story graph extracting unit 130 may calculate the weights according to time with a survival function, a forgetting curve, or the like in order to add weight to each node and edge over time.

도 6은 일실시예에 따른 장면에 대한 클러스터를 생성하는 절차를 도시한 도면이다.6 is a flowchart illustrating a procedure for creating a cluster for a scene according to an exemplary embodiment of the present invention.

도 6을 참고하면, 클러스터 생성부(140)는 생성된 스토리 그래프를 기반으로 일관성을 측정하여 장면을 결합해나가는 기능을 수행할 수 있다. 다시 말해, 클러스터 생성부(140)는 생성된 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성할 수 있다. 이를 위해, 클러스터 생성부(140)는 시맨틱 클러스터를 생성하기 위하여 스토리 일관성을 측정하는 기능과 스토리 그래프를 결합하는 기능을 반복적으로 수행할 수 있다.Referring to FIG. 6, the cluster generator 140 may perform a function of combining scenes by measuring consistency based on the generated story graph. In other words, the cluster generating unit 140 can generate a cluster for scenes using the generated story graph. To this end, the cluster generator 140 may repeatedly perform the function of combining the story graph and the function of measuring the story consistency to generate the semantic cluster.

구체적으로, 클러스터 생성부(140)는 장면들 각각의 스토리 그래프에 대한 일관성을 결정할 수 있다. 여기서, 클러스터 생성부(140)는 2 개의 스토리 그래프가 공유하는 서브 그래프의 크기를 기반으로 장면들 각각의 스토리 그래프에 대한 일관성을 결정할 수 있다. 이 때, 스토리 그래프의 결합을 위한 일관성은 스토리 그래프의 겹침 정도를 측정하여 측정된 값으로부터 얻어지는 결과를 의미할 수 있다. 즉, 스토리 그래프의 결합을 위한 일관성은 두 개의 그래프가 공유하는 서브 그래프의 크기를 기반으로 측정되는 값을 의미할 수 있다.Specifically, the cluster generating unit 140 can determine the consistency of the story graph of each of the scenes. Here, the cluster generating unit 140 can determine the consistency of the story graph of each scene based on the size of the subgraph shared by the two story graphs. In this case, the consistency for combining the story graphs may mean a result obtained from the measured values by measuring the degree of stacking of the story graphs. That is, the consistency for combining the story graphs may be a value measured based on the size of the subgraphs shared by the two graphs.

여기서, 서브 그래프는 스토리 그래프의 겹침에 있어, 가장 크게 겹치는 하나의 영역을 의미하며, 해당 영역의 스토리 일관성은 그래프의 겹친 크기와 겹쳐진 서브그래프의 밀도를 통해 계산될 수 있다. 크기는 2 개의 스토리 그래프에 의한 클러스터 간의 공유하는 엔티티를 의미하며, 밀도는 공유하는 엔티티 간의 관계를 의미할 수 있다. 즉, 스토리 일관성이란 동일한 엔티티(예컨대, 인물, 장소, 사건 등)가 동일한 관계를 가지는 정도를 측정하는 것을 의미할 수 있다. Here, the subgraph means one area that overlaps most in the overlap of the story graph, and the story consistency of the area can be calculated through the overlap of the graph and the density of the overlapped subgraph. Size refers to a shared entity between clusters based on two story graphs, and density can refer to the relationship between shared entities. That is, story consistency may mean measuring the degree to which the same entity (e.g., person, place, event, etc.) has the same relationship.

클러스터 생성부(140)는 결정된 복수의 장면들 각각에 대해 생성된 모든 스토리 그래프 중, 스토리 일관성이 가장 큰 하나를 선택하고, 선택된 스토리 그래프를 결합하는 과정에 대하여 하나의 최상위 클러스터가 남을 때까지 반복적으로 수행할 수 있다. 이를 통해 하나의 방송 컨텐츠는 시맨틱 클러스터 트리로 표현되고, 트리의 각 노드는 연계된 스토리를 담고 있으며, 스토리는 결합된 그래프의 형태로 표현될 수 있다. 결국, 시맨틱 클러스터를 이용하여 방송 컨텐츠가 하나의 시맨틱 클러스터 트리로 구성되면, 해당 결과는 시맨틱 클러스터 저장소(150)에 저장될 수 있다.The cluster generating unit 140 selects one of the story graphs having the greatest story consistency among all the story graphs generated for each of the determined plurality of scenes and repeats the process of combining the selected story graphs repeatedly until one top- . ≪ / RTI > Thus, one broadcast content is represented by a semantic cluster tree, each node of the tree contains a linked story, and the story can be expressed in the form of a combined graph. As a result, if the broadcast content is composed of one semantic cluster tree using the semantic cluster, the result can be stored in the semantic cluster storage 150.

도 7은 일실시예에 따른 클러스터 방법을 설명하기 위한 흐름도이다.7 is a flowchart illustrating a cluster method according to an embodiment.

단계(701)에서 사용자 단말은 방송 컨텐츠를 입력 받을 수 있다.In step 701, the user terminal may receive broadcast content.

단계(702)에서 사용자 단말은 방송 연관 데이터를 입력 받을 수 있다.In step 702, the user terminal may receive broadcast related data.

단계(703)에서 사용자 단말은 입력된 방송 컨텐츠를 기반으로 장면에 대한 음성 특징을 추출할 수 있다.In step 703, the user terminal can extract a voice feature for a scene based on the input broadcast content.

단계(704)에서 사용자 단말은 입력된 방송 컨텐츠를 기반으로 장면에 대한 영상 특징을 추출하고, 단계(706)를 통해 추출된 영상 특징을 기반으로 방송 컨텐츠의 샷을 추출할 수 있다. 다시 말해, 사용자 단말은 방송 컨텐츠(210)에 대한 물리적인 변화를 고려하여 방송 컨텐츠에 대한 샷을 추출할 수 있다. 그리고, 사용자 단말은 추출된 샷으로부터 복수의 제1 장면들 간의 제1 장면 연관성을 결정할 수 있다In step 704, the user terminal extracts video features of the scene based on the input broadcast content, and extracts shots of broadcast content based on the extracted video features in step 706. In other words, the user terminal can extract shots of the broadcast contents considering the physical change of the broadcast contents 210. The user terminal may then determine a first scene association between a plurality of first scenes from the extracted shot

단계(705)에서 사용자 단말은 방송 연관 데이터로부터 키워드를 추출하고, 단계(707)을 통해 추출된 키워드를 기반으로 추출된 복수의 제2 장면들 간의 제2 장면 연관성을 결정할 수 있다.In step 705, the user terminal extracts a keyword from the broadcast-related data, and determines a second scene association between a plurality of second scenes extracted based on the extracted keyword in step 707.

단계(708)에서 사용자 단말은 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성함으로써, 복수의 장면을 결정할 수 있다. 다시 말해, 사용자 단말은 방송 컨텐츠로부터 추출된 음성 특징, 제1 장면 연관성 및 방송 연관 데이터로부터 추출된 제2 장면 연관성을 기반으로 방송 컨텐츠에 대한 복수의 장면을 결정할 수 있다.In step 708, the user terminal can determine a plurality of scenes by generating scenes matching the first scene associativity and the second scene associativity. In other words, the user terminal can determine a plurality of scenes for the broadcast content based on the second scene association extracted from the voice feature, the first scene association, and the broadcast association data extracted from the broadcast content.

단계(709)에서 사용자 단말은 결정된 복수의 장면들 각각에 대해 스토리 그래프를 생성할 수 있다. 다시 말해, 사용자 단말은 방송 연관 데이터로부터 키워드를 추출하고, 추출된 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성된 스토리 그래프를 생성할 수 있다.In step 709, the user terminal may generate a story graph for each of the determined plurality of scenes. In other words, the user terminal can extract a keyword from the broadcast-related data, and generate a story graph composed of a node corresponding to the extracted keyword and an edge corresponding to the association of the keyword.

단계(710)에서 사용자 단말은 생성된 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성할 수 있다.In step 710, the user terminal may generate a cluster for the scene using the generated story graph.

본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The methods according to embodiments of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions recorded on the medium may be those specially designed and constructed for the present invention or may be available to those skilled in the art of computer software.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.While the invention has been shown and described with reference to certain preferred embodiments thereof, it will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 사용자 단말
110: 영상 기반 샷 추출
120: 샷 기반 장면 추출
130: 스토리 그래프 추출
140: 클러스터 생성
150: 클러스터 저장소
210: 방송 컨텐츠
220: 방송 연관 데이터
100: user terminal
110: Image-based shot extraction
120: Shot-based scene extraction
130: Story Graph Extraction
140: Creating a cluster
150: Cluster storage
210: broadcast contents
220: broadcast association data

Claims (20)

방송 컨텐츠 및 방송 연관 데이터를 수신하는 단계;
상기 방송 컨텐츠와 방송 연관 데이터를 이용하여 상기 방송 컨텐츠에 대한 복수의 장면을 결정하는 단계;
상기 결정된 복수의 장면들 각각에 대해 스토리 그래프를 생성하는 단계; 및
상기 생성된 스토리 그래프를 이용하여 장면에 대한 클러스터를 생성하는 단계
를 포함하는 클러스터링 방법.
Receiving broadcast content and broadcast-related data;
Determining a plurality of scenes for the broadcast content using the broadcast content and the broadcast-related data;
Generating a story graph for each of the determined plurality of scenes; And
Generating a cluster for a scene using the generated story graph;
≪ / RTI >
제1항에 있어서,
상기 장면을 결정하는 단계는,
상기 방송 컨텐츠에 대한 샷을 추출하는 단계;
상기 추출된 샷으로부터 복수의 제1 장면들 간의 제1 장면 연관성을 결정하는 단계;
방송 연관 데이터로부터 추출된 복수의 제2 장면들 간의 제2 장면 연관성을 결정하는 단계; 및
상기 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 단계
를 포함하는 클러스터링 방법.
The method according to claim 1,
Wherein the step of determining the scene comprises:
Extracting shots of the broadcast contents;
Determining a first scene association between a plurality of first scenes from the extracted shots;
Determining a second scene association between a plurality of second scenes extracted from the broadcast association data; And
Generating a scene in which the first scene association and the second scene association are matched
≪ / RTI >
제2항에 있어서,
상기 방송 컨텐츠에 대한 샷을 추출하는 단계는,
상기 방송 컨텐츠를 구성하는 복수의 프레임들 간의 유사도에 기초하여 상기 방송 컨텐츠에 대한 샷을 추출하는 클러스터링 방법.
3. The method of claim 2,
Wherein the step of extracting a shot for the broadcast content comprises:
And extracting shots of the broadcast contents based on a degree of similarity between a plurality of frames constituting the broadcast contents.
제2항에 있어서,
상기 장면을 생성하는 단계는,
상기 복수의 제1 장면들과 상기 제2 복수의 장면들 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 클러스터링 방법.
3. The method of claim 2,
Wherein the generating the scene comprises:
And generating a scene in which first scene association and second scene association are matched based on a similarity between the plurality of first scenes and the second plurality of scenes.
제1항에 있어서,
상기 스토리 그래프를 결정하는 단계는
방송 연관 데이터로부터 키워드를 추출하는 단계; 및
상기 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성된 스토리 그래프를 생성하는 단계
를 포함하는 클러스터링 방법.
The method according to claim 1,
The step of determining the story graph
Extracting keywords from broadcast-related data; And
Generating a story graph composed of a node corresponding to the keyword and an edge corresponding to the association of the keyword
≪ / RTI >
제5항에 있어서,
상기 노드와 엣지는,
상기 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 가지는 클러스터링 방법.
6. The method of claim 5,
The node and the edge,
And a weight extracted from a broadcast time of the broadcast content.
제6항에 있어서,
상기 스토리 그래프는,
상기 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현되는 클러스터링 방법.
The method according to claim 6,
In the story graph,
And a matrix representing a weight change of the edge and a matrix representing a weight change of a node.
제1항에 있어서,
상기 클러스터를 생성하는 단계는,
상기 장면들 각각의 스토리 그래프에 대한 일관성을 결정하는 단계; 및
상기 결정된 일관성에 기초하여 상기 장면들 각각의 스토리 그래프를 결합하는 단계
를 포함하는 클러스터링 방법.
The method according to claim 1,
Wherein the generating the cluster comprises:
Determining consistency of the story graph of each of the scenes; And
Combining the story graphs of each of the scenes based on the determined consistency
≪ / RTI >
제8항에 있어서,
상기 일관성을 결정하는 단계는,
2 개의 스토리 그래프가 공유하는 서브 그래프의 크기를 기반으로 장면들 각각의 스토리 그래프에 대한 일관성을 결정하는 클러스터링 방법.
9. The method of claim 8,
Wherein determining the consistency comprises:
A clustering method that determines the consistency of each story graph based on the size of subgraphs shared by two story graphs.
제9항에 있어서,
상기 서브 그래프는,
2개의 스토리 그래프가 겹쳐지는 중첩 영역을 의미하며,
상기 중첩 영역에서의 일관성은,
2 개의 스토리 그래프가 공유하는 서브 그래프의 크기 및 공유된 서브 그래프의 밀도에 의해 결정되는 클러스터링 방법.
10. The method of claim 9,
In the subgraph,
Means an overlap area in which two story graphs overlap,
The consistency in the overlapping area
The clustering method is determined by the size of the subgraph shared by the two story graphs and the density of the shared subgraph.
제1항에 있어서,
상기 장면에 대한 클러스터는,
상기 스토리 그래프에 따른 비연속적인 장면으로 구성되어, 하나의 트리 형태로 표현되는 클러스터링 방법.
The method according to claim 1,
Wherein the cluster for the scene comprises:
And a non-contiguous scene according to the story graph, the clustering method being expressed in a tree form.
방송 컨텐츠 및 방송 연관 데이터를 수신하는 단계;
상기 방송 컨텐츠를 구성하는 복수의 프레임들 간의 유사도에 기초하여 상기 방송 컨텐츠에 대한 샷을 추출하는 단계;
상기 추출한 샷을 기반으로 상기 방송 컨텐츠 및 방송 연관 데이터에 따른 복수의 장면을 결정하는 단계; 및
상기 장면들 각각의 스토리 그래프에 대한 일관성을 고려하여 장면에 대한 클러스터를 생성하는 단계
를 포함하는 클러스터링 방법.
Receiving broadcast content and broadcast-related data;
Extracting a shot for the broadcast content based on a degree of similarity between a plurality of frames constituting the broadcast content;
Determining a plurality of scenes according to the broadcast content and the broadcast-related data based on the extracted shot; And
Generating a cluster for a scene in consideration of consistency of a story graph of each of the scenes
≪ / RTI >
제12항에 있어서,
상기 복수의 장면을 결정하는 단계는,
상기 추출된 샷으로부터 복수의 초기 장면을 생성하는 단계;
상기 복수의 초기 장면들 간의 제1 장면 연관성을 결정하는 단계;
방송 연관 데이터로부터 추출된 장면에 대한 정보를 이용하여 상기 방송 연관 데이터 내의 장면간의 제2 장면 연관성을 결정하는 단계; 및
상기 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 단계
를 포함하는 클러스터링 방법.
13. The method of claim 12,
Wherein the determining of the plurality of scenes comprises:
Generating a plurality of initial scenes from the extracted shots;
Determining a first scene association between the plurality of initial scenes;
Determining a second scene association between scenes in the broadcast-related data using information on scenes extracted from the broadcast-related data; And
Generating a scene in which the first scene association and the second scene association are matched
≪ / RTI >
제13항에 있어서,
상기 장면을 생성하는 단계는,
상기 복수의 초기 장면들과 상기 방송 연관 데이터로부터 추출된 장면 간의 유사성을 기반으로 제1 장면 연관성과 제2 장면 연관성이 매칭되는 장면을 생성하는 클러스터링 방법.
14. The method of claim 13,
Wherein the generating the scene comprises:
And generating a scene in which the first scene association and the second scene association match based on the similarity between the plurality of initial scenes and the scene extracted from the broadcast association data.
제12항에 있어서,
상기 클러스터를 생성하는 단계는,
상기 방송 연관 데이터로부터 추출된 키워드에 대응하는 노드, 상기 키워드의 연관성에 대응하는 엣지로 구성되는 장면들 각각의 스토리 그래프를 이용하는 클러스터링 방법.
13. The method of claim 12,
Wherein the generating the cluster comprises:
A story graph of each of a scene corresponding to a keyword extracted from the broadcast-related data and an edge corresponding to an association of the keyword.
제15항에 있어서,
상기 노드와 엣지는,
상기 방송 컨텐츠에 대한 방송 시간으로부터 추출된 가중치를 가지는 클러스터링 방법.
16. The method of claim 15,
The node and the edge,
And a weight extracted from a broadcast time of the broadcast content.
제16항에 있어서,
상기 스토리 그래프는,
상기 엣지의 가중치 변화를 나타내는 행렬과 노드의 가중치 변화를 나타내는 행렬로 표현되는 클러스터링 방법.
17. The method of claim 16,
In the story graph,
And a matrix representing a weight change of the edge and a matrix representing a weight change of a node.
제12항에 있어서,
상기 장면들 각각의 스토리 그래프에 대한 일관성은,
2 개의 스토리 그래프가 공유하는 서브 그래프의 크기에 의해 결정되는 클러스터링 방법.
13. The method of claim 12,
The consistency of each of the scenes &
The clustering method is determined by the size of the subgraph shared by two story graphs.
제18항에 있어서,
상기 서브 그래프는,
2개의 스토리 그래프가 겹쳐지는 중첩 영역을 의미하며,
상기 중첩 영역에서의 일관성은,
2 개의 스토리 그래프가 공유하는 서브 그래프의 크기 및 공유된 서브 그래프의 밀도에 의해 결정되는 클러스터링 방법.
19. The method of claim 18,
In the subgraph,
Means an overlap area in which two story graphs overlap,
The consistency in the overlapping area
The clustering method is determined by the size of the subgraph shared by the two story graphs and the density of the shared subgraph.
제1항 내지 제19항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록된 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium on which a program for executing the method according to any one of claims 1 to 19 is recorded.
KR1020160009764A 2015-09-01 2016-01-27 Cluster method for using broadcast contents and broadcast relational data and user apparatus for performing the method KR101934109B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/253,309 US20170061215A1 (en) 2015-09-01 2016-08-31 Clustering method using broadcast contents and broadcast related data and user terminal to perform the method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150123716 2015-09-01
KR1020150123716 2015-09-01

Publications (2)

Publication Number Publication Date
KR20170027252A true KR20170027252A (en) 2017-03-09
KR101934109B1 KR101934109B1 (en) 2018-12-31

Family

ID=58402833

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160009764A KR101934109B1 (en) 2015-09-01 2016-01-27 Cluster method for using broadcast contents and broadcast relational data and user apparatus for performing the method

Country Status (1)

Country Link
KR (1) KR101934109B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708767A (en) * 1995-02-03 1998-01-13 The Trustees Of Princeton University Method and apparatus for video browsing based on content and structure
US20030028901A1 (en) * 2001-06-14 2003-02-06 International Business Machines Corporation Periodic broadcast and location of evolving media content with application to seminar and stroke media
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
WO2012137493A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Image processing device, image processing method, image processing program, and integrated circuit

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5708767A (en) * 1995-02-03 1998-01-13 The Trustees Of Princeton University Method and apparatus for video browsing based on content and structure
US6580437B1 (en) * 2000-06-26 2003-06-17 Siemens Corporate Research, Inc. System for organizing videos based on closed-caption information
US20030028901A1 (en) * 2001-06-14 2003-02-06 International Business Machines Corporation Periodic broadcast and location of evolving media content with application to seminar and stroke media
WO2012137493A1 (en) * 2011-04-07 2012-10-11 パナソニック株式会社 Image processing device, image processing method, image processing program, and integrated circuit

Also Published As

Publication number Publication date
KR101934109B1 (en) 2018-12-31

Similar Documents

Publication Publication Date Title
US8995823B2 (en) Method and system for content relevance score determination
US10133818B2 (en) Estimating social interest in time-based media
US8879788B2 (en) Video processing apparatus, method and system
US9654845B2 (en) Electronic apparatus of generating summary content and method thereof
CN105373768B (en) Method and apparatus for providing image content
US10264329B2 (en) Descriptive metadata extraction and linkage with editorial content
KR20150093425A (en) Method and apparatus for recommending content
US10694263B2 (en) Descriptive metadata extraction and linkage with editorial content
CN109408672A (en) A kind of article generation method, device, server and storage medium
JP6557592B2 (en) Video scene division apparatus and video scene division program
CN104320670A (en) Summary information extracting method and system for network video
KR20180131226A (en) Apparatus and method for programming advertisement
JP2000285243A (en) Signal processing method and video sound processing device
KR20160021016A (en) Method for providing image contents and image contents providing apparatus
US20170061215A1 (en) Clustering method using broadcast contents and broadcast related data and user terminal to perform the method
WO2014103374A1 (en) Information management device, server and control method
KR101934109B1 (en) Cluster method for using broadcast contents and broadcast relational data and user apparatus for performing the method
US20220262099A1 (en) Learning data generation device, learning device, identification device, generation method and storage medium
CN114189754A (en) Video plot segmentation method and system
KR101924642B1 (en) Apparatus and method for tagging topic to contents
CN104396262A (en) Synchronized movie summary
JP5276609B2 (en) Image processing apparatus and program
JP6299531B2 (en) Singing video editing device, singing video viewing system
Wang et al. Information-theoretic content selection for automated home video editing
Lin Automatic content recognition for the next-generation TV experience

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant