KR20220101382A - Server, method and computer program for determining start point of each video content included in series content - Google Patents

Server, method and computer program for determining start point of each video content included in series content Download PDF

Info

Publication number
KR20220101382A
KR20220101382A KR1020210003331A KR20210003331A KR20220101382A KR 20220101382 A KR20220101382 A KR 20220101382A KR 1020210003331 A KR1020210003331 A KR 1020210003331A KR 20210003331 A KR20210003331 A KR 20210003331A KR 20220101382 A KR20220101382 A KR 20220101382A
Authority
KR
South Korea
Prior art keywords
fade
frame
start time
video content
representative
Prior art date
Application number
KR1020210003331A
Other languages
Korean (ko)
Inventor
이명희
이강태
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020210003331A priority Critical patent/KR20220101382A/en
Publication of KR20220101382A publication Critical patent/KR20220101382A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • G06K9/6201
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Abstract

A server for determining the start point of each main part of video content included in the series comprises: a detection unit for detecting a plurality of fade-out sections and a plurality of non-fade-out sections from each video content; a representative frame selection unit for selecting a representative frame of each of the detected fade-out sections and selecting a representative frame of each of the detected non-fade-out sections; a table generation unit for generating a start point detection table including information on the representative frame of the fade-out section for each of the fade-out sections and information on the representative frame of the non-fade-out section corresponding to the fade-out section for each video content; a pattern extraction unit for extracting a similar pattern by comparing the start point detection tables generated for each video content; and a start point determination unit for determining the start point of the video content based on the similar pattern. Accordingly, it is possible to improve work productivity.

Description

시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 서버, 방법 및 컴퓨터 프로그램{SERVER, METHOD AND COMPUTER PROGRAM FOR DETERMINING START POINT OF EACH VIDEO CONTENT INCLUDED IN SERIES CONTENT}A server, method and computer program that determines the start time of each main part of a plurality of video content included in a series {SERVER, METHOD AND COMPUTER PROGRAM FOR DETERMINING START POINT OF EACH VIDEO CONTENT INCLUDED IN SERIES CONTENT}

본 발명은 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 추출하는 서버, 방법 및 컴퓨터 프로그램에 관한 것이다. The present invention relates to a server, a method, and a computer program for extracting the start time of each main part of a plurality of video contents included in a series.

최근, 시리즈물 형식의 비디오 컨텐츠가 많다. 이러한, 시리즈물 형식의 비디오 컨텐츠에는 보통 연령 정보, 주제가, 타이틀, 미리보기, 지난 이야기 등이 다양한 형태로 조합된 오프닝 구간이 존재한다. Recently, there is a lot of video content in the form of series. In such video content in the form of series, there is usually an opening section in which age information, theme song, title, preview, past story, and the like are combined in various forms.

대부분의 사용자는 시리즈물 형식의 비디오 컨텐츠에서 오프닝 구간을 불필요하게 생각하기 때문에 건너뛰기를 원한다. Most users want to skip the opening section in series-type video content because they consider it unnecessary.

현재, 오프닝 구간의 건너뛰기 기능은 컨텐츠 관리자의 수작업에 의해 서비스되고 있으며, 일부 비디오 컨텐츠에서는 해당 오프닝 구간의 건너뛰기 기능이 서비스되고 있지 않았다. Currently, the skip function of the opening section is provided manually by a content manager, and the skip function of the corresponding opening section is not provided in some video contents.

오프닝 구간의 건너뛰기를 위한 수작업은 컨텐츠 관리자에 의해 수행된다는 점에서 인력 자원의 낭비와 부실한 컨텐츠 관리를 야기할 수 있고, 미디어 서비스의 품질 하락을 야기할 수 있었다. Since the manual operation for skipping the opening section is performed by the content manager, it may cause waste of manpower resources and poor content management, and may cause deterioration of media service quality.

한국등록특허공보 제10-1517750호 (2015.04.29. 등록)Korean Patent Publication No. 10-1517750 (Registered on April 29, 2015)

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 오프닝 구간을 건너뛰기 위한 본편의 시작 시점을 추출하는 서버, 방법 및 컴퓨터 프로그램을 제공하고자 한다. SUMMARY OF THE INVENTION The present invention is to solve the problems of the prior art, and to provide a server, a method, and a computer program for extracting the start time of the main part for skipping the opening section of each of a plurality of video contents included in a series.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problems to be achieved by the present embodiment are not limited to the technical problems described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제 1 측면에 따른 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 서버는, 각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하는 검출부; 상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하는 대표 프레임 선정부; 상기 각 비디오 컨텐츠 각각에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하는 테이블 생성부; 상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하는 패턴 추출부; 및 상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 시작 시점 결정부를 포함 할 수 있다. As a technical means for achieving the above technical problem, a server that determines the start time of each main part of a plurality of video contents included in the series according to the first aspect of the present invention, a plurality of fade-outs ( a detection unit for detecting a FadeOut) section and a plurality of non-fade-out sections; a representative frame selector for selecting a representative frame of each of the plurality of detected fade-out periods and selecting a representative frame of each of the detected non-fading-out periods; A start time detection table including information on a representative frame of a fade-out period and information on a representative frame of a non-fade-out period corresponding to the fade-out period for each of the respective video contents for each of the plurality of fade-out periods; a table generating unit to create; a pattern extraction unit for extracting similar patterns by comparing the start time detection tables generated for each video content; and a start time determiner configured to determine a start time of the plurality of video contents based on the similar pattern.

본 발명의 제 2 측면에 따른 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 방법은, 각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하는 단계; 상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하는 단계; 상기 각 비디오 컨텐츠 각각에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하는 단계; 상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하는 단계; 및 상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 단계를 포함할 수 있다. The method for determining the start time of each main part of a plurality of video content included in a series according to the second aspect of the present invention is to detect a plurality of fade-out sections and a plurality of non-fade-out sections from each video content. to do; selecting a representative frame of each of the plurality of detected fade-out periods and selecting a representative frame of each of the detected non-fading-out periods; A start time detection table including information on a representative frame of a fade-out period and information on a representative frame of a non-fade-out period corresponding to the fade-out period for each of the respective video contents for each of the plurality of fade-out periods; generating; extracting a similar pattern by comparing the start time detection table generated for each video content; and determining a start time of the plurality of video contents based on the similar pattern.

본 발명의 제 3 측면에 따른 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우, 각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하고, 상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 각 비디오 컨텐츠 각각에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하고, 상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하고, 상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 명령어들의 시퀀스를 포함할 수 있다. A computer program stored in a computer-readable recording medium including a sequence of instructions for determining a start time of each main part of a plurality of video contents included in the series according to the third aspect of the present invention, when executed by a computing device, each Detects a plurality of fade-out sections and a plurality of non-fade-out sections from the video content, selects a representative frame of each of the detected fade-out sections, and represents each of the detected non-fade-out sections Selecting a frame, and including information on a representative frame of a fade-out period for each of the plurality of fade-out periods for each of the video contents, and information on a representative frame of a non-fade-out period corresponding to the fade-out period a sequence of instructions for generating a start time detection table, extracting a similar pattern by comparing the start time detection table generated for each video content, and determining a start time of the plurality of video contents based on the similar pattern can do.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary, and should not be construed as limiting the present invention. In addition to the exemplary embodiments described above, there may be additional embodiments described in the drawings and detailed description.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 본 발명은 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 오프닝 구간을 건너뛰기 위한 본편의 시작 시점을 결정하는 서버, 방법 및 컴퓨터 프로그램을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, the present invention provides a server, a method and a computer program for determining the start time of the main part for skipping the opening section of each of a plurality of video contents included in the series. can

이를 통해, 기존에 컨텐츠 관리자가 비디오 컨텐츠의 오프닝 구간을 직접 탐색하지 않아도 되기 때문에 불필요한 일에 인력이 낭비되는 것을 줄일 수 있고 업무 생산성을 향상시킬 수 있다. Through this, since the content manager does not need to directly search for the opening section of the video content, it is possible to reduce wasted manpower on unnecessary tasks and improve work productivity.

도 1은 본 발명의 일 실시예에 따른, 시작 시점 결정 서버의 블록도이다.
도 2는 본 발명의 일 실시예에 따른, 각 비디오 컨텐츠의 본편에 대한 시작 시점 결정의 필요성을 설명하기 위한 도면이다.
도 3a 내지 3c는 본 발명의 일 실시예에 따른, 시작 시점 검출 테이블을 생성하는 방법을 설명하기 위한 도면이다.
도 4a 내지 4e는 본 발명의 일 실시예에 따른, 유사 패턴 테이블을 생성하는 방법 및 유사 패턴 테이블을 이용하여 복수의 비디오 컨텐츠의 시작 시점을 결정하는 방법을 설명하기 위한 도면이다.
도 5a 내지 5d는 본 발명의 일 실시예에 따른, 유사 위치 테이블을 생성하는 방법 및 유사 위치 테이블을 이용하여 복수의 비디오 컨텐츠의 시작 시점을 결정하는 방법을 설명하기 위한 도면이다.
도 6은 본 발명의 일 실시예에 따른, 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 추출하는 방법을 나타낸 흐름도이다.
1 is a block diagram of a start time determination server according to an embodiment of the present invention.
FIG. 2 is a diagram for explaining the necessity of determining a start time for a main part of each video content according to an embodiment of the present invention.
3A to 3C are diagrams for explaining a method of generating a start time detection table according to an embodiment of the present invention.
4A to 4E are diagrams for explaining a method of generating a similar pattern table and a method of determining a start time of a plurality of video contents using the similar pattern table, according to an embodiment of the present invention.
5A to 5D are diagrams for explaining a method of generating a similar position table and a method of determining a start time of a plurality of video contents using the similar position table, according to an embodiment of the present invention.
6 is a flowchart illustrating a method of extracting a start time of each main part of a plurality of video contents included in a series according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part is "connected" with another part, this includes not only the case of being "directly connected" but also the case of being "electrically connected" with another element interposed therebetween. . Also, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. In this specification, a "part" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. In addition, one unit may be implemented using two or more hardware, and two or more units may be implemented by one hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다. Some of the operations or functions described as being performed by the terminal or device in this specification may be instead performed by a server connected to the terminal or device. Similarly, some of the operations or functions described as being performed by the server may also be performed in a terminal or device connected to the corresponding server.

이하, 첨부된 구성도 또는 처리 흐름도를 참고하여, 본 발명의 실시를 위한 구체적인 내용을 설명하도록 한다. Hereinafter, detailed contents for carrying out the present invention will be described with reference to the accompanying configuration diagram or process flow diagram.

도 2는 각 비디오 컨텐츠의 본편에 대한 시작 시점 결정의 필요성을 설명하기 위한 도면이다. FIG. 2 is a diagram for explaining the necessity of determining a start time for a main part of each video content.

도 2를 참조하면, 사람은 직관적으로, 비디오 컨텐츠의 각 구간이 연령정보 구간인지, 배급사 구간인지, 타이틀 구간인지 등을 인지할 수 있지만, 컴퓨터는 이러한 구간을 인식할 수 없다. Referring to FIG. 2 , a person can intuitively recognize whether each section of video content is an age information section, a publisher section, a title section, and the like, but the computer cannot recognize these sections.

컴퓨터가 비디오 컨텐츠에서 페이드아웃(FadeOut)/페이드인(FadeIn) 구간을 검출한다 하더라도, 검출된 페이드아웃/페이드인 구간이 영상을 분할하는데 기준이 될 수 있지만, 분할된 구간이 어떤 구간인지 인식할 수 없다. Even if the computer detects a fade-out/fade-in section in the video content, the detected fade-out/fade-in section can be a standard for dividing an image, but it is not possible to recognize which section the divided section is. can't

또한, 페이드아웃/페이드인 구간이 연령정보 구간, 배급사 구간, 타이틀 구간에 존재하지 않을 수 있기 때문에 페이드아웃/페이드인 구간을 특정 구간으로 구분하는 구분자로도 사용하는데 어려움이 있을 수 있다. In addition, since the fade-out/fade-in section may not exist in the age information section, the publisher section, and the title section, it may be difficult to use the fade-out/fade-in section as a separator for dividing the specific section.

예를 들어, 도 2에 도시된 제 2 편 랑세환, 제 3 편 랑세환과 같은 시리즈물 기반의 복수의 비디오 컨텐츠 사이에 페이드아웃/페이드인 구간의 유사 지점이 여러 군데 존재할 수 있다. 이러한, 유사 지점은 비디오 컨텐츠의 시작 전 후에 존재할 수 있고, 이러한 유사 지점들 중에 어느 지점이 본편 시작 전의 구간인지 알 수 없다. 또한, 복수의 비디오 컨텐츠의 본편 시작 전까지 데이터의 구성이 서로 다른 경우에는 본편의 시작 지점을 결정하기 어려운 문제가 존재한다. For example, similar points of a fade-out/fade-in section may exist in several places between a plurality of video contents based on a series, such as the second episode and third episode, Rangse-hwan, shown in FIG. 2 . Such similarities may exist before and after the start of the video content, and it is not known which of these similarities is a section before the start of the main story. In addition, when data structures of a plurality of video contents are different from each other before the start of the main story, it is difficult to determine the start point of the main story.

이러한 이유로, 각 비디오 컨텐츠의 본편에 대한 시작 시점의 검출 방법이 필요하다. For this reason, there is a need for a method of detecting the start time of the main part of each video content.

도 1은 본 발명의 일 실시예에 따른, 시작 시점 결정 서버(10)의 블록도이다. 1 is a block diagram of a start time determination server 10 according to an embodiment of the present invention.

도 1을 참조하면, 시작 시점 결정 서버(10)는 검출부(100), 대표 프레임 선정부(110), 테이블 생성부(120), 패턴 추출부(130) 및 시작 시점 결정부(140)를 포함할 수 있다. 다만, 도 1에 도시된 시작 시점 결정 서버(10)는 본 발명의 하나의 구현 예에 불과하며, 도 1에 도시된 구성요소들을 기초로 하여 여러 가지 변형이 가능하다. Referring to FIG. 1 , the start time determination server 10 includes a detection unit 100 , a representative frame selector 110 , a table generation unit 120 , a pattern extraction unit 130 , and a start time determination unit 140 . can do. However, the start time determination server 10 shown in FIG. 1 is only one implementation example of the present invention, and various modifications are possible based on the components shown in FIG. 1 .

이하에서는 도 3a 내지 5d를 함께 참조하여 도 1을 설명하기로 한다. Hereinafter, FIG. 1 will be described with reference to FIGS. 3A to 5D.

검출부(100)는 시리즈물에 포함되는 각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출할 수 있다. The detector 100 may detect a plurality of fade-out sections and a plurality of non-fade-out sections from each video content included in the series.

대표 프레임 선정부(110)는 각 비디오 컨텐츠별로 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정할 수 있다. The representative frame selector 110 may select a representative frame of each of a plurality of fade-out sections detected for each video content, and select a representative frame of each of a plurality of detected non-fade-out sections.

검출부(100)는 시리즈물에 포함되는 각 비디오 컨텐츠에 포함된 복수의 프레임 각각으로부터 벡터값을 추출하고, 추출된 각 프레임의 벡터값 및 기정의된 블랙프레임의 벡터값 간의 유사도를 계산하고, 계산된 유사도가 기설정된 임계치 이상을 갖는 프레임을 페이드아웃 구간에 속하는 제 1 프레임으로 검출할 수 있다. The detection unit 100 extracts a vector value from each of a plurality of frames included in each video content included in the series, calculates a similarity between a vector value of each extracted frame and a vector value of a predefined black frame, and calculates A frame having a similarity equal to or greater than a preset threshold may be detected as a first frame belonging to a fade-out period.

대표 프레임 선정부(110)는 각 비디오 컨텐츠에 대하여 복수의 페이드아웃 구간별로 페이드아웃 구간에 속하는 제 1 프레임 중 기정의된 블랙프레임과의 유사도가 가장 높은 프레임을 페이드아웃 구간의 대표 프레임으로 선정할 수 있다. The representative frame selector 110 selects, for each video content, a frame having the highest similarity with a predefined black frame among a first frame belonging to a fade-out period for each of a plurality of fade-out periods as a representative frame of the fade-out period. can

도 3a를 참조하면, 검출부(100)는 이미지 컨볼루션(Image Convolution)을 이용하여 제 1 편 비디오 컨텐츠에 포함된 복수의 프레임(30) 각각으로부터 이미지 특징 정보를 추출하고, 추출된 이미지 특징 정보를 벡터값으로 변환할 수 있다. Referring to FIG. 3A , the detection unit 100 extracts image characteristic information from each of a plurality of frames 30 included in the first video content by using image convolution, and extracts the extracted image characteristic information. It can be converted to a vector value.

또한, 검출부(100)는 제 1 편 비디오 컨텐츠에 포함된 복수의 프레임별 벡터값과 기정의된 블랙프레임(32)의 벡터값 간의 유사도(코사인(Cosine) 유사도)를 계산할 수 있다. 또한, 검출부(100)는 제 1 편 비디오 컨텐츠에 포함된 복수의 프레임 중 계산된 유사도가 기설정된 임계치(예컨대, 0.985) 이상을 갖는 프레임을 페이드아웃 프레임으로 검출할 수 있다. Also, the detector 100 may calculate a similarity (cosine similarity) between a plurality of frame-by-frame vector values included in the first video content and a predefined vector value of the black frame 32 . Also, the detector 100 may detect, as a fade-out frame, a frame having a calculated similarity equal to or greater than a preset threshold (eg, 0.985) among a plurality of frames included in the first piece of video content.

테이블 생성부(120)는 시리즈물에 포함된 각 비디오 컨텐츠별로 복수의 페이드아웃 구간에 속하는 제 1 프레임에 대한 인덱스 정보, 제 1 프레임 및 기정의된 블랙프레임 간의 유사도, 및 비디오 컨텐츠 내에 제 1 프레임의 위치 정보에 기초하여 각 비디오 컨텐츠별 페이드아웃 프레임 테이블(34)을 생성할 수 있다. The table generator 120 generates index information for a first frame belonging to a plurality of fade-out sections for each video content included in the series, a similarity between the first frame and a predefined black frame, and a first frame in the video content. A fade-out frame table 34 for each video content may be generated based on the location information of .

예를 들어, 테이블 생성부(120)는 제 1 편 비디오 컨텐츠에 포함된 각 프레임에 대한 인덱스 정보, 각 프레임과 기정의된 블랙프레임 간의 유사도, 제 1 편 비디오 컨텐츠 내에 각 프레임의 위치 정보를 포함하는 프레임 유사도 테이블을 생성할 수 있다. For example, the table generating unit 120 includes index information for each frame included in the first part video content, a degree of similarity between each frame and a predefined black frame, and location information of each frame in the first part video content. A frame similarity table can be created.

검출부(100)는 제 1 편 비디오 컨텐츠에 대응하는 프레임 유사도 테이블에 기초하여 서로 인접한 프레임들(예컨대, i 인덱스에 위치한 프레임과, i+1 인덱스에 위치한 프레임)을 비교할 수 있다. The detector 100 may compare adjacent frames (eg, a frame positioned at index i and a frame positioned at index i+1) based on a frame similarity table corresponding to the first video content.

검출부(100)는 인접한 프레임에 대한 인덱스 정보가 기준 프레임 개수(예컨대, 2 프레임) 이상 차이가 나는 구간을 페이드아웃 구간으로 분류할 수 있다. The detector 100 may classify a section in which index information for adjacent frames differs by more than a reference frame number (eg, two frames) as a fade-out section.

검출부(100)는 제 1 편 비디오 컨텐츠에 대응하는 프레임 유사도 테이블에 기초하여 모든 인접한 프레임에 대한 인덱스 정보 간 비교를 통해 페이드아웃 구간을 검출할 수 있다. The detector 100 may detect a fade-out section by comparing index information for all adjacent frames based on a frame similarity table corresponding to the first video content.

이 때, 검출된 각 페이드아웃 구간에 속하는 프레임은 연속된 프레임이므로, 검출된 페이드아웃 구간은 단일 값으로 변환되어야 한다. At this time, since frames belonging to each detected fade-out period are consecutive frames, the detected fade-out period must be converted into a single value.

이러한 변환을 위해, 테이블 생성부(120)는 검출된 각 페이드아웃 구간에 속하는 프레임과 기정의된 블랙프레임 간의 유사도를 기준으로 내림 차순 정렬을 수행하고, 각 페이드아웃 구간별로 대표 프레임을 선정하여 제 1 편 비디오 컨텐츠에 대응하는 페이드아웃 프레임 테이블을 생성할 수 있다. For this transformation, the table generating unit 120 performs descending sorting based on the similarity between a frame belonging to each detected fade-out section and a predefined black frame, selects a representative frame for each fade-out section, and A fade-out frame table corresponding to one piece of video content may be created.

검출부(100)는 각 비디오 컨텐츠별 페이드아웃 프레임 테이블(34)에 포함된 복수의 페이드아웃 구간에 속하는 제 1 프레임에 대한 인덱스 정보별로 각 제 1 프레임의 위치 정보로부터 기설정된 시간 이전의 구간에 위치한 프레임을 비페이드아웃 구간에 속하는 제 2 프레임으로 검출할 수 있다. The detection unit 100 is located in a section before a preset time from the location information of each first frame for each index information for a first frame belonging to a plurality of fade-out sections included in the fade-out frame table 34 for each video content. A frame may be detected as a second frame belonging to a non-fade-out period.

대표 프레임 선정부(110)는 각 비디오 컨텐츠에 대하여 복수의 페이드아웃 구간 각각에 대응하는 비페이드아웃 구간별로 비페이드아웃 구간에 속하는 제 2 프레임 중 기정의된 블랙프레임의 벡터값과의 유사도가 가장 낮은 프레임을 비페이드아웃 구간의 대표 프레임으로 선정할 수 있다. The representative frame selector 110 has the highest similarity with the vector value of the predefined black frame among the second frames belonging to the non-fade-out section for each non-fade-out section corresponding to each of the plurality of fade-out sections for each video content. A low frame may be selected as a representative frame of the non-fading-out period.

도 3b를 참조하면, 검출부(100)는 제 1 편 비디오 컨텐츠에 대응하는 페이드아웃 프레임 테이블에 포함된 각 페이드아웃 구간의 대표 프레임(301)의 위치 정보로부터 기설정된 시간(예컨대, 2초) 이전의 구간(예컨대, 초당 10 프레임이므로 약 2초전에 해당하는 20 프레임 구간)에 위치한 프레임(303)을 비페이드아웃 프레임으로 결정할 수 있다. 여기서, 비페이드아웃 프레임이 포함된 비페이드아웃 구간을 결정하는 임계값인 20 프레임은 복수의 시리즈물에 포함된 비디오 컨텐츠의 관찰을 통해 결정된 휴리스틱한 값일 수 있다. Referring to FIG. 3B , the detection unit 100 performs a predetermined time (eg, 2 seconds) before a predetermined time (eg, 2 seconds) from the position information of the representative frame 301 of each fade-out section included in the fade-out frame table corresponding to the first video content. A frame 303 located in a section of (eg, a 20 frame section corresponding to about 2 seconds before because it is 10 frames per second) may be determined as a non-fading-out frame. Here, 20 frames, which is a threshold value for determining the non-fade-out section including the non-fading-out frame, may be a heuristic value determined through observation of video content included in a plurality of series.

테이블 생성부(120)는 제 1 편 비디오 컨텐츠에 대한 프레임 유사도 테이블을 이용하여 비페이드아웃 구간에 대한 비페이드아웃 프레임 테이블을 생성할 수 있다. The table generator 120 may generate a non-fade-out frame table for a non-fade-out section by using the frame similarity table for the first video content.

구체적으로, 테이블 생성부(120)는 각 페이드아웃 구간에 대응하는 비페이드아웃 구간별로 각 비페이드아웃 구간에 속하는 프레임과 기정의된 블랙프레임 간의 유사도를 오름차순으로 정렬하고, 오름차순으로 정렬된 프레임 중 기정의된 블랙프레임 간의 유사도가 가장 낮은 프레임을 비페이드아웃 구간의 대표 프레임으로 선정하여 제 1 편 비디오 컨텐츠에 대응하는 비페이드아웃 프레임 테이블을 생성할 수 있다. Specifically, the table generating unit 120 sorts in ascending order the similarity between the frames belonging to each non-fade-out period and the predefined black frame for each non-fade-out period corresponding to each fade-out period, and among the frames sorted in ascending order. A non-fade-out frame table corresponding to the first video content may be generated by selecting a frame having the lowest similarity between predefined black frames as a representative frame of the non-fading-out section.

테이블 생성부(120)는 각 비디오 컨텐츠별 비디오 컨텐츠에 대응하는 페이드아웃 프레임 테이블 및 비페이드아웃 프레임 테이블을 이용하여 각 비디오 컨텐츠별 시작 시점 검출 테이블을 생성할 수 있다. The table generator 120 may generate a start time detection table for each video content by using a fade-out frame table and a non-fade-out frame table corresponding to the video content for each video content.

구체적으로, 테이블 생성부(120)는 각 비디오 컨텐츠 각각에 대하여 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성할 수 있다. 여기서, 시작 시점 검출 테이블은 페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 페이드아웃 구간 및 비페이드아웃 간의 유사도를 포함할 수 있다. 또한, 페이드아웃 구간에 대응하는 비페이드아웃 구간이란 특정 페이드아웃 구간 직전의 비페이드아웃 구간을 의미할 수 있다.Specifically, the table generating unit 120 generates information on a representative frame of a fade-out section for each of a plurality of fade-out sections for each video content, and information on a representative frame of a non-fade-out section corresponding to the fade-out section. It is possible to create a starting point detection table that includes. Here, the start time detection table includes index information on the representative frame of the fade-out period, index information on the representative frame of the non-fade-out period corresponding to the fade-out period, and the degree of similarity between the fade-out period and the non-fade-out period. can Also, the non-fade-out section corresponding to the fade-out section may mean a non-fade-out section immediately before a specific fade-out section.

패턴 추출부(130)는 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출할 수 있다. The pattern extractor 130 may extract a similar pattern by comparing the start time detection table generated for each video content.

도 3c를 참조하면, 패턴 추출부(130)는 제 1 편 비디오 컨텐츠, 제 2 편 비디오 컨텐츠 및 제 3 편 비디오 컨텐츠 각각의 시작 시점 검출 테이블을 비교하여 제 1 편 비디오 컨텐츠, 제 2 편 비디오 컨텐츠 및 제 3 편 비디오 컨텐츠 로부터 제 1 유사 패턴 구간, 제 2 유사 패턴 구간 및 제 3 유사 패턴 구간을 추출할 수 있다. Referring to FIG. 3C , the pattern extracting unit 130 compares the first video content, the second video content, and the third video content, respectively, start time detection tables, and compares the first video content and the second video content. and a first similar pattern section, a second similar pattern section, and a third similar pattern section can be extracted from the third video content.

시작 시점 결정부(140)는 추출된 유사 패턴에 기초하여 복수의 비디오 컨텐츠의 시작 시점을 결정할 수 있다. The start time determiner 140 may determine the start time of the plurality of video contents based on the extracted similar pattern.

한편, 복수의 비디오 컨텐츠별 시작 시점 검출 테이블에 포함된 페이드아웃 구간의 대표 프레임의 이미지 특징은 검은 화면이라는 것을 알고 있지만, 비페이드아웃 구간의 대표 프레임의 이미지 특징은 프레임별로 다르기 때문에 복수의 비디오 컨텐츠 사이에 유사 패턴을 확인하기 위해서는 비페이드아웃 구간의 프레임들이 서로 같은 이미지인지 여부를 확인할 필요가 있다. Meanwhile, although it is known that the image feature of the representative frame of the fade-out section included in the start time detection table for each video content is a black screen, the image feature of the representative frame of the non-fade-out section is different for each frame, so the plurality of video content In order to check a similar pattern between the frames, it is necessary to check whether the frames of the non-fade-out section are the same image.

이를 위해, 비페이드아웃 구간의 프레임들이 서로 같은 이미지인지 여부를 확인하기 위해 VGG16 CNN 기반의 DISTS(Deep Image Structure and Texture Similarity) 알고리즘을 사용하여 복수의 비디오 컨텐츠별 시작 시점 검출 테이블을 통해 유사 패턴 테이블을 생성한다. To this end, in order to check whether the frames in the non-fade-out section are the same image, the VGG16 CNN-based DISTS (Deep Image Structure and Texture Similarity) algorithm is used to check the similarity pattern table through the start point detection table for each video content. create

구체적으로, 테이블 생성부(120)는 복수의 비디오 컨텐츠별 시작 시점 검출 테이블에 포함된 비페이드아웃 구간의 대표 프레임을 비교하여 유사 패턴 테이블을 생성할 수 있다. Specifically, the table generating unit 120 may generate a similar pattern table by comparing representative frames of non-fade-out sections included in a plurality of start time detection tables for each video content.

도 4a를 참조하면, 테이블 생성부(120)는 제 2 편 비디오 컨텐츠의 시작 시점 검출 테이블(42)에 포함된 비페이드아웃 구간의 대표 프레임과, 제 3 편 비디오 컨텐츠의 시작 시점 검출 테이블(44)에 포함된 비페이드아웃 구간의 대표 프레임을 비교하여 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 유사 패턴 테이블(400)을 생성할 수 있다. Referring to FIG. 4A , the table generator 120 includes a representative frame of a non-fade-out section included in the start time detection table 42 of the second video content and the start time detection table 44 of the third video content. ), a similar pattern table 400 for the second part and the third part video content may be generated by comparing the representative frames of the non-fade-out section.

예를 들어, 테이블 생성부(120)는 시작 시점 검출 테이블(42) 및 시작 시점 검출 테이블(44)에 포함된 대표 프레임들 중 동일 또는 유사한 대표 프레임들을 포함하는 유사 패턴 테이블(400)을 생성할 수 있다. 여기서, 동일 또는 유사한 대표 프레임들이란 유사도가 기설정된 임계치(예컨대, 0.12) 이하인 대표 프레임들을 의미할 수 있다. 여기서, 유사 패턴 테이블(400)은 동일 또는 유사한 대표 프레임들을 포함하는 복수의 대표 프레임 세트를 포함할 수 있다.For example, the table generating unit 120 may generate the similar pattern table 400 including the same or similar representative frames among the representative frames included in the start time detection table 42 and the start time detection table 44 . can Here, the same or similar representative frames may mean representative frames having a similarity of less than or equal to a preset threshold (eg, 0.12). Here, the similar pattern table 400 may include a plurality of representative frame sets including the same or similar representative frames.

또한, 도 4b를 참조하면, 테이블 생성부(120)는 제 1 편 비디오 컨텐츠의 시작 시점 검출 테이블(40)에 포함된 비페이드아웃 구간의 대표 프레임과, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 유사 패턴 테이블(400)에 포함된 비페이드아웃 구간의 대표 프레임을 비교하고, 비교 결과, 유사도가 기설정된 임계치(예컨대, 0.12) 이하일 경우, 제 1 편 비디오 컨텐츠의 시작 시점 검출 테이블(40) 및 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 유사 패턴 테이블(400)을 이용하여 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 유사 패턴 테이블(402)을 생성할 수 있다. 마찬가지로, 테이블 생성부(120)는 시작 시점 검출 테이블(40) 및 유사 패턴 테이블(400)에 포함된 대표 프레임들 중 동일 또는 유사한 대표 프레임들을 포함하는 유사 패턴 테이블(402)을 생성할 수 있다.In addition, referring to FIG. 4B , the table generating unit 120 includes a representative frame of a non-fade-out section included in the start time detection table 40 of the first video content, and the second and third video content. Comparing the representative frames of the non-fade-out section included in the similar pattern table 400 for and a similar pattern table 402 for the first edition, the second edition, and the third edition video content by using the similar pattern table 400 for the second edition and the third part video content. Similarly, the table generator 120 may generate the similar pattern table 402 including the same or similar representative frames among the representative frames included in the start time detection table 40 and the similar pattern table 400 .

시작 시점 결정부(140)는 유사 패턴 테이블에 기초하여 복수의 비디오 컨텐츠의 시작 시점을 결정할 수 있다. The start time determiner 140 may determine the start time of the plurality of video contents based on the similar pattern table.

예를 들어, 도 4c를 참조하면, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 제 1 유사 패턴 테이블(404)에 포함된 대표 프레임 세트의 개수가 2개 이상이고, 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 제 2 유사 패턴 테이블(408)에 포함된 대표 프레임 세트의 개수가 1개이고, 제 1 유사 패턴 테이블(404) 및 제 2 유사 패턴 테이블(408)에서 유사 패턴(406, 410)이 확인되는 경우, 시작 시점 결정부(140)는 제 2 유사 패턴 테이블(408)에 포함된 대표 프레임 세트에 해당하는 프레임 정보를 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠 각각의 본편의 시작 시점으로 결정할 수 있다. For example, referring to FIG. 4C , the number of representative frame sets included in the first similar pattern table 404 for the second and third video content is two or more, and the first and second editions are and the number of representative frame sets included in the second similar pattern table 408 for the third video content is one, and the similar pattern 406 in the first similar pattern table 404 and the second similar pattern table 408 , 410), the start time determiner 140 sets frame information corresponding to the representative frame set included in the second similar pattern table 408 to the first, second, and third video contents, respectively. can be determined as the starting point of the main part of

예를 들어, 도 4d를 참조하면, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 제 3 유사 패턴 테이블(414)에 포함된 대표 프레임 세트의 개수가 2개 이상이고, 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 제 4 유사 패턴 테이블(416)에 포함된 대표 프레임 세트의 개수가 2개 이상인 경우, 시작 시점 결정부(140)는 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에 대한 제 4 유사 패턴 테이블(416)의 마지막 대표 프레임 세트(418)에 해당하는 프레임 정보를 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠 각각의 본편의 시작 시점으로 결정할 수 있다. For example, referring to FIG. 4D , the number of representative frame sets included in the third similar pattern table 414 for the second and third video content is two or more, and the first and second editions are and when the number of representative frame sets included in the fourth similar pattern table 416 for the third video content is two or more, the start time determining unit 140 determines the first, second, and third video content Frame information corresponding to the last representative frame set 418 of the fourth similar pattern table 416 for content may be determined as the start time of each main part of the first part, the second part, and the third part video content.

시작 시점 결정부(140)는 시리즈물에 포함된 복수의 비디오 컨텐츠에서 결정된 본편의 시작 시점에 기초하여 해당 시리즈물에 추가되는 추가 비디오 컨텐츠에 대한 본편의 시작 시점을 결정할 수 있다. The start time determiner 140 may determine the start time of the main part of the additional video content added to the series based on the start time of the main part determined from the plurality of video contents included in the series.

예를 들어, 도 4e를 참조하면, 시리즈물을 구성하는 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에 제 4 편 비디오 컨텐츠가 추가된 경우, 검출부(100)는 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠에서 결정된 본편의 시작 시점의 프레임 정보 중 가장 큰 값을 갖는 프레임 정보(420)에 기초하여 제 4 편 비디오 컨텐츠에서 기준값에 해당하는 기준 프레임(422)을 결정할 수 있다. 예를 들어, 검출부(100)는 제 4 편 비디오 컨텐츠의 프레임 중 프레임 정보(420)와 유사도가 기설정된 임계치 이상을 갖는 프레임을 기준 프레임(422)으로 결정할 수 있다.For example, referring to FIG. 4E , when the fourth video content is added to the first, second, and third video content constituting the series, the detection unit 100 detects the first and second episodes. The reference frame 422 corresponding to the reference value in the fourth video content may be determined based on the frame information 420 having the largest value among frame information at the start time of the main part determined in the part and the third part video content. For example, the detector 100 may determine, as the reference frame 422 , a frame having a similarity to the frame information 420 and a predetermined threshold or more among frames of the fourth video content.

또한, 검출부(100)는 제 4 편 비디오 컨텐츠에서 해당 기준값에 대응되는 기준 프레임(422) 위치로부터 기설정된 이전의 구간에 위치한 프레임(예컨대, 이전 5 프레임)의 이미지와 해당 기준값에 해당하는 기준 프레임(422)의 이미지를 먼저 비교하여 이미지 유사도 비교를 수행하고, 기준값에 대응되는 기준 프레임(422) 위치로부터 기설정된 이후의 구간에 위치한 프레임(예컨대, 이후 1 프레임)의 이미지와 해당 기준값에 해당하는 기준 프레임(422)의 이미지를 비교하여 이미지 유사도 비교를 수행할 수 있다. 이 때, 이미지 유사도 비교시 VGG16 CNN 기반 DISTS 알고리즘을 사용한다. In addition, the detection unit 100 includes an image of a frame (eg, the previous 5 frames) located in a preset previous section from the position of the reference frame 422 corresponding to the reference value in the fourth video content and the reference frame corresponding to the reference value. The image of 422 is first compared to perform image similarity comparison, and the image of the frame (for example, one frame thereafter) located in the interval after a preset from the position of the reference frame 422 corresponding to the reference value and the image corresponding to the reference value Image similarity comparison may be performed by comparing images of the reference frame 422 . In this case, the VGG16 CNN-based DISTS algorithm is used to compare the image similarity.

시작 시점 결정부(140)는 이미지 유사도 값이 기설정된 임계치(예컨대, 0.12) 이하일 경우, 해당 이미지 유사도 값을 갖는 프레임이 포함된 구간을 제 4 편 비디오 컨텐츠의 본편의 시작 시점으로 결정할 수 있다. When the image similarity value is equal to or less than a preset threshold (eg, 0.12), the start time determiner 140 may determine a section including a frame having a corresponding image similarity value as the start time of the main part of the fourth video content.

한편, 테이블 생성부(120)는 유사 패턴 테이블을 생성할 수 없는 경우, 복수의 비디오 컨텐츠별 페이드아웃 구간의 대표 프레임 간의 거리차에 기초하여 유사 위치 테이블을 생성할 수 있다. Meanwhile, when the table generating unit 120 cannot generate the similar pattern table, the table generating unit 120 may generate the similar position table based on the distance difference between the representative frames of the fade-out section for each of the plurality of video contents.

예를 들어, 도 5a를 참조하면, 테이블 생성부(120)는 제 2 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(500)에 포함된 대표 프레임과 제 3 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(502)에 포함된 대표 프레임 간의 거리차(즉, 유사 위치)를 계산하고, 거리차가 기설정된 임계치(예컨대, 200) 이내인 거리차를 갖는 대표 프레임들을 이용하여 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블(504)을 생성할 수 있다. For example, referring to FIG. 5A , the table generating unit 120 records the representative frame included in the fade-out frame table 500 of the second video content and the fade-out frame table 502 of the third video content. The distance difference (ie, similar position) between the included representative frames is calculated, and the similar positions of the second and third edition video content are calculated using representative frames having a distance difference within a predetermined threshold (eg, 200). Table 504 may be created.

도 5b를 참조하면, 테이블 생성부(120)는 제 1 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(506)에 포함된 대표 프레임과 제 2 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(500)에 포함된 대표 프레임 간에 제 1 유사 위치를 계산할 수 있다. Referring to FIG. 5B , the table generator 120 includes a representative frame included in the fade-out frame table 506 of the first video content and a representative frame included in the fade-out frame table 500 of the second video content. A first similar position can be calculated between the livers.

또한, 테이블 생성부(120)는 제 2 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(500)에 포함된 대표 프레임과 제 3 비디오 컨텐츠의 페이드아웃 프레임 테이블(502)에 포함된 대표 프레임 간에 제 2 유사 위치를 계산할 수 있다. In addition, the table generating unit 120 is configured to set a second similar position between the representative frame included in the fade-out frame table 500 of the second video content and the representative frame included in the fade-out frame table 502 of the third video content. can be calculated.

또한, 테이블 생성부(120)는 제 1 편 비디오 컨텐츠의 페이드아웃 프레임 테이블(506)에 포함된 대표 프레임과 제 3 비디오 컨텐츠의 페이드아웃 프레임 테이블(502)에 포함된 대표 프레임 간에 제 3 유사 위치를 계산할 수 있다. Also, the table generating unit 120 is configured to perform a third similar position between the representative frame included in the fade-out frame table 506 of the first video content and the representative frame included in the fade-out frame table 502 of the third video content. can be calculated.

테이블 생성부(120)는 계산된 제 1 유사 위치, 제 2 유사 위치 및 제 3 유사 위치에 기초하여 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블(508)을 생성할 수 있다. The table generating unit 120 may generate a similar position table 508 of the first part, the second part, and the third part video content based on the calculated first similar position, the second similar position, and the third similar position. have.

시작 시점 결정부(140)는 유사 위치 테이블에 기초하여 복수의 비디오 컨텐츠의 본편의 시작 시점을 결정할 수 있다. The start time determiner 140 may determine the start time of the main part of the plurality of video contents based on the similar position table.

예를 들어, 도 5c를 참조하면, 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블(508)에 포함된 대표 프레임 세트가 1개인 경우, 시작 시점 결정부(140)는 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블(504)에 포함된 복수의 대표 프레임 세트 중 마지막 인덱스에 해당되는 대표 프레임 세트의 프레임 정보들(510)과 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블(508)에 포함된 대표 프레임 세트의 프레임 정보들 중 첫번째 인덱스에 해당되는 프레임 정보(512)를 제 1 편, 제 2 편 및 제 3 편 비디오 컨텐츠의 본편의 시작 시점으로 결정할 수 있다. For example, referring to FIG. 5C , when there is one representative frame set included in the similar position table 508 of the first, second, and third video contents, the start time determiner 140 may Frame information 510 of the representative frame set corresponding to the last index among the plurality of representative frame sets included in the similar position table 504 of the second and third video contents and the first, second, and third pieces Frame information 512 corresponding to the first index among frame information of the representative frame set included in the similar position table 508 of the part video content is the start time of the main part of the first part, the second part, and the third part video content. can be determined as

한편, 도 5d를 참조하면, 복수의 비디오 컨텐츠의 유사 위치 테이블을 이용하여 본편의 시작 시점을 결정하지 못하는 경우, 검출부(100)는 제 2 편 및 제 3 편 비디오 컨텐츠의 유사 위치 테이블을 이용하여 제 1 편 비디오 컨텐츠의 본편의 시작 시점을 결정하고, 제 2 편 및 제 3 편 비디오 컨텐츠의 본편의 시작 전 프레임 정보의 중간값(예컨대, 693.5=(695+692)/2)에 해당하는 프레임(예컨대, 693 프레임)을 기준 프레임으로 결정할 수 있다. 여기서, 기준 프레임은 제 1 편 비디오 컨텐츠의 본편의 시작 시점을 검출하기 위해 사용된다. Meanwhile, referring to FIG. 5D , when the start time of the main part cannot be determined using the similar position table of a plurality of video contents, the detection unit 100 uses the similar position table of the second and third video contents. A frame corresponding to a median value (eg, 693.5=(695+692)/2) of the frame information before the start of the main part of the second part and the third part video content is determined by determining the start time of the main part of the first part video content (eg, 693 frames) may be determined as the reference frame. Here, the reference frame is used to detect the start time of the main part of the first part video content.

또한, 검출부(100)는 제 1 편 비디오 컨텐츠에서 해당 기준값에 대응되는 기준 프레임 위치로부터 제 1 방향(0 프레임 방향) 및 제 2 방향(마지막 프레임 방향)으로 진행하면서 처음 만나는 페이드아웃 프레임을 검출할 수 있다. In addition, the detection unit 100 detects a fade-out frame first encountered while proceeding in the first direction (the 0 frame direction) and the second direction (the last frame direction) from the position of the reference frame corresponding to the reference value in the first video content. can

시작 시점 결정부(140)는 검출된 페이드아웃 프레임과 기준값에 대응되는 기준 프레임 감의 거리값 중 가장 작은 거리값을 갖는 프레임을 제 1 편 비디오 컨텐츠의 본편의 시작 시점으로 결정할 수 있다. The start time determiner 140 may determine a frame having the smallest distance value among the detected fade-out frame and the distance value of the reference frame corresponding to the reference value as the start time of the main part of the first video content.

한편, 당업자라면, 검출부(100), 대표 프레임 선정부(110), 테이블 생성부(120), 패턴 추출부(130) 및 시작 시점 결정부(140) 각각이 분리되어 구현되거나, 이 중 하나 이상이 통합되어 구현될 수 있음을 충분히 이해할 것이다. Meanwhile, for those skilled in the art, each of the detection unit 100, the representative frame selection unit 110, the table generation unit 120, the pattern extraction unit 130, and the start time determination unit 140 may be implemented separately, or at least one of them It will be fully understood that this may be integrated and implemented.

도 6은 본 발명의 일 실시예에 따른, 시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 방법을 나타낸 흐름도이다.6 is a flowchart illustrating a method of determining a start time of each of a plurality of video contents included in a series according to an embodiment of the present invention.

도 6을 참조하면, 단계 S601에서 시작 시점 결정 서버(10)는 각 비디오 컨텐츠로부터 복수의 페이드아웃 구간 및 복수의 비페이드아웃 구간을 검출할 수 있다. Referring to FIG. 6 , in step S601 , the start time determination server 10 may detect a plurality of fade-out sections and a plurality of non-fade-out sections from each video content.

단계 S603에서 시작 시점 결정 서버(10)는 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정할 수 있다. In step S603, the start time determination server 10 may select a representative frame of each of the plurality of detected fade-out sections, and select a representative frame of each of the detected non-fade-out sections.

단계 S605에서 시작 시점 결정 서버(10)는 각 비디오 컨텐츠 각각에 대하여 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성할 수 있다. In step S605, the start time determination server 10 provides information on a representative frame of a fade-out section for each of a plurality of fade-out sections for each video content, and information on a representative frame of a non-fade-out section corresponding to the fade-out section. It is possible to create a starting point detection table including

단계 S607에서 시작 시점 결정 서버(10)는 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출할 수 있다. In step S607, the start time determination server 10 may extract a similar pattern by comparing the start time detection table generated for each video content.

단계 S609에서 시작 시점 결정 서버(10)는 유사 패턴에 기초하여 복수의 비디오 컨텐츠의 시작 시점을 결정할 수 있다. In step S609, the start time determination server 10 may determine the start time of the plurality of video contents based on the similar pattern.

상술한 설명에서, 단계 S601 내지 S609는 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. In the above description, steps S601 to S609 may be further divided into additional steps or combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between the steps may be changed.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. An embodiment of the present invention may also be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by a computer. Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer-readable media may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The foregoing description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and likewise components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the following claims rather than the detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. .

10: 시작 시점 결정 서버
100: 검출부
110: 대표 프레임 선정부
120: 테이블 생성부
130: 패턴 추출부
140: 시작 시점 결정부
10: server to determine when to start
100: detection unit
110: representative frame selection unit
120: table creation unit
130: pattern extraction unit
140: start time determining unit

Claims (19)

시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 서버에 있어서,
각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하는 검출부;
상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하는 대표 프레임 선정부;
상기 각 비디오 컨텐츠에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하는 테이블 생성부;
상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하는 패턴 추출부; 및
상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 시작 시점 결정부
를 포함하는 것인, 서버.
In the server for determining the start time of each main part of a plurality of video content included in the series,
a detection unit configured to detect a plurality of fade-out sections and a plurality of non-fade-out sections from each video content;
a representative frame selector for selecting a representative frame of each of the plurality of detected fade-out periods and selecting a representative frame of each of the detected non-fading-out periods;
For each video content, a start time detection table including information on a representative frame of a fade-out period for each of the plurality of fade-out periods and information on a representative frame of a non-fade-out period corresponding to the fade-out period is generated. table creation unit;
a pattern extraction unit for extracting similar patterns by comparing the start time detection tables generated for each video content; and
A start time determiner configured to determine a start time of the plurality of video contents based on the similar pattern
Which will include, the server.
제 1 항에 있어서,
상기 검출부는 상기 각 비디오 컨텐츠에 포함된 복수의 프레임 각각으로부터 벡터값을 추출하고, 상기 추출된 각 프레임의 벡터값 및 기정의된 블랙프레임의 벡터값 간의 유사도를 계산하고, 상기 계산된 유사도가 기설정된 임계치 이상을 갖는 프레임을 상기 페이드아웃 구간에 속하는 제 1 프레임으로 검출하는 것인, 서버.
The method of claim 1,
The detection unit extracts a vector value from each of a plurality of frames included in each video content, calculates a similarity between a vector value of each extracted frame and a vector value of a predefined black frame, and the calculated similarity is The server, which detects a frame having more than a set threshold as a first frame belonging to the fade-out period.
제 2 항에 있어서,
상기 시작 시점 검출 테이블은 상기 페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 상기 페이드아웃 구간 및 상기 비페이드아웃 간의 제 1 유사도를 포함하는 것인, 서버.
3. The method of claim 2,
The start time detection table includes index information on a representative frame of the fade-out period, index information on a representative frame of a non-fade-out period corresponding to the fade-out period, and a second interval between the fade-out period and the non-fade-out period. 1 comprising a degree of similarity.
제 3 항에 있어서,
상기 테이블 생성부는 상기 복수의 페이드아웃 구간에 속하는 상기 제 1 프레임에 대한 인덱스 정보, 상기 제 1 프레임 및 상기 기정의된 블랙프레임 간의 제 2 유사도, 및 상기 비디오 컨텐츠 내에 상기 제 1 프레임의 위치 정보에 기초하여 페이드아웃 프레임 테이블을 생성하는 것인, 서버.
4. The method of claim 3,
The table generating unit includes index information on the first frame belonging to the plurality of fade-out sections, a second degree of similarity between the first frame and the predefined black frame, and location information of the first frame in the video content. and generating a fade-out frame table based on the server.
제 4 항에 있어서,
상기 검출부는 상기 페이드아웃 프레임 테이블에 포함된 상기 제 1 프레임에 대한 인덱스 정보별로 상기 제 1 프레임의 위치 정보로부터 기설정된 시간 이전의 구간에 위치한 프레임을 상기 비페이드아웃 구간에 속하는 제 2 프레임으로 검출하는 것인, 서버.
5. The method of claim 4,
The detector detects a frame located in a section before a predetermined time from the position information of the first frame for each index information of the first frame included in the fade-out frame table as the second frame belonging to the non-fade-out section What to do, server.
제 5 항에 있어서,
상기 대표 프레임 선정부는 상기 복수의 페이드아웃 구간별로 상기 페이드아웃 구간에 속하는 상기 제 1 프레임 중 상기 제 2 유사도가 가장 높은 프레임을 상기 페이드아웃 구간의 대표 프레임으로 선정하는 것인, 서버.
6. The method of claim 5,
The server, wherein the representative frame selector selects a frame having the highest second similarity among the first frames belonging to the fade-out period for each of the plurality of fade-out periods as the representative frame of the fade-out period.
제 5 항에 있어서,
상기 대표 프레임 선정부는 상기 복수의 페이드아웃 구간 각각에 대응하는 비페이드아웃 구간별로 상기 비페이드아웃 구간에 속하는 제 2 프레임 중 상기 기정의된 블랙프레임의 벡터값과의 유사도가 가장 낮은 프레임을 상기 비페이드아웃 구간의 대표 프레임으로 선정하는 것인, 서버.
6. The method of claim 5,
The representative frame selector selects a frame having the lowest similarity with the vector value of the predefined black frame among the second frames belonging to the non-fade-out section for each non-fade-out section corresponding to each of the plurality of fade-out sections. What is selected as a representative frame of the fade-out section, the server.
제 1 항에 있어서,
상기 테이블 생성부는 상기 복수의 비디오 컨텐츠별 시작 시점 검출 테이블에 포함된 상기 비페이드아웃 구간의 대표 프레임을 비교하여 유사 패턴 테이블을 생성하고,
상기 시작 시점 결정부는 상기 유사 패턴 테이블에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 것인, 서버.
The method of claim 1,
The table generating unit generates a similar pattern table by comparing the representative frames of the non-fade-out section included in the start time detection table for each of the plurality of video contents,
The server, wherein the start time determiner determines the start time of the plurality of video content based on the similar pattern table.
제 8 항에 있어서,
상기 테이블 생성부는 상기 유사 패턴 테이블을 생성할 수 없는 경우, 상기 복수의 비디오 컨텐츠별 상기 페이드아웃 구간의 대표 프레임 간의 거리차에 기초하여 유사 위치 테이블을 생성하고,
상기 시작 시점 결정부는 상기 유사 위치 테이블에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 것인, 서버.
9. The method of claim 8,
When the table generating unit cannot generate the similarity pattern table, the table generating unit generates a similarity position table based on a distance difference between representative frames of the fade-out period for each of the plurality of video contents;
The server, wherein the start time determiner determines the start time of the plurality of video content based on the similar position table.
시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 결정하는 방법에 있어서,
각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하는 단계;
상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하는 단계;
상기 각 비디오 컨텐츠에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하는 단계;
상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하는 단계; 및
상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 단계
를 포함하는 본편 시작 시점 결정 방법.
In the method of determining the start time of the main part of each of a plurality of video content included in the series,
detecting a plurality of fade-out sections and a plurality of non-fade-out sections from each video content;
selecting a representative frame of each of the plurality of detected fade-out periods and selecting a representative frame of each of the detected non-fading-out periods;
For each video content, a start time detection table including information on a representative frame of a fade-out period for each of the plurality of fade-out periods and information on a representative frame of a non-fade-out period corresponding to the fade-out period is generated. to do;
extracting a similar pattern by comparing the start time detection table generated for each video content; and
determining a start time of the plurality of video contents based on the similar pattern
A method of determining the start time of the main story, including.
제 10 항에 있어서,
상기 검출하는 단계는
상기 각 비디오 컨텐츠에 포함된 복수의 프레임 각각으로부터 벡터값을 추출하는 단계;
상기 추출된 각 프레임의 벡터값 및 기정의된 블랙프레임의 벡터값 간의 유사도를 계산하는 단계; 및
상기 계산된 유사도가 기설정된 임계치 이상을 갖는 프레임을 상기 페이드아웃 구간에 속하는 제 1 프레임으로 검출하는 단계를 포함하는 것인, 본편 시작 시점 결정 방법.
11. The method of claim 10,
The detecting step
extracting a vector value from each of a plurality of frames included in each of the video contents;
calculating a similarity between the extracted vector value of each frame and a predefined vector value of the black frame; and
and detecting a frame having the calculated similarity greater than or equal to a preset threshold as a first frame belonging to the fade-out period.
제 11 항에 있어서,
상기 시작 시점 검출 테이블은 상기 페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 인덱스 정보와, 상기 페이드아웃 구간 및 상기 비페이드아웃 간의 제 1 유사도를 포함하는 것인, 본편 시작 시점 결정 방법.
12. The method of claim 11,
The start time detection table includes index information on a representative frame of the fade-out period, index information on a representative frame of a non-fade-out period corresponding to the fade-out period, and a second interval between the fade-out period and the non-fade-out period. 1 The method of determining the start time of the main story, including the degree of similarity.
제 12 항에 있어서,
상기 복수의 페이드아웃 구간에 속하는 상기 제 1 프레임에 대한 인덱스 정보, 상기 제 1 프레임 및 상기 기정의된 블랙프레임 간의 제 2 유사도, 및 상기 비디오 컨텐츠 내에 상기 제 1 프레임의 위치 정보에 기초하여 페이드아웃 프레임 테이블을 생성하는 단계를 더 포함하는 것인, 본편 시작 시점 결정 방법.
13. The method of claim 12,
Fade out based on index information of the first frame belonging to the plurality of fade-out periods, a second degree of similarity between the first frame and the predefined black frame, and location information of the first frame in the video content. The method further comprising the step of generating a frame table, the main story start time determination method.
제 13 항에 있어서,
상기 페이드아웃 프레임 테이블에 포함된 상기 제 1 프레임에 대한 인덱스 정보별로 상기 제 1 프레임의 위치 정보로부터 기설정된 시간 이전의 구간에 위치한 프레임을 상기 비페이드아웃 구간에 속하는 제 2 프레임으로 검출하는 단계를 더 포함하는 것인, 본편 시작 시점 결정 방법.
14. The method of claim 13,
Detecting a frame located in a section before a preset time from the position information of the first frame as a second frame belonging to the non-fade-out section for each index information of the first frame included in the fade-out frame table; Further comprising, a method of determining the start time of the main story.
제 14 항에 있어서,
상기 대표 프레임을 선정하는 단계는
상기 복수의 페이드아웃 구간별로 상기 페이드아웃 구간에 속하는 상기 제 1 프레임 중 상기 제 2 유사도가 가장 높은 프레임을 상기 페이드아웃 구간의 대표 프레임으로 선정하는 단계를 포함하는 것인, 본편 시작 시점 결정 방법.
15. The method of claim 14,
The step of selecting the representative frame is
and selecting a frame having the highest second similarity among the first frames belonging to the fade-out period for each of the plurality of fade-out periods as a representative frame of the fade-out period.
제 14 항에 있어서,
상기 대표 프레임을 선정하는 단계는
상기 복수의 페이드아웃 구간 각각에 대응하는 비페이드아웃 구간별로 상기 비페이드아웃 구간에 속하는 제 2 프레임 중 상기 기정의된 블랙프레임의 벡터값과의 유사도가 가장 낮은 프레임을 상기 비페이드아웃 구간의 대표 프레임으로 선정하는 단계를 포함하는 것인, 본편 시작 시점 결정 방법.
15. The method of claim 14,
The step of selecting the representative frame is
A frame having the lowest similarity with the vector value of the predefined black frame among the second frames belonging to the non-fade-out period for each non-fade-out period corresponding to each of the plurality of fade-out periods is a representative of the non-fade-out period The method of determining the starting point of the main story, comprising the step of selecting a frame.
제 10 항에 있어서,
상기 복수의 비디오 컨텐츠별 시작 시점 검출 테이블에 포함된 상기 비페이드아웃 구간의 대표 프레임을 비교하여 유사 패턴 테이블을 생성하는 단계; 및
상기 시작 시점 결정부는 상기 유사 패턴 테이블에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 단계를 더 포함하는 것인, 본편 시작 시점 결정 방법.
11. The method of claim 10,
generating a similar pattern table by comparing representative frames of the non-fade-out section included in the start time detection table for each of the plurality of video contents; and
The method of determining the start time of the main story, the start time determining unit further comprising the step of determining a start time of the plurality of video contents based on the similar pattern table.
제 17 항에 있어서,
상기 유사 패턴 테이블을 생성할 수 없는 경우, 상기 복수의 비디오 컨텐츠별 상기 페이드아웃 구간의 대표 프레임 간의 거리차에 기초하여 유사 위치 테이블을 생성하는 단계; 및
상기 시작 시점 결정부는 상기 유사 위치 테이블에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 단계를 더 포함하는 것인, 본편 시작 시점 결정 방법.
18. The method of claim 17,
generating a similarity position table based on a distance difference between representative frames of the fade-out period for each of the plurality of video contents when the similar pattern table cannot be generated; and
The method of determining the start time of the main story, the start time determining unit further comprising the step of determining a start time of the plurality of video contents based on the similar position table.
시리즈물에 포함되는 복수의 비디오 컨텐츠 각각의 본편의 시작 시점을 추출하는 명령어들의 시퀀스를 포함하는 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램에 있어서,
상기 컴퓨터 프로그램은 컴퓨팅 장치에 의해 실행될 경우,
각 비디오 컨텐츠로부터 복수의 페이드아웃(FadeOut) 구간 및 복수의 비페이드아웃 구간을 검출하고,
상기 검출된 복수의 페이드아웃 구간 각각의 대표 프레임을 선정하고, 상기 검출된 복수의 비페이드아웃 구간 각각의 대표 프레임을 선정하고,
상기 각 비디오 컨텐츠에 대하여 상기 복수의 페이드아웃 구간별로 페이드아웃 구간의 대표 프레임에 대한 정보와, 상기 페이드아웃 구간에 대응하는 비페이드아웃 구간의 대표 프레임에 대한 정보를 포함하는 시작 시점 검출 테이블을 생성하고,
상기 각 비디오 컨텐츠별로 생성된 시작 시점 검출 테이블을 비교하여 유사 패턴을 추출하고,
상기 유사 패턴에 기초하여 상기 복수의 비디오 컨텐츠의 시작 시점을 결정하는 명령어들의 시퀀스를 포함하는, 컴퓨터 판독가능 기록매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium including a sequence of instructions for extracting a start time of each main part of a plurality of video contents included in a series, the computer program comprising:
When the computer program is executed by a computing device,
Detecting a plurality of fade-out sections and a plurality of non-fading-out sections from each video content,
selecting a representative frame of each of the detected plurality of fade-out periods, selecting a representative frame of each of the detected non-fading-out periods,
For each video content, a start time detection table including information on a representative frame of a fade-out period for each of the plurality of fade-out periods and information on a representative frame of a non-fade-out period corresponding to the fade-out period is generated. do,
A similar pattern is extracted by comparing the start time detection table generated for each video content,
A computer program stored in a computer-readable medium, comprising a sequence of instructions for determining a start time of the plurality of video contents based on the similar pattern.
KR1020210003331A 2021-01-11 2021-01-11 Server, method and computer program for determining start point of each video content included in series content KR20220101382A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210003331A KR20220101382A (en) 2021-01-11 2021-01-11 Server, method and computer program for determining start point of each video content included in series content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210003331A KR20220101382A (en) 2021-01-11 2021-01-11 Server, method and computer program for determining start point of each video content included in series content

Publications (1)

Publication Number Publication Date
KR20220101382A true KR20220101382A (en) 2022-07-19

Family

ID=82607308

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210003331A KR20220101382A (en) 2021-01-11 2021-01-11 Server, method and computer program for determining start point of each video content included in series content

Country Status (1)

Country Link
KR (1) KR20220101382A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101517750B1 (en) 2011-08-10 2015-05-06 알까뗄 루슨트 Methods and apparatus for comparing videos

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101517750B1 (en) 2011-08-10 2015-05-06 알까뗄 루슨트 Methods and apparatus for comparing videos

Similar Documents

Publication Publication Date Title
US8316301B2 (en) Apparatus, medium, and method segmenting video sequences based on topic
KR100912984B1 (en) Metadata edition device, metadata reproduction device, metadata distribution device, metadata search device, metadata regeneration condition setting device, contents distribution device, metadata distribution method, metadata regeneration device and metadata regeneration method
US7627176B2 (en) Apparatus, method, and computer program for analyzing document layout
US7184100B1 (en) Method of selecting key-frames from a video sequence
US8107689B2 (en) Apparatus, method and computer program for processing information
US8290341B2 (en) Video playing device, video playing method, and video playing program having automatic video selections based upon user concentration
JP5005154B2 (en) Apparatus for reproducing an information signal stored on a storage medium
CN106687990B (en) For the method based on gradual improvement from video sequence selection frame
CN101884221B (en) System and method for encoding video
US7075683B1 (en) Dynamic image digest automatic editing system and dynamic image digest automatic editing method
CN106557545B (en) Video retrieval method and device
Chiu et al. A framework for handling spatiotemporal variations in video copy detection
JP6557592B2 (en) Video scene division apparatus and video scene division program
KR20190033451A (en) Image processing apparatus, image processing method, and storage medium
Dumont et al. Rushes video summarization and evaluation
KR20100018070A (en) Method and apparatus for automatically generating summaries of a multimedia file
US9049400B2 (en) Image processing apparatus, and image processing method and program
JP2009123095A (en) Image analysis device and image analysis method
US20140012850A1 (en) Method And Apparatus For Prioritizing Metadata
KR20220101382A (en) Server, method and computer program for determining start point of each video content included in series content
KR102413043B1 (en) Method and apparatus for seperating shot of moving picture content
US7921010B2 (en) Information processing apparatus, recording medium, and data signal
KR101822443B1 (en) Video Abstraction Method and Apparatus using Shot Boundary and caption
JP3529036B2 (en) Classification method of images with documents
JP2004348553A (en) Method for editing metadata, device and program thereof

Legal Events

Date Code Title Description
A201 Request for examination