KR100435235B1 - Method of adaptive detecting a shot and indexing a key frame - Google Patents

Method of adaptive detecting a shot and indexing a key frame Download PDF

Info

Publication number
KR100435235B1
KR100435235B1 KR10-2002-0032263A KR20020032263A KR100435235B1 KR 100435235 B1 KR100435235 B1 KR 100435235B1 KR 20020032263 A KR20020032263 A KR 20020032263A KR 100435235 B1 KR100435235 B1 KR 100435235B1
Authority
KR
South Korea
Prior art keywords
category
feature extraction
physical feature
representative
scene change
Prior art date
Application number
KR10-2002-0032263A
Other languages
Korean (ko)
Other versions
KR20030094915A (en
Inventor
남재열
신종근
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR10-2002-0032263A priority Critical patent/KR100435235B1/en
Publication of KR20030094915A publication Critical patent/KR20030094915A/en
Application granted granted Critical
Publication of KR100435235B1 publication Critical patent/KR100435235B1/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/142Detection of scene cut or scene change
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/137Motion inside a coding unit, e.g. average field, frame or block difference
    • H04N19/139Analysis of motion vectors, e.g. their magnitude, direction, variance or reliability

Abstract

본 발명은 프로그램의 카테고리별로 서로 다른 물리적 특징추출 방법을 사용하는 장면 전환 검출 방법 및 이에 따른 대표 프레임 인덱싱 방법에 관한 것이다. 본 발명에 따른 장면 전환 검출 방법은, 현재 프로그램에 대한 카테고리를 검출하는 단계, 상기 카테고리별로 적합한 물리적 특징 추출 방법을 결정하는 단계, 상기 결정된 물리적 특징 추출 방법을 이용하여 각 프레임에 대하여 장면이 전환되었는지 여부를 판단하는 단계를 구비한다.The present invention relates to a scene change detection method using a different physical feature extraction method for each category of a program and a representative frame indexing method accordingly. The scene change detection method according to the present invention includes detecting a category for a current program, determining a suitable physical feature extraction method for each category, and determining whether a scene has been changed for each frame using the determined physical feature extraction method. Determining whether or not.

본 발명에 의하여, 각 카테고리별로 서로 다른 물리적 특징추출방법을 적용하여 장면전환을 검출함으로써 보다 정확하게 장면전환을 검출할 수 있게 된다.According to the present invention, it is possible to detect the scene change more accurately by applying a different physical feature extraction method for each category to detect the scene change.

Description

적응적 장면 전환 검출 방법 및 이를 이용한 대표 프레임 인덱싱 방법{METHOD OF ADAPTIVE DETECTING A SHOT AND INDEXING A KEY FRAME}Adaptive Scene Transition Detection Method and Representative Frame Indexing Method Using Them {METHOD OF ADAPTIVE DETECTING A SHOT AND INDEXING A KEY FRAME}

본 발명은 방송 프로그램의 카테고리에 따라 서로 다른 물리적 특징 추출 방법을 적용하는 장면 전환 검출 방법 및 상기 장면 전환 검출 방법을 이용하여 각 장면의 대표 프레임을 추출하여 인덱싱하는 방법에 관한 것이다.The present invention relates to a scene change detection method that applies different physical feature extraction methods according to a category of a broadcast program, and a method of extracting and indexing a representative frame of each scene using the scene change detection method.

일반적으로, 방송 프로그램은 여러가지의 카테고리, 즉 쟝르(genre)로 나뉠 수 있으며, 각 카테고리별로 서로 다른 특징을 갖게 된다. 예컨대, 뮤직 프로그램은 조명 효과가 많은 반면에, 뉴스 프로그램은 조명 효과가 거의 없다. 이와 같이카테고리마다 고유하게 갖는 특징들을 무시하고 일률적으로 장면 전환을 검출하거나, 대표 프레임을 인덱싱함으로써, 장면 전환을 잘못 검출하거나 인덱싱을 제대로 하지 못하게 되는 문제점이 있다. 따라서, 사용자들은 잘못된 장면 전환 검출이나 인덱싱에 의해 정확한 정보를 얻지 못하게 되는 불편함을 겪게 된다.In general, broadcast programs may be divided into various categories, that is, genres, and have different characteristics for each category. For example, music programs have a lot of light effects, while news programs have little light effect. As such, by ignoring the features unique to each category and uniformly detecting the scene change or indexing the representative frame, the scene change may be incorrectly detected or the indexing may not be performed properly. As a result, users may be inconvenient not to obtain accurate information due to wrong scene transition detection or indexing.

본 발명은 현재 프로그램의 카테고리에 따라 서로 다른 물리적 특징 추출 방법을 적용하여 장면 전환을 검출하는 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide a method for detecting a scene change by applying different physical feature extraction methods according to the current program category.

또한, 본 발명은 장면 전환이 검출되었을 때, 각 장면의 대표 프레임을 추출하고 이를 인덱싱하는 방법을 제공하는 것을 또 다른 목적으로 한다.Another object of the present invention is to provide a method for extracting and indexing a representative frame of each scene when a scene change is detected.

도 1은 본 발명에 따른 적응적 장면 전환 검출 방법 및 이를 이용한 대표 프레임 인덱싱 방법을 전체적으로 나타내는 흐름도.1 is a flow chart generally showing an adaptive scene change detection method and a representative frame indexing method using the same according to the present invention.

도 2는 본 발명에 따른 적응적 장면 전환 검출 방법을 설명하는 흐름도.2 is a flow chart illustrating an adaptive scene change detection method according to the present invention.

도 3은 본 발명에 따른 물리적 특징추출방법 중 히스토그램을 설명하기 위하여 도시한 그래프.Figure 3 is a graph illustrating the histogram of the physical feature extraction method according to the present invention.

도 4는 본 발명에 따른 대표 프레임 인덱싱 방법을 설명하는 흐름도.4 is a flow chart illustrating a representative frame indexing method in accordance with the present invention.

전술한 목적을 달성하기 위한 본 발명의 적응적 장면 전환 검출 방법은, (a) 프로그램의 카테고리별로 적용되는 물리적 특징 추출 방법, 각 물리적 특징 추출 방법에 따른 임계값을 사전에 데이터베이스화하는 단계, (b) 방송 프로그램에 대한 EPG로부터 카테고리에 대한 정보를 추출하는 단계, (c) 상기 카테고리에 적용되는 적어도 하나 이상의 물리적 특징 추출 방법을 상기 데이터베이스로부터 추출하는 단계, (d) 상기 물리적 특징 추출 방법들을 이용하여 이전 프레임과 현재 프레임에 대한 차이값을 계산하는 단계, (e) 적어도 하나 이상의 물리적 특징 추출 방법을 이용하여 계산된 적어도 하나 이상의 차이값들의 합인 전체 차이값을 구하는 단계, (f) 상기 데이터베이스로부터 각 카테고리별로 정해지는 임계값을 추출하고, 상기 전체 차이값과 상기 임계값을 비교하는 단계, 및 (g) 상기 전체 차이값이 상기 임계값보다 크면, 장면 전환되었다고 판단하는 단계를 구비하는 것을 특징으로 한다.In order to achieve the above object, the adaptive scene change detection method of the present invention comprises: (a) pre-databaseting a physical feature extraction method applied for each category of a program, a threshold value according to each physical feature extraction method, ( b) extracting information about a category from an EPG for a broadcast program, (c) extracting at least one physical feature extraction method applied to the category from the database, (d) using the physical feature extraction methods Calculating a difference value between the previous frame and the current frame, (e) obtaining a total difference value that is a sum of at least one or more difference values calculated using at least one physical feature extraction method, and (f) from the database. The threshold value determined for each category is extracted, and the total difference value is equal to the Comparing the threshold value, and (g) determining that the scene has been switched if the total difference value is larger than the threshold value.

이때, 상기 데이터베이스는 카테고리에 따른 각 물리적 특징 추출방법들에 대해 가중치에 대한 정보를 더 포함하고, 상기 (d)단계는 각 물리적 특징 추출 방법에 따라 차이값을 구하는 단계, 상기 데이터베이스로부터 해당 가중치를 추출하는 단계, 각 물리적 특징 추출 방법에 따른 상기 차이값과 해당 가중치를 곱하여 가중 차이값을 구하는 단계, 각 물리적 특징 추출 방법에 따른 가중 차이값을 합하여 전체 차이값을 구하는 단계로 이루어지는 것이 바람직하다.In this case, the database may further include information on weights for respective physical feature extraction methods according to categories, and in step (d), obtaining a difference value according to each physical feature extraction method, and calculating the corresponding weights from the database. The method may include extracting, multiplying the difference value according to each physical feature extraction method by a corresponding weight to obtain a weighted difference value, and adding a weighted difference value according to each physical feature extraction method to obtain a total difference value.

한편, 상기 물리적 특징 추출 방법은 지역적 분산, 히스토그램, 엔트로피 코딩, 카메라 움직임 중 적어도 하나 이상을 구비하는 것을 더욱 바람직하다.On the other hand, the physical feature extraction method is more preferably provided with at least one or more of local variance, histogram, entropy coding, camera movement.

더욱 바람직하게는, 상기 물리적 특징 추출 방법은 카메라 움직임을 포함하고, 상기 데이터베이스는 상기 카메라 움직임에 대한 움직임벡터 임계값을 포함하는 것을 특징으로 하며, 상기 적응적 장면 전환 검출 방법은, 상기 카메라 움직임에 대한 움직임 벡터를 구하는 단계, 상기 움직임 벡터가 상기 움직임벡터 임계값과 비교하는 단계, 상기 움직임 벡터가 상기 움직임벡터 임계값을 초과하면 장면 전환 검출로부터 제외하는 단계를 더 구비하는 것이 좋다.More preferably, the physical feature extraction method comprises a camera movement, the database comprises a motion vector threshold for the camera movement, the adaptive scene change detection method, The method may further include obtaining a motion vector for the motion vector, comparing the motion vector with the motion vector threshold value, and excluding from the scene change detection when the motion vector exceeds the motion vector threshold value.

본 발명에 따른 다른 특징은 대표 프레임 인덱싱 방법에 관한 것으로서, (a) 프로그램에 대한 카테고리별로 최적의 물리적 특징추출방법 및 각 물리적 특징추출방법에 따른 특징 정보를 포함하는 카테고리별 특징 테이블을 사전에 데이터베이스화하는 단계, (b) 방송 프로그램에 대하여 장면 전환이 검출되면, 이전 검출 프레임과 현재 프레임 구간사이의 대표 프레임을 검출하는 단계, (c) 상기 카테고리별특징 테이블로부터 소정의 물리적 특징추출방법에 따른 특징정보를 추출하는 단계, (d) 상기 특징정보에 따라 대표 프레임으로부터 특징을 검출하는 단계, (e) 기저장된 쿼리 영상의 대표 특징과 상기 대표 프레임의 특징을 비교하는 단계, 및 (f) 상기 쿼리 영상과 상기 대표 프레임이 유사성을 갖는 경우, 상기 쿼리 영상의 대표 특징에 따라 상기 대표 프레임을 인덱싱하는 단계를 구비하는 것을 특징으로 한다.Another feature according to the present invention relates to a representative frame indexing method, comprising: (a) a database of feature tables for each category including an optimal physical feature extraction method for each category for a program and feature information for each physical feature extraction method; (B) detecting a representative frame between a previous detection frame and a current frame section when a scene change is detected for the broadcast program, and (c) a method of extracting a physical feature from the category-specific feature table. Extracting feature information, (d) detecting a feature from a representative frame according to the feature information, (e) comparing a representative feature of a pre-stored query image with a feature of the representative frame, and (f) the When the query image and the representative frame have similarities, the representative according to the representative feature of the query image. Characterized in that it comprises the step of indexing the frame.

이때, 상기 대표 프레임 인덱싱 방법은 요약 영상 테이블을 사전에 데이터베이스화하는 단계를 더 구비하고, 상기 요약 영상 테이블은 각 카테고리별로 대표 특징을 갖는 쿼리 영상을 포함하는 것이 바람직하다.In this case, the representative frame indexing method may further include a step of databaseting the summary image table in advance, and the summary image table preferably includes a query image having a representative feature for each category.

본 발명에 의하여, 프로그램의 카테고리에 따라 서로 다른 물리적 특징 추출 방법을 적용하여 장면 전환을 검출함으로써, 보다 정확하게 장면 전환을 검출할 수 있게 된다.According to the present invention, it is possible to detect the scene change more accurately by applying a different physical feature extraction method according to the category of the program to detect the scene change.

이하. 첨부된 도면을 참조하여 본 발명에 따른 적응적 장면 전환 검출 방법애 대한 바람직한 실시예를 구체적으로 설명한다.Below. A preferred embodiment of the adaptive scene change detection method according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따른 장면 전환 검출 및 대표 프레임 인덱싱 방법을 전체적으로 설명하는 흐름도이다. 이하, 도 1을 참조하여, 본 발명에 따른 장면 전환 검출 및 대표 프레임 인덱싱 방법을 개략적으로 설명하고, 장면 전환 검출 방법과 대표 프레임 인덱싱 방법은 각각 도 2 내지 도 4를 참조하여 보다 구체적으로 후술한다. 본 발명에 따른 장면 전환 검출 방법이나 대표 프레임 인덱싱 방법은 방송국이나 디지털 텔레비젼 수상기 중 어디에서도 실행될 수 있다.1 is a flowchart illustrating a scene change detection and representative frame indexing method according to the present invention as a whole. Hereinafter, a scene change detection and a representative frame indexing method according to the present invention will be described in detail with reference to FIG. 1, and the scene change detection method and the representative frame indexing method will be described below in more detail with reference to FIGS. 2 to 4. . The scene change detection method and the representative frame indexing method according to the present invention can be executed at either a broadcast station or a digital television receiver.

먼저, 단계 100에서, 프로그램가이드 테이블(EPG)로부터 현재 프로그램에 대한 카테고리를 추출한다. 일반적으로 디지털 텔레비젼에 방송되는 영상은 스포츠, 뉴스, 뮤직 비디오 등의 카테고리로 분류된다. 그리고, 이러한 각 영상의 카테고리에 대한 정보는 EPG테이블의 카테고리 분류 모듈로부터 얻을 수 있다.First, in step 100, the category for the current program is extracted from the program guide table (EPG). In general, images broadcast on digital television are classified into categories such as sports, news, and music videos. The information on the category of each image may be obtained from the category classification module of the EPG table.

다음, 단계 110에서, 추출된 카테고리에 대하여 장면 전환을 검출하기 위하여 사용될 적어도 하나 이상의 물리적 특징 추출 방법을 결정한다. 결정된 물리적 특징 추출 방법들을 이용하여 현재 프레임이 장면 전환되었는지 여부를 검출한다(단계 120). 이때, 장면 전환이 검출되면, 기저장되어 있는 쿼리 영상 및 소정의 특징 정보를 이용하여 해당 장면을 인덱싱한다(단계 130). 그리고, 인덱싱된 장면에 사용자의 설명 또는 주석을 입력하여 저장한다(단계 140).Next, in step 110, a method of extracting at least one physical feature to be used for detecting a scene change for the extracted category is determined. Using the determined physical feature extraction methods, it is detected whether the current frame has been transitioned (step 120). In this case, when a scene change is detected, the scene is indexed using the previously stored query image and predetermined feature information (step 130). Then, the user inputs or stores a comment or an annotation on the indexed scene (step 140).

한편, 단계 120에서 장면 전환이 검출되지 않거나 단계 140이 완료되면, 다음 프레임이 있는지 여부를 판단하고(단계 150), 다음 프레임이 없으면 종료한다.Meanwhile, if no scene change is detected in step 120 or step 140 is completed, it is determined whether there is a next frame (step 150), and if there is no next frame, the process ends.

만약 그렇지 않으면 다음 프레임으로 이동하고(단계 160), 단계 120으로 되돌아가서 다음 프레임에 대한 장면 전환 여부를 다시 검출한다.If not, it moves to the next frame (step 160), and returns to step 120 to detect again whether to switch scenes for the next frame.

따라서, 본 발명에 의하여 각 프로그램에 대하여 카테고리 분류 모듈로부터 카테고리에 대한 정보를 추출하고, 이를 이용하여 각 카테고리별로 가장 적합한 물리적 특징 추출 방법을 적용하여 장면 전환을 검출할 수 있게 된다.Accordingly, according to the present invention, it is possible to extract information about a category from a category classification module for each program, and detect scene transitions by applying the most suitable physical feature extraction method for each category by using the same.

이하, 도 2를 참조하여, 본 발명에 따른 적응적 장면 전환 검출 방법을 보다 구체적으로 설명한다.Hereinafter, the adaptive scene change detection method according to the present invention will be described in more detail with reference to FIG. 2.

먼저, 단계 200에서, EPG 테이블로부터 현재 프로그램에 대한 카테고리를 추출한다. 다음, 카테고리별 검출방법 테이블로부터 상기 카테고리에 대하여 장면 전환을 검출하기 위한 물리적 특징 추출 방법들을 추출한다(단계 210).First, in step 200, a category for the current program is extracted from the EPG table. Next, physical feature extraction methods for detecting a scene change for the category are extracted from the category detection method table (step 210).

상기 카테고리별 검출방법 테이블은 각 카테고리에 따라 가장 적합한 물리적 특징 추출 방법들을 데이터베이스화하여 저장하고 있다. 각 영상의 물리적 특징을 추출하는 방법으로는 지역적 분산, 에지 히스토그램, 엔트로피 코딩, 카메라 움직임 검출등이 있다. 예컨대, 뉴스 영상이나 대담, 토론과 같은 영상은 움직임이 작고 조명효과가 작은 영상으로서, 이러한 영상의 장면 전환을 검출하기 위하여는 픽셀 히스토그램 및 지역적 분산 방법을 사용하는 것이 바람직하다. 한편, 조명 효과가 많고 움직임이 많은 뮤직 프로그램의 영상은 에지 히스토그램 및 엔트로피 방법을 사용한다.The detection method table for each category stores and stores the most suitable physical feature extraction methods according to each category. Methods of extracting physical features of each image include local variance, edge histogram, entropy coding, and camera motion detection. For example, images such as news images, talks, and discussions are images with small movements and small lighting effects, and it is preferable to use pixel histograms and regional dispersion methods to detect scene transitions of such images. On the other hand, the image of the music program with a lot of light effect and a lot of motion uses the edge histogram and entropy method.

아래의 표 1은, 각 영상의 카테고리별로 가장 적합한 물리적 특징 추출 방법들을 예시적으로 보여준다.Table 1 below shows, by way of example, the most suitable physical feature extraction methods for each category of images.

카테고리category 물리적 특징 추출 방법Physical feature extraction method 지역적 분산Regional dispersion 히스토그램Histogram 엔트로피 코딩Entropy coding 카메라 움직임Camera movement 축구Soccer OO OO XX OO 뉴스news OO OO XX XX 뮤직music XX OO OO OO 다큐멘테이션Documentation OO XX XX XX 애니메이션animation OO XX XX XX Show XX OO OO XX

전술한 물리적 특징 추출 방법 중 지역적 분산, 히스토그램, 엔트로피 코딩 방법은 차분을 이용하여 각 프레임간의 유사도를 검출하며, 카메라 움직임은 Up, Down, Reft, Right, 줌-인(Zoom-In), 줌-아웃(Zoom-Out)로의 각 움직임 벡터 값들을 이용하여 영상의 특징을 추출한다.Local dispersion, histogram, and entropy coding methods of the above-described physical feature extraction methods detect the similarity between each frame by using a difference, and the camera movement is Up, Down, Reft, Right, Zoom-In, Zoom- The feature of the image is extracted using the motion vector values to the zoom-out.

표 1을 통하여, 축구 경기 프로그램인 경우, 장면 전환을 검출하기 위하여가장 적합한 물리적 특징 추출 방법은 지역적 분산, 히스토그램 및 카메라 움직임을 이용하는 것임을 알 수 있다. 또한, 애니메이션 프로그램인 경우에는 지역적 분산을 이용하여 장면 전환을 검출하는 것이 가장 바람직함을 알 수 있다. 이하, 전술한 물리적 특징 추출 방법의 각각에 대하여 구체적으로 설명한다.From Table 1, it can be seen that, in the case of a soccer game program, the most suitable physical feature extraction method for detecting scene transitions is to use regional variance, histogram, and camera movement. In addition, in the case of an animation program, it can be seen that it is most preferable to detect a scene change by using regional variance. Hereinafter, each of the above-described physical feature extraction methods will be described in detail.

(1) 지역적 분산(Local Variance)(1) Local Variance

먼저, 밝기 신호 성분에 대한 지역적 분산을 구한 후, 지역적 분산 임계값를 초과하는 매크로 블록의 개수를 구한다. 다음, 전체 블록 및 전술한 매크로 블록의 개수의 비율(DL)을 추출하고 이 값을 이용하여 영상의 물리적 특징을 추출한다.First, the local variance of the brightness signal component is obtained, and then the number of macro blocks exceeding the local variance threshold is obtained. Next, the ratio D L of the total number of blocks and the number of macro blocks described above is extracted and the physical feature of the image is extracted using this value.

(2) 히스토그램(Histogram)(2) Histogram

이전 프레임과 현재 프레임의 히스토그램을 구하고, 히스토그램의 인터섹션을 통해 유사도를 추출한다. 이때, 유사도가 특정 임계값보다 떨어지는 경우 장면전환으로 판단하게 된다.The histogram of the previous frame and the current frame is obtained, and the similarity is extracted through the intersection of the histogram. In this case, when the similarity is lower than a specific threshold, it is determined as a scene change.

도 3은 히스토그램을 설명하기 위하여 도시한 그래프이다. 이하, 도 3을 참조하여, 히스토그램의 인터섹션을 구하는 방법을 설명한다.3 is a graph for explaining the histogram. Hereinafter, a method of obtaining the intersection of the histogram will be described with reference to FIG. 3.

도 3의 X좌표는 밝기의 단계를 나타내며, Y좌표는 화소의 개수를 나타낸다. 그리고, 그래프상의 실선 및 점선은 이전 프레임 및 현재 프레임에 대한 각각의 히스토그램을 나타내며, 막대그래프로 도시된 부분은 두 프레임간의 히스토그램 인터섹션을 나타낸다. 따라서, 컬러 Ci의 단계를 16단계로 했을 경우, 각각의 단계에 있어 작은 값 부분이 히스토그램 인터섹션이 된다.The X coordinate of FIG. 3 represents the brightness level, and the Y coordinate represents the number of pixels. The solid and dotted lines on the graph represent histograms for the previous frame and the current frame, and the parts shown in the bar graph represent histogram intersections between the two frames. Therefore, when the color Ci step is set to 16 steps, the small value portion becomes the histogram intersection in each step.

이때, 두 프레임의 영상에 대한 히스토그램의 교집합을 수학식 1에 따라 구한다.In this case, the intersection of histograms for the images of two frames is obtained according to Equation 1.

여기서, Fm과 Fm+1은 연속되는 두 프레임이며, HCi(Fm)과 HCi(Fm+1)는 컬러 Ci에 대한 영상내의 픽셀의 개수이다.Here, F m and F m + 1 are two consecutive frames, and H Ci (F m ) and H Ci (F m + 1 ) are the number of pixels in the image for the color Ci.

이렇게 구해진 값을 이용한 수학식 2에 의해 영상 전체에 대한 유사도를 결정하게 된다. 수학식 2에 의해 두 프레임간의 유사도는 0.0 - 1.0의 범위내에서 나타나게 된다.The similarity of the entire image is determined by Equation 2 using the obtained value. Equation 2 shows the similarity between the two frames in the range of 0.0-1.0.

그리고, 수학식 3에 의해 차이값 Dh를 추출한다.And the difference value Dh is extracted by Formula (3).

(3) 엔트로피(Entropy)(3) entropy

연속되는 두 프레임의 엔트로피 차이값 De를 수학식 4를 이용하여 구한다.The entropy difference D e of two consecutive frames is obtained using Equation 4.

(4) 카메라 움직임(Camera Motion)(4) Camera Motion

6개의 카메라의 움직임, 즉 Left, Right, Down, up, Zoom In, Zoom Out에 대한 움직임 벡터(Motion Vector)를 추출하고, 이 값들을 소정의 움직임벡터 임계값와 비교하여 임계값를 초과하면 카메라의 움직임으로 간주하여 장면전환 검출에서 제외시킨다.It extracts the motion vectors of six camera movements, that is, Left, Right, Down, Up, Zoom In, and Zoom Out, and compares these values with a predetermined motion vector threshold to exceed the threshold. It is considered to be excluded from the scene change detection.

전술한 4가지의 물리적 특징 추출 방법은 본 발명에 대한 이해를 돕기 위하여 예시적으로 제시한 것에 불과하며, 물리적 특징 추출 방법이 더 추가될 수 있음을 당연하다.The four physical feature extraction methods described above are merely exemplary for the purpose of better understanding of the present invention, and it is natural that the physical feature extraction method may be further added.

한편, 도 2의 단계 210을 통하여 해당 카테고리에 대하여 전술한 바와 같은 물리적 특징 추출 방법을 추출한 다음, 다시 상기 카테고리별 검출방법 테이블로부터 상기 추출된 물리적 특징 추출 방법들에 대한 가중치 및 해당 카테고리별 임계값을 추출한다(단계 220). 다음, 상기 물리적 특징 추출 방법들을 이용하여 현재 프레임에 대한 전체 차이값을 계산한다(단계 230). 이하, 전체 차이값을 계산하는 과정을 보다 구체적으로 설명한다.Meanwhile, after extracting the physical feature extraction method as described above with respect to the corresponding category through step 210 of FIG. 2, the weights of the extracted physical feature extraction methods and the threshold value of the corresponding category are again obtained from the detection method table for each category. Is extracted (step 220). Next, the total difference value for the current frame is calculated using the physical feature extraction methods (step 230). Hereinafter, the process of calculating the total difference value will be described in more detail.

먼저, 각 카테고리에 대한 지역적 분산, 히스토그램 및 엔트로피 코딩에 대한 각각의 가중치를 먼저 추출한다. 표 2는 각 카테고리별로 설정되어 있는 가중치와 임계값을 예시적으로 보여 준다.First, each weight for local variance, histogram and entropy coding for each category is first extracted. Table 2 exemplarily shows weights and thresholds set for each category.

카테고리category 가중치와 임계값Weights and thresholds 지역적 분산Regional dispersion 히스토그램Histogram 엔트로피 코딩Entropy coding 임계값Threshold 축구Soccer ww ll ww hh XX τ(축구)τ (soccer) 뉴스news ww ll ww hh XX τ(뉴스)τ (news) 뮤직music XX ww hh ww ee τ(뮤직)τ (music) 다큐멘터리documentary ww ll XX XX τ(다큐멘터리)τ (documentary) 애니메이션animation ww ll XX XX τ(애니메이션)τ (animation) Show XX ww hh ww ee τ(쇼)τ (show)

다음, 전술한 수학식들을 이용하여 각 카테고리별로 해당 항목의 DL, Dh, De를 구한다. 표 3은 전술한 수학식들을 이용하여 각 카테고리별로 해당 항목의 차이값을 구한 것이다.Next, D L , D h , and D e of the corresponding item are obtained for each category by using the above-described equations. Table 3 calculates difference values of corresponding items for each category by using the above-described equations.

카테고리category 물리적 특징 추출 방법Physical feature extraction method 지역적 분산Regional dispersion 히스토그램Histogram 엔트로피 코딩Entropy coding 카메라 움직임Camera movement 축구Soccer DD LL DD hh XX OO 뉴스news DD LL DD hh XX XX 뮤직music XX DD hh DD ee OO 다큐멘터리documentary DD LL XX XX XX 애니메이션animation DD LL XX XX XX Show XX DD hh DD ee XX

다음, 영상의 해당되는 카테고리별로 특정의 물리적 특징 추출 방법들을 이용하여 차이값을 구하고, 상기 차이값에 해당 가중치를 곱하여 각 항목에 대한 가중 차이값들을 구하고, 각 가중 차이값들을 결합하여 전체 차이값(Dtotal)을 구한다. 카테고리가 뮤직인 경우를 예를 들어 설명한다. 뮤직 카테고리의 전체 차이값인 Dtotal은 수학식 5와 같이 구할 수 있다.Next, the difference value is obtained by using specific physical feature extraction methods for each corresponding category of the image, the weighted difference values for each item are obtained by multiplying the difference value by the corresponding weight, and the total difference value is combined by combining the weighted difference values. Find (D total ). The case where a category is music is demonstrated to an example. The total difference D total of the music category can be obtained as shown in Equation 5.

여기서, Wh및 We는 표 2에 기재된 바와 같이 카테고리가 뮤직인 경우의 히스토그램 및 엔트로피 코딩에 대한 각각의 가중치이며, Dh및 De는 추출된 히스토그램 및 엔트로피 코딩값이다.Here, W h and W e are respective weights for histogram and entropy coding when the category is music, as shown in Table 2, and D h and D e are extracted histogram and entropy coding values.

전술한 바와 같이 도 2의 단계 230을 통하여 현재 프레임에 대한 전체 차이값(Dtotal)을 구하면, 전체 차이값(Dtotal)을 해당 카테고리의 임계값 τ와 비교한다(단계 240). 이때, 전체 차이값이 임계값을 초과하지 않으면 장면이 전환되지 않았다고 판단하게 되며, 프로세스를 종료한다.As described above, when the total difference value D total for the current frame is obtained through step 230 of FIG. 2, the total difference value D total is compared with the threshold value τ of the corresponding category (step 240). At this time, if the total difference does not exceed the threshold, it is determined that the scene has not been switched, and the process ends.

한편, 단계 240에서 전체 차이값이 임계값을 초과한 경우에는, 해당 카테고리에 대한 물리적 특징 추출 방법 중 카메라 움직임이 적용되는지 여부를 판단한다. 만약, 카메라 움직임이 적용되지 않는 카테고리인 경우에는 장면이 전환되었다고 판단한다.On the other hand, if the total difference value exceeds the threshold in step 240, it is determined whether camera movement is applied among the physical feature extraction methods for the category. If the category is not applied to the camera movement, it is determined that the scene has been changed.

하지만, 카메라 움직임이 적용되는 카테고리인 경우에는 전술한 6개의 카메라의 움직임 벡터를 계산하고, 이들 중 하나라도 소정의 움직임벡터 임계값을 초과하는 지 여부를 판단한다(단계 250). 이때, 초과하면 장면전환이 아니라 카메라의 움직임으로 판단하고, 장면 전환을 검출하지 않는다(단계 270). 만약 단계 250에서 카메라의 움직임 벡터가 움직임벡터 임계값을 초과하지 않으면, 장면이 전환되었다고 판단한다(단계 260).However, in the case of the category to which the camera motion is applied, the motion vectors of the six cameras described above are calculated and it is determined whether any one of them exceeds the predetermined motion vector threshold (step 250). At this time, if it is exceeded, it is determined by the movement of the camera, not the scene change, and the scene change is not detected (step 270). If the motion vector of the camera does not exceed the motion vector threshold in step 250, it is determined that the scene has been switched (step 260).

이하, 도 4를 참조하여, 전술한 장면 전환 검출 방법을 이용한 본 발명에 따른 대표 프레임 인덱싱 방법을 구체적으로 설명한다.Hereinafter, a representative frame indexing method according to the present invention using the aforementioned scene change detection method will be described in detail with reference to FIG. 4.

본 발명에 따른 대표 프레임 인덱싱 방법은, 장면 전환이 검출되면, 각각의 장면을 대표하는 대표 프레임들간의 유사성을 검출하고, 사용자들에게 비슷한 장면들만을 모아서 볼 수 있게 인덱싱 정보를 생성하기 위한 것이다.The representative frame indexing method according to the present invention is to detect similarity between representative frames representing each scene when a scene change is detected, and generate indexing information so that users can gather and view only similar scenes.

먼저, 전술한 장면 전환 검출 방법에 따라 장면 전환이 검출되면, 이전 검출된 프레임과 현재 프레임과의 구간을 추출한 후, 그 구간내에서 대표 프레임을 추출하게 된다(단계 400). 다음, 카테고리별 특징 테이블로부터 해당 카테고리에 대한 물리적 특징 추출 방법에 따른 물리적 특징 정보를 추출한다(단계 410). 다음, 추출된 특징 정보를 이용하여 상기 대표 프레임으로부터 특징을 검출한다(단계 420).First, when a scene change is detected according to the above-described scene change detection method, a section between a previously detected frame and a current frame is extracted, and then a representative frame is extracted within the section (step 400). Next, the physical feature information according to the physical feature extraction method for the category is extracted from the feature table for each category (step 410). Next, the feature is detected from the representative frame using the extracted feature information (step 420).

다음, 요약 영상 테이블로부터 해당 카테고리에 대한 대표 특징을 갖는 쿼리 영상을 추출한다(단계 430). 다음, 추출된 쿼리 영상의 대표 특징과 상기 대표 프레임의 특징이 서로 유사한 지 여부를 판단한다(단계 440).Next, a query image having a representative feature for the category is extracted from the summary image table (step 430). Next, it is determined whether the representative feature of the extracted query image and the feature of the representative frame are similar to each other (step 440).

만약, 서로 유사하지 않으면, 상기 대표 프레임에 사용자의 설명이나 주석을 입력 저장하고, 상기 특징 정보에 따라 대표 프레임을 인덱싱한다.If they are not similar to each other, a description or annotation of a user is inputted and stored in the representative frame, and the representative frame is indexed according to the feature information.

만약, 서로 유사하면, 상기 요약 영상 테이블내에 상기 쿼리 영상에 대한 사용자의 설명이나 주석이 이미 존재하는 지 여부를 판단한다(단계 450). 사용자 설명이 존재하면, 상기 요약 영상 테이블로부터 해당 사용자 설명을 추출하여(단계 460) 저장하고 대표 프레임을 인덱싱한다. 만약 사용자 설명이 존재하지 않으면, 사용자로부터 설명을 입력받아 저장하고, 상기 대표 프레임의 특징을 저장하고, 이에 따라 인덱싱한다(단계 470).If similar to each other, it is determined whether a user's description or annotation on the query image already exists in the summary image table (step 450). If the user description exists, the user description is extracted from the summary video table (step 460), stored, and the representative frame is indexed. If the user description does not exist, the user receives the description from the user, stores the feature of the representative frame, and indexes the feature of the representative frame (step 470).

본 발명에 따른 대표 프레임 인덱싱 방법에 의하여, 서비스 제공자로부터 전송받은 특징 정보를 카테고리별 특징 테이블내에 저장하고, 이를 쿼리(Query)로 하여 각 장면을 분류하여 인덱싱함으로써 사용자에게 유사한 장면들을 자동으로 재생할 수 있게 된다. 이때, 상기 특징 정보는 하나의 프레임에서의 특정 위치의 히스토그램의 분포 또는 전체 히스토그램 분포에 대한 값들 등으로 이루어질 수 있다.According to the representative frame indexing method according to the present invention, feature information received from a service provider may be stored in a feature table for each category, and each scene may be classified and indexed using a query to automatically reproduce similar scenes to a user. Will be. In this case, the feature information may include values for a histogram distribution or a total histogram distribution at a specific position in one frame.

또한 본 발명에 따른 대표 프레임 인덱싱 방법에 의하여, 사용자들은 특정의 카테고리의 프로그램으로부터 원하는 장면 또는 원하는 프레임만을 볼 수 있도록 한다. 예들 들면, 사용자들은 뉴스 프로그램에 있어서 앵커가 나오는 장면 쪼는 축구 경기에 있어서 벤치 프레임만을 모아서 볼 수 있게 되는 것이다.In addition, by the representative frame indexing method according to the present invention, users can view only a desired scene or a desired frame from a program of a specific category. For example, users can gather and view only the bench frames in a soccer game where an anchor appears in a news program.

본 발명에 따른 대표 프레임 인덱싱 방법에 대한 다른 실시예에서는, 장면 전환 검출시에 각 검출 방법에 따라 추출된 물리적 특징 값들의 조합 및 이전 검출과 다음 검출 구간의 길이에 대한 정보를 인덱싱 정보로서 데이터베이스화하고 자동으로 인덱싱할 때 이를 이용함으로써 보다 정확하게 대표 프레임을 인덱싱할 수 있도록 한다.According to another exemplary embodiment of the representative frame indexing method according to the present invention, database information is used as indexing information about a combination of physical feature values extracted according to each detection method and information about a length of a previous detection and a next detection interval during scene change detection. This can be used to index representative frames more accurately.

예를 들면, 축구 경기 프로그램에 있어서, 지역적 분산을 이용한 장면 전환을 검출한 경우, 호모지니어스 텍스쳐(Homogeneous Texture) 및 히스토그램이 관중, 벤치, 그라운드 등으로 이어져 나오고 검출 구간이 짧은 프레임이 10초 사이에 반복적으로 나타나게 되면, 이러한 장면은 골 장면 또는 슈팅 장면으로 인덱싱한다. 또는 뉴스 프로그램에 있어서, 히스토그램이 아주 유사한 대표 프레임들이 전체적으로 분포한다면 이를 앵커 프레임으로 인덱싱할 수 있다.For example, in a soccer game program, when a scene change using local variance is detected, a homogeneous texture and histogram lead to an audience, bench, ground, etc. When appearing repeatedly, these scenes index into goal scenes or shooting scenes. Or in a news program, if representative frames with very similar histograms are distributed throughout, they can be indexed as anchor frames.

한편, 서비스 제공자로부터 앤커 프레임의 대표 화면, 컨텐츠에서의 위치 정보, 히스토그램 특징 중 어느 하나를 전송을 받으면, 추출된 대표 프레임에서 앵커 프레임만을 검색하여 분류하고 인덱싱할 수 있도록 할 수도 있다.Meanwhile, when one of the representative screen of the Anker frame, the location information in the content, and the histogram feature is received from the service provider, only the anchor frame may be searched for the extracted representative frame to be classified and indexed.

본 발명에 따른 대표 프레임 인덱싱 방법은 검출된 대표 프레임에 대하여 사용자가 주석을 추가할 수 있도록 함으로써, 사용자가 후에 같은 카테고리의 컨텐츠를 시청하게 되는 경우, 상기 주석을 한 프레임을 쿼리로 하여 현재의 컨텐츠로부터 검출된 대표 프레임과의 유사성을 검출하고, 그 유사성이 높으면 상기 주석을 이용하여 자동으로 인덱싱할 수 있게 된다.The representative frame indexing method according to the present invention allows a user to add an annotation to a detected representative frame, so that when the user later watches the same category of content, the current frame is used as a query for the annotated frame. The similarity with the representative frame detected from is detected, and if the similarity is high, the annotation can be automatically indexed.

이와 같이, 본 발명의 상세한 설명에서는 구체적인 실시형태에 관해 설명하였으나, 본 발명의 범주에서 벗어나지 않는 한도내에서 여러가지 변형이 가능함은 물론이다. 예를 들어, 물리적 특징 추출 방법은 본 명세서에 예시된 것뿐만 아니라 추가될 수 있으며, 각 물리적 특징 추출 방법에 따른 차이값을 계산하는 수학식을 제시하였으나 이는 달라질 수 있다. 그러므로, 본 발명의 범위는 설명된 실시형태에 국한되어 정해져서는 안되며 후술되는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야만 한다.As described above, in the detailed description of the present invention, specific embodiments have been described, but various modifications can be made without departing from the scope of the present invention. For example, the physical feature extraction method may be added as well as illustrated in the present specification, and the equation for calculating the difference value according to each physical feature extraction method is presented, but this may vary. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the claims below, but also by those equivalent to the claims.

본 발명에 의하여, EPG 테이블로부터 얻을 수 있는 카테고리에 따른 정보를 이용하여, 각 카테고리에 따라 적합한 물리적 특징을 적용하여 장면 전환을 검출할 수 있게 된다.According to the present invention, a scene change can be detected by applying an appropriate physical feature according to each category by using information according to a category obtained from an EPG table.

또한, 방송 프로그램에 있어서 장면 전환이 검출되면, 각 카테고리에 적합한최적의 방법으로 대표 프레임을 인덱싱할 수 있게 된다.In addition, when a scene change is detected in the broadcast program, the representative frame can be indexed by an optimal method suitable for each category.

Claims (8)

디지털 텔레비젼에 방송되는 방송 프로그램에 대한 장면 전환 검출 방법에 있어서,A scene change detection method for a broadcast program broadcasted on digital television, (a) 방송 프로그램의 카테고리에 따라 서로 다르게 적용되는 물리적 특징 추출 방법들 및 상기 물리적 특징 추출 방법에 따른 각각의 임계값를 미리 데이터베이스화하는 단계;(a) pre-databaseting the physical feature extraction methods applied differently according to the category of the broadcast program and each threshold value according to the physical feature extraction method; (b) 프로그램가이드 테이블(EPG)로부터 방송 프로그램에 대한 카테고리에 대한 정보를 추출하는 단계;(b) extracting information on a category for a broadcast program from an EPG; (c) 상기 카테고리에 적용되는 적어도 하나 이상의 물리적 특징 추출 방법을 상기 데이터베이스로부터 추출하는 단계;(c) extracting from said database at least one physical feature extraction method applied to said category; (d) 적어도 하나 이상의 상기 물리적 특징 추출 방법들의 각각을 이용하여 이전 프레임과 현재 프레임에 대한 차이값을 계산하고, 상기 차이값이 하나 이상인 경우에는 그 합인 전체 차이값을 구하는 단계;(d) calculating a difference value for a previous frame and a current frame using each of at least one physical feature extraction method, and if the difference is one or more, obtaining a total difference value that is a sum; (e) 상기 데이터베이스로부터 각 카테고리별로 정해지는 임계값을 추출하고, 상기 전체 차이값과 상기 임계값을 비교하는 단계;(e) extracting a threshold determined for each category from the database and comparing the total difference with the threshold; (f) 상기 전체 차이값이 상기 임계값보다 크면, 장면 전환되었다고 판단하는 단계(f) if the total difference is greater than the threshold, determining that the scene has been switched 를 구비하는 것을 특징으로 하는 적응적 장면 전환 검출 방법.Adaptive scene change detection method comprising a. 제1항에 있어서, 상기 데이터베이스는 카테고리에 따른 각 물리적 특징 추출방법들에 대해 가중치에 대한 정보를 더 포함하고, 상기 (d)단계는 각 물리적 특징 추출 방법에 따라 차이값을 구하는 단계, 상기 데이터베이스로부터 해당 가중치를 추출하는 단계, 각 물리적 특징 추출 방법에 따른 상기 차이값과 해당 가중치를 곱하여 가중 차이값을 구하는 단계, 각 물리적 특징 추출 방법에 따른 가중 차이값을 합하여 전체 차이값을 구하는 단계로 이루어지는 것을 특징으로 하는 적응적 장면 전환 검출방법.The method of claim 1, wherein the database further includes information on weights for respective physical feature extraction methods according to a category, and step (d) includes obtaining a difference value according to each physical feature extraction method. Extracting a corresponding weight from the step, multiplying the difference value according to each physical feature extraction method and the corresponding weight to obtain a weighted difference value, and adding a weighted difference value according to each physical feature extraction method to obtain a total difference value. Adaptive scene change detection method characterized in that. 제1항에 있어서, 상기 물리적 특징 추출 방법은 지역적 분산, 히스토그램, 엔트로피 코딩, 카메라 움직임 중 적어도 하나 이상을 구비하는 것을 특징으로 하는 적응적 장면 전환 검출 방법.The method of claim 1, wherein the physical feature extraction method comprises at least one of local variance, histogram, entropy coding, and camera movement. 제1항에 있어서, 상기 물리적 특징 추출 방법은 카메라 움직임을 포함하고, 상기 데이터베이스는 상기 카메라 움직임에 대한 움직임벡터 임계값을 포함하는 것을 특징으로 하며,The method of claim 1, wherein the physical feature extraction method comprises a camera movement, and the database includes a motion vector threshold value for the camera movement. 상기 적응적 장면 전환 검출 방법은, 상기 카메라 움직임에 대한 움직임 벡터를 구하는 단계, 상기 움직임 벡터가 상기 움직임벡터 임계값과 비교하는 단계, 상기 움직임 벡터가 상기 움직임벡터 임계값을 초과하면 장면 전환 검출로부터 제외하는 단계를 더 구비하는 것을 특징으로 하는 적응적 장면 전환 검출 방법.The adaptive scene change detection method may include obtaining a motion vector for the camera motion, comparing the motion vector with the motion vector threshold value, and when the motion vector exceeds the motion vector threshold value, from the scene change detection. Adaptive scene change detection method further comprising the step of excluding. 방송 프로그램에 대한 대표 프레임 인덱싱 방법에 있어서,In the representative frame indexing method for a broadcast program, (a) 프로그램에 대한 카테고리별로 최적의 물리적 특징추출방법 및 각 물리적 특징추출방법에 따른 특징 정보를 포함하는 카테고리별 특징 테이블을 사전에 데이터베이스화하는 단계;(a) pre-databaseting a category-specific feature table including an optimal physical feature extraction method for each category for the program and feature information according to each physical feature extraction method; (b) 상기 방송 프로그램에 있어서 장면 전환이 검출되면, 이전 검출 프레임과 현재 프레임 구간사이의 대표 프레임을 검출하는 단계;(b) detecting a representative frame between a previous detection frame and a current frame section when a scene change is detected in the broadcast program; (c) 상기 카테고리별 특징 테이블로부터 소정의 물리적 특징추출방법에 따른 특징정보를 추출하는 단계;(c) extracting feature information according to a predetermined physical feature extraction method from the feature table for each category; (d) 상기 특징정보에 따라 대표 프레임으로부터 특징을 검출하는 단계;(d) detecting a feature from a representative frame according to the feature information; (e) 기저장된 쿼리 영상의 대표 특징과 상기 대표 프레임의 특징을 비교하는 단계; 및(e) comparing the representative feature of the previously stored query image with the feature of the representative frame; And (f) 상기 쿼리 영상과 상기 대표 프레임이 유사성을 갖는 경우, 상기 쿼리 영상의 대표 특징에 따라 상기 대표 프레임을 인덱싱하는 단계(f) indexing the representative frame according to the representative feature of the query image when the query image and the representative frame have similarities 를 구비하는 것을 특징으로 하는 대표 프레임 인덱싱 방법.Representative frame indexing method comprising a. 제5항에 있어서, 상기 대표 르페임 인덱싱 방법은 요약 영상 테이블을 미리 데이터베이스화하는 단계를 더 구비하고, 상기 요약 영상 테이블은 각 카테고리별로 대표 특징을 갖는 쿼리 영상을 포함하는 것을 특징으로 하는 대표 프레임 인덱싱 방법.6. The representative frame according to claim 5, wherein the representative lepaim indexing method further comprises a database of a summary video table in advance, and the summary video table includes a query image having a representative feature for each category. Indexing method. 제5항에 있어서, 상기 대표 프레임 인덱싱 방법은, 인덱싱된 상기 대표 프레임에 사용자의 설명을 입력 저장하는 단계를 더 구비하는 것을 특징으로 하는 대표 프레임 인덱싱 방법.The method of claim 5, wherein the representative frame indexing method further comprises: inputting and storing a description of a user in the indexed representative frame. 제7항에 있어서, 상기 사용자의 설명을 입력 저장하는 단계는, 상기 쿼리 영상에 사용자의 설명이 이미 존재하는지 여부를 판단하는 단계, 만약 사용자의 설명이 이미 존재하면 상기 쿼리 영상에 대한 사용자 설명을 추출하는 단계, 추출된 사용자 설명을 상기 대표 프레임에 저장하는 단계를 더 구비하는 것을 특징으로 하는 대표 프레임 인덱싱 방법.The method of claim 7, wherein the inputting and storing of the user's description comprises: determining whether the user's description already exists in the query image, and if the user's description already exists, the user's description of the query image. Extracting, and storing the extracted user description in the representative frame.
KR10-2002-0032263A 2002-06-10 2002-06-10 Method of adaptive detecting a shot and indexing a key frame KR100435235B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2002-0032263A KR100435235B1 (en) 2002-06-10 2002-06-10 Method of adaptive detecting a shot and indexing a key frame

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2002-0032263A KR100435235B1 (en) 2002-06-10 2002-06-10 Method of adaptive detecting a shot and indexing a key frame

Publications (2)

Publication Number Publication Date
KR20030094915A KR20030094915A (en) 2003-12-18
KR100435235B1 true KR100435235B1 (en) 2004-06-11

Family

ID=32386417

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2002-0032263A KR100435235B1 (en) 2002-06-10 2002-06-10 Method of adaptive detecting a shot and indexing a key frame

Country Status (1)

Country Link
KR (1) KR100435235B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970009367A (en) * 1995-07-20 1997-02-24 이데이 노부유키 An electronic program guide system for displaying each program using a reduced size image
WO2000005890A1 (en) * 1998-07-23 2000-02-03 Diva Systems Corporation Method and apparatus for encoding a user interface
KR20020026168A (en) * 2000-03-31 2002-04-06 요트.게.아. 롤페즈 Methods and apparatus for making and replaying digital video recordings, and recordings made by such methods
JP2002142179A (en) * 2000-11-02 2002-05-17 Canon Inc Information recorder and control method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR970009367A (en) * 1995-07-20 1997-02-24 이데이 노부유키 An electronic program guide system for displaying each program using a reduced size image
WO2000005890A1 (en) * 1998-07-23 2000-02-03 Diva Systems Corporation Method and apparatus for encoding a user interface
KR20020026168A (en) * 2000-03-31 2002-04-06 요트.게.아. 롤페즈 Methods and apparatus for making and replaying digital video recordings, and recordings made by such methods
JP2002142179A (en) * 2000-11-02 2002-05-17 Canon Inc Information recorder and control method thereof

Also Published As

Publication number Publication date
KR20030094915A (en) 2003-12-18

Similar Documents

Publication Publication Date Title
Aner et al. Video summaries through mosaic-based shot and scene clustering
Peng et al. Keyframe-based video summary using visual attention clues
JP5420199B2 (en) Video analysis device, video analysis method, digest automatic creation system and highlight automatic extraction system
Sujatha et al. A study on keyframe extraction methods for video summary
KR100636910B1 (en) Video Search System
US6904159B2 (en) Identifying moving objects in a video using volume growing and change detection masks
Zhong et al. Spatio-temporal video search using the object based video representation
Roach et al. Video genre classification using dynamics
CN102473291B (en) Method for detecting and adapting video processing for far-view scenes in sports video
TWI712316B (en) Method and device for generating video summary
JP2002232840A (en) Method for summarizing moving picture
JP2006510072A (en) Method and system for detecting uniform color segments
JP2001155169A (en) Method and system for dividing, classifying and summarizing video image
CN101114343A (en) Image processing device, method and program
JP2005252860A (en) Apparatus and method of classifying sport video
CN103984778B (en) A kind of video retrieval method and system
Chen et al. Innovative shot boundary detection for video indexing
US20090180670A1 (en) Blocker image identification apparatus and method
JP4271930B2 (en) A method for analyzing continuous compressed video based on multiple states
JP5116017B2 (en) Video search method and system
KR100435235B1 (en) Method of adaptive detecting a shot and indexing a key frame
Latecki et al. Extraction of key frames from videos by optimal color composition matching and polygon simplification
Wang et al. Virtual reality scene construction based on multimodal video scene segmentation algorithm
Ekin et al. Spatial detection of TV channel logos as outliers from the content
Ouyang et al. Replay boundary detection in MPEG compressed video

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130424

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20140424

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20150424

Year of fee payment: 12

LAPS Lapse due to unpaid annual fee