KR20020017216A - Method of video scene segmentation based on color and motion features - Google Patents

Method of video scene segmentation based on color and motion features Download PDF

Info

Publication number
KR20020017216A
KR20020017216A KR1020000050415A KR20000050415A KR20020017216A KR 20020017216 A KR20020017216 A KR 20020017216A KR 1020000050415 A KR1020000050415 A KR 1020000050415A KR 20000050415 A KR20000050415 A KR 20000050415A KR 20020017216 A KR20020017216 A KR 20020017216A
Authority
KR
South Korea
Prior art keywords
shot
motion
color
shots
similarity
Prior art date
Application number
KR1020000050415A
Other languages
Korean (ko)
Other versions
KR100405818B1 (en
Inventor
권용무
김익재
송창준
Original Assignee
박호군
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 박호군, 한국과학기술연구원 filed Critical 박호군
Priority to KR10-2000-0050415A priority Critical patent/KR100405818B1/en
Publication of KR20020017216A publication Critical patent/KR20020017216A/en
Application granted granted Critical
Publication of KR100405818B1 publication Critical patent/KR100405818B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

PURPOSE: A method of dividing a video scene on the basis of color and motion characteristics is provided to accurately reflect the meaning of video and reduce scene's excessive division effect. CONSTITUTION: When an MPEG video signal is inputted(S100), the boundary of a shot is detected by using the boundary between a sharp distribution and a gradual distribution of the shot(S200). Color characteristic of the shot is extracted and color similarity of the shot is measured(S300A), and the motion of the shot is extracted and motion similarity is measured(S300B) in order to extract the characteristics of the detected shot. A weighted value is adaptively applied to the similarity between shots with respect to the color and motion(S400A). A scene is divided using the adaptive weighted value and an improved overlapping links technique(S400B). Then, the scene's excessive division effect is compensated(S500).

Description

칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법{METHOD OF VIDEO SCENE SEGMENTATION BASED ON COLOR AND MOTION FEATURES}Video scene segmentation based on color and motion features {METHOD OF VIDEO SCENE SEGMENTATION BASED ON COLOR AND MOTION FEATURES}

본 발명은 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법에 관한 것으로, 더욱 자세하게는 비디오 씬 분할 시 칼라특징뿐만 아니라 모션특징을 같이 이용하는 비디오 씬 분할방법에 관한 것이다.The present invention relates to a video scene segmentation method based on color and motion features, and more particularly, to a video scene segmentation method using not only color features but also motion features during video scene segmentation.

동영상데이터의 급격한 증가와 더불어 비디오 구조화 및 특징추출 알고리즘에 대한 연구가 많이 이루어지고 있다. 기존의 비디오 구조화는 주로 비디오 시퀀스에 대해 우선 샷 경계검출을 하고, 각각의 샷 내에서 대표프레임을 추출한다. 이 때 각 샷의 내용은 대표프레임으로 나타낸다. 여기에 각 샷의 대표프레임을 이용해서 칼라 히스토그램과 같은 특징을 바탕으로 유사한 샷끼리 묶어서 샷 그룹추출을 하여 사용자로 하여금 비디오의 내용을 알 수 있도록 한다.Along with the rapid increase in video data, many researches have been done on video structuring and feature extraction algorithms. Conventional video structuring mainly detects the edge of a shot first for a video sequence and extracts a representative frame within each shot. At this time, the contents of each shot are represented by a representative frame. In addition, by using the representative frame of each shot, similar shots are grouped based on characteristics such as color histogram, and shot group extraction is performed so that the user can know the contents of the video.

그러나, 위와 같은 샷 또는 샷 그룹 레벨의 비디오 구조화로는 비디오 내의 사건이나 의미를 충분히 반영하지 못하는 단점이 있고, 기존의 씬 분할은 칼라특징만을 이용하기 때문에, 특히 비디오내의 화면 진행이 빠르게 일어나는 동적인 구간에서는 실제 하나의 씬이 여러 씬으로 나뉘는 씬 과다분할현상이 일어나서 좋지 않으며, 또한, 모든 샷 시퀀스에 대해서 유사도를 측정하기 때문에 적용시에 많은 시간이 요구되는 단점이 있다.However, such shot or shot group level video structuring has a disadvantage in that it does not sufficiently reflect an event or meaning in the video, and since the existing scene segmentation uses only color features, the screen progress in the video is particularly dynamic. In the interval, it is not good to over-divide the scene in which one scene is actually divided into several scenes, and also, since the similarity is measured for all shot sequences, a large amount of time is required for application.

상기와 같은 문제점을 해결하기 위해 안출된 본 발명은, 비디오 씬 분할 시 칼라특징 뿐만 아니라 모션특징을 복합적으로 적용함으로써 비디오 내의 의미를 보다 정확하게 반영하고, 씬 과다분할현상을 감소시키는 데에 그 목적이 있다.Disclosure of Invention The present invention, which is devised to solve the above-mentioned problems, has a purpose to more accurately reflect the meaning in video and to reduce scene over-split by applying color features as well as motion features in the video scene segmentation. have.

본 발명의 다른 목적은 비디오 씬 분할 시 IMPROVED OVERLAPPING LINK(IOL)기법을 이용하여 연산시간을 단축시키는 데에 있다.Another object of the present invention is to reduce the computation time by using IMPROVED OVERLAPPING LINK (IOL) technique in video scene segmentation.

본 발명의 또 다른 목적은, 샷과 씬의 계층적 구조를 추출하여 비디오 브라우징 및 검색에 이용할 수 있는 데에 있다.Still another object of the present invention is to extract a hierarchical structure of shots and scenes and use them for video browsing and searching.

위와 같은 목적을 달성하기 위한 본 발명은, 비디오의 컬러 및 모션 정보를 이용하여 비디오를 씬(SCENE), 샷(SHOT), 키 프레임(KEY FRAME)으로 표현함에 의해 비디오의 내용을 계층적으로 브라우징하여 볼 수 있게 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법에 있어서, MPEG비디오신호를 입력받는 단계와, 상기 입력된 비디오신호의 샷 경계를 검출하는 단계와, 상기 샷의 칼라 특징 추출 및 칼라유사도를 측정하고, 또한, 모션 특징 추출 및 모션유사도를 측정하는 단계와, 상기 샷을 적응적 가중치를 가하여 클러스터링하는 단계 및 상기 클러스터링된 샷을 후처리하는 단계로 이루어지는 것을 특징으로 한다.The present invention for achieving the above object, hierarchically browsing the content of the video by representing the video as a scene, shot, key frame using the color and motion information of the video A video scene segmentation method based on color and motion features, the method comprising: receiving an MPEG video signal, detecting a shot boundary of the input video signal, extracting color features of the shot, and Measuring color similarity, and further, measuring motion feature extraction and motion similarity; clustering the shots by adaptive weighting; and post-processing the clustered shots.

본 발명은 또한, 상기 샷의 칼라 특징 추출 및 칼라유사도를 측정하는 단계는, 하나의 샷 내에서 일정 프레임 이상의 칼라분포가 유사한 연속적인 프레임으로 구성되는 서브-샷 추출과정과, 상기 서브-샷에서 시간적인 가운데에 위치하는 대표프레임의 추출과정과, 상기 대표프레임들을 수식에 의하여 칼라유사도를 측정하는 과정을 더 포함하는 것을 특징으로 한다.The present invention also provides a method for extracting color features and measuring color similarity of a shot including: a sub-shot extraction process consisting of successive frames having similar color distributions over a predetermined frame in one shot; The method may further include extracting a representative frame located in the middle of time, and measuring color similarity using the representative frames by a formula.

본 발명은 또한, 상기 모션 특징 추출 및 모션유사도를 측정하는 단계는, 샷 내의 P프레임 내의 매크로블록의 벡터성분을 추출하는 과정과, 상기 추출된 벡터성분을 정규화시키는 과정과, 상기 정규화된 벡터성분을 이용하여 매크로블록의 정규화된 모션크기를 구하는 과정과, 상기 정규화된 모션크기의 평균크기를 구하는 과정과, 두 샷 간의 모션유사도를 추출하는 과정을 더 포함하는 것을 특징으로 한다.The present invention also includes the step of measuring the motion feature extraction and motion similarity, extracting the vector component of the macroblock in the P frame in the shot, normalizing the extracted vector component, and the normalized vector component The method may further include obtaining a normalized motion size of the macroblock, calculating a mean size of the normalized motion size, and extracting a motion similarity between two shots.

본 발명은 또한, 샷 클러스터링을 하는 단계는, IOL기법을 이용하여 유사 샷을 검색하고 씬의 경계를 분할하는 것을 더 포함하는 것을 특징으로 한다.The present invention also includes the step of clustering shots, further comprising searching for similar shots using IOL techniques and dividing the boundary of the scene.

본 발명은 또한, 유사 샷 탐색구간의 평균모션을 구하고 이 값을 이용하여 칼라 및 모션가중치를 적용하는 단계를 더 포함하는 것을 특징으로 한다.The present invention is further characterized by obtaining an average motion of the similar shot search section and applying color and motion weights using this value.

본 발명은 또한, 후처리과정에서, 분할된 씬이 τ보다 적은 시간간격에 위치했는지 아닌지를 판별하여 τ보다 적은 시간간격에 위치했을 경우 이웃하는 씬과 모션유사도가 임계값보다 크면, 두 씬을 병합하는 단계를 더 포함하는 것을 특징으로 한다.In the post-processing process, the present invention also determines whether the divided scene is located at a time interval less than τ, and if the neighboring scene and the motion similarity are greater than the threshold value, the two scenes are determined. It further comprises the step of merging.

본 발명은 또한, 서브-샷으로 분할하기 위해 기준 프레임과 비교 프레임과의 간격을 증가시키며 비교하여 두 프레임간의 비유사도가 정해진 임계값보다 커진다면 이 지점에서부터 새로운 서브-샷으로 분할하는 것을 더 포함하는 것을 특징으로 한다.The invention further includes increasing the spacing between the reference frame and the comparison frame to divide into sub-shots, and splitting from this point into a new sub-shot if the dissimilarity between the two frames is greater than a predetermined threshold. Characterized in that.

본 발명은 또한, 서브-샷 추출과정에 서브-샷 추출시간을 일정시간으로 제한함으로써, 하나의 샷 내에서 추출될 수 있는 대표프레임의 개수를 제한하는 것을 더 포함하는 것을 특징으로 한다.The present invention may further include limiting the number of representative frames that can be extracted in one shot by limiting the sub-shot extraction time to a predetermined time in the sub-shot extraction process.

도 1은 본 발명의 전체적인 구성을 일실시예로 나타낸 것이다.Figure 1 shows the overall configuration of the present invention in one embodiment.

도 2a는 도 1에서의 칼라특징 추출 및 칼라 유사도측정과정을 상세하게 나타낸 것이다.Figure 2a shows in detail the color feature extraction and color similarity measurement process in FIG.

도 2b는 도 1에서의 모션특징 추출 및 모션 유사도측정과정을 상세하게 나타낸 것이다.FIG. 2B illustrates the motion feature extraction and motion similarity measurement process in FIG. 1 in detail.

도 3a는 도 1에서의 적응적 가중치를 구하는 과정을 상세하게 나타낸 것이다.3A illustrates in detail the process of obtaining the adaptive weights in FIG. 1.

도 3b는 도 1에서의 샷 클러스터링과정을 상세하게 나타낸 것이다.3B illustrates the shot clustering process in FIG. 1 in detail.

도 4는 도 1에서의 후처리과정을 상세하게 나타낸 것이다.4 illustrates the post-processing process of FIG. 1 in detail.

도 5는 본 발명에서의 서브-샷 추출과정을 나타낸 것이다.Figure 5 shows the sub-shot extraction process in the present invention.

도 6a 및 도 6b는 유사 샷 탐색과정을 나타낸 것으로, 6a는 종래의 OL(OVERLAPPING LINKS)기법을, 6b는 본 발명에서의 IOL(IMPROVER OVERLAPPING LINKS)기법을 나타낸 것이다.6a and 6b show a similar shot search process, 6a shows a conventional OL (OVERLAPPING LINKS) technique, 6b shows an IPR (IMPROVER OVERLAPPING LINKS) technique in the present invention.

도 7은 도 6b의 IOL기법을 이용하여 씬 분할방법을 나타낸 일실시예다.FIG. 7 is a diagram illustrating a scene segmentation method using the IOL technique of FIG. 6B.

이하 첨부된 도면을 참조로 하여 본 발명의 바람직한 실시예를 설명하면 다음과 같다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 전체 구성을 일실시예로 나타낸 것이다. 도시된 바와 같이, MPEG비디오신호가 입력되면(S100), 샷의 급격한 분포와 점진적인 분포를 경계로 하여 샷의 경계를 검출한다(S200). 검출된 샷의 특성을 추출하기 위하여 샷의 칼라 특징 추출 및 칼라유사도를 측정하고(S300A), 또한, 샷의 모션 특징 추출 및 모션유사도를 추출한다(S300B). 상기 추출된 칼라 및 모션 특징을 통해 구한 샷 간의 유사도에 칼라 및 모션에 대해 적응적으로 가중치를 적용하고(S400A), 상기 적응적 가중치를 적용받고 IOL(IMPROVED OVERLAPPING LINKS)기법을 이용하여 씬을 분할하는 샷 클러스터링과정을 거쳐(S400B), 씬의 과다분할현상을 보상해주는 후처리과정(S500)을 거치는 것을 나타내었다.Figure 1 shows the overall configuration of the present invention in one embodiment. As shown, when the MPEG video signal is input (S100), the boundary of the shot is detected based on the sharp distribution and the gradual distribution of the shot (S200). In order to extract the characteristic of the detected shot, color feature extraction and color similarity of the shot are measured (S300A), and motion feature extraction and motion similarity of the shot are extracted (S300B). The weight is similarly applied to the color and motion to the similarity between the shots obtained through the extracted color and motion features (S400A), and the scene is divided using the adaptive weighting linking (IOL) technique. Through the shot clustering process (S400B), the post-processing process (S500) that compensates for the excessive division of the scene has been shown.

도 2a는 도 1에서의 칼라 특징 및 칼라유사도를 측정하는 과정을 상세하게 나타낸 것이다. 샷 간의 칼라유사도를 측정하기 위하여 각 샷 내의 모든 프레임에 대해서 유사도를 측정하는 방법을 이용하지 않고, 각 샷의 대표프레임을 추출하여 이들간의 유사도를 측정하는 방법을 이용한다. 우선, 하나의 샷 내에서 일정 프레임 이상의 연속적인 프레임으로 구성된 칼라 분포가 유사한 그룹인 서브-샷을 추출한다(T1). 서브-샷을 추출하는 과정은 도 5에 나타내었다. 도시된 바와 같이, 하나의 샷 내에서 칼라 분포가 많이 변화할 때 각 프레임의 간격을 증가시키면서 칼라유사도가 비슷한 프레임끼리 묶어서 하나 이상의 서브-샷으로 나눈다.Figure 2a shows in detail the process of measuring the color characteristics and color similarity in FIG. In order to measure the color similarity between shots, a method of measuring the similarity between them by extracting a representative frame of each shot is used instead of measuring the similarity for all frames in each shot. First, a sub-shot, which is a group having a similar color distribution composed of consecutive frames of a predetermined frame or more within one shot, is extracted (T1). The process of extracting sub-shots is shown in FIG. 5. As shown, when the color distribution changes a lot in one shot, frames having similar color similarity are divided into one or more sub-shots while increasing the interval of each frame.

즉, 하나의 샷 내에서 컬러분포가 바뀌는 경우를 고려하여 본 발명에서는 하나의 샷을 여러 개의 서브-샷으로 분할하는 방법을 제안한다. 실제 하나의 샷 내에서도 카메라 모션이나 오브젝트의 모션이 커지면 샷 내의 컬러분포도 이에 따라 많이 변화하게 된다. 기존 방법의 경우 샷 경계를 검출하기 위해서 이웃하는 프레임간의 컬러 유사도를 비교하는 방법을 사용하지만, 위와 같은 상황에 의해 샷 내에서 컬러분포가 바뀌는 것을 반영할 수 없다.That is, the present invention proposes a method of dividing one shot into several sub-shots in consideration of the case where the color distribution is changed in one shot. Even if a camera motion or an object's motion increases even in a single shot, the color distribution in the shot changes accordingly. In the conventional method, a method of comparing color similarity between neighboring frames is used to detect shot boundaries, but it cannot reflect that the color distribution is changed within the shot due to the above situation.

본 발명에서는 서브-샷으로 분할하기 위해 기준 프레임과 비교 프레임과의 간격을 증가시키며 비교하는 방법을 제안한다. 만약에 두 프레임간의 비유사도가 정해진 임계값보다 커진다면 이 지점에서부터 새로운 서브 샷이 시작된다. 이 알고리즘의 장점은 적은 연산량을 가지고 샷 내의 컬러 분포를 충분히 반영할 수 있다는 점이다.The present invention proposes a method of increasing and comparing an interval between a reference frame and a comparison frame for dividing into sub-shots. If the dissimilarity between the two frames is larger than the predetermined threshold, a new sub shot is started from this point. The advantage of this algorithm is that it can fully reflect the color distribution in the shot with a small amount of computation.

위와 같은 방법으로 나눠진 각 서브-샷 내에서 시간적으로 가운데에 위치해 있는 프레임을 대표프레임으로 추출한다(T2). 또한, 각 서브-샷의 최소 지속 시간T를 고려하여 하나의 샷 내에서 검출될 수 있는 대표프레임의 개수를 제한할 수 있다.The frame located in the middle in time in each sub-shot divided by the above method is extracted as a representative frame (T2). In addition, the number of representative frames that can be detected in one shot may be limited in consideration of the minimum duration T of each sub-shot.

각 샷의 대표프레임의 칼라유사도는 다음의 수학식 1 및 수학식 2에 의하여 구한다(T3).The color similarity of the representative frame of each shot is obtained by the following equations (1) and (2) (T3).

p= 1,2,.......,n:n은 샷i의 서브-샷 개수 p = 1,2, ......., n : n is the number of sub-shots of shot i

q= 1,2,.......,m:m은 샷j의 서브-샷 개수 q = 1,2, ......., m : m is the number of sub-shots of shot j

r ip 는 샷ip번째 서브-샷의 대표프레임 인덱스 r ip is the representative frame index of the pth sub-shot of shot i

r iq 는 샷jq번째 서브-샷의 대표프레임 인덱스 r iq is the representative frame index of the qth sub-shot of shot j

r jp 는 샷ip번째 서브-샷의 대표프레임 인덱스 r jp is the representative frame index of the pth sub-shot of shot i

r jq 는 샷jq번째 서브-샷의 대표프레임 인덱스 r jq is the representative frame index of the qth sub-shot of shot j

N Bin : 칼라유사도 측정시 사용하는 히스토그램의 칼라 빈수 N Bin : The number of color bins in the histogram used to measure color similarity

도 2b는 도 1에서의 모션 추출 및 모션 유사도측정을 상세하게 나타낸 것이다. MPEG-1동영상의 프레임 중에서 I나 P프레임과의 움직임 특징이 매크로블록 단위의 벡터형태로 저장되어 있는 P프레임으로부터 각 샷내의 모션 특징을 추출한다. 따라서, P프레임 내의 16×16매크로블록의 모션벡터를 추출하여 x, y방향에 대해 변위를 구한다(R1). 상기 변위를 16으로 나누어 정규화(NORMALIZATION)하여 -1 ∼1사이의 값을 가지게 한다(R2). 이제 각 매크로블록의 정규화된 모션의 크기를 다음 수학식 3을 이용하여 구한다(R3).FIG. 2B illustrates the motion extraction and motion similarity measurement in FIG. 1 in detail. The motion feature in each shot is extracted from the P frame in which the motion feature with the I or P frame is stored in the vector form in macroblock units among the frames of the MPEG-1 video. Therefore, the motion vector of the 16 x 16 macroblock in the P frame is extracted to find the displacement in the x and y directions (R1). The displacement is divided by 16 to normalize (NORMALIZATION) to have a value between -1 and 1 (R2). Now, the magnitude of the normalized motion of each macroblock is obtained by using Equation 3 below (R3).

는 샷 내에 존재하는 P프레임 중에서k번째의 순방향 매크로블록의 x, y방향에 대한 정규화된 절대 변위를 의미한다. Of the P frames in the shotkThe normalized absolute displacement of the first forward macroblock in the x and y directions.

상기의 블록모션크기를 구한 후 다음의 수학식 4를 이용해서 샷 내의 정규화된 평균 모션크기를 구한다(R4).After the block motion size is obtained, the normalized average motion size in the shot is obtained by using Equation 4 below (R4).

N MB 는 샷 내의 순방향 매크로블록의 총 개수를 의미한다. N MB means the total number of forward macroblocks in the shot.

상기에서 구해진 평균모션크기를 이용하여 다음의 수학식 5를 통하여i,j번째의 두 샷 간의 모션유사도를 구한다(R5).The motion similarity between two shots of the i and j th shots is obtained using Equation 5 below using the average motion size obtained above (R5).

샷 간의 유사도를 구하기 위해서는 칼라와 모션 특징을 통해 구한 샷 간의 유사도에 각각 가중치를 주어야 한다. 도 7에 보이는 바와 같이 탐색구간 내에서 유사샷을 찾기 때문에 탐색구간의 특성에 따라 칼라와 모션에 가중치를 부여한다. 도 7에 대한 설명은 다음 도 3b의 설명에서 하기로 한다.In order to calculate the similarity between shots, weights of the similarity between the shots obtained through the color and the motion feature are respectively weighted. As shown in FIG. 7, since similar shots are found in the search section, weights are assigned to colors and motions according to the characteristics of the search section. The description of FIG. 7 will be described later with reference to FIG. 3B.

만약, 탐색구간 내의 평균모션이 크다면, 이 구간은 액션 씬과 같이 화면이 빠르게 진행되는 동적 구간이기 때문에 칼라보다는 모션에 더 큰 가중치를 주고, 반대로 탐색범위내의 평균모션이 작다면 이 구간은 정적인 구간이기 때문에 모션보다는 칼라에 더 큰 가중치를 적용해야 한다.If the average motion in the search section is large, this section is a dynamic section in which the screen is fast-moving like the action scene, so it gives more weight to motion than color, and conversely, if the average motion in the search range is small, this section is static. Because it is an in interval, you should apply a greater weight to the color than to the motion.

상기 과정은 도 3a에서 상세하게 나타내었다. 도 3a는 도 1에서의 적응적 가중치과정을 상세하게 나타낸 것이다. 도시된 바와 같이, 현재의 샷과 유사샷을 찾기 위해서 탐색구간내에 있는 샷들에 대해 다음 수학식 6을 이용해 평균모션을 구한다(M1).The process is shown in detail in FIG. 3a. FIG. 3A illustrates the adaptive weighting process in FIG. 1 in detail. As shown, in order to find the current shot and similar shots, the average motion is obtained using the following equation (6) for the shots in the search section (M1).

여기서 ICS는 샷 유사도 탐색 구간에서 탐색의 기준이 되는 샷의 인덱스를 의미하며, SR(SEARCH RANGE)는 ICS로부터 탐색할 샷의 개수를 의미한다.In this case, I CS means an index of a shot, which is a reference for searching in a shot similarity search interval, and SR (SEARCH RANGE) means the number of shots to be searched from the I CS .

샷 간의 유사도는 모션유사도에 대한 가중치(WM) 및 칼라유사도에 대한 가중치(WC)를 이용하여 구한다. 여기서, 모션유사도에 대한 가중치(WM)는 샷 검색범위내의 평균모션을 이용하였고(M2), 칼라유사도에 대한 가중치WC는 1에서 모션적용가중치를 뺌으로써 자동적으로 얻을 수 있다(M3).Similarity between shots is obtained using weights W M for motion similarity and weights W C for color similarity. Here, the weight (W M ) for the motion similarity uses the average motion within the shot search range (M2), and the weight W C for the color similarity can be automatically obtained by subtracting the motion application weight from 1 (M3).

도 3b는 도 1에서의 샷 클러스터링과정을 상세하게 나타낸 것이다. 도시된 바와 같이, 일정 탐색구간의 처음 샷을 씬의 경계로 하여 시작하고(L1), 구간내에서 유사샷을 탐색하는데(L2), 이 과정은 도 6a와 도6b를 참조로 하여 설명하기로 한다.3B illustrates the shot clustering process in FIG. 1 in detail. As shown, starting with the first shot of a certain search section as the scene boundary (L1) and searching for similar shots in the section (L2), this process will be described with reference to FIGS. 6A and 6B. do.

도 6a는 종래의 샷 검출방법인 OL(OVERLAPPING LINKS)기법을 나타낸 것이다. 이 기법은 유사 샷 검색시 순방향으로 검색을 하기 때문에 탐색구간내에 있는 모든 샷들에 대해서 유사도를 측정해야하므로 비디오 씬 분할 시 연산시간이 길어지는 단점이 있다.6A illustrates an OL (OVERLAPPING LINKS) technique, which is a conventional shot detection method. Since this technique searches in the forward direction when searching for similar shots, the similarity needs to be measured for all shots in the search section.

도 6b는 본 발명에서의 유사 샷 검출방법인 IOL(IMPROVED OVERLAPPING LINKS)기법을 나타내었다. 상기의 기존 OL기법에 비하여, 유사 샷 탐색구간내의 맨 마지막 샷부터 역방향으로 검색을 하므로 예를 들어 탐색구간의 마지막 샷이 유사샷일 경우 단 한번의 유사도 비교과정이 필요하므로 기존의 방법에 비하여 연산시간을 줄일 수 있다.6B illustrates an IOL (IMPROVED OVERLAPPING LINKS) technique, which is a similar shot detection method according to the present invention. Compared with the conventional OL method, since the last shot in the similar shot search section is searched backwards, for example, when the last shot of the search section is a similar shot, only one similarity comparison process is required. Can be reduced.

상기 IOL기법을 이용해 탐색구간에서부터 역 검색과정을 통해 기준 샷과 주어진 임계값을 넘는 유사샷이 최초로 발견되면(L3), 두 샷은 서로 연결 (LINK) 되고(L4), 그 유사샷으로부터 새로운 탐색구간이 설정되어 다시 유사샷을 탐색한다 (L5). 만약, 유사샷이 발견되지 않으면 그대로 씬의 경계가 정해져 씬이 분할된다(L3′).Using the IOL technique, if a similar shot that exceeds a reference threshold and a given threshold is first found through a reverse search process from a search section (L3), the two shots are linked (LINK) to each other (L4), and a new search from the similar shot is performed. The section is set to search for similar shots again (L5). If a similar shot is not found, the scene boundary is defined and the scene is divided (L3 ').

상기의 방법을 도 7에서 상세하게 나타내었다. 도 7은 도 6b의 IOL기법을 이용하여 씬 분할방법을 나타낸 일실시예다. 도시된 바와 같이, 탐색구간의 시작 샷인 a에서부터 탐색구간의 마지막 샷부터 검색을 시작하여 a에 대한 유사샷 a′가 검색되면, a와 a′샷은 연결되고①, 다시 a′샷부터 일정의 탐색구간내에서 a′샷에 대한 유사샷이 있는지를 검색하여 씬의 경계를 확장시킨다. a′의 유사샷인 a″이 검색되었으므로 a′와 a″샷은 연결되므로 결국 a와 a′과 a″샷은 서로 연결되어 씬의 경계가 확장된다②. a″에 대한 유사샷이 더이상 나오지 않을 때에는 그 이전의 샷들로 이동하면서 유사샷을 검색한다.The above method is shown in detail in FIG. FIG. 7 is a diagram illustrating a scene segmentation method using the IOL technique of FIG. 6B. As shown in the figure, when the search starts from the last shot of the search section from the last shot of the search section and a similar shot a 'is searched for a, the a and a' shots are connected, The boundary of the scene is extended by searching for a similar shot for a 'shot in the search section. Since a ″, a similar shot of a ', is found, the a' and a ″ shots are concatenated, so a, a 'and a ″ shots are connected to each other, and the boundary of the scene is extended ②. When a similar shot for a ″ no longer appears, the previous shot is searched for by moving to the previous shots.

a″의 이전 샷인 b는 b′와 유사하기 때문에 서로 연결되고, 비디오씬은 b′까지 확장된다. b′는 탐색구간내에서 유사샷이 없고, b′이전의 샷에 대해서도 더이상의 유사샷이 검출되지 않으므로, b′에서 씬이 분할된다③. 이와 같이 탐색구간내에서 이전 샷들에 대해서도 더 이상의 유사샷이 검출되지 않으면, 다음 샷에서부터 새로운 씬이 시작되고, 상기와 같은 알고리즘이 적용된다.b, the previous shot of a ″, is connected to each other because it is similar to b ', and the video scene extends to b'. Since b 'has no similar shot in the search section and no similar shot is detected for the shot before b', the scene is split at b '. As such, if no similar shot is detected for the previous shots within the search section, a new scene starts from the next shot, and the above algorithm is applied.

상기와 같은 씬 분할 알고리즘을 적용해 보면, τ보다 적은 시간 간격을 가지고 있는 씬이 상당수 검출된다. 이러한 씬은 유사샷 탐색구간내에서 칼라특징의 유사도가 낮기 때문에 과다분할되어 발생하게 되는데, 이러한 씬들은 이용자에게 제대로 된 내용을 전달하기 어렵다.Applying the above scene segmentation algorithm, many scenes with a time interval less than τ are detected. These scenes are over-segmented because the similarity of color features is low in the similar shot search section, and these scenes are difficult to deliver the correct contents to the user.

상기와 같은 씬 과다분할현상을 보상하기 위하여 도 4에 나타낸 후처리과정을 거치도록 하여 하나의 씬 내에 있는 샷들은 유사한 모션 특성을 지니는 것을 이용하여 이웃하는 씬과의 모션특징을 비교해서 두 씬을 병합할 수 있도록 한다.In order to compensate for such scene over-division, the post-processing process shown in FIG. 4 is performed so that the shots in one scene have similar motion characteristics to compare two motion scenes with neighboring scenes. Allow to merge

도 4는 도 1에서의 후처리과정을 상세하게 나타낸 것이다. 구해진 각각의 씬에 대하여 도 4의 과정을 수행한다. 우선, 씬의 시간간격이 τ보다 적은지를 비교하여(N1) τ보다 크거나 같은 경우에는 후처리과정을 거칠 필요가 없으므로 종료하고(N1′), τ보다 적을 경우에는 씬의 모션특징을 구한다(N2). 각 씬의 모션 특징은 다음 식을 이용하여 구한다.4 illustrates the post-processing process of FIG. 1 in detail. The process of FIG. 4 is performed for each obtained scene. First, if the time interval of the scene is less than τ (N1), if it is greater than or equal to τ, it is not necessary to go through the post-processing process (N1 '), and if it is less than τ, the motion characteristic of the scene is obtained ( N2). The motion characteristics of each scene are obtained using the following equation.

ISS와 IES는 각 씬의 처음과 마지막 샷의 인덱스를 나타낸다.I SS and I ES indicate the index of the first and last shot of each scene.

상기수학식 7과 같이 구해진 씬의 모션 특징으로 서로 인접해 있는 두개의 씬간의 모션유사도를 수학식 8로 구하고 임계값과 비교하여(N3), 서로 인접해 있는 두 씬의 모션유사도가 주어진 임계값보다 작으면 씬을 병합하지 않고 종료하고(N3′), 임계값보다 크다면 두 씬은 서로 병합된다 (N4).The motion similarity between two scenes adjacent to each other as a motion characteristic of the scene obtained as shown in Equation 7 is calculated by Equation 8 and compared with a threshold value (N3). If it is smaller, it ends without merging the scenes (N3 '), and if it is larger than the threshold, the two scenes are merged with each other (N4).

이렇게 짧은 씬을 병합함으로서 씬의 과다 분할현상을 줄일 수 있으며, 병합된 씬은 더욱 충실히 의미를 반영할 수 있게 된다.By merging these short scenes, you can reduce excessive splitting of the scenes, and the merged scenes can more faithfully reflect their meaning.

본 발명은 샷 내의 칼라분포 변화 정도에 비례하는 대표프레임의 추출로, 처음과 마지막 프레임을 대표프레임으로 이용한 기존의 방법에 비해 칼라유사도 비교시 샷 내의 다양한 칼라 분포를 충실히 반영할 수 있는 효과가 있다.The present invention has the effect of extracting representative frames proportional to the degree of change in color distribution in a shot, and faithfully reflecting various color distributions in a shot when comparing color similarity compared to conventional methods using the first and last frames as representative frames. .

본 발명은 또한, 탐색구간의 모션처리에 따른 적응적 가중치와 후처리 과정을 통해서 씬의 과다분할현상을 줄이는 효과가 있다.The present invention also has the effect of reducing oversplitting of the scene through adaptive weighting and post-processing according to the motion processing of the search section.

본 발명은 또한, IMPROVED OVERLAPPING LINK(IOL)기법을 이용하여 기존의 방법을 사용하였을 때보다 연산시간이 훨씬 감소하는 효과가 있으며, 샷과 씬의 계층적인 구조추출은 비디오 검색 또는 브라우징에 사용될 수 있다.The present invention also has an effect of significantly reducing the computation time using the IMPROVED OVERLAPPING LINK (IOL) technique, compared to the conventional method, and extracting hierarchical structures of shots and scenes can be used for video searching or browsing. .

Claims (15)

MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, 비디오의 컬러 및 모션정보를 이용하여 비디오를 씬, 샷, 키프레임으로 표현하는 단계와,Expressing the video in scenes, shots, and keyframes using the color and motion information of the video; 비디오의 전체적인 내용을 계층적으로 브라우징하는 단계를 포함하는 컬러 및 모션 정보를 기반으로 하는 비디오 씬 분할 방법.A video scene segmentation method based on color and motion information comprising hierarchically browsing the entire content of a video. MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, MPEG비디오신호를 입력받는 단계와,Receiving an MPEG video signal; 상기 입력된 비디오신호의 샷 경계를 검출하는 단계와,Detecting a shot boundary of the input video signal; 상기 샷의 칼라 특징 추출 및 칼라유사도를 측정하고, 또한, 모션 특징 추출 및 모션유사도를 측정하는 단계와,Measuring color feature extraction and color similarity of the shot, and also measuring motion feature extraction and motion similarity; 상기 샷을 적응적 가중치를 가하여 클러스터링하는 단계 및Clustering the shots by adaptive weighting; and 상기 클러스터링된 샷을 후처리하는 단계를 포함하는 칼라 및 모션특징을 기반으로 하는 비디오 씬 분할 방법A video scene segmentation method based on color and motion features comprising post-processing the clustered shots MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, 하나의 샷 내에서 일정 프레임이상의 칼라분포가 유사한 연속적인 프레임으로 구성되는 서브-샷 추출과정과,A sub-shot extraction process consisting of successive frames having similar color distribution over a certain frame in one shot; 상기 서브-샷에서 시간적인 가운데에 위치하는 대표프레임의 추출과정과,Extracting a representative frame located in the temporal center of the sub-shot; 상기 대표프레임들의 칼라유사도를 측정하는 과정을 포함하는 프레임에서 신호의 검색단위인 샷의 칼라 특징 추출 및 칼라 유사도를 추출하는 단계를 포함하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.And extracting color feature and color similarity of a shot, which is a search unit of a signal, in a frame including measuring color similarity of the representative frames. 제 3항에 있어서, 서브-샷으로 분할하기 위해 기준 프레임과 비교 프레임과의 간격을 증가시키며 비교하여 두 프레임간의 비유사도가 정해진 임계값보다 커진다면 이 지점에서부터 새로운 서브-샷으로 분할하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할방법.4. The method of claim 3, further comprising increasing the spacing between the reference frame and the comparison frame to divide into sub-shots, and further dividing into new sub-shots from this point if the dissimilarity between the two frames is greater than a predetermined threshold. And a video scene segmentation method based on color and motion features. 제 3항에 있어서, 서브-샷 추출과정에 서브-샷 추출시간을 일정시간으로 제한함으로써, 하나의 샷 내에서 추출될 수 있는 대표프레임의 개수를 제한하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.The color and the method of claim 3, further comprising limiting the number of representative frames that can be extracted in one shot by limiting the sub-shot extraction time to a predetermined time in the sub-shot extraction process. Video scene segmentation method based on motion characteristics. 제 3항에 있어서, 각 샷의 대표프레임의 칼라유사도는 다음의 수학식 1 및 수학식 2에 의하여 구해지는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.The video scene segmentation method of claim 3, wherein the color similarity of the representative frame of each shot is obtained by the following Equations 1 and 2. p= 1,2,.......,n:n은 샷i의 서브-샷 개수 p = 1,2, ......., n : n is the number of sub-shots of shot i q= 1,2,.......,m:m은 샷j의 서브-샷 개수 q = 1,2, ......., m : m is the number of sub-shots of shot j r ip 는 샷ip번째 서브-샷의 대표프레임 인덱스 r ip is the representative frame index of the pth sub-shot of shot i r iq 는 샷jq번째 서브-샷의 대표프레임 인덱스 r iq is the representative frame index of the qth sub-shot of shot j r jp 는 샷ip번째 서브-샷의 대표프레임 인덱스 r jp is the representative frame index of the pth sub-shot of shot i r jq 는 샷jq번째 서브-샷의 대표프레임 인덱스 r jq is the representative frame index of the qth sub-shot of shot j N Bin : 칼라유사도 측정시 사용하는 히스토그램의 칼라 빈수 N Bin : The number of color bins in the histogram used to measure color similarity MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, 샷 내의 P프레임 내의 매크로블록의 벡터성분을 추출하는 과정과,Extracting a vector component of a macroblock in a P frame in a shot; 상기 추출된 벡터성분을 정규화시키는 과정과,Normalizing the extracted vector components; 상기 정규화된 벡터성분을 이용하여 매크로블록의 정규화된 모션크기를 구하는 과정과,Obtaining a normalized motion size of a macroblock using the normalized vector component; 상기 정규화된 모션크기의 평균크기를 구하는 과정과,Obtaining an average size of the normalized motion size; 두 샷 간의 유사도를 추출하는 과정을 포함하는 MPEG 동영상의 I나 P프레임과의 움직임특징이 매크로블록 단위의 벡터형태로 저장되어 있는 P프레임으로부터 각 샷내의 모션 특징 추출 및 모션유사도를 측정하는 단계를 포함하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.Measuring the motion feature extraction and the motion similarity in each shot from the P frame in which the motion feature with the I or P frame of the MPEG video including the process of extracting the similarity between the two shots is stored in the vector form in macroblock units. A video scene segmentation method based on the containing color and motion features. 제 7항에 있어서,The method of claim 7, wherein 추출된 벡터성분을 정규화시키는 과정은, 추출된 벡터성분을 16으로 나누어 -1 ~ 1사이의 값을 가지게 하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.The process of normalizing the extracted vector components further comprises dividing the extracted vector components by 16 to have a value between -1 and 1, and the video scene segmentation method based on color and motion features. 제 7항에 있어서,The method of claim 7, wherein 정규화된 모션의 크기는 수학식 3을 이용하여 구하고,The magnitude of the normalized motion is obtained by using Equation 3, 샷 내의 정규화된 평균모션크기는 수학식 4를 이용하여 구하며,The normalized average motion size in the shot is obtained by using Equation 4, 두 샷 간의 모션유사도는 수학식 5를 이용하여 구하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.The motion similarity between the two shots is further obtained by using Equation (5). ( 는 샷 내에 존재하는 P프레임 중에서k번째의 순방향 매크로블록의 x, y방향에 대한 정규화된 절대 변위를 의미)( Of the P frames in the shotkNormalized absolute displacement of the first forward macroblock in the x and y directions) (N MB 는 샷 내의 순방향 매크로블록의 총 개수를 의미) N MB is the total number of forward macroblocks in the shot. MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, IOL기법을 이용하여 유사샷을 검색하는 단계와,Searching for similar shots using IOL techniques; 씬의 경계를 분할하는 단계를 포함하는 샷 간의 유사도를 구하기 위하여 탐색구간의 특성에 따라 칼라와 모션에 가중치를 부여하는 클러스터링을 하는 단계를 포함하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.23. A method of video scene segmentation based on color and motion features comprising clustering, weighting color and motion according to characteristics of a search interval to obtain similarity between shots comprising dividing a boundary of a scene. 제 10항에 있어서,The method of claim 10, 유사샷 탐색구간의 평균모션을 구하고 이 값을 이용하여 칼라 및 모션가중치를 적용하는 단계를 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.And calculating the average motion of the similar shot search interval and using the value to apply the color and motion weighting values to the video scene segmentation method based on the color and motion characteristics. 제 11항에 있어서,The method of claim 11, 현재의 샷과 유사샷을 찾기 위해서 탐색구간내에 있는 샷들에 대해 수학식 6을 이용해 평균모션을 구하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.A video scene segmentation method based on color and motion features, further comprising obtaining an average motion using Equation 6 for the shots within the search interval to find the current shot and the similar shot. (ICS는 샷 유사도 탐색 구간에서 탐색의 기준이 되는 샷의 인덱스를 의미, SR(SEARCH RANGE)는 ICS로부터 탐색할 샷의 개수를 의미)(I CS is the index of the shot which is the basis of the search in the shot similarity search interval, and SR (SEARCH RANGE) is the number of shots to be searched from the I CS .) MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, 유사 샷 탐색구간내의 마지막 샷부터 역방향으로 유사 샷을 검색하여 서로 유사한 샷끼리 연결하는 과정과, 상기 유사샷이 검출되지 않으면 비디오씬이 분할되고, 탐색구간이 새로 시작되는 단계를 포함하는 프레임 내에서 유사 샷 검출방법인 IOL(IMPROVED OVERLAPPING LINKS)기법을 사용하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.Searching for similar shots backward from the last shot in the similar shot search section and connecting similar shots to each other; if the similar shot is not detected, the video scene is divided and a search section is newly started. A video scene segmentation method based on color and motion features, using an IOL (IMPROVED OVERLAPPING LINKS) technique, which is a similar shot detection method. MPEG 비디오 씬 분할 방법에 있어서,In the MPEG video scene segmentation method, 분할된 씬이 τ보다 적은 시간간격에 위치했는지 아닌지를 판별하는 단계와,Determining whether or not the divided scene is located at a time interval less than τ; 상기 τ보다 적은 시간간격에 위치했을 경우 이웃하는 씬과 모션유사도가 임계값보다 크면 두 씬을 병합하는 단계를 포함하는 씬 과다분할현상을 보상하기 위한 후처리과정을 포함하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.Based on color and motion features, including post-processing to compensate for scene over-split, including merging two scenes when the neighboring scene and the motion similarity are greater than a threshold when located at a time interval less than τ. How to split a video scene. 제 14항에 있어서,The method of claim 14, τ보다 적을 경우 수학식 7을 이용하여 모션특징을 구한 후, 수학식 8을 이용해 인접한 두 씬의 모션유사도를 구하는 것을 더 포함하는 것을 특징으로 하는 칼라 및 모션 특징을 기반으로 하는 비디오 씬 분할 방법.If less than [tau] to obtain a motion feature using the equation (7), and using the equation (8) further comprising calculating a motion similarity of two adjacent scenes. (ISS와 IES는 각 씬의 처음과 마지막 샷의 인덱스를 나타냄)(I SS and I ES represent the index of the first and last shot of each scene)
KR10-2000-0050415A 2000-08-29 2000-08-29 Method of video scene segmentation based on color and motion features KR100405818B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2000-0050415A KR100405818B1 (en) 2000-08-29 2000-08-29 Method of video scene segmentation based on color and motion features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2000-0050415A KR100405818B1 (en) 2000-08-29 2000-08-29 Method of video scene segmentation based on color and motion features

Publications (2)

Publication Number Publication Date
KR20020017216A true KR20020017216A (en) 2002-03-07
KR100405818B1 KR100405818B1 (en) 2003-11-14

Family

ID=19685845

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2000-0050415A KR100405818B1 (en) 2000-08-29 2000-08-29 Method of video scene segmentation based on color and motion features

Country Status (1)

Country Link
KR (1) KR100405818B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030017880A (en) * 2001-08-23 2003-03-04 학교법인 한국정보통신학원 A real-time video indexing method for digital video data
KR20030026529A (en) * 2001-09-26 2003-04-03 엘지전자 주식회사 Keyframe Based Video Summary System
KR20040033767A (en) * 2002-10-15 2004-04-28 케이투아이엠에스 Korean news title auto abstraction method by Korean image character recognition function
KR100460222B1 (en) * 2002-06-17 2004-12-04 엘지전자 주식회사 Structural index informaion description method for multimedia stream, progressive video indexing method and system
KR101323369B1 (en) * 2012-09-21 2013-10-30 한양대학교 에리카산학협력단 Apparatus and method for clustering video frames
KR101536930B1 (en) * 2014-01-07 2015-07-15 서울과학기술대학교 산학협력단 Method and Apparatus for Video Summarization and Video Comic Book Service using it or the method

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100642888B1 (en) 2004-10-19 2006-11-08 한국과학기술원 Narrative structure based video abstraction method for understanding a story and storage medium storing program for realizing the method
KR101050255B1 (en) * 2009-08-25 2011-07-19 주식회사 노매드커넥션 Video scene segmentation system and method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030017880A (en) * 2001-08-23 2003-03-04 학교법인 한국정보통신학원 A real-time video indexing method for digital video data
KR20030026529A (en) * 2001-09-26 2003-04-03 엘지전자 주식회사 Keyframe Based Video Summary System
KR100460222B1 (en) * 2002-06-17 2004-12-04 엘지전자 주식회사 Structural index informaion description method for multimedia stream, progressive video indexing method and system
KR20040033767A (en) * 2002-10-15 2004-04-28 케이투아이엠에스 Korean news title auto abstraction method by Korean image character recognition function
KR101323369B1 (en) * 2012-09-21 2013-10-30 한양대학교 에리카산학협력단 Apparatus and method for clustering video frames
KR101536930B1 (en) * 2014-01-07 2015-07-15 서울과학기술대학교 산학협력단 Method and Apparatus for Video Summarization and Video Comic Book Service using it or the method

Also Published As

Publication number Publication date
KR100405818B1 (en) 2003-11-14

Similar Documents

Publication Publication Date Title
Lienhart et al. On the detection and recognition of television commercials
KR100737176B1 (en) Signal processing method and video/audio processing device
Lin et al. Automatic video scene extraction by shot grouping
EP1081960B1 (en) Signal processing method and video/voice processing device
US20190138813A1 (en) Digital Video Fingerprinting Using Motion Segmentation
JP4201454B2 (en) Movie summary generation method and movie summary generation device
US7697754B2 (en) Method for generating a block-based image histogram
Amel et al. Video shot boundary detection using motion activity descriptor
US20020146168A1 (en) Anchor shot detection method for a news video browsing system
CN106687990B (en) For the method based on gradual improvement from video sequence selection frame
CN108921130A (en) Video key frame extracting method based on salient region
US20030133511A1 (en) Summarizing videos using motion activity descriptors correlated with audio features
US20030112874A1 (en) Apparatus and method for detection of scene changes in motion video
KR100405818B1 (en) Method of video scene segmentation based on color and motion features
EP1067786A1 (en) Data describing method and data processor
KR100775773B1 (en) Automatic extraction method of the structure of a video sequence
KR20010074972A (en) Automatic extraction method of the structure of a video sequence
Lan et al. A novel motion-based representation for video mining
KR100963701B1 (en) Video identification device
Heng et al. High accuracy flashlight scene determination for shot boundary detection
Yilmaz et al. Shot detection using principal coordinate system
Lo et al. A histogram-based moment-preserving clustering algorithm for video segmentation
Jiang et al. Shot Boundary Detection Method for News Video.
Fard et al. Improvement of shot detection methods based on dynamic threshold selection
Wengang et al. A novel approach of generating video scene structure

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081031

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee