KR100361939B1 - Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object - Google Patents

Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object Download PDF

Info

Publication number
KR100361939B1
KR100361939B1 KR1019990030663A KR19990030663A KR100361939B1 KR 100361939 B1 KR100361939 B1 KR 100361939B1 KR 1019990030663 A KR1019990030663 A KR 1019990030663A KR 19990030663 A KR19990030663 A KR 19990030663A KR 100361939 B1 KR100361939 B1 KR 100361939B1
Authority
KR
South Korea
Prior art keywords
object motion
query
motion
vector
video sequence
Prior art date
Application number
KR1019990030663A
Other languages
Korean (ko)
Other versions
KR20010011348A (en
Inventor
노용만
Original Assignee
학교법인 한국정보통신학원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 학교법인 한국정보통신학원 filed Critical 학교법인 한국정보통신학원
Priority to KR1019990030663A priority Critical patent/KR100361939B1/en
Publication of KR20010011348A publication Critical patent/KR20010011348A/en
Application granted granted Critical
Publication of KR100361939B1 publication Critical patent/KR100361939B1/en

Links

Abstract

본 발명은 객체 움직임 정보를 이용하여 다양한 크기와 방향을 갖는 객체 움직임을 효과적으로 인덱싱하고, 이 인덱싱 벡터에 의거하여 MPEG 비디오 시퀀스에 대한 데이터 베이스를 구축하며, 질의 비디오 시퀀스 또는 질의 움직임 궤적에서 추출한 질의 인덱싱 벡터를 이용하여 MPEG 비디오 시퀀스의 데이터 베이스로부터 유사도를 갖는 MPEG 비디오 시퀀스 장면들을 고속으로 검색할 수 있도록 한 객체 움직임 벡터를 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 및 검색 기법에 관한 것으로, 이를 위하여 본 발명은, MPEG 비디오 시퀀스가 가지고 있는 움직임 벡터 정보를 이용하여 보다 빠르고 효율적으로 객체 움직임 정보를 추출하고, 이를 통해 그려지는 객체 움직임 벡터 히스토그램과 객체 움직임 평균값을 이용하여 데이터 베이스에서의 검색을 위한 인덱싱 벡터를 추출하기 때문에, 큰 저장 공간과 많은 디코딩 시간을 필요로하는 전술한 선행특허들과는 달리, 큰 저장 공간과 불필요한 소요 시간을 낭비함이 없이 MPEG 비디오 시퀀스를 효과적으로 데이터 베이스화할 수 있으며, 또한 질의 데이터에서 검출한 질의 객체 움직임 벡터 히스토그램과 질의 객체 움직임 평균값을 이용하여 저장 매체상에 저장된 MPEG 비디오 시퀀스에서 질의 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 객체 움직임을 검색하기 때문에 MPEG 비디오 시퀀스에서의 객체 움직임 정보에 대한 검색을 고정확하고 고속으로 실현할 수 있는 것이다.The present invention effectively indexes object motions of various sizes and directions using object motion information, constructs a database for MPEG video sequences based on this indexing vector, and query indexing extracted from query video sequences or query motion trajectories. The present invention relates to a database construction and retrieval method of an MPEG video sequence using an object motion vector, which enables a high speed retrieval of MPEG video sequence scenes having similarity from a database of an MPEG video sequence using a vector. In addition, the object motion information can be extracted more quickly and efficiently by using the motion vector information of the MPEG video sequence, and the object motion vector histogram and the average value of the object motion are drawn to search the database. Because of extracting one indexing vector, unlike the foregoing patents, which require a large storage space and a large amount of decoding time, it is possible to effectively database an MPEG video sequence without wasting large storage space and unnecessary time. The object motion in the MPEG video sequence is retrieved by using the query object motion vector histogram detected from the query data and the average value of the query object motion in the MPEG video sequence stored on the storage medium. The search for information can be realized with high accuracy and speed.

Description

객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 및 검색 방법과 그 기록 매체 {RECORDING MEDIUM AND METHOD FOR CONSTRUCTING AND RETRIEVING A DATA BASE OF A MPEG VIDEO SEQUENCE BY USING A OBJECT}Database construction and retrieval method of MPE video sequence using object movement and its recording medium {RECORDING MEDIUM AND METHOD FOR CONSTRUCTING AND RETRIEVING A DATA BASE OF A MPEG VIDEO SEQUENCE BY USING A OBJECT}

본 발명은 MPEG 비디오 시퀀스를 데이터 베이스화하고 이를 이용하여 유사한 MPEG 비디오 시퀀스의 장면을 검색하는 기법에 관한 것으로, 더욱 상세하게는 MPEG 비디오 시퀀스에 삽입된 움직임 벡터(MV) 정보를 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하고, 이 구축된 MPEG 비디오 시퀀스의 데이터 베이스를 이용하여 질의 비디오 시퀀스 또는 질의 움직임 궤적과 유사한 MPEG 비디오 시퀀스의 장면들을 검색하는 데 적합한 객체 움직임을 이용한 MPEG 비디오 시퀀스 데이터 베이스 구축 및 검색 방법과 그 기록 매체에 관한 것이다.The present invention relates to a technique of databaseting an MPEG video sequence and searching for a scene of a similar MPEG video sequence by using the same. More particularly, the present invention relates to an MPEG video sequence using motion vector (MV) information embedded in the MPEG video sequence. MPEG video sequence database construction and retrieval method using object motion suitable for constructing a database and searching for scenes of an MPEG video sequence similar to a query video sequence or a query motion trajectory using the database of the constructed MPEG video sequence. And its recording medium.

이 기술분야에 잘 알려진 바와같이, 이산화된 비디오 신호의 전송은 아날로그 신호보다 좋은 화질을 유지할 수 있는 데, 일련의 이미지 "프레임" 으로 구성된 비디오 신호가 디지탈 형태로 표현될 때, 매우 많은 양의 디지탈 비디오 데이터가 발생하게 된다.As is well known in the art, the transmission of discrete video signals can maintain better image quality than analog signals, when a video signal consisting of a series of image "frames" is represented in digital form, a very large amount of digital Video data is generated.

그러나, 비디오 신호를 전송하는 전송 채널에서 사용 가능한 주파수 영역이 제한적이고, 또한 비디오 신호를 저장하기 위한 저장 매체에서의 저장 공간 제약 때문에 비디오 신호를, 예를들면 잘 알려진 하이브리드 부호화 기법을 이용하여 압축 부호화하고 있으며, 이러한 하이브리드 부호화 기법을 이용하여 압축 부호화된 비디오 시퀀스의 일예로서는 MPEG 비디오 시퀀스가 있다. 이러한 MPEG 부호화 및 복호화 알고리즘은 HDTV, VCD, 화상 회의 시스템, 화상 전화 등에 이용되고 있다. 여기에서, 본 발명은 하이브리드 부호화 기법을 통해 압축 부호화된 MPEG 비디오 시퀀스의 데이터 베이스를 구축 및 검색하는 기법에 관련된다.However, due to the limited frequency domain available in the transmission channel for transmitting the video signal and the storage space limitations in the storage medium for storing the video signal, the compression of the video signal, for example using well-known hybrid encoding techniques An example of a video sequence compression-coded using such a hybrid encoding technique is an MPEG video sequence. Such MPEG encoding and decoding algorithms are used for HDTV, VCD, video conferencing system, video telephony and the like. Herein, the present invention relates to a technique for constructing and retrieving a database of MPEG video sequences compression-coded through a hybrid encoding technique.

즉, 하이브리드 부호화 기법에서는 비디오 신호가 갖는 공간적 및 시간적 상관성을 이용하여 디지탈 비디오 신호를 소정의 압축율로 압축 부호화, 즉 움직임 보상 DPCM(차분 펄스 부호 변조), 2차원 DCT(이산 코사인 변환), DCT 계수의 양자화, VLC(가변장 부호화) 등을 이용하여 압축 부호화한다.In other words, in the hybrid coding scheme, the spatial and temporal correlation of the video signal is used to compress and encode the digital video signal at a predetermined compression rate, that is, motion compensation DPCM (differential pulse code modulation), two-dimensional discrete cosine transform (DCT), and DCT coefficients. Compression coding is performed using quantization, VLC (variable coding), and the like.

여기에서, 움직임 보상 DPCM은 현재 프레임과 이전 프레임간의 물체의 움직임을 결정하고, 물체의 움직임에 따라 현재 프레임을 예측하여 현재 프레임과 예측치간의 차이를 나타내는 차분신호를 만들어내는 방법, 보다 상세하게 움직임 보상 DPCM에서는 현재 프레임과 이전 프레임간에 추정된 물체의 움직임에 따라, 현재 프레임을 이전 프레임으로부터 예측하는 것이다. 여기에서, 추정된 움직임은 이전 프레임과 현재 프레임간의 변위를 나타내는 2차원 움직임 벡터(예를들면, 매크로 블록 단위의 움직임 벡터)로 나타낼 수 있다.Here, the motion compensation DPCM determines the movement of the object between the current frame and the previous frame, predicts the current frame according to the movement of the object, and generates a differential signal representing the difference between the current frame and the predicted value. In DPCM, the current frame is predicted from the previous frame according to the estimated motion of the object between the current frame and the previous frame. Here, the estimated motion may be represented by a two-dimensional motion vector (for example, a motion vector in macroblock units) representing a displacement between the previous frame and the current frame.

따라서, 하이브리드 부호화 기법에 따라 소정의 비트율로 압축 부호화된 MPEG 비디오 시퀀스에는 매크로 블록 단위로 검출된 움직임 벡터(MV) 정보들이 삽입되어 있으며, 이러한 MV 정보들은 압축 부호화된 MPEG 비디오 시퀀스를 부호화전의 원신호로 복원(복호화)할 때 이용된다.Accordingly, motion vector (MV) information detected in units of macroblocks is inserted into an MPEG video sequence that is compression-coded at a predetermined bit rate according to a hybrid coding scheme, and the MV information includes the original signal before encoding the encoded MPEG video sequence. It is used when restoring (decoding) the data.

다른한편, MPEG 비디오 시퀀스를 저장 매체에 저장(데이터 베이스화)하고, 이 저장된 MPEG 비디오 시퀀스에서 움직임 객체들을 검색하는 다양한 종류의 기법들이 요구되고 있으며, 이러한 검색 기법들은 데이터 베이스화된 MPEG 비디오 시퀀스에서 사용자가 원하는 움직임 객체들을 검색하는 데 이용되고 있다.On the other hand, various kinds of techniques are required to store (database) MPEG video sequences in a storage medium and to search for motion objects in the stored MPEG video sequences. It is used to retrieve the desired moving objects.

상기한 바와같이 MPEG 비디오 영상에서 움직이는 객체들을 검색하는 종래 기술로서는 Karmann 등에 의해 제안되어“Method for detecting and tracking moving objects in a digital image sequence having a stationary background”의 명칭으로 미국 상표특허청에 5,034,986으로 등록된 선행특허(이하 선행특허 1이라함)가 있다.As described above, a conventional technique for searching for moving objects in an MPEG video image is proposed by Karmann et al., And registered with US Patent Office at 5,034,986 under the name of “Method for detecting and tracking moving objects in a digital image sequence having a stationary background”. There is a prior patent (hereinafter referred to as Patent 1).

이러한 선행특허 1은 정적인 배경을 갖는 MPEG 비디오 영상에서 움직이는 객체들을 찾아내고 추적하는 방법에 관한 것으로, 정적인 영상에서 움직임 객체를 찾아내기 위하여 먼저, 두 영상들 사이이 차분 정보를 이용하여 이진 객체 마스크 시퀀스를 만들어 내는 데, 이 경우 적당한 임계값을 적용하고 있다. 그런다음, 이진 객체 마스크 시퀀스에서 객체라 추정되는 세그먼트들의 형상(shape)을 구하고, 구해진 형상에 대한 위치 정보를 기록한다.This patent relates to a method for finding and tracking moving objects in an MPEG video image having a static background. First, in order to find a moving object in a static image, a binary object mask is formed by using difference information between two images. In this case, the appropriate threshold is applied. Then, the shape of segments estimated to be objects in the binary object mask sequence is obtained, and the position information on the obtained shape is recorded.

다음에, 선행특허 1에서는 검출된 객체의 움직임 벡터를 구하기 위하여 두 프레임 사이에서 마스크 시퀀스들의 특정 위치(즉, 객체의 위치)의 전 프레임의 그레이 스케일값들을 최소화하는 곳의 위치를 다음 프레임에서 찾아내는 방식을 개시하고 있다.Next, in Patent Document 1, in order to obtain a motion vector of a detected object, a position at a next frame is found at a position where the gray scale values of the previous frame of a specific position of the mask sequences (that is, the position of the object) are minimized between two frames. The method is disclosed.

그러나, 상술한 바와같은 방식으로 MPEG 비디오 영상에서 객체의 움직임을 검출해 내는 선행특허 1은 MPEG 비디오 영상이 디코딩된 정지 영상이라는 근본적인 한계를 가지며, 또한 움직임 영역을 검출하기 위해 MPEG 비디오 영상을 여러장의 정지 영상으로 만드는 과정을 거쳐야만 하기 때문에 많은 디코딩 시간과 큰 저장 공간을 필요로 할 수밖에 없다는 근본적인 문제를 갖는다.However, Patent Document 1, which detects the movement of an object in an MPEG video image in the manner described above, has a fundamental limitation that the MPEG video image is a decoded still image, and also has several MPEG video images for detecting a motion region. Since it has to go through the process of making a still image, there is a fundamental problem that it requires a lot of decoding time and a large storage space.

더욱이, 선행특허 1은 여러 객체의 움직임 영역을 검출하기 위해 이진 마스크 시퀀스들을 사용하기 때문에 추가적인 디코딩 시간과 저장 공간의 낭비를 초래하는 문제를 가질 수밖에 없다.Furthermore, since the prior patent 1 uses binary mask sequences to detect the motion regions of several objects, it has no problem causing additional decoding time and waste of storage space.

한편, MPEG 비디오 영상에서 움직이는 객체들을 추출하는 다른 종래 기술로서는 장규환, 정해묵 등에 의해 제안되어“움직임 영상의 이동 물체 분할 및 그 움직임 추정 방법”의 명칭으로 1995년 4월 8일에 출원번호 제95-8100호로 대한민국 특허청에 출원된 선행특허(이하 선행특허 2라함)가 있다.On the other hand, another conventional technique for extracting moving objects from MPEG video images has been proposed by Jang Gyu-hwan, Jeong Hae-muk et al., On April 8, 1995, entitled "Moving Object Segmentation of Motion Images and Its Motion Estimation Method." There is a prior patent (hereinafter referred to as Prior Patent 2) filed with the Korean Patent Office as No. 8100.

이러한 선행특허 2는 현재 프레임에 포함되어 있는 움직임 물체를 분할하고 움직임 물체의 움직임을 한 세트 움직임 파라메터로 기술함으로써, 객체의 움직임을 추적하는 기법에 관한 것으로, 이를 위하여, 선행특허 2는 현재 프레임과 이전프레임간의 비교를 통해 현재 프레임의 움직임 영역을 검출하고, 움직임 영역의 각 화소에 대한 움직임 벡터를 검출하여 움직임 벡터장을 검출하며, 2차원 병진 운동 모형을 이용하여 움직임 벡터장을 분할하고, 평면체 운동 모형을 이용하여 분할 결과를 2차 분할하며, 곡면체 운동 모형을 이용하여 2차 분할 결과를 3차 분할하는 기술적 수단을 개시하고 있다.This prior patent 2 relates to a technique for tracking the movement of an object by dividing a moving object included in the current frame and describing the movement of the moving object as a set motion parameter. Detects the motion region of the current frame through comparison between previous frames, detects the motion vector field by detecting the motion vector for each pixel of the motion region, and divides the motion vector field using a two-dimensional translational motion model. Technical means for dividing a segmentation result second by using a body motion model, and tertiary segmentation of a second segmentation result using a curved body motion model are disclosed.

즉, 선행특허 2는 두 개의 성분으로 표시될 수 있는 기본적인 움직임 벡터로부터 12개 성분으로 표시될 수 있는 움직임 벡터를 산출해 냄으로써 기존의 방식보다 정확하게 객체의 움직임을 추출할 수 있다.That is, the prior patent 2 can extract the motion of an object more accurately than the conventional method by calculating a motion vector that can be represented by 12 components from a basic motion vector that can be represented by two components.

그러나, 이러한 선행특허 2는 초기 두 성분으로 표시할 수 있는 움직임 벡터를 검출하기 위해 영상의 각 프레임들을 비교해야 하기 때문에 각 프레임들을 저장하기 위한 저장 공간을 필요로 하는 문제, 즉 전술한 선행특허 1에서와 같이 저장 공간의 낭비가 초래되는 문제를 가질뿐만 아니라 실시간 단위로 영상이 입력되는 경우 프레임을 만들기 위한 많은 디코딩 시간(즉, 코딩된 비디오 영상을 디코딩하는 시간)을 요구하는 문제를 갖는다.However, this prior patent 2 requires a storage space for storing each frame because the frames of the image must be compared in order to detect a motion vector that can be represented by the first two components, that is, the aforementioned patent 1 In addition to the problem of waste of storage space, as well as in the case that the image is input in real time unit has a problem that requires a lot of decoding time (that is, time to decode the coded video image) to make a frame.

더욱이, 선행특허 2는 여러개의 움직임이 합성되어 이루어지는 객체 움직임이 존재하는 경우 이를 단일한 두 성분 벡터로 표현하기 때문에 객체 움직임에 많은 오차가 발생하게 되는 또다른 문제점을 갖는다.In addition, the prior patent 2 has another problem in that a large number of errors occur in the object motion because the object motion is composed of a plurality of motions are represented as a single two component vector.

다른한편, MPEG 비디오 영상에서 움직이는 객체들을 추출하는 또다른 종래 기술로서는 Nagaya 등에 의해 제안되어“Moving Object detection apparatus”의 명칭으로 미국 상표특허청에 5,721,692로 등록된 선행특허(이하 선행특허 3이라함)가 있다.On the other hand, another conventional technique for extracting moving objects from MPEG video images is proposed by Nagaya et al., Which is a prior patent (hereinafter referred to as "patent 3") registered by the US Trademark Office as 5,721,692 under the name of "Moving Object detection apparatus". have.

이러한 선행특허 3에서는 객체 움직임을 검출하기 위해서 입력 영상을 위한 입력 단위와 출력 영상을 위한 출력 단위들이 제공되는 데, 배경에서 움직이는 영역이 검출되면, 움직임 객체로써 움직임 속도와 방향이 계산된다. 즉, 입력 영상의 각 프레임을 특정 크기의 윈도우로 분할하고, 각 프레임에 대해 이전 프레임과 현재 프레임 사이에서 윈도우 상관도를 계산하며, 윈도우 상관도가 하나 이하인 프레임은 이전 프레임에 대한 객체 움직임이 없다고 판단하는 기술적 수단을 개시하고 있다.In the prior patent 3, an input unit for an input image and an output unit for an output image are provided to detect an object movement. When a moving region is detected in the background, a movement speed and a direction are calculated as the moving object. That is, each frame of the input image is divided into windows of a specific size, and the window correlation between the previous frame and the current frame is calculated for each frame, and the frame having the window correlation less than or equal to no object movement with respect to the previous frame. Disclosed is a technical means for judging.

즉, 선행특허 3은 입력 영상이 들어오면 각 프레임당 객체 움직임을 검출하기 위해 특정 크기의 윈도우를 만들고 다음 프레임과 윈도우들의 상관도를 비교하여 객체 움직임을 추출하는 방법을 개시하는 데, 이러한 방법은 움직임 검출 단위와 출력 단위를 단순하고 효율적으로 추출해 낼 수 있다는 장점을 가진다.That is, the prior patent 3 discloses a method of extracting object motion by creating a window having a specific size and detecting a correlation between the next frame and windows to detect an object motion per frame when an input image is received. It has the advantage that the motion detection unit and the output unit can be extracted simply and efficiently.

그러나, 선행특허 3은, 전술한 선행특허 1 및 2에서 이미 언급한 바와같이, 저장 공간의 낭비 문제가 여전히 존재하며, 또한 MPEG 비디오 시퀀스에 따라 적합한 윈도우 크기를 지정해야만 하는 문제가 있다. 즉, 선행특허 3은 다양한 크기의 객체 움직임 추출 기법보다는 윈도우에 기반한 특정 크기의 객체 움직임 추출 기법에 관련된다.However, the prior patent 3, as already mentioned in the foregoing patents 1 and 2, still has a problem of wasting storage space, and also has a problem of specifying a suitable window size according to the MPEG video sequence. That is, the prior patent 3 relates to an object motion extraction technique of a specific size based on a window rather than an object motion extraction technique of various sizes.

따라서, 본 발명은 상술한 종래기술의 문제점을 해결하기 위한 것으로, 객체 움직임 히스토그램 정보를 이용하여 다양한 크기와 방향을 갖는 객체 움직임을 효과적으로 인덱싱하고, 인덱싱 벡터를 이용하여 MPEG 비디오 시퀀스에 대한 데이터 베이스를 구축할 수 있는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법을 제공하는 데 그 목적이 있다.Accordingly, the present invention is to solve the above-mentioned problems of the prior art, by using the object motion histogram information to effectively index the object motion of various sizes and directions, and to use the indexing vector to create a database for the MPEG video sequence An object of the present invention is to provide a method for constructing a database of MPEG video sequences using constructable object motions.

본 발명의 다른 목적은 객체 움직임에 근거한 인덱싱 벡터를 이용하여 구축된 MPEG 비디오 시퀀스의 데이터 베이스로부터 질의 비디오 시퀀스 또는 질의 움직임 궤적에서 추출한 인덱싱 벡터를 이용하여 유사도를 갖는 MPEG 비디오 시퀀스 장면들을 고속으로 검색할 수 있는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 비디오 검색 방법을 제공하는 데 있다.Another object of the present invention is to rapidly search for MPEG video sequence scenes having similarity using an indexing vector extracted from a query video sequence or a query motion trajectory from a database of an MPEG video sequence constructed using an indexing vector based on object motion. The present invention provides a video retrieval method of an MPEG video sequence using object motion.

본 발명의 또 다른 목적은 객체 움직임에 근거한 인덱싱 벡터를 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하고, 질의 비디오 시퀀스 또는 질의 움직임 궤적에서 추출한 인덱싱 벡터를 이용하여 구축된 데이터 베이스로부터 유사도를 갖는 MPEG 비디오 시퀀스 장면을 검색하는 프로그램을 기록하며, 컴퓨터로 판독할 수 있는 기록 매체를 제공하는 데 있다.It is still another object of the present invention to construct an MPEG video sequence database using an indexing vector based on object motion, and to have an MPEG video having similarity from a database constructed using an indexing vector extracted from a query video sequence or a query motion trajectory. A program for retrieving a sequence scene is recorded, and a computer-readable recording medium is provided.

상기 목적을 달성하기 위한 일 관점에 따른 본 발명은, 소정의 압축율로 부호화된 MPEG 비디오 시퀀스 데이터에서 배경 움직임을 제거한 객체 움직임을 검색 및 판독 가능한 데이터 베이스로 구축하는 방법에 있어서, 저장을 위해 입력되는 MPEG 비디오 시퀀스에 존재하는 움직임 벡터를 추출하는 제 1 과정; 상기 추출된 움직임 벡터에서 배경 움직임 벡터를 제거한 후 객체 움직임 벡터 정보를 이용하여 클러스터된 객체 움직임을 검출하는 제 2 과정; 상기 검출된 객체 움직임의 클러스터 수를 이용하여 객체 움직임 벡터 장면(Shot)을 검출하는 제 3 과정; 상기 검출된 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 객체별로 식별자를 부여하는 제 4 과정; 상기 검출된 객체 움직임 장면과 상기 부여된 식별자를 이용하여 객체 움직임 히스토그램을 생성하고, 이 생성된 객체 움직임 히스토그램을 인덱싱하여 상기 검출된 객체 움직임 장면에 대한 인덱싱 벡터를 생성하는 제 5 과정; 및 상기 생성된 인덱싱 벡터를 대응하는 입력 MPEG 비디오 시퀀스 정보와 함께 저장 매체에 저장하는 제 6 과정으로 이루어진 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법을 제공한다.According to an aspect of the present invention, there is provided a method of constructing a searchable and readable database of object motion from which background motion is removed from MPEG video sequence data encoded at a predetermined compression rate. Extracting a motion vector present in the MPEG video sequence; A second step of detecting a clustered object motion using object motion vector information after removing a background motion vector from the extracted motion vector; A third step of detecting an object motion vector scene by using the detected cluster motion number; A fourth step of analyzing a content feature histogram of the detected object motion cluster and assigning an identifier for each object; A fifth step of generating an object motion histogram using the detected object motion scene and the assigned identifier, and generating an indexing vector for the detected object motion scene by indexing the generated object motion histogram; And a sixth process of storing the generated indexing vector along with corresponding input MPEG video sequence information in a storage medium.

상기 목적을 달성하기 위한 다른 관점에 따른 본 발명은, 소정의 압축율로 부호화된 MPEG 비디오 시퀀스 데이터가 검색용 객체 움직임 인덱싱 벡터와 함께 저장된 저장 매체로부터 질의 데이터에 대응하는 객체 움직임 정보를 검색하는 방법에 있어서, 상기 저장 매체에서 검색하고자하는 질의 데이터가 입력되면, 입력된 질의 데이터에서 질의 움직임 벡터를 추출하는 제 1 과정; 상기 추출된 질의 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 질의 객체 움직임을 검출하는 제 2 과정; 상기 검출된 질의 객체 움직임의 클러스터 수를 이용하여 질의 객체 움직임 장면(Shot)을 검출하는 제 3 과정; 상기 검출된 질의 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 질의 객체별로 식별자를 부여하는 제 4 과정; 상기 검출된 질의 객체 움직임 장면과 상기 부여된 식별자를 이용하여 질의 객체 움직임 히스토그램을 생성하고, 이 생성된 질의 객체 움직임 히스토그램과 객체 움직임 평균값을 질의 인덱싱 벡터로 생성하는 제 5 과정; 및 상기 생성된 질의 인덱싱 벡터와 상기 저장 매체에 저장된 각 인덱싱 벡터간의 비교 검색을 통해 유사 객체 움직임 장면 영상을 검색하고, 이 검색된 유사 객체 움직임 장면 영상에 관한 정보를 상기 저장 매체로부터 인출하여 이에 대응하는 MPEG 비디오 시퀀스를 디스플레이측으로 전달하는 제 6 과정으로 이루어진 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법을 제공한다.According to another aspect of the present invention, there is provided a method for retrieving object motion information corresponding to query data from a storage medium in which MPEG video sequence data encoded at a predetermined compression rate is stored together with an object motion indexing vector for retrieval. The method may include: extracting a query motion vector from the input query data when the query data to be searched in the storage medium is input; A second process of removing a background motion vector from the extracted query motion vector and then detecting clustered query object motion; A third step of detecting a query object motion scene by using the detected number of clusters of the query object motion; A fourth step of analyzing a content feature histogram of the detected query object motion cluster and assigning an identifier to each query object; A fifth step of generating a query object motion histogram using the detected query object motion scene and the assigned identifier, and generating the generated query object motion histogram and the average value of the object motion as a query indexing vector; And searching for a similar object motion scene image by comparing and searching the generated query indexing vector and each indexing vector stored in the storage medium, and extracting information about the found similar object motion scene image from the storage medium and corresponding thereto. The present invention provides a method for searching a database of an MPEG video sequence using an object movement consisting of a sixth process of delivering the MPEG video sequence to a display side.

상기 목적을 달성하기 위한 또 다른 관점에 따른 본 발명은, MPEG 비디오 시퀀스 데이터에서 배경 움직임을 제거한 객체 움직임을 검색 및 판독 가능한 저장 매체에 데이터 베이스로 구축하고, 이 구축된 데이터 베이스에서 검색을 목표로하는 질의 데이터에 대응하는 유사 객체 움직임 장면을 검색하는 프로그램을 기록하며, 컴퓨터로 판독 가능한 기록 매체에 있어서, 입력되는 MPEG 비디오 시퀀스에 존재하는 움직임 벡터를 추출하고, 이 추출된 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 객체 움직임 벡터를 검출하는 제 1 과정; 상기 검출된 객체 움직임의 클러스터 수를 이용하여 객체 움직임 장면(Shot)을 검출하고, 이 검출된 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 객체별로 식별자를 부여하는 제 2 과정; 상기 검출된 객체 움직임 장면과 상기 부여된 식별자를 이용하여 객체 움직임 히스토그램을 생성하고, 이 생성된 객체 움직임 히스토그램과 객체 움직임 평균값을 인덱싱하여 상기 검출된 객체 움직임 장면에 대한 인덱싱 벡터를 생성하는 제 3 과정; 상기 생성된 인덱싱 벡터를 대응하는 입력 MPEG 비디오 시퀀스의 정보와 함께 상기 저장 매체에 저장하는 제 4 과정; 상기 저장 매체에서 검색하고자하는 질의 데이터가 입력될 때, 상기 입력된 질의 데이터에서 질의 움직임 벡터를 추출하고, 이 추출된 질의 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 질의 객체 움직임을 검출하는 제 5 과정; 상기 검출된 질의 객체 움직임의 클러스터 수를 이용하여 질의 객체 움직임 장면을 검출하고, 이 검출된 질의 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 질의 객체별로 식별자를 부여하는 제 6 과정; 상기 검출된 질의 객체 움직임 장면과 상기 부여된 식별자를 이용하여 질의 객체 움직임 히스토그램을 생성하고, 이 생성된 질의 객체 움직임 히스토그램과 객체 움직임 평균값을 인덱싱하여 질의 인덱싱 벡터를 생성하는 제 7 과정; 및 상기 생성된 질의 인덱싱 벡터와 상기 저장 매체에 저장된 각 인덱싱 벡터간의 비교 검색을 통해 유사 객체 움직임 장면 영상을 검색하고, 이 검색된 유사 객체 움직임 장면 영상에 대응하는 정보를 상기 저장 매체로부터 인출하여 이에 대응하는 MPEG 시퀀스를 디스플레이측으로 전달하는 제 8 과정을 실행하기 위한 프로그램을 기록한 상기 컴퓨터로 판독 가능한 기록 매체를 제공한다.The present invention according to another aspect to achieve the above object, the object motion is removed from the MPEG video sequence data to build a database on a retrievable and readable storage medium, and the aim is to search in the constructed database Recording a program for retrieving similar object motion scenes corresponding to the query data; and extracting a motion vector existing in an input MPEG video sequence in a computer-readable recording medium, and extracting a background motion vector from the extracted motion vector. A first process of removing and then detecting a clustered object motion vector; A second step of detecting an object motion scene by using the detected number of clusters of object motions, analyzing a content feature histogram of the detected object motion clusters, and assigning an identifier for each object; A third process of generating an object motion histogram using the detected object motion scene and the assigned identifier, and generating an indexing vector for the detected object motion scene by indexing the generated object motion histogram and the average value of the object motion. ; A fourth step of storing the generated indexing vector in the storage medium together with information of a corresponding input MPEG video sequence; A fifth query for extracting a query motion vector from the input query data, removing a background motion vector from the extracted query motion vector, and detecting a clustered query object motion when the query data to be searched is input from the storage medium. process; A sixth step of detecting a query object motion scene by using the detected number of query object motion clusters, analyzing a content feature histogram of the detected query object motion clusters, and assigning an identifier for each query object; Generating a query indexing vector by generating a query object motion histogram using the detected query object motion scene and the assigned identifier, and indexing the generated query object motion histogram and an object motion average value; And searching for a similar object motion scene image by comparing and searching the generated query indexing vector and each indexing vector stored in the storage medium, and retrieving information corresponding to the retrieved similar object motion scene image from the storage medium. A computer readable recording medium having recorded thereon a program for executing an eighth process of delivering an MPEG sequence to a display side.

도 1은 본 발명에 따라 MPEG 비디오 시퀀스에서 추출한 객체 움직임에 근거하여 검출한 객체 움직임의 인덱싱 벡터를 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하고, 인덱싱 벡터를 이용하여 구축된 데이터 베이스에서 목표로하는 질의 비디오 시퀀스를 검색하는 각 과정들을 기능 블록화하여 구성한 MPEG 비디오 시퀀스 처리 시스템의 블록구성도,1 illustrates the construction of a database of MPEG video sequences using an indexing vector of object motions detected on the basis of object motions extracted from an MPEG video sequence according to the present invention. Block diagram of an MPEG video sequence processing system configured by functionally blocking each process of searching a query video sequence,

도 2는 본 발명에 따라 매크로 블록 단위의 객체 움직임을 검출하여 클러스터링하는 일예를 도시한 예시도,2 is an exemplary diagram illustrating an example of detecting and clustering an object motion in a macroblock unit according to the present invention;

도 3은 검출된 객체 움직임 벡터를 4개의 크기와 8개의 방향으로 나누어 32그룹으로 라벨링한 예를 도시한 예시도,3 is an exemplary diagram illustrating an example of labeling a detected object motion vector into 32 groups by dividing it into four sizes and eight directions;

도 4는 시간에 따라 또는 프레임 수가 증가함에 따라 장면의 객체 움직임 히스토그램이 연속적으로 변화하는 것을 일예로서 도시한 예시도,4 is an exemplary diagram showing that the object motion histogram of a scene continuously changes with time or as the number of frames increases.

도 5는 본 발명의 바람직한 실시예에 따라 객체 움직임을 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하는 과정을 도시한 플로우챠트,5 is a flowchart illustrating a process of constructing a database of MPEG video sequences using object motions according to a preferred embodiment of the present invention;

도 6은 본 발명에 따라 객체 움직임을 이용하여 구축된 MPEG 비디오 시퀀스의 데이터 베이스에서 목표로하는 임의의 질의 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 MPEG 비디오 시퀀스를 검색하는 과정을 도시한 플로우챠트.FIG. 6 is a flowchart illustrating a process of searching for an arbitrary query video sequence or an MPEG video sequence corresponding to a query motion trajectory in a database of an MPEG video sequence constructed using object motion according to the present invention. FIG.

<도면의 주요부분에 대한 부호의 설명><Description of the code | symbol about the principal part of drawing>

102 : 선택신호 입력 블록 104 : 움직임 벡터(MV) 추출 블록102: selection signal input block 104: motion vector (MV) extraction block

106 : 객체 움직임 검출 블록 108 : 객체 움직임 장면 검출 블록106: object motion detection block 108: object motion scene detection block

110 : 객체 움직임 식별자 할당 블록110: object movement identifier allocation block

112 : 객체 움직임 인덱싱 블록 114 : 저장 매체112: object movement indexing block 114: storage medium

116 : 객체 움직임 인덱싱 검색 블록116: Object Movement Indexing Search Block

118 : 비디오 시퀀스 인출 블록118: video sequence fetch block

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 상세하게 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명에 따라 MPEG 비디오 시퀀스에서 추출한 움직임 벡터에 근거하여 검출한 객체 움직임의 인덱싱 벡터를 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하고, 인덱싱 벡터를 이용하여 구축된 데이터 베이스에서 목표로하는 질의 비디오 시퀀스를 검색하는 각 과정들을 기능 블록화하여 구성한 MPEG 비디오 시퀀스 처리 시스템의 블록구성도이다.1 illustrates a method of constructing a database of MPEG video sequences using an indexing vector of object motions detected based on a motion vector extracted from an MPEG video sequence, and targeting a database constructed using an indexing vector. A block diagram of an MPEG video sequence processing system is constructed by functionally blocking each process of searching a query video sequence.

도 1을 참조하면, 기능 블록화하여 구성한 MPEG 비디오 시퀀스 처리 시스템은 선택신호 입력 블록(102), 움직임 벡터(MV) 추출 블록(104), 객체 움직임 벡터검출 블록(106), 객체 움직임 장면 검출 블록(108), 객체 움직임 식별자 할당 블록(110), 객체 움직임 인덱싱 블록(112), 저장 매체(114), 객체 움직임 인덱싱 검색 블록(116) 및 비디오 시퀀스 인출 블록(118)을 포함한다.Referring to FIG. 1, the MPEG video sequence processing system constructed by functional blocking includes a selection signal input block 102, a motion vector (MV) extraction block 104, an object motion vector detection block 106, and an object motion scene detection block ( 108, object motion identifier assignment block 110, object motion indexing block 112, storage medium 114, object motion indexing search block 116, and video sequence retrieval block 118.

먼저, 선택신호 입력 블록(102)은, 예를들어 MPEG 비디오 시퀀스 처리 시스템이 퍼스널 컴퓨터에 탑재된다고 가정할 때, 키보드, 마우스 등과 같은 입력 수단을 포함하는 것으로, 사용자가 키보드내 조작키 또는 마우스 등을 이용하여 사용자 조작신호를 입력할 때 그에 상응하는 선택신호(또는 제어신호), 예를들면 외부로부터 입력되는 MPEG 비디오 시퀀스에 대한 정보를 데이터 베이스(114)에 저장하도록 하는 구축 제어신호, 외부로부터 제공되는 질의 MPEG 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 유사 MPEG 비디오 시퀀스 장면을 데이터 베이스(114)에서 검색하도록 하는 검색 제어신호 등을 발생하여 라인 L11을 통해 MV 추출 블록(104) 및/또는 객체 움직임 인덱싱 블록(112)으로 제공한다.First, the selection signal input block 102 includes input means such as a keyboard and a mouse, for example, assuming that the MPEG video sequence processing system is mounted on a personal computer. When a user manipulation signal is inputted using the control signal, a construction control signal corresponding to a corresponding selection signal (or a control signal), for example, information about an MPEG video sequence input from the outside is stored in the database 114. MV extraction block 104 and / or object movement over line L11 by generating a search control signal or the like for searching the database 114 for a query MPEG video sequence or a similar MPEG video sequence scene corresponding to the provided query motion trajectory. To the indexing block 112.

다음에, MPEG 비디오 시퀀스의 데이터 베이스 구축을 위해 라인 L12를 통해 외부로부터 제공되는 MPEG 비디오 시퀀스는 MV 추출 블록(104) 및 데이터 베이스(114)로 각각 제공(즉, 데이터 베이스 구축 모드)되며, 또한 사용자 요구에 따라 데이터 베이스(114)에서 유사 MPEG 비디오 시퀀스 장면을 검색하고자하는 질의 비디오 시퀀스 또는 질의 움직임 궤적이 MV 추출 블록(104)으로 제공(즉, 데이터 베이스 검색 모드)되는 데, MV 추출 블록(104)은 데이터 베이스 구축 모드시에 라인 L12를 통해 제공되는 MPEG 비디오 시퀀스에 삽입된 움직임 벡터, 즉 매크로 블록 단위로 검출되어 삽입된 MV를 추출하여 객체 MV 검출 블록(106)으로 제공하고, 또한 데이터 베이스 검색 모드시에 라인 L11로부터의 검색 선택신호에 응답하여 외부로부터 입력되는 질의 비디오 시퀀스 또는 질의 움직임 궤적에서 추출한 질의 MV를 객체 MV 검출 블록(106)으로 제공한다. 여기에서, 추출되는 움직임 벡터들은 두 성분, 즉 크기와 방향을 갖는다.Next, the MPEG video sequence provided from the outside through line L12 for database construction of the MPEG video sequence is provided to the MV extraction block 104 and the database 114, respectively (i.e., database construction mode), and also A query video sequence or query motion trajectory for searching for similar MPEG video sequence scenes in the database 114 is provided to the MV extraction block 104 (i.e., database search mode) in accordance with user requirements. 104 extracts the motion vector inserted into the MPEG video sequence provided through the line L12, that is, the MV detected and inserted in units of macroblocks in the database building mode, and provides the data to the object MV detection block 106; Query video sequence or query input from outside in response to a search selection signal from line L11 in the base search mode The query derived from the MV jikim trajectory provides the object MV detection block 106. Here, the extracted motion vectors have two components, namely, magnitude and direction.

한편, 객체 MV 검출 블록(106)은 상기한 MV 추출 블록(104)으로부터 제공되는 움직임 벡터(MV) 또는 질의 움직임 벡터(MV)를 이용하여 배경 움직임 벡터 정보를 제거한 객체 움직임 벡터를 검출하여 클러스터링(Clustering)한다. 예를들면, 두 프레임(시간적으로 인접하는 두 프레임)간의 대응하는 위치의 움직임 벡터를 비교하여 객체 움직임 벡터를 검출하며, 여기에서 검출된 객체 움직임 벡터는 객체 움직임 장면 검출 블록(108)으로 제공된다.Meanwhile, the object MV detection block 106 detects and clusters an object motion vector from which the background motion vector information is removed using the motion vector MV or the query motion vector MV provided from the MV extraction block 104. Clustering. For example, an object motion vector is detected by comparing a motion vector of a corresponding position between two frames (two temporally adjacent frames), where the detected object motion vector is provided to the object motion scene detection block 108. .

도 2는 본 발명에 따라 매크로 블록 단위의 객체 움직임을 검출하여 클러스터링하는 일예를 도시한 예시도로써, 참조부호 mb는 매크로 블록을 의미하고, mv는 매크로 블록당 움직임 벡터를 의미하며, A 및 B는 클러스터된 객체 움직임 벡터를 의미한다.FIG. 2 is a diagram illustrating an example of detecting and clustering an object motion in a macroblock unit according to the present invention, wherein mb denotes a macroblock, mv denotes a motion vector per macroblock, and A and B Denotes a clustered object motion vector.

이어서, 객체 움직임 장면 검출 블록(108)에서는 객체 MV 검출 블록(106)으로부터 제공되는 클러스터된 객체 움직임 개수를 이용하여 객체 움직임 장면(Shot)을 검출하며, 이때 검출되는 객체 움직임 장면 정보는 다음단의 객체 움직임 식별자 할당 블록(110)으로 제공된다. 여기에서, 장면이란 MPEG 비디오 시퀀스에서 통상 일관성 있는 장면들의 모음을 의미하는 데, 여기에서는 MPEG 비디오 시퀀스에서 움직이는 객체의 수가 동일한(즉, 클러스터된 객체의 수가 동일한) 집합을 객체 움직임 장면이라 정의하고, OMS(Object Motion in Shot)라 칭한다. 이와같이 검출되는 장면(Shot)은 저장을 위한 인덱싱과 검색의 기본 단위가 된다.Subsequently, the object motion scene detection block 108 detects the object motion scene Shot using the number of clustered object motions provided from the object MV detection block 106, and the detected object motion scene information is determined in the following stage. An object motion identifier assignment block 110 is provided. Here, a scene refers to a collection of scenes that are typically consistent in an MPEG video sequence, where a set of identical numbers of moving objects (ie, identical numbers of clustered objects) in an MPEG video sequence is defined as an object motion scene, It is called OMS (Object Motion in Shot). The detected scene is a basic unit of indexing and retrieval for storage.

다음에, 객체 움직임 식별자 할당 블록(110)에서는 객체 움직임 장면 검출 블록(108)으로부터 제공되는 객체 움직임 장면 정보와 라인 L12를 통해 제공되는 프레임 정보에 의거하여 객체당 식별자를 부여, 즉 클러스터된 움직임 객체의 내용 특징(즉, 화소 데이터에 근거하는 색, 질감, 모양 등) 히스토그램을 분석하여 각 객체당 식별자를 부여한다.Next, the object motion identifier assignment block 110 assigns an identifier per object based on the object motion scene information provided from the object motion scene detection block 108 and the frame information provided through the line L12, that is, the clustered motion object. The histogram of the content feature (i.e., color, texture, shape, etc. based on the pixel data) is analyzed and given an identifier for each object.

즉, OMS 내부의 프레임들은 객체 움직임 벡터들로 클러스터되어 있는 데, 이러한 객체 움직임들은 도 3에 도시된 바와같은 극 좌표로 나타낼 수 있으며, 또한 유사한 그룹의 영역들로 라벨링(Labling)될 수 있다. 이때, 유사한 그룹의 영역은 비디오 시퀀스 특성에 따라 m개의 크기와 n개의 방향을 가지고 나누어질 수 있으며, 라벨링된 각 그룹은 객체 움직임 종류를 의미하게 된다. 도 3은 검출된 객체 움직임 벡터를 4개의 크기와 8개의 방향으로 나누어 32그룹으로 라벨링한 결과를 예시적으로 도시한 예시도이다.That is, the frames inside the OMS are clustered into object motion vectors, which can be represented by polar coordinates as shown in FIG. 3 and also labeled with regions of a similar group. In this case, regions of similar groups may be divided into m sizes and n directions according to video sequence characteristics, and each labeled group may represent an object motion type. FIG. 3 is an exemplary diagram illustrating a result of labeling a detected object motion vector into 32 groups by dividing the detected object motion vector into four sizes and eight directions.

한편, 객체 움직임 인덱싱 블록(112)에서는 OMS 내부의 프레임별로 라벨링된 객체 움직임을 분석하여 객체 움직임 히스토그램을 그린 다음 이를 OMHS(Object Motion Histogram in a Shot)와 객체 움직임 평균값으로 인덱싱한다. 여기에서, OMHS는 객체 움직임 히스토그램 자체를 수치화한 것으로 다양한 크기와 방향을 갖는 객체 움직임 정보를 합리적으로 표현해 낼 수 있으며, 또한 객체 움직임 평균값으로 객체 움직임 벡터의 궤적을 효율적으로 검출해 낼 수 있는 인덱싱 벡터들이다.Meanwhile, the object motion indexing block 112 analyzes the object motions labeled for each frame in the OMS, draws an object motion histogram, and then indexes the object motion histogram in a shot (OMHS) and the object motion average value. Here, the OMHS is a quantification of the object motion histogram itself, which can reasonably express object motion information having various sizes and directions, and also an indexing vector that can efficiently detect the trajectory of the object motion vector as the average value of the object motion. admit.

즉, 도 4는 시간에 따라 또는 프레임 수가 증가함에 따라 장면의 객체 움직임 히스토그램이 연속적으로 변화하는 것을 일예로서 도시한 예시도이다.That is, FIG. 4 is an exemplary diagram illustrating that the object motion histogram of a scene continuously changes with time or as the number of frames increases.

도 4를 참조하면, 참조부호 S31은 객체 움직임 그룹의 라벨(객체 움직임 종류)을, S32는 객체 움직임 벡터의 수를, S33은 프레임 번호 또는 시간을, S34는 객체 움직임 벡터 히스토그램을 각각 나타내고, 또한 S35는 객체 움직임 벡터의 궤적, 즉 객체 움직임 평균값을 S31과 S33 사면에 사영시킨 것으로 시간에 따라 객체 움직임이 어떻게 변화하고 있는지를 나타내는 객체 움직임 벡터 궤적을 나타낸다.4, reference numeral S31 denotes a label (object movement type) of the object motion group, S32 denotes the number of object motion vectors, S33 denotes a frame number or time, S34 denotes an object motion vector histogram, and S35 is the trajectory of the object motion vector, that is, the average value of the object motion is projected on the slopes S31 and S33, and represents the object motion vector trajectory indicating how the object motion changes with time.

이때, 클러스터된 객체 움직임 히스토그램은 아래의 수학식 1과 같이 표현된다.In this case, the clustered object motion histogram is expressed by Equation 1 below.

OMHS = {H(ft,i);0≤t≤M, i=1,2,----, N}OMHS = {H (ft, i); 0≤t≤M, i = 1,2, ----, N}

상기한 수학식 1에 있어서, f는 프레임을 나타내고, t는 장면(Shot)으로 구분된 프레임들의 시간 간격 또는 프레임 번호들을 나타내며, i는 객체 움직임 벡터(OM)의 그룹 라벨을 나타낸다. 또한, H(ft,i)는 특정 장면(t의 간격 만큼)에서 그룹 라벨 i를 갖는 객체 움직임들의 수를 의미하며, 이 값들의 집합을 상술한 OMHS라 일컫는다.In Equation 1, f denotes a frame, t denotes a time interval or frame numbers of frames separated by a shot, and i denotes a group label of an object motion vector OM. In addition, H (f t , i) means the number of object movements having a group label i in a specific scene (by an interval of t), and the set of values is referred to as OMHS described above.

다음에, 장면에서 객체 움직임의 평균값은 아래의 수학식 2와 같이 표현된다.Next, the average value of the object motion in the scene is expressed by Equation 2 below.

상기한 수학식 2에 있어서, f는 프레임을 나타내고, t는 장면(Shot)으로 구분된 프레임들의 시간 간격 또는 프레임 번호들을 나타낸다. 따라서, 장면에서 객체 움직임의 평균값이란 특정 장면에 대해 객체 움직임의 평균값을 나열해 놓은 값들로써 장면에 대한 움직임 궤적을 나타낸다.In Equation 2, f denotes a frame, and t denotes a time interval or frame numbers of frames separated by a shot. Therefore, the average value of the object motion in the scene is a value that lists the average value of the object motion for a specific scene and represents a motion trajectory for the scene.

따라서, 객체 움직임 인덱싱 블록(112)에서 구해지는 인덱싱값, 즉 OMHS와 객체 움직임 평균값은 라인 L13을 통해 저장 매체(114)로 제공되거나 혹은 라인 L14를 통해 객체 움직임 인덱싱 검색 블록(116)으로 제공된다. 즉, 객체 움직임 인덱싱 블록(112)은 라인 L11을 통해 선택 신호 입력 블록(102)으로부터 데이터 베이스 구축 선택신호가 제공될 때(즉, 데이터 베이스 구축 모드일 때) 입력되는 MPEG 비디오 시퀀스에서 추출한 움직임 벡터에 근거하여 검출한 인덱싱 벡터(OMHS, 객체 움직임 평균값)를 라인 L13을 통해 데이터 베이스(114)로 전달하여 대응하는 MPEG 비디오 시퀀스의 정보와 함께 저장되도록 하고, 라인 L11을 통해 선택 신호 입력 블록(102)으로부터 데이터 베이스 검색 선택신호가 제공될 때(즉, 데이터 베이스 검색 모드일 때) 질의 비디오 시퀀스 혹은 질의 움직임 궤적에서 검출한 질의 인덱싱 벡터(질의 OMHS, 질의 객체 움직임 평균값)를 라인 L14를 통해 객체 움직임 인덱싱 검색 블록(116)으로 전달한다.Thus, the indexing values obtained from the object motion indexing block 112, ie OMHS and the average value of the object motion, are provided to the storage medium 114 via line L13 or to the object motion indexing search block 116 via line L14. . That is, the object motion indexing block 112 is a motion vector extracted from an MPEG video sequence input when a database construction selection signal is provided from the selection signal input block 102 via the line L11 (that is, in the database construction mode). The indexing vector (OMHS, the object motion average value) detected on the basis of the information is transferred to the database 114 through the line L13 so that it is stored together with the information of the corresponding MPEG video sequence, and the selection signal input block 102 via the line L11. When the database search selection signal is provided (i.e., in the database search mode), the object index is moved to the query indexing vector (query OMHS, mean value of query object motion) detected in the query video sequence or query motion trajectory. Forward to indexing search block 116.

따라서, 저장 매체(114)에서는, 현재 모드가 데이터 베이스 구축 모드일 때, 라인 L11을 통해 제공되는 MPEG 비디오 시퀀스의 정보와 라인 L13을 통해 제공되는관련 인덱싱 벡터(OMHS, 객체 움직임 평균값)를 임의의 저장 공간에 저장하게 된다.Therefore, in the storage medium 114, when the current mode is the database building mode, the information of the MPEG video sequence provided through the line L11 and the associated indexing vector (OMHS, the object motion average value) provided through the line L13 are randomly selected. Will be stored in the storage space.

즉, 본 발명에 따라 저장 매체(112)에는 데이터 베이스화하고자하는 MPEG 비디오 시퀀스이 정보와 움직이는 객체에 각각 대응하는 인덱싱 벡터들이 저장되는 데, 여기에서 움직이는 객체에 대응하는 인덱싱 벡터는 질의 비디오 시퀀스 혹은 질의 움직임 궤적에 대한 유사 장면을 찾고자할 때 검색 인덱스(또는 검색키) 정보로써 이용된다.That is, according to the present invention, the storage medium 112 stores the indexing vectors corresponding to the information and the moving object, respectively, of the MPEG video sequence to be databased, where the indexing vector corresponding to the moving object is the query video sequence or the query motion. It is used as search index (or search key) information when trying to find a similar scene for the trajectory.

이상과 같이, 본 발명에 따르면, MPEG 비디오 시퀀스가 가지고 있는 움직임 정보를 이용하여 보다 빠르고 효율적으로 객체 움직임 정보를 추출하고, 이를 통해 그려지는 객체 움직임 히스토그램을 이용하여 데이터 베이스에서의 검색을 위한 인덱싱 벡터를 추출하기 때문에, 큰 저장 공간과 많은 디코딩 시간을 필요로하는 전술한 선행특허들과는 달리, 큰 저장 공간과 불필요한 소요 시간을 낭비함이 없이 MPEG 비디오 시퀀스를 효과적으로 데이터 베이스화할 수 있다.As described above, according to the present invention, the object motion information is extracted more quickly and efficiently using the motion information of the MPEG video sequence, and the indexing vector for searching in the database using the object motion histogram drawn through the object. Because of extracting, unlike the aforementioned patents requiring a large storage space and a large decoding time, it is possible to effectively database the MPEG video sequence without wasting large storage space and unnecessary time.

한편, 객체 움직임 인덱싱 검색 블록(116)은, 라인 L14를 통해 질의 비디오 시퀀스 혹은 질의 움직임 궤적의 질의 인덱싱 벡터(질의 OMHS, 질의 객체 움직임 평균값)가 제공될 때, 즉 현재 모드가 데이터 베이스 검색 모드일 때, 저장 매체(114)에 저장된 MPEG 비디오 시퀀스의 인덱싱 벡터(OMHS, 객체 움직임 평균값)를 검색하여 질의 인덱싱 벡터와 비교하는 방식으로, 질의 비디오 시퀀스 혹은 질의 움직임 궤적과 유사도를 갖는 MPEG 비디오 시퀀스의 장면(Shot)를 순차 검색한다.On the other hand, the object motion indexing search block 116 is provided when the query indexing vector (query OMHS, query object motion average value) of the query video sequence or the query motion trajectory is provided through the line L14, that is, the current mode is the database search mode. When the indexing vector (OMHS) of the MPEG video sequence stored in the storage medium 114 is searched and compared with the query indexing vector, the scene of the MPEG video sequence having similarity with the query video sequence or the query motion trajectory. Sequentially search for (Shot).

즉, OMHS를 이용하여 질의 데이터에 대한 객체 움직임 벡터 유사도(S1)를 검색해 내는 방법은 히스토그램 인터섹션 방법으로써, 아래의 수학식 3과 같이 표현된다.That is, a method of retrieving the object motion vector similarity S1 for the query data using OMHS is a histogram intersection method, which is expressed by Equation 3 below.

상기한 수학식 3에 있어서, n 및 m은 비디오 시퀀스에서 추출된 OMS중 하나가 된다. 따라서, H(fn, i)는 특정 장면(Shot)의 질의 객체 움직임 벡터 히스토그램들이고, H(fm, i)는 저장 매체(114) 내부에 장면 단위로 저장된 객체 움직임 벡터 히스토그램들이다. 그러므로, S1값이 클수록 유사도가 큰 객체 움직임 장면으로 검출(인식)된다.In Equation 3, n and m are one of OMSs extracted from a video sequence. Accordingly, H (f n , i) are query object motion vector histograms of a specific scene (Shot), and H (f m , i) are object motion vector histograms stored in units of scenes in the storage medium 114. Therefore, the larger the S1 value, the greater the similarity is detected (recognized) as the object motion scene.

또한, 객체 움직임 평균값을 이용하여 질의 데이터에 대한 객체 움직임 벡터 유사도(S2) 및 객체 움직임 벡터 궤적을 검색해 내는 방법은 아래의 수학식 4와 같이 표현된다.In addition, a method of retrieving the object motion vector similarity (S2) and the object motion vector trajectory for the query data using the object motion average value is expressed by Equation 4 below.

상기한 수학식 4에 있어서, n 및 m은 비디오 시퀀스에서 추출된 객체 움직임 궤적 또는 객체 움직임 평균값의 시간 간격이 된다. 따라서,는 특정장면(Shot)의 질의 객체 움직임 궤적 또는 질의 객체 움직임 평균값이며,는 저장 매체(114) 내부에 장면 단위로 저장된 객체 움직임 평균값들이다. 그러므로, S2값이 클수록 유사도가 큰 객체 움직임 장면으로 검출(인식)된다.In Equation 4, n and m are time intervals of the object motion trajectory or the average value of the object motion extracted from the video sequence. therefore, Is the query object motion trajectory or query object motion average value of a specific scene. Are object motion average values stored in the storage medium 114 in units of scenes. Therefore, the larger the S2 value, the greater the similarity is detected (recognized) as the object motion scene.

이때, 본 발명에서는 OMHS와 객체 움직임 평균값중 어느 한 성분을 이용하여 질의 비디오 시퀀스와 유사한 객체 움직임을 검색하도록 설정할 수도 있고, 이와는 달리 두 성분 모두를 이용하여 질의 비디오 시퀀스와 유사한 객체 움직임을 검색하도록 설정할 수도 있다. 전자의 경우 보다 빠른 검색 속도 또는 질의 객체 움직임 궤적에 관한 유사 객체 움직임 궤적 결과를 얻을 수 있는 장점을 가지며, 후자의 경우 전자에 비해 보다 고정밀한 개체 움직임에 대한 검색 또는 질의 장면에 대한 유사 장면 결과를 얻을 수 있는 장점을 갖는다.In this case, the present invention may be configured to search for an object motion similar to the query video sequence using either component of the OMHS and the object motion average value, or alternatively set to search for an object motion similar to the query video sequence using both components. It may be. The former has the advantage of obtaining similar object motion trajectories for faster search speeds or query object motion trajectories. The latter results in similar scene results for search or query scenes for more precise object motion than the former. It has the advantage to be obtained.

다음에, 상술한 바와같은 과정을 통해 산출된 유사도 S1 및/또는 S2는 검색된 유사 장면의 어드레스 정보와 함께 비디오 시퀀스 인출 블록(118)으로 전달되는 데, 비디오 시퀀스 인출 블록(118)에서는 객체 움직임 인덱싱 검색 블록(116)으로부터 제공되는 유사도 정보와 어드레스 정보에 의거하여 저장 매체(114)로부터 질의 데이터에 대응하는 유사 객체 움직임 장면 데이터들을 인출하여 도시 생략된 디스플레이측으로 전달한다. 이때, 다수의 객체 움직임 장면들이 검색 되었다고 가정할 때, 검색된 객체 움직임 장면들의 인출은 가장 유사도가 높은 장면들에서부터 가장 유사도가 낮은 장면 순서로 진행된다.Next, the similarity S1 and / or S2 calculated through the process as described above is transferred to the video sequence retrieval block 118 together with the address information of the retrieved similar scene, where the object motion indexing is performed in the video sequence retrieval block 118. Similar object motion scene data corresponding to the query data is fetched from the storage medium 114 based on the similarity information and the address information provided from the search block 116 and transferred to the display side, not shown. At this time, assuming that a plurality of object motion scenes have been searched, the retrieved object motion scenes are retrieved from the highest similarity scenes to the lowest similarity scenes.

그 결과, 도시 생략된 모니터상에는 사용자가 입력(또는 선택)한 질의 데이터와 유사한 검색된 비디오 시퀀스 장면들이 그 유사도 순서에 따라 순차 디스플레이될 것이다.As a result, retrieved video sequence scenes similar to the query data input (or selected) input by the user will be sequentially displayed in the similarity order on the monitor not shown.

따라서, 본 발명에 따르면, 객체 움직임 벡터 히스토그램을 이용하여 저장 매체상에 저장된 MPEG 비디오 시퀀스의 정보를 이용하여 이에 대응하는 MPEG 비디오 시퀀스에서 질의 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 객체 움직임(또는 객체 움직임 장면)을 고정밀하고 빠르게 검색할 수 있다.Therefore, according to the present invention, an object motion (or object motion) corresponding to a query video sequence or a query motion trajectory in an MPEG video sequence corresponding to the information of an MPEG video sequence stored on a storage medium using an object motion vector histogram is used. Scenes with high precision and speed.

다음에, 상술한 바와같은 구성을 갖는 MPEG 비디오 시퀀스 처리 시스템에서 본 발명에 따라 객체 움직임에 근거한 내용 특징 히스토그램을 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하는 과정에 대하여 설명한다.Next, a process of constructing a database of MPEG video sequences using a content feature histogram based on object motion in the MPEG video sequence processing system having the above-described configuration will be described.

도 5는 본 발명의 바람직한 실시예에 따라 객체 움직임을 이용하여 MPEG 비디오 시퀀스의 데이터 베이스를 구축하는 과정을 도시한 플로우챠트이다.FIG. 5 is a flowchart illustrating a process of constructing a database of MPEG video sequences using object motion according to a preferred embodiment of the present invention.

도 5를 참조하면, MPEG 비디오 시퀀스 처리 시스템이 데이터 베이스 구축 모드일 때 MPEG 비디오 시퀀스 데이터가 입력되면(단계 502), 도 1의 MV 추출 블록(104)에서는 입력되는 MPEG 비디오 시퀀스에서 매크로 블록 단위의 움직임 벡터(MV)를 추출한다(단계 504).Referring to FIG. 5, when MPEG video sequence data is input when the MPEG video sequence processing system is in a database building mode (step 502), the MV extraction block 104 of FIG. 1 uses a macroblock unit in the input MPEG video sequence. The motion vector MV is extracted (step 504).

이어서, 단계(506)에서는 추출된 움직임 벡터(MV)를 이용하여 배경 움직임 벡터 정보를 제거한 객체 움직임 벡터를 검출하여 클러스터링(Clustering)한다. 예를들면, 두 프레임(시간적으로 인접하는 두 프레임)간의 대응하는 위치의 움직임 벡터를 비교하여 객체 움직임 벡터를 검출한다.In operation 506, the object motion vector from which the background motion vector information is removed is detected and clustered using the extracted motion vector MV. For example, an object motion vector is detected by comparing the motion vectors of corresponding positions between two frames (two temporally adjacent frames).

다음에, 단계(508)에서는 클러스터된 객체 움직임 개수를 이용하여 객체 움직임 장면(Shot)을 검출하는 데, 장면이란 MPEG 비디오 시퀀스에서 통상 일관성 있는 장면들의 모음을 의미한다. 즉, MPEG 비디오 시퀀스에서 움직이는 객체의 수가 동일한(즉, 클러스터된 객체의 수가 동일한) 집합을 객체 움직임 장면이라 정의하고, OMS(Object Motion in Shot)라 칭한다. 여기에서, 검출되는 장면(Shot)에 관한 정보는 저장을 위한 인덱싱과 검색의 기본 단위가 된다.Next, in step 508, the object motion scene Shot is detected using the number of clustered object motions, which means a collection of scenes that are typically consistent in the MPEG video sequence. That is, a set of the same number of moving objects in the MPEG video sequence (that is, the same number of clustered objects) is defined as an object motion scene, and is called an OMS (Object Motion in Shot). Here, the information about the detected scene (Shot) is a basic unit of indexing and retrieval for storage.

그런다음, 검출된 객체 움직임 장면 정보와 입력되는 프레임 정보(장면을 이루고 있는 특정 장면 하나하나)에 의거하여 검출된 객체당 식별자를 부여, 즉 클러스터된 움직임 객체의 내용 특징(즉, 색, 질감, 모양 등) 히스토그램을 분석하여 각 객체당 식별자를 부여한다. 일예로서 도 3에 도시된 바와같이, 검출된 객체 움직임 벡터를 4개의 크기와 8개의 방향으로 나누어 32그룹으로 라벨링한다.Then, based on the detected object motion scene information and input frame information (one specific scene forming a scene), an identifier per detected object is assigned, that is, the content characteristics of the clustered motion object (i.e., color, texture, Shapes, etc.) are analyzed and given an identifier for each object. As an example, as shown in FIG. 3, the detected object motion vectors are divided into four sizes and eight directions and labeled into 32 groups.

한편, 단계(510)에서는 OMS 내부의 프레임별로 라벨링된 객체 움직임을 분석하여 객체 움직임 히스토그램을 그리고, 전술한 수학식 1 및 2로 표현된 바와같이, OMHS와 객체 움직임 평균값으로 인덱싱한다. 여기에서, OMHS는 다양한 크기와 방향을 갖는 객체 움직임의 히스토그램 자체를 수치화한 것이고, 객체 움직임 평균값은 객체 움직임의 궤적을 효율적으로 검출해 낼 수 있는 인덱싱 벡터들로써 이용된다.Meanwhile, in step 510, the object motion histogram is analyzed by analyzing the object motions labeled for each frame in the OMS, and indexed by the OMHS and the average value of the object motion as expressed by Equations 1 and 2 described above. Here, OMHS is a digitization of the histogram itself of object motions of various sizes and directions, and the object motion average value is used as indexing vectors capable of efficiently detecting the trajectory of the object motion.

따라서, 상술한 바와같은 과정을 통해 구해진 MPEG 비디오 시퀀스의 움직이는 객체의 인덱싱 벡터들은 자신에게 대응하는 MPEG 비디오 시퀀스 데이터 정보와 함께 저장 매체(114)의 소정 영역에 저장된다(단계 512).Accordingly, the indexing vectors of the moving object of the MPEG video sequence obtained through the above-described process are stored in a predetermined area of the storage medium 114 together with the MPEG video sequence data information corresponding thereto (step 512).

즉, 본 발명에 따른 MPEG 비디오 시퀀스 데이터 베이스 구축 방법에서는 입력되는 MPEG 비디오 시퀀스에서 추출한 객체 움직임에 의거하여 각 객체 움직임 히스토그램을 분석하고, 이 분석 결과를 인덱싱하여 얻은 인덱싱 벡터(OMHS 및 객체움직임 평균값)를 해당 MPEG 비디오 시퀀스에서 객체 움직임을 검색하기 위한 검색키(또는 검색 인덱스) 정보로써 저장 매체에 저장한다.That is, in the MPEG video sequence database construction method according to the present invention, an indexing vector (OMHS and object motion mean value) obtained by analyzing each object motion histogram based on the object motion extracted from the input MPEG video sequence and indexing the analysis result Is stored in the storage medium as search key (or search index) information for searching for object movement in the MPEG video sequence.

따라서, 본 발명에 따른 데이터 베이스 구축 방법은, MPEG 비디오 시퀀스가 가지고 있는 움직임 정보를 이용하여 보다 빠르고 효율적으로 객체 움직임을 추출하고, 이를 통해 그려지는 객체 움직임 히스토그램을 사용하여 데이터 베이스에서의 검색을 위한 인덱싱 벡터를 추출하기 때문에, 큰 저장 공간과 많은 디코딩 시간을 필요로하는 전술한 선행특허들과는 달리, 큰 저장 공간과 불필요한 소요 시간을 낭비함이 없이 MPEG 비디오 시퀀스를 효과적으로 데이터 베이스화할 수 있다.Accordingly, the database construction method according to the present invention extracts object motion more quickly and efficiently by using motion information of an MPEG video sequence, and uses the object motion histogram drawn through this to search for a database. By extracting the indexing vector, unlike the foregoing patents, which require a large storage space and a large decoding time, the MPEG video sequence can be effectively databased without wasting large storage space and unnecessary time.

다음에, 전술한 바와같은 구성을 갖는 MPEG 비디오 시퀀스 처리 시스템에서 본 발명에 따라 객체 움직임에 근거한 객체 움직임 히스토그램을 이용하여 저장 매체에 저장된 MPEG 비디오 시퀀스 정보에 대응하는 MPEG 비디오 시퀀스에서 움직이는 객체를 검색하는 과정에 대하여 설명한다.Next, in the MPEG video sequence processing system having the above-described configuration, a moving object is searched for in an MPEG video sequence corresponding to MPEG video sequence information stored in a storage medium using an object motion histogram based on object motions according to the present invention. Explain the process.

도 6은 본 발명에 따라 객체 움직임 인덱싱 벡터를 이용하여 구축된 MPEG 비디오 시퀀스의 데이터 베이스에서 목표로하는 임의의 질의 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 MPEG 비디오 시퀀스를 검색하는 과정을 도시한 플로우챠트이다.FIG. 6 is a flowchart illustrating a process of searching for an arbitrary query video sequence or an MPEG video sequence corresponding to a query motion trajectory in a database of an MPEG video sequence constructed using an object motion indexing vector according to the present invention. to be.

도 6을 참조하면, 전술한 바와같이 본 발명에 따라 MPEG 비디오 시퀀스용 데이터 베이스가 구축된 상태, 즉 MPEG 비디오 시퀀스 영상들에 관한 정보와 여기에서 검출한 객체 움직임에 대한 인덱싱 벡터가 저장된 상태에서 대기 모드를 수행하는 중에(단계 602), 사용자가 검색 모드를 선택, 즉 질의 비디오 시퀀스 또는 질의움직임 궤적이 입력되는지의 여부를 체크한다(단계 604).Referring to FIG. 6, as described above, the MPEG video sequence database is constructed according to the present invention, that is, the information about the MPEG video sequence images and the indexing vector for the object motion detected therein are stored. While performing the mode (step 602), the user selects a search mode, i.e. checks whether a query video sequence or query motion trajectory is input (step 604).

상기 단계(604)에서의 체크 결과, 질의 비디오 시퀀스 또는 질의 움직임 궤적이 입력되면, 도 1의 MV 추출 블록(104)에서는 입력되는 질의 데이터에서 움직임 벡터(MV)를 추출하고(단계 606), 이어서 단계(608)에서는 추출된 질의 움직임 벡터(MV)를 이용하여 배경 움직임 벡터 정보를 제거한 질의 객체 움직임 벡터를 검출하여 클러스터링한다.As a result of the check in step 604, if the query video sequence or the query motion trajectory is input, the MV extraction block 104 of FIG. 1 extracts a motion vector (MV) from the input query data (step 606). In operation 608, the query object motion vector from which the background motion vector information is removed is detected and clustered using the extracted query motion vector MV.

다음에, 단계(610)에서는 클러스터된 질의 객체 움직임 개수를 이용하여 질의 객체 움직임 장면을 검출한다. 여기에서, 검출되는 질의 객체 움직임 장면은 저장 매체에서의 검색을 위한 기본 단위가 된다.Next, in step 610, the query object motion scene is detected using the clustered query object motion count. Here, the detected query object motion scene is a basic unit for searching in the storage medium.

한편, 단계(612)에서는 OMS 내부의 프레임별로 라벨링된 질의 객체 움직임을 분석하여 질의 객체 움직임 히스토그램을 그리고, 전술한 수학식 1 및 2로 표현된 바와같이, 질의 OMHS와 질의 객체 움직임 평균값으로 인덱싱한다.Meanwhile, in step 612, the query object motion histogram is analyzed by analyzing the query object movements labeled for each frame in the OMS, and indexed by the query OMHS and the query object motion average value as expressed by Equations 1 and 2 described above. .

또한, 단계(614)에서는 질의 비디오 시퀀스 혹은 질의 움직임 궤적의 질의 인덱싱 벡터(질의 OMHS, 질의 객체 움직임 평균값)에 근거해 저장 매체(114)에 저장된 MPEG 비디오 시퀀스의 인덱싱 벡터(OMHS, 객체 움직임 평균값)를 검색하여 비교하는 방식으로, 질의 비디오 시퀀스 혹은 질의 움직임 궤적과 유사도를 갖는 MPEG 비디오 시퀀스의 장면(Shot)를 순차 검색한다.Further, in step 614, the indexing vector (OMHS, object motion average value) of the MPEG video sequence stored in the storage medium 114 based on the query video sequence or the query indexing vector (query OMHS, query object motion average value) of the query motion trajectory. In order to search and compare, the scenes of the MPEG video sequence having similarity with the query video sequence or the query motion trajectory are sequentially searched.

여기에서, 장면의 검색은 질의 인덱싱 벡터와 인덱싱 벡터간의 비교를 통해 그 유사도를 비교함으로써 수행되는 데, 이러한 유사도의 계산은 전술한 수학식 3 및 4를 이용하여 수행된다. 즉, OMHS를 이용하여 질의 데이터에 대한 객체 움직임유사도를 검색하는 경우는 전술한 수학식 3과 같고, 객체 움직임 평균값을 이용하여 질의 데이터에 대한 객체 움직임 유사도를 검색하는 경우는 전술한 수학식 4와 같다.Here, the search of the scene is performed by comparing the similarity through a comparison between the query indexing vector and the indexing vector, and the calculation of the similarity is performed by using Equations 3 and 4 described above. That is, the search for the object motion similarity with respect to the query data using OMHS is the same as Equation 3, and the search for the object motion similarity with respect to the query data using the average value of the object motion is performed as shown in Equation 4 above. same.

이때, 본 발명에서는 OMHS와 객체 움직임 평균값중 어느 한 성분을 이용하여 저장 매체에 저장된 MPEG 비디오 시퀀스에서 질의 비디오 시퀀스와 유사한 객체 움직임을 검색하도록 설정할 수도 있고, 이와는 달리 두 성분 모두를 이용하여 질의 비디오 시퀀스와 유사한 객체 움직임을 검색하도록 설정할 수도 있다. 전자의 경우 보다 빠른 검색 속도 및 유사 객체 움직임 궤적에 관한 검색 결과를 얻을 수 있는 장점을 갖는 반면, 후자의 경우 전자에 비해 보다 고정밀한 객체 움직임 검색 및 유사 장면에 관한 검색 결과를 얻을 수 있는 장점을 갖는다.In this case, the present invention may be configured to search for an object motion similar to the query video sequence in the MPEG video sequence stored in the storage medium by using one component of the OMHS and the object motion average value. Alternatively, the query video sequence may be used by using both components. You can also set it to search for object movement similar to The former has the advantage of faster search speed and search results for similar object motion trajectories, while the latter has the advantage of more accurate object motion search and similar scene search results. Have

다음에, 단계(616)에서는 검색된 객체 움직임 장면들중 유사도가 큰 순서로 배열하고, 그 배열 순서에 따라 저장 매체로부터 객체 움직임 장면들을 순차 인출(판독)하며, 이와같이 인출되는 객체 움직임 장면 데이터들은 도시 생략된 디스플레이측으로 전달된다. 따라서, 도시 생략된 모니터상에는 사용자가 선택(또는 입력)한 질의 비디오 시퀀스 또는 질의 움직임 궤적과 관련하여 검색된 객체 움직임 장면들이 그 유사도에 따라 순차 디스플레이된다.Next, in step 616, the object motion scenes of the retrieved object motion scenes are arranged in the order of high similarity, and the object motion scenes are sequentially retrieved (read) from the storage medium according to the arrangement order, and the object motion scene data thus retrieved is shown. It is delivered to the omitted display side. Therefore, on the monitor not shown, the object motion scenes searched in relation to the query video sequence or query motion trajectory selected by the user are sequentially displayed according to the similarity.

따라서, 본 발명에 따르면, 객체 움직임 히스토그램을 이용하여 저장 매체상에 저장된 MPEG 비디오 시퀀스 정보와 대응하는 MPEG 비디오 시퀀스에서 질의 비디오 시퀀스 또는 질의 움직임 궤적에 대응하는 객체 움직임(또는 객체 움직임 장면)에 대한 고정밀하고 빠른 자동 검색을 실현할 수 있다.Accordingly, according to the present invention, an object motion histogram is used to precisely correct an object motion (or object motion scene) corresponding to a query video sequence or a query motion trajectory in an MPEG video sequence corresponding to MPEG video sequence information stored on a storage medium. And fast automatic search can be realized.

다른한편, 본 발명의 데이터 베이스 구축 방법에 따라 객체 움직임을 이용하여 MPEG 비디오 시퀀스용 데이터 베이스를 구축하고, 질의 데이터에서 추출한 질의 객체 움직임 히스토그램 및 객체 움직임 평균값을 이용하여 구축된 데이터 베이스에서 유사 객체 움직임 장면을 검색하는 프로그램 또는 알고리즘을 이동 및 휴대가 가능한 기록 매체(예를들면, CD 등)에 기록하여 사용할 수 있으며, 이러한 기록 매체는 컴퓨터 등과 같은 기기를 이용하여 판독할 수 있다.On the other hand, according to the database construction method of the present invention to build a database for MPEG video sequence using the object motion, and similar object motion in the database constructed by using the query object motion histogram and the average value of the object motion extracted from the query data A program or algorithm for searching for a scene can be recorded and used on a portable and portable recording medium (for example, CD), and the recording medium can be read using a device such as a computer.

이상 설명한 바와같이 본 발명에 따르면, MPEG 비디오 시퀀스가 가지고 있는 움직임 정보를 이용하여 보다 빠르고 효율적으로 객체 움직임 정보를 추출하고, 이를 통해 그려지는 객체 움직임 히스토그램과 객체 움직임 평균값을 이용하여 데이터 베이스에서의 검색을 위한 인덱싱 벡터를 추출하기 때문에, 큰 저장 공간과 많은 디코딩 시간을 필요로하는 전술한 선행특허들과는 달리, 큰 저장 공간과 불필요한 소요 시간을 낭비함이 없이 MPEG 비디오 시퀀스를 효과적으로 데이터 베이스화할 수 있다.As described above, according to the present invention, the object motion information is extracted more quickly and efficiently by using the motion information of the MPEG video sequence, and the object motion histogram and the average value of the object motion are drawn to search the database. Because of extracting the indexing vector for, it is possible to effectively database an MPEG video sequence without wasting large storage space and unnecessary time, unlike the foregoing patents, which require a large storage space and a large decoding time.

또한, 질의 데이터에서 검출한 질의 객체 움직임 히스토그램을 이용하여 저장 매체상에 저장된 MPEG 비디오 시퀀스의 정보에 대응하는 MPEG 비디오 시퀀스에서 질의 데이터(질의 비디오 시퀀스 또는 질의 움직임 궤적)에 대응하는 객체 움직임을 검색하기 때문에 MPEG 비디오 시퀀스에서의 객체 움직임 정보에 대한 검색을 고정확하고 고속으로 실현할 수 있다.Further, using the query object motion histogram detected from the query data, searching for an object motion corresponding to the query data (query video sequence or query motion trajectory) in the MPEG video sequence corresponding to the information of the MPEG video sequence stored on the storage medium. Therefore, the search for the object motion information in the MPEG video sequence can be realized with high accuracy and speed.

Claims (15)

삭제delete 소정의 압축율로 부호화된 MPEG 비디오 시퀀스 데이터에서 배경 움직임을 제거한 객체 움직임을 검색 및 판독 가능한 데이터 베이스로 구축하는 방법에 있어서,A method of constructing a searchable and readable database of object motion from which background motion is removed from MPEG video sequence data encoded at a predetermined compression rate, the method comprising: 저장을 위해 입력되는 MPEG 비디오 시퀀스에 존재하는 움직임 벡터를 추출하는 제 1 과정;A first step of extracting a motion vector present in an MPEG video sequence input for storage; 상기 추출된 움직임 벡터에서 배경 움직임 벡터를 제거한 후 객체 움직임 벡터 정보를 이용하여 클러스터된 객체 움직임을 검출하는 제 2 과정;A second step of detecting a clustered object motion using object motion vector information after removing a background motion vector from the extracted motion vector; 상기 검출된 객체 움직임의 클러스터 수를 이용하여 객체 움직임 벡터 장면(Shot)을 검출하는 제 3 과정;A third step of detecting an object motion vector scene by using the detected cluster motion number; 상기 검출된 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 객체별로 식별자를 부여하는 제 4 과정;A fourth step of analyzing a content feature histogram of the detected object motion cluster and assigning an identifier for each object; 상기 검출된 객체 움직임 장면과 상기 부여된 식별자를 이용하여 객체 움직임 히스토그램을 생성하고, 이 생성된 객체 움직임 히스토그램을 인덱싱하여 상기 검출된 객체 움직임 장면에 대한 인덱싱 벡터를 생성하는 제 5 과정; 및A fifth step of generating an object motion histogram using the detected object motion scene and the assigned identifier, and generating an indexing vector for the detected object motion scene by indexing the generated object motion histogram; And 상기 생성된 인덱싱 벡터를 대응하는 입력 MPEG 비디오 시퀀스 정보와 함께 저장 매체에 저장하는 제 6 과정으로 이루어진 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.And a sixth step of storing the generated indexing vector along with corresponding input MPEG video sequence information in a storage medium. 제 2 항에 있어서, 상기 내용 특징 히스토그램은, 상기 객체 움직임 클러스터에 대응하는 화소들에 대한 색 히스토그램인 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.3. The method of claim 2, wherein the content feature histogram is a color histogram of pixels corresponding to the object motion cluster. 제 2 항에 있어서, 상기 내용 특징 히스토그램은, 상기 객체 움직임 클러스터에 대응하는 화소들에 대한 질감 히스토그램인 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.3. The method of claim 2, wherein the content feature histogram is a texture histogram for pixels corresponding to the object motion cluster. 제 2 항에 있어서, 상기 내용 특징 히스토그램은, 상기 객체 움직임 클러스터에 대응하는 화소 영역의 모양 히스토그램인 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.3. The method of claim 2, wherein the content feature histogram is a shape histogram of a pixel region corresponding to the object motion cluster. 제 2 항에 있어서, 상기 제 5 과정은:The method of claim 2, wherein the fifth process is: 상기 검출된 객체 움직임을 극 좌표계에서 영역별로 그룹화하는 과정;Grouping the detected object motions by region in a polar coordinate system; 상기 그룹화된 객체 움직임 벡터를 이용하여 상기 객체 움직임 히스토그램을 생성하는 과정; 및Generating the object motion histogram using the grouped object motion vectors; And 상기 생성된 객체 움직임 히스토그램을 분석하여 상기 객체 움직임 히스토그램을 수치화한 OMHS값을 산출하고, 상기 산출된 OMHS과 객체 움직임 평균값을 상기 인덱싱 벡터로 할당하는 과정을 포함하는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.Analyzing the generated object motion histogram to calculate an OMHS value numerically calculating the object motion histogram, and assigning the calculated OMHS and an average value of the object motion to the indexing vector. How to build a database of video sequences. 제 6 항에 있어서, 상기 OMHS는, 다음의 수학식에 의해 산출되는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 구축 방법.The method of claim 6, wherein the OMHS is calculated by the following equation. OMHS = {H(ft,i);0≤t≤M, i=1,2,----, N}OMHS = {H (f t , i); 0≤t≤M, i = 1,2, ----, N} (상기 수학식에 있어서, f는 프레임을 나타내고, t는 장면(Shot)으로 구분된 프레임들의 시간 간격 또는 프레임 번호들을 나타내며, i는 객체 움직임 벡터(OM)의 그룹 라벨을 나타내고, H(ft,i)는 특정 장면(t의 간격 만큼)에서 그룹 라벨 i를 갖는 객체 움직임들의 수를 나타냄)(In the above equation, f denotes a frame, t denotes a time interval or frame numbers of frames separated by a shot, i denotes a group label of an object motion vector OM, and H (f t i) represents the number of object movements with group label i in a particular scene (by t interval) 소정의 압축율로 부호화된 MPEG 비디오 시퀀스 데이터가 검색용 객체 움직임 인덱싱 벡터와 함께 저장된 저장 매체로부터 질의 데이터에 대응하는 객체 움직임 정보를 검색하는 방법에 있어서,A method for retrieving object motion information corresponding to query data from a storage medium in which MPEG video sequence data encoded at a predetermined compression rate is stored together with an object motion indexing vector for retrieval. 상기 저장 매체에서 검색하고자 하는 질의 데이터가 입력되면, 입력된 질의 데이터에서 질의 움직임 벡터를 추출하는 제 1 과정;A first step of extracting a query motion vector from the input query data when the query data to be searched in the storage medium is input; 상기 추출된 질의 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 질의 객체 움직임을 검출하는 제 2 과정;A second process of removing a background motion vector from the extracted query motion vector and then detecting clustered query object motion; 상기 검출된 질의 객체 움직임의 클러스터 수를 이용하여 질의 객체 움직임 장면(Shot)을 검출하는 제 3 과정;A third step of detecting a query object motion scene by using the detected number of clusters of the query object motion; 상기 검출된 질의 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 질의 객체별로 식별자를 부여하는 제 4 과정;A fourth step of analyzing a content feature histogram of the detected query object motion cluster and assigning an identifier to each query object; 상기 검출된 질의 객체 움직임 장면과 상기 부여된 식별자를 이용하여 질의 객체 움직임 히스토그램을 생성하고, 이 생성된 질의 객체 움직임 히스토그램과 객체 움직임 평균값을 질의 인덱싱 벡터로 생성하는 제 5 과정; 및A fifth step of generating a query object motion histogram using the detected query object motion scene and the assigned identifier, and generating the generated query object motion histogram and the average value of the object motion as a query indexing vector; And 상기 생성된 질의 인덱싱 벡터와 상기 저장 매체에 저장된 각 인덱싱 벡터간의 비교 검색을 통해 유사 객체 움직임 장면 영상을 검색하고, 이 검색된 유사 객체 움직임 장면 영상에 관한 정보를 상기 저장 매체로부터 인출하여 이에 대응하는 MPEG 비디오 시퀀스를 디스플레이측으로 전달하는 제 6 과정으로 이루어진 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.A similar object motion scene image is searched through a comparison search between the generated query indexing vector and each indexing vector stored in the storage medium, and information about the retrieved similar object motion scene image is retrieved from the storage medium and corresponding MPEG is searched. A method for searching a database of an MPEG video sequence using an object movement consisting of a sixth step of delivering a video sequence to a display side. 제 8 항에 있어서, 상기 제 5 과정은:The method of claim 8, wherein the fifth process is: 상기 검출된 질의 객체 움직임을 극 좌표계에서 영역별로 그룹화하는 과정;Grouping the detected query object motion by region in a polar coordinate system; 상기 그룹화된 질의 객체 움직임을 이용하여 상기 질의 객체 움직임 히스토그램을 생성하는 과정; 및Generating the query object motion histogram using the grouped query object motion; And 상기 생성된 질의 객체 움직임 히스토그램을 분석하여 상기 질의 객체 움직임 히스토그램을 수치화한 질의 OMHS값을 산출하고, 상기 산출된 질의 OMHS값과 질의 객체 움직임 평균값을 상기 질의 인덱싱 벡터로 할당하는 과정을 포함하는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.Analyzing the generated query object motion histogram to calculate a query OMHS value digitized the query object motion histogram and assigning the calculated query OMHS value and the query object motion average value to the query indexing vector. A method for searching a database of MPEG video sequences using object movement. 제 9 항에 있어서, 상기 질의 OMHS는, 다음의 수학식에 의해 산출되는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.10. The method of claim 9, wherein the query OMHS is calculated by the following equation. OMHS = {H(ft,i);0≤t≤M, i=1,2,----, N}OMHS = {H (f t , i); 0≤t≤M, i = 1,2, ----, N} (상기 수학식에 있어서, f는 프레임을 나타내고, t는 장면(Shot)으로 구분된 프레임들의 시간 간격 또는 프레임 번호들을 나타내며, i는 객체 움직임 벡터(OM)의 그룹 라벨을 나타내고, H(ft,i)는 특정 장면(t의 간격 만큼)에서 그룹 라벨 i를 갖는 객체 움직임들의 수를 나타냄)(In the above equation, f denotes a frame, t denotes a time interval or frame numbers of frames separated by a shot, i denotes a group label of an object motion vector OM, and H (f t i) represents the number of object movements with group label i in a particular scene (by t interval) 제 8 항에 있어서, 상기 데이터 검색 방법은, 상기 질의 데이터에 대응하는 다수의 유사 객체 움직임 장면이 검색될 때, 검색된 다수의 유사 객체 움직임 장면들중 인덱싱 벡터의 유사도가 큰 순서에 따라 순차 인출하여 상기 디스플레이측으로 전달하는 과정을 더 포함하는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.The method of claim 8, wherein when the plurality of similar object motion scenes corresponding to the query data is searched, the data retrieval method sequentially retrieves the indexing vector among the plurality of similar object motion scenes searched in order of increasing similarity. The method of claim 1, further comprising the step of transmitting to the display side. 제 11 항에 있어서, 상기 유사도는, 다음의 수학식에 의해 산출되는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.12. The method of claim 11, wherein the similarity is calculated by the following equation. (상기 수학식에서, n 및 m은 비디오 시퀀스에서 추출된 객체 움직임 장면중 하나이고, H(fn,i)는 특정 장면의 질의 객체 움직임 벡터 히스토그램이며, H(fm,i)는 상기 저장 매체에 저장된 객체 움직임 벡터 히스토그램임)Where n and m are one of the object motion scenes extracted from the video sequence, H (f n , i) is a query object motion vector histogram of a specific scene, and H (f m , i) is the storage medium. Object histogram vector stored in 제 11 항에 있어서, 상기 유사도는, 다음의 수학식에 의해 산출되는 것을 특징으로 하는 객체 움직임을 이용한 MPEG 비디오 시퀀스의 데이터 베이스 검색 방법.12. The method of claim 11, wherein the similarity is calculated by the following equation. (상기 수학식에서, n 및 m은 비디오 시퀀스에서 추출된 객체 움직임 궤적 또는 객체 움직임 평균값의 시간 간격이고,는 특정 장면의 질의 객체 움직임 궤적 또는 질의 객체 움직임 평균값이며,는 상기 저장 매체 내부에 장면 단위로 저장된 객체 움직임 평균값임)(In the above equation, n and m are time intervals of the object motion trajectory or the object motion average value extracted from the video sequence, Is the query object motion trajectory or query object motion average value of a specific scene. Is an average value of the object movement stored in the unit of scene in the storage medium) MPEG 비디오 시퀀스 데이터에서 배경 움직임을 제거한 객체 움직임을 검색 및 판독 가능한 저장 매체에 데이터 베이스로 구축하고, 이 구축된 데이터 베이스에서 검색을 목표로 하는 질의 데이터에 대응하는 유사 객체 움직임 장면을 검색하는 프로그램을 기록하며, 컴퓨터로 판독 가능한 기록 매체에 있어서,A program for constructing a database of object motions from which MPEG motion sequence data is removed from the MPEG video sequence data as a database on a retrievable and readable storage medium, and retrieving similar object motion scenes corresponding to the query data targeted for retrieval from the constructed database. A computer-readable recording medium for recording thereon, 입력되는 MPEG 비디오 시퀀스에 존재하는 움직임 벡터를 추출하고, 이 추출된 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 객체 움직임을 검출하는 제 1 과정;A first step of extracting a motion vector present in the input MPEG video sequence, removing a background motion vector from the extracted motion vector, and then detecting clustered object motion; 상기 검출된 객체 움직임의 클러스터 수를 이용하여 객체 움직임 장면(Shot)을 검출하고, 이 검출된 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 객체별로 식별자를 부여하는 제 2 과정;A second step of detecting an object motion scene by using the detected number of clusters of object motions, analyzing a content feature histogram of the detected object motion clusters, and assigning an identifier for each object; 상기 검출된 객체 움직임 장면과 상기 부여된 식별자를 이용하여 객체 움직임 히스토그램을 생성하고, 이 생성된 객체 움직임 히스토그램과 객체 움직임 평균값을 인덱싱하여 상기 검출된 객체 움직임 장면에 대한 인덱싱 벡터를 생성하는 제 3 과정;A third process of generating an object motion histogram using the detected object motion scene and the assigned identifier, and generating an indexing vector for the detected object motion scene by indexing the generated object motion histogram and the average value of the object motion. ; 상기 생성된 인덱싱 벡터를 대응하는 입력 MPEG 비디오 시퀀스의 정보와 함께 상기 저장 매체에 저장하는 제 4 과정;A fourth step of storing the generated indexing vector in the storage medium together with information of a corresponding input MPEG video sequence; 상기 저장 매체에서 검색하고자하는 질의 데이터가 입력될 때, 상기 입력된 질의 데이터에서 질의 움직임 벡터를 추출하고, 이 추출된 질의 움직임 벡터에서 배경 움직임 벡터를 제거한 다음 클러스터된 질의 객체 움직임을 검출하는 제 5 과정;A fifth query for extracting a query motion vector from the input query data, removing a background motion vector from the extracted query motion vector, and detecting a clustered query object motion when the query data to be searched is input from the storage medium. process; 상기 검출된 질의 객체 움직임의 클러스터 수를 이용하여 질의 객체 움직임 장면을 검출하고, 이 검출된 질의 객체 움직임 클러스터의 내용 특징 히스토그램을 분석하여 각 질의 객체별로 식별자를 부여하는 제 6 과정;A sixth step of detecting a query object motion scene by using the detected number of query object motion clusters, analyzing a content feature histogram of the detected query object motion clusters, and assigning an identifier for each query object; 상기 검출된 질의 객체 움직임 장면과 상기 부여된 식별자를 이용하여 질의 객체 움직임 히스토그램을 생성하고, 이 생성된 질의 객체 움직임 히스토그램과 객체 움직임 평균값을 인덱싱하여 질의 인덱싱 벡터를 생성하는 제 7 과정; 및Generating a query indexing vector by generating a query object motion histogram using the detected query object motion scene and the assigned identifier, and indexing the generated query object motion histogram and an object motion average value; And 상기 생성된 질의 인덱싱 벡터와 상기 저장 매체에 저장된 각 인덱싱 벡터간의 비교 검색을 통해 유사 객체 움직임 장면 영상을 검색하고, 이 검색된 유사 객체 움직임 장면 영상에 대응하는 정보를 상기 저장 매체로부터 인출하여 이에 대응하는 MPEG 시퀀스를 디스플레이측으로 전달하는 제 8 과정을 실행하기 위한 프로그램을 기록한 상기 컴퓨터로 판독 가능한 기록 매체.The similar object motion scene image is searched through a comparison search between the generated query indexing vector and each indexing vector stored in the storage medium, and information corresponding to the retrieved similar object motion scene image is retrieved from the storage medium and corresponding thereto. The computer-readable recording medium having recorded thereon a program for executing an eighth process of delivering an MPEG sequence to a display side. 제 14 항에 있어서, 상기 기록 매체에 기록된 상기 프로그램은, 상기 질의 데이터에 대응하는 다수의 유사 객체 움직임 장면이 검색될 때, 검색된 다수의 유사 객체 움직임 장면들중 인덱싱 벡터의 유사도가 큰 순서에 따라 순차 인출하여 상기 디스플레이측으로 전달하는 과정을 더 포함하는 것을 특징으로 하는 상기 컴퓨터로 판독 가능한 기록 매체.15. The method of claim 14, wherein the program recorded on the recording medium is arranged in order of similarity of the indexing vector among the plurality of similar object motion scenes searched when a plurality of similar object motion scenes corresponding to the query data is searched. And sequentially extracting the image to be transferred to the display side.
KR1019990030663A 1999-07-27 1999-07-27 Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object KR100361939B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1019990030663A KR100361939B1 (en) 1999-07-27 1999-07-27 Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990030663A KR100361939B1 (en) 1999-07-27 1999-07-27 Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object

Publications (2)

Publication Number Publication Date
KR20010011348A KR20010011348A (en) 2001-02-15
KR100361939B1 true KR100361939B1 (en) 2002-11-22

Family

ID=19605083

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990030663A KR100361939B1 (en) 1999-07-27 1999-07-27 Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object

Country Status (1)

Country Link
KR (1) KR100361939B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077646A1 (en) * 2011-11-23 2013-05-30 Lg Electronics Inc. Digital video recorder and method of tracking object using the same

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1947608A3 (en) * 1999-02-05 2012-04-11 Samsung Electronics Co., Ltd. Digital video processing method and apparatus thereof
KR100355382B1 (en) * 2001-01-20 2002-10-12 삼성전자 주식회사 Apparatus and method for generating object label images in video sequence
KR100518781B1 (en) * 2001-10-17 2005-10-06 한국과학기술원 The Devices and Methods for Hyper-rectangle Based Multidimensional Data Segmentation and Clustering
KR100491724B1 (en) * 2002-10-14 2005-05-27 한국전자통신연구원 Spatial Image Information System and Method Supporting Efficient Storage and Retrieaval of Spatial Images
KR100729660B1 (en) * 2005-12-09 2007-06-18 한국전자통신연구원 Real-time digital video identification system and method using scene change length

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194714A (en) * 1995-01-13 1996-07-30 Matsushita Electric Ind Co Ltd Retrieval method/device for compressed moving picture
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
KR19990013091A (en) * 1997-07-31 1999-02-25 윤종용 Apparatus and method for retrieving image information from computer
KR20000014123A (en) * 1998-08-17 2000-03-06 이계철 Image likeness weighted value adjustment device and method and contents base image search system and method using thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08194714A (en) * 1995-01-13 1996-07-30 Matsushita Electric Ind Co Ltd Retrieval method/device for compressed moving picture
US5870754A (en) * 1996-04-25 1999-02-09 Philips Electronics North America Corporation Video retrieval of MPEG compressed sequences using DC and motion signatures
KR19990013091A (en) * 1997-07-31 1999-02-25 윤종용 Apparatus and method for retrieving image information from computer
KR20000014123A (en) * 1998-08-17 2000-03-06 이계철 Image likeness weighted value adjustment device and method and contents base image search system and method using thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013077646A1 (en) * 2011-11-23 2013-05-30 Lg Electronics Inc. Digital video recorder and method of tracking object using the same

Also Published As

Publication number Publication date
KR20010011348A (en) 2001-02-15

Similar Documents

Publication Publication Date Title
Zhang et al. Video parsing using compressed data
US6366701B1 (en) Apparatus and method for describing the motion parameters of an object in an image sequence
US6643387B1 (en) Apparatus and method for context-based indexing and retrieval of image sequences
Gunsel et al. Temporal video segmentation using unsupervised clustering and semantic object tracking
Zhang et al. Automatic partitioning of full-motion video
Yeung et al. Video browsing using clustering and scene transitions on compressed sequences
KR101033866B1 (en) Method of image searching, method of image feature encoding and method of image feature decoding
US6741655B1 (en) Algorithms and system for object-oriented content-based video search
US7046731B2 (en) Extracting key frames from a video sequence
CN1130919C (en) Apparatus for encoding contour of regions contained in video signal
JP4907938B2 (en) Method of representing at least one image and group of images, representation of image or group of images, method of comparing images and / or groups of images, method of encoding images or group of images, method of decoding images or sequence of images, code Use of structured data, apparatus for representing an image or group of images, apparatus for comparing images and / or group of images, computer program, system, and computer-readable storage medium
JP5097280B2 (en) Method and apparatus for representing, comparing and retrieving images and image groups, program, and computer-readable storage medium
EP3405904B1 (en) Method for processing keypoint trajectories in video
JP2008518331A (en) Understanding video content through real-time video motion analysis
Ferman et al. Object-based indexing of MPEG-4 compressed video
KR100361939B1 (en) Recording medium and method for constructing and retrieving a data base of a mpeg video sequence by using a object
Laumer et al. Moving object detection in the H. 264/AVC compressed domain
EP1008064A1 (en) Algorithms and system for object-oriented content-based video search
Mohanty et al. A survey on moving object detection using background subtraction methods in video
EP1640913A1 (en) Methods of representing and analysing images
KR100324255B1 (en) Content based moving video retrieval method
Chatur et al. A simple review on content based video images retrieval
KR100959053B1 (en) Non-linear quantization and similarity matching method for retrieving video sequence having a set of image frames
KR100855450B1 (en) Method for transferring motion style of movie object and apparatus applied to the same
EP1237374A1 (en) A method for extracting video objects from a video clip

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20081111

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee