KR100978596B1 - Motion estimation procedure by fast multiple reference frame selection procedure - Google Patents

Motion estimation procedure by fast multiple reference frame selection procedure Download PDF

Info

Publication number
KR100978596B1
KR100978596B1 KR1020080042133A KR20080042133A KR100978596B1 KR 100978596 B1 KR100978596 B1 KR 100978596B1 KR 1020080042133 A KR1020080042133 A KR 1020080042133A KR 20080042133 A KR20080042133 A KR 20080042133A KR 100978596 B1 KR100978596 B1 KR 100978596B1
Authority
KR
South Korea
Prior art keywords
reference frame
frame
value
optimal
smaller
Prior art date
Application number
KR1020080042133A
Other languages
Korean (ko)
Other versions
KR20090116281A (en
Inventor
정제창
이강준
하창우
이완재
Original Assignee
한양대학교 산학협력단
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단, 중앙대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020080042133A priority Critical patent/KR100978596B1/en
Publication of KR20090116281A publication Critical patent/KR20090116281A/en
Application granted granted Critical
Publication of KR100978596B1 publication Critical patent/KR100978596B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction

Abstract

본 발명은 여러 개의 참조프레임을 전부 탐색하는 대신에, 다중 참조프레임에 대한 탐색 과정을 신속히 종결하기 위한 척도를 결정한다. 본 발명의 실시예에 의하면, 움직임 벡터 비용함수값 및 참조프레임 비용함수값의 합으로 정의된 참조프레임 적절값, H(i)을 기준으로 최적의 참조프레임을 선택하고, 조기에 움직임 벡터 탐색을 중지하여, 복수의 참조프레임을 모두 탐색하여 선택하는 과정에 가까운 화질 및 비트율을 유지할 수 있는 반면, 복잡도를 감소시켜 실질적으로 움직임 추정 시간을 단축시키는 효과가 있다.Instead of searching through all the multiple reference frames, the present invention determines a measure for quickly terminating the search process for multiple reference frames. According to an embodiment of the present invention, an optimal reference frame is selected based on a reference frame appropriate value H (i) defined as a sum of a motion vector cost function value and a reference frame cost function value, and early motion vector search is performed. The image quality and bit rate close to the process of searching and selecting all of the plurality of reference frames can be maintained, while reducing the complexity, thereby substantially reducing the motion estimation time.

다중 참조프레임, 비트량, 화질, 움직임 벡터 탐색, 움직임 벡터 비용함수, 참조프레임 비용함수 Multiple reference frame, bit rate, picture quality, motion vector search, motion vector cost function, reference frame cost function

Description

고속 다중 참조프레임 선택 절차에 의한 움직임 추정 방법{Motion estimation procedure by fast multiple reference frame selection procedure}Motion estimation method by fast multiple reference frame selection procedure

본 발명은 동영상의 움직임 추정에 관한 것으로, 보다 구체적으로 고속 다중 참조프레임 선택방법을 이용한 동영상 움직임 추정 방법에 관한 것이다.The present invention relates to motion estimation of a motion picture, and more particularly, to a motion motion estimation method using a fast multiple reference frame selection method.

높은 부호화 효율을 갖는 H.264/AVC는 최근 새로운 멀티미디어 서비스를 위한 동영상 압축 표준으로 널리 채택되어 사용되고 있다. 이러한 H.264/AVC에서는 더욱 많은 연구를 더해 기존의 방식에 비해 압축성능이 대폭 향상되었으며, 복잡도가 증가한 동시에 다양한 영상에 대해 안정된 영상 품질을 유지할 수 있게 되었다.H.264 / AVC, which has high coding efficiency, has recently been widely adopted and used as a video compression standard for new multimedia services. In this H.264 / AVC, more research has been performed, and the compression performance is greatly improved compared to the conventional method, and the complexity has been increased while maintaining stable image quality for various images.

이를 우선 살펴보면, 첫째로, H.264/AVC는 부호화 프레임내의 신호만을 사용하는 화면내 부호화 모드에서도 현재 블록 주위에 이미 부호화된 신호로부터 정밀한 예측을 적용하였다. 또한, 부호화하는 영상의 특성에 맞게 여러 가지의 예측방향(가로, 세로, 대각선, 직류성분 등)중에서 최적의 예측모드를 선택한다.First of all, H.264 / AVC applies precise prediction from signals already encoded around the current block even in the intra picture encoding mode using only the signals in the encoded frame. In addition, an optimal prediction mode is selected from among various prediction directions (horizontal, vertical, diagonal, DC components, etc.) according to the characteristics of the image to be encoded.

둘째로, DCT를 사용하는 영상 압축부호화 방식의 결점은 블록경계 부근에서 인접하는 블록간의 화소값이 다르기 때문에 생기는 블록경계에 보이는 왜곡이다. 이러한 왜곡을 줄이기 위해, 디블록킹 필터를 사용한다. 또한, DCT의 처리단위도 기존의 방식보다 작은 4×4화소블록 단위를 사용함으로써, 시각적으로 왜곡이 보이지 않게 한다.Second, a drawback of the video compression encoding method using DCT is distortion seen in a block boundary due to a difference in pixel values between adjacent blocks near the block boundary. To reduce this distortion, a deblocking filter is used. In addition, the processing unit of the DCT also uses a smaller 4 × 4 pixel block unit than the conventional method, so that the distortion is not visible visually.

세째로, DCT/양자화를 거친 신호에 대해 엔트로피 부호화(가변길이 부호화)과정을 수행할 때,주위의 정보를 참고하여 가변장부호표를 바꾸는 등 영상의 특징에 맞게 부호화를 진행한다. 또한, 높은 압축효율을 얻기 위해 산술부호화를 적용하는 모드도 사용된다.Third, when performing the entropy encoding (variable length encoding) process on the DCT / quantized signal, the encoding is performed in accordance with the characteristics of the image by changing the variable long list by referring to the surrounding information. In addition, a mode of applying arithmetic encoding to obtain high compression efficiency is also used.

네째로, 기존의 MPEG방식에 비해서 영상의 처리단위를 보다 작은 블록크기(4화소×4화소=16화소)로 정하고, 정교한 화소정밀도(1/4화소까지)를 사용해 매우 정밀한 움직임보상까지 가능하게 되었다. 또한, 여러개의 참조프레임을 사용함으로써 최적의 예측신호를 선택하는 움직임보상을 활용한다. 영상의 밝기가 시간적으로 변화하는 페이드 영상 등을 효율적으로 예측하기 위해, 움직임보상을 수행하는 신호에 적응적으로 가중치를 주어 계산한 후 예측신호를 생성한다.Fourth, as compared with the conventional MPEG method, the image processing unit is set to a smaller block size (4 pixels x 4 pixels = 16 pixels), and precise pixel accuracy (up to 1/4 pixel) enables highly precise motion compensation. It became. In addition, by using multiple reference frames, motion compensation for selecting an optimal prediction signal is utilized. In order to efficiently predict a fade image in which the brightness of an image changes in time, the predictive signal is generated after adaptively calculating and weighting a signal for performing motion compensation.

상기 기술한 것처럼, H.264/AVC는 다중 참조프레임 움직임 추정을 활용한다. H.261, H.263, MPEG-1,2 및 MPEG-4와 같은 이전 비디오 부호화 표준들에서는 이전 또는 미래 참조프레임 중에서 하나로 최상의 정합 블록을 찾았다. 이것은 평탄한(smoothly) 움직임 시퀀스에 대해서는 최상이었다. 그러나, 고도의 움직임 시퀀스(high-motion sequence)에서는 최상의 정합 블록은 이전이 아닌 참조프레임에서 일어날 수 있다. 다중 참조프레임 움직임 추정의 각 움직임 벡터 블록들은 후보 참조프레임 마다 움직임 벡터 탐색을 수행하고 이중 잉여 데이터가 가장 적은 참조프레임을 결정한다. 이러한 과정은 참조프레임을 하나만 이용하는 기존의 H.263 또는 MPEG-2, 4 보다 많은 계산량을 필요로 하며, 전체 복잡도에서 움직임 보상이 80% 이상 차지하는 주된 요인이 된다.As described above, H.264 / AVC utilizes multiple reference frame motion estimation. Previous video coding standards such as H.261, H.263, MPEG-1,2 and MPEG-4 have found the best matching block as one of the previous or future reference frames. This was best for a smoothly moving sequence. However, in a high-motion sequence, the best matching block can occur in a reference frame rather than before. Each motion vector block of the multi-reference frame motion estimation performs a motion vector search for each candidate reference frame and determines a reference frame having the least redundant data. This process requires more computation than existing H.263 or MPEG-2, 4 using only one reference frame, and is the main factor that makes up 80% or more of motion compensation in overall complexity.

블록 크기가 8×8 이상인 블록들은, 각각의 분할마다 참조프레임을 다르게 가질 수 있다. 즉, 4개의 8×8 블록들은 서로 다른 참조프레임을 가질 수 있는 것이다. 다중 참조프레임 기법을 이용하여 부호화 할 때, 모바일 또는 캘런더 영상 처럼 반복적인 움직임을 갖고 있는 영상인 경우는, PSNR이 최고 1dB까지 향상된다.Blocks having a block size of 8 × 8 or more may have different reference frames for each division. That is, four 8x8 blocks may have different reference frames. When encoded using the multiple reference frame technique, the PSNR is improved by up to 1 dB in the case of an image having a repetitive motion such as a mobile or calendar image.

도 1은 복수 참조프레임의 일례로 다섯개의 참조프레임을 이용한 움직임 추정을 나타내는 개념도이다. 1 is a conceptual diagram illustrating motion estimation using five reference frames as an example of a plurality of reference frames.

도 1을 참조하면, 현재 프레임 N을 기준으로, 현재 프레임 N의 이전 참조프레임인 프레임 N-1, 프레임 N-1의 이전 프레임인 프레임 N-2 내지 상기와 동일한 방식으로 이전 프레임 N-5까지 다섯개의 참조프레임을 이용한다.Referring to FIG. 1, based on the current frame N, frame N-1, which is the previous reference frame of the current frame N, frame N-2, which is the previous frame of the frame N-1, to the previous frame N-5 in the same manner as described above. Five reference frames are used.

다중 참조프레임 움직임 추정은 단지 하나의 이전 참조프레임을 탐색하는 대신에, 여러개의 참조프레임이 탐색되어지고, 최상의 정합 블록을 선택한다. 그러므로, 다중 참조프레임은 참조프레임의 수에 비례한 연산량의 증가로 선형모델에 따른 접속주파수(access frequency)를 증가시키며, 이는 각 추가된 프레임 당 복잡도의 25% 증가를 가져온다. 따라서 이러한 복잡도를 줄여 다중 참조프레임 움직임 추정의 실제 응용을 용이하게 할 수 있는 효율적인 프레임 참조 방식의 움직임 추정방식이 필요하다.Multiple reference frame motion estimation instead of searching only one previous reference frame, several reference frames are searched and select the best matching block. Therefore, the multiple reference frames increase the access frequency according to the linear model by increasing the amount of calculation proportional to the number of reference frames, which leads to a 25% increase in complexity per each additional frame. Therefore, there is a need for an efficient frame reference motion estimation method that can reduce the complexity and facilitate the practical application of multiple reference frame motion estimation.

전술한 기존의 다중 참조프레임 움직임 추정방식에 의해 예측된 매크로블록간(inter-MB) 비율을 분석해 보면, 전역 탐색 방법에 의해 결정된 최적 움직임 벡터의 80% 이상은 가장 가까운 참조프레임(프레임 N-1)에 대한 것이다. 따라서, 많은 경우에 연산시간의 큰 부분이 소용없는 참조프레임에 의해 소비되고, 이로 인해 복잡도의 증가를 가져온다. Analyzing the inter-MB ratio predicted by the conventional multi-reference frame motion estimation method described above, at least 80% of the optimal motion vectors determined by the global search method are the closest reference frames (frame N-1). ) Therefore, in many cases a large part of the computation time is consumed by useless reference frames, resulting in increased complexity.

본 발명이 해결하고자 하는 과제는 기존의 다중 참조프레임에 의한 움직임 추정방법에 비해 화질 및 비트율은 유지하면서, 움직임 추정 시간을 향상시킨 고속 다중 참조프레임 선택 절차에 의한 움직임 추정 방법을 제공하는 것이다. SUMMARY OF THE INVENTION An object of the present invention is to provide a motion estimation method using a fast multiple reference frame selection procedure that improves motion estimation time while maintaining image quality and bit rate compared to a conventional motion estimation method using multiple reference frames.

상기한 과제를 해결하기 위한 본 발명의 일 실시예에 따른 움직임 추정 방법은 복수의 참조프레임을 이용한 움직임 추정 방법에 있어서, 상기 복수의 참조프레임 각각에 대한 움직임 벡터 비용함수값 및 참조프레임 비용함수값의 합인 참조프레임 적절값을 이용하여, 상기 복수의 후보 참조프레임들 중에서 최적의 참조프레임을 선택하는 단계;및 상기 최적의 참조프레임으로부터 현재 블록에 대한 움직임 벡터를 구하는 단계를 포함한다.In the motion estimation method according to an embodiment of the present invention for solving the above problems, in the motion estimation method using a plurality of reference frames, a motion vector cost function value and a reference frame cost function value for each of the plurality of reference frames Selecting an optimal reference frame from among the plurality of candidate reference frames by using a reference frame proper value that is a sum of; and obtaining a motion vector for a current block from the optimal reference frame.

상기 실시예의 일 측면에 의하면, 상기 복수의 참조프레임의 일부 또는 전부에 대한 상기 참조프레임 적절값을 이용하여 상기 최적의 참조프레임을 선택하는 것이 바람직하다.According to an aspect of the embodiment, it is preferable to select the optimal reference frame using the appropriate reference frame value for some or all of the plurality of reference frames.

상기 실시예의 다른 측면에 의하면, 상기 최적의 참조프레임을 선택하는 단 계는 상기 복수의 참조프레임 중에서 현재 프레임의 이전 프레임인 제1참조프레임과 상기 제1프레임의 이전 프레임인 제2참조프레임에 대한 상기 참조프레임 적절값을 비교하고, 상기 제1 및 제2참조프레임 중에서 상기 참조프레임 적절값이 더 작은 참조프레임과 상기 복수의 참조프레임 중에서 상기 제2참조프레임의 이전 프레임인 제3참조프레임의 참조프레임 적절값을 비교하며, 상기 더 작은 참조프레임이 상기 제3참조프레임 보다 작은 경우에는 상기 더 작은 참조프레임을 상기 최적의 참조프레임으로 선택하는 것이 바람직하다.According to another aspect of the embodiment, the step of selecting the optimal reference frame is for the first reference frame that is the previous frame of the current frame and the second reference frame that is the previous frame of the first frame of the plurality of reference frames Compares the appropriate reference frame values and references a reference frame having a smaller reference frame appropriate value among the first and second reference frames and a third reference frame that is a previous frame of the second reference frame among the plurality of reference frames; It is preferable to select the smaller reference frame as the optimal reference frame if the frame reference value is compared and the smaller reference frame is smaller than the third reference frame.

상기 실시예의 또다른 측면에 의하면, 상기 제3참조프레임이 상기 더 작은 참조프레임 보다 작은 경우에는 상기 제3참조프레임의 상기 참조프레임 적절값과 상기 제3참조프레임의 이전 프레임인 제4참조프레임의 참조프레임 적절값을 비교하고, 상기 제3참조프레임이 상기 제4참조프레임 보다 작은 경우에는 상기 제3참조프레임을 상기 최적의 참조프레임으로 선택하는 것이 바람직하다.According to another aspect of the embodiment, if the third reference frame is smaller than the smaller reference frame, the appropriate value of the reference frame of the third reference frame and the fourth reference frame that is the previous frame of the third reference frame. It is preferable to compare appropriate values of reference frames and select the third reference frame as the optimal reference frame when the third reference frame is smaller than the fourth reference frame.

상기 실시예의 또다른 측면에 의하면, 상기 제4참조프레임이 상기 제3참조프레임 보다 작은 경우에는 상기 제4참조프레임의 상기 참조프레임 적절값과 상기 제4참조프레임의 이전 프레임인 제5참조프레임의 참조프레임 적절값을 비교하고, 상기 제4참조프레임이 상기 제5참조프레임 보다 작은 경우에는 상기 제4참조프레임을 상기 최적의 참조프레임으로 선택하는 것이 바람직하다.According to another aspect of the embodiment, if the fourth reference frame is smaller than the third reference frame, the appropriate value of the reference frame of the fourth reference frame and the fifth reference frame that is the previous frame of the fourth reference frame. It is preferable to compare an appropriate reference frame value and to select the fourth reference frame as the optimal reference frame when the fourth reference frame is smaller than the fifth reference frame.

상기 실시예의 또다른 측면에 의하면, 바람직하게는 상기 복수의 참조프레임은 다섯 개이고, 상기 제5참조프레임이 상기 제4참조프레임 보다 작은 경우에는 상기 제5참조프레임을 상기 최적의 참조프레임으로 선택한다.According to another aspect of the embodiment, preferably, the plurality of reference frames is five, and when the fifth reference frame is smaller than the fourth reference frame, the fifth reference frame is selected as the optimal reference frame. .

상기한 과제를 해결하기 위한 본 발명의 다른 실시예에 따른 다중 참조프레임 선택 절차에 의한 움직임 추정 방법은 현재 프레임의 이전 프레임인 제1참조프레임과 상기 제1참조프레임의 이전 프레임인 제2참조프레임에 대한 참조프레임 적절값을 비교하고, 상기 제1 및 제2참조프레임 중에서 상기 참조프레임 적절값이 더 작은 참조참조프레임과 상기 제2참조프레임의 이전 프레임인 제3참조프레임의 참조프레임 적절값을 비교한 후 최적의 참조프레임을 선택하되, 적어도 두번 참조프레임 적절값이 작다고 판단된 참조프레임이 나올때까지 상기 비교절차를 상기 제3참조프레임의 이전 프레임인 제4참조프레임 및 상기 제4참조프레임의 이전 프레임인 제5프레임에 계속하여, 적어도 두번 참조프레임 적절값이 작다고 판단된 참조프레임을 최적의 참조프레임으로 선택하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a motion estimation method using a multiple reference frame selection procedure, wherein a first reference frame that is a previous frame of a current frame and a second reference frame that is a previous frame of the first reference frame are solved. Compares the reference frame proper values with respect to the reference frame and compares the reference frame proper values of the third reference frame that is the previous frame of the second reference frame with the reference frame having the smaller appropriate reference frame value among the first and second reference frames. After the comparison, the optimal reference frame is selected, and the comparison procedure is repeated until the reference frame is determined that the reference frame is determined to be smaller than at least twice before the fourth reference frame and the fourth reference frame that are the previous frames of the third reference frame. Following the fifth frame, which is the previous frame, an optimal reference is made to a reference frame determined to have a small reference frame proper value at least twice. Characterized in that the selected frame.

여러개의 참조프레임을 전부 탐색하는 대신에, 탐색할 필요가 없는 참조프레임을 결정하여 효과적으로 참조프레임을 선택하는 본 발명의 실시예에 의하면, 복수의 참조프레임을 모두 선택하는 전선택 과정(full selection process)에 가까운 화질 및 비트율을 유지할 수 있는 반면, 복잡도를 감소시켜 실질적으로 움직임 추정 시간을 단축시키는 효과가 있다. 따라서, 부호화 효율을 높이거나 채널 에러에 강인해야 하는 부호화에 효과적으로 이용될 수 있다.According to an exemplary embodiment of the present invention, in which a reference frame that does not need to be searched is selected instead of searching all of a plurality of reference frames, the reference frame is effectively selected, a full selection process of selecting all the plurality of reference frames. While the image quality and bit rate close to) can be maintained, the complexity can be reduced to substantially shorten the motion estimation time. Therefore, it can be effectively used for encoding that must improve encoding efficiency or be robust against channel errors.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 다음 실시예들은 본 발명의 이해를 돕기 위한 것이며 본 발명이 하기의 실시예 에 한정되는 것은 아니다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. The following examples are provided to aid the understanding of the present invention and the present invention is not limited to the following examples.

다중 참조프레임에 의한 움직임 추정방법에서는 높은 비율의 연산시간이 소용없는 참조프레임에 의해 소비된다. 본 발명은 종국적인 복잡도를 감소시킴으로써 움직임 추정 시간을 단축시킨 효율적인 고속 다중 참조프레임 선택 절차에 의한 움직임 추정 방법을 제공한다. In the motion estimation method using multiple reference frames, a high rate of computation time is consumed by useless reference frames. The present invention provides a motion estimation method by an efficient fast multiple reference frame selection procedure that reduces motion estimation time by reducing the final complexity.

도 2는 본 발명의 일 실시예에 따른 고속 다중 참조프레임 선택 절차에 의한 움직임 추정 방법을 보여주는 흐름도이다.2 is a flowchart illustrating a motion estimation method by a fast multiple reference frame selection procedure according to an embodiment of the present invention.

도 2를 참조하면, 우선 참조프레임 REF(i,i+1,i+2)에 대해 움직임 추정을 수행한다.(S11) 여기서, REF(i)는 현재 프레임(N)의 이전 프레임(N-1)을 표시하고, REF(i+1)은 REF(i)의 이전 프레임(N-2)을, REF(i+2)은 REF(i+1)의 이전 프레임(N-3)을 나타낸다.Referring to FIG. 2, first, motion estimation is performed on a reference frame REF (i, i + 1, i + 2). (S11) Here, REF (i) denotes a previous frame (N−) of the current frame (N). 1), REF (i + 1) represents the previous frame N-2 of REF (i), and REF (i + 2) represents the previous frame N-3 of REF (i + 1). .

상기 움직임 추정(motion estimation)은 종래의 전역 탐색 알고리즘(Full Search Algorithm, FSA)을 이용하여, 탐색 영역 내의 모든 좌표를 후보 위치(Candidate Point, CP)로 하여 정합 오차(Matching Error)를 계산하여, 최소 정합 오차를 가지는 지점(m,n)을 움직임 벡터로서 설정할 수 있다. 따라서, 상기 움직임 추정을 수행하여 참조프레임 REF(i,i+1,i+2)에 대한 움직임 벡터 MV(i), MV(i+1),및 MV(i+2)를 구한다. 또한, 기준 블록과 후보 블록의 블록합을 이용한 SEA (Successive Elimination Algorithm), 탐색 영역 내의 모든 지점을 탐색하지 않고 선택적으로 탐색하는 3단계 탐색 알고리즘(Three Step Algorithm), 새로운 3단계 탐색 알고리즘(New Three Step Algorithm), 4단계 탐색 알고리즘(Four-step Search Algorithm), 다이아몬드 탐색 알고리즘(Diamond Search Algorithm), 및 영상의 복잡도를 이용하여 매칭 스캔 순서를 재정렬해서 계산량을 감소시키는 고속 알고리즘으로서, 움직임 벡터 필드 적응형 탐색 기법(Motion Vector Field Adaptive Search Technique, MVFAST), 예측 움직임 벡터 필드 적응형 탐색 기법(Predictive Motion Vector Field Adaptive Search Technique, PMVFAST) 등의 이용이 가능하다. 상기 외에도 1-비트 변환을 이용하여 정합 오차를 계산한 움직임 추정방법 등을 이용하여 참조프레임 REF(i,i+1,i+2)에 대한 움직임 벡터 MV(i), MV(i+1), MV(i+2)를 구할 수 있다.The motion estimation uses a conventional full search algorithm (FSA) to calculate a matching error using all coordinates in the search area as candidate points (CPs), The point m, n having the minimum matching error may be set as a motion vector. Accordingly, the motion estimation is performed to obtain motion vectors MV (i) , MV (i + 1) , and MV (i + 2) for the reference frame REF (i, i + 1, i + 2). In addition, Successive Elimination Algorithm (SEA) using the block sum of the reference block and the candidate block, Three Step Algorithm for selectively searching without searching every point in the search area, New Three Step Algorithm (New Three) Fast vector algorithm that reduces computation by rearranging matching scan order using Step Algorithm, Four-step Search Algorithm, Diamond Search Algorithm, and Image Complexity. A motion vector field adaptive search technique (MVFAST) and a predictive motion vector field adaptive search technique (PMVFAST) may be used. In addition to the above, the motion vectors MV (i) and MV (i + 1) for the reference frame REF (i, i + 1, i + 2) using a motion estimation method that calculates a matching error using a 1-bit transform . , MV (i + 2) can be obtained.

계속해서 도 2를 참조하면, 상기 방법에 따라 움직임 추정된 것에 대하여 REF(i)의 움직임 벡터 비용함수값(MVCost)와 참조프레임 비용함수값(REFCost)의 합으로 정의된 참조프레임 적절값, H(i) REF(i+1)의 MVCost와 REFCost의 합으로 정의된 참조프레임 적절값, H(i+1) REF(i+2)의 MVCost와 REFCost의 합으로 정의된 참조프레임 적절값, H(i+2)를 계산한다.(S12) 참조프레임 적절값인 H(i)은 각각 움직임벡터 비용함수값과 참조프레임 비용함수값의 합으로 정의되며, 값이 적을 수록 좋은 성능을 보여준다.2, the reference frame appropriate value defined by the sum of the motion vector cost function value MVCost and reference frame cost function value REFCost of REF (i) with respect to the motion estimation according to the method, H (i) and A reference frame appropriate value defined by the sum of MVCost and REFCost of REF (i + 1), H (i + 1), and The reference frame proper value H (i + 2) defined as the sum of MVCost and REFCost of REF (i + 2) is calculated. (S12) The reference frame appropriate value H (i) is the motion vector cost function value and It is defined as the sum of the reference frame cost function values. The smaller the value, the better the performance.

구체적으로, 상기 참조프레임 적절값, H(i)는 다음 수학식 1에 의해 정의될 수 있다. 다음 수학식 1에 이용된 MVCostREF _(ⅰ) 및 MVCostREF _(ⅰ)는 H.264/AVC에 정의 된 것으로써 채용된다.Specifically, the reference frame appropriate value, H (i) can be defined by the following equation (1). MVCost REF _ (ⅰ) and MVCost REF _ (ⅰ) used in Equation 1 are employed as defined in H.264 / AVC.

Figure 112008032379398-pat00001
Figure 112008032379398-pat00001

여기서, 움직임벡터 비용함수 MVCostREF _(ⅰ) 참조프레임 ⅰ에 대한 현재 블록의 최상의 정합 블록의 MVCost값을 나타낸다. 유사하게, 참조프레임 비용함수 REFCostREF_(ⅰ) 는 참조프레임 ⅰ에 대한 현재 블록의 최상의 정합 블록의 REFCost값을 나타낸다.Here, the motion vector cost function MVCost REF _ (ⅰ) represents the MVCost value of the best matching block of the current block with respect to the reference frame ⅰ. Similarly, the reference frame cost function REFCost REF_ (ⅰ) represents the REFCost value of the best matching block of the current block for reference frame 프레임.

상기 움직임벡터 비용함수(MVcost)의 정의는 다음 수학식 2와 같다.The motion vector cost function (MVcost) is defined by Equation 2 below.

Figure 112008032379398-pat00002
Figure 112008032379398-pat00002

여기서, f는 람다인자(lambda factor)이다. cx 및 cy는 현재 매크로블록의 움직임 벡터를 나타내고, s는 움직임 벡터의 추이양을 나타내며, px 및 py는 예측된 움직임 벡터를 나타낸다. Where f is a lambda factor. cx and cy represent the motion vector of the current macroblock, s represents the transition amount of the motion vector, and px and py represent the predicted motion vector.

상기 WeightedCost 함수는 f 값을 사용하여 움직임 벡터 예측 오차의 부호화에 사용되는 비트량을 인수로 받아 비용 값을 반환하는 함수이다.The WeightedCost function is a function that takes a bit amount used for encoding a motion vector prediction error as an argument and returns a cost value by using an f value.

또한, 상기 참조프레임 비용함수(REFcost)의 정의는 다음 수학식 3과 같다.In addition, the reference frame cost function (REFcost) is defined by the following equation (3).

Figure 112008032379398-pat00003
Figure 112008032379398-pat00003

여기서, f는 람다인자(lambda factor)이다. ref는 선택된 참조프레임을 가리 키며, WeightedCost 함수는 f 값을 사용하여 선택된 참조프레임 값을 부호화하는데 필요한 비트량을 인수로 받아 비용 값을 반환하는 함수이다. 일반적으로 참조프레임 비용함수(REFcost)값은 움직임벡터 비용함수값(MVcost)에 비하여 매우 적은 값을 갖는다.Where f is a lambda factor. ref refers to the selected reference frame. WeightedCost is a function that takes a bit amount required to encode a selected reference frame value using an f value and returns a cost value. In general, the reference frame cost function (REFcost) has a much smaller value than the motion vector cost function (MVcost).

본 실시예에서는 상기와 같이 참조프레임 적절값, H(i)를 정의하였으나, 본 발명의 취지를 벗어나지 않는 범위 내에서, 전역 탐색 알고리즘(Full Search Algorithm, FSA)에 사용되는 현재 블록과 참조프레임의 탐색 블록을 구성하는 모든 화소에 대한 절대차의 합(Sum of Absolute Difference, SAD) 또는 이와 유사한 값들을 참조프레임 적절값, H(i)으로 설정할 수도 있다.In the present embodiment, the reference frame proper value, H (i) is defined as described above, but within the scope not departing from the spirit of the present invention, the current block and the reference frame of the current block used in the full search algorithm (FSA) A sum of absolute difference (SAD) or similar values for all pixels constituting the search block may be set to a reference frame appropriate value, H (i) .

계속해서 도 2를 참조하면, 상기 계산된 H(i)와 H(i+1)를 비교한다.(S13) 여기서, 값이 적을 수록 좋은 성능을 보여준다. H(i)가 H(i+1)보다 적다면,프레임 N-1이 프레임 N-2 보다 더 적절한 참조프레임이다. 여기서, '적절한 참조프레임'이란 참조프레임 적절값, H(i)이 상대적으로 작아서 더 안정된 영상 품질을 유지할 수 있는 참조프레임을 의미한다.2, the calculated H (i) and H (i + 1) are compared. (S13) Here, the smaller the value, the better the performance. If H (i) is less than H (i + 1) , frame N-1 is a more appropriate reference frame than frame N-2. In this case, 'an appropriate reference frame' means that an appropriate reference frame value, H (i), is relatively small. Refers to a reference frame that can maintain more stable image quality.

그렇다면, 한번 더 프레임 N-1이 적절한 참조프레임인지를 확인하기 위하여, H(i)와 H(i+2)를 비교한다.(S14) 만약, H(i)가 H(i+2)보다 적다면, 참조프레임 N-1이 참조프레임 N-3 보다 더 적절하다. 따라서, 상기 S13 및 S14의 두 번의 확인단계를 거쳐 참조프레임 N-1을 최종적으로 최적의 참조프레임으로 선택한다.(S17) 여기서, '최적의 참조프레임'이란 일련의 참조프레임 비교절차를 거쳐 상대적으로 최적으로 안정된 영상 품질을 유지할 수 있다고 결정된 참조프레임을 의미한다.If so, compare H (i) and H (i + 2) once more to see if frame N-1 is an appropriate reference frame. (S14) If H (i) is greater than H (i + 2) If less, reference frame N-1 is more appropriate than reference frame N-3. Accordingly, the reference frame N-1 is finally selected as the optimal reference frame through the two checking steps S13 and S14. (S17) Here, the 'optimal reference frame' is a relative procedure through a series of reference frame comparison procedures. This means a reference frame determined to be able to maintain an optimally stable image quality.

만약, 상기 단계 S14에서 H(i)가 H(i+2) 보다 크다면, 참조프레임 N-3이 참조프레임 N-1 보다 더 적절하다. 따라서, 참조프레임 N-3이 적절한 참조프레임인지 더 확인하기 위하여, 다음 참조프레임 N-4에 대하여 움직임 추정을 수행한 후, 참조프레임 적절값,H(i+3)을 계산한다. 그런 다음, H(i+2)와 H(i+3)를 한번 더 비교한다.(S16) 만약, H(i+2)가 H(i+3) 보다 적다면, 참조프레임 N-3이 참조프레임 N-4 보다 더 적절하다. 따라서, 상기 두 번의 확인단계를 거쳐 참조프레임 N-3을 최적의 참조프레임으로 선택한다.(S17) 그러나, 전역 탐색 방법에 의해 결정된 최적 움직임 벡터의 대략 80%가 참조프레임 N-1로 결정될 것이다.If H (i) is greater than H (i + 2) in step S14, reference frame N-3 is more appropriate than reference frame N-1. Therefore, in order to further confirm whether reference frame N-3 is an appropriate reference frame, motion estimation is performed on the next reference frame N-4, and then a reference frame appropriate value, H (i + 3) is calculated. Then, compare H (i + 2) and H (i + 3) once more. (S16) If H (i + 2) is less than H (i + 3) , reference frame N-3 More appropriate than reference frame N-4. Accordingly, the reference frame N-3 is selected as the optimal reference frame through the two checking steps (S17). However, approximately 80% of the optimal motion vectors determined by the global search method will be determined as the reference frame N-1. .

다시 계속해서 도 2를 참조하면, 단계 S13에서 H(i)가 H(i+1)보다 크다면, 참조프레임 N-2이 참조프레임 N-1 보다 더 적절하다. 따라서, 참조프레임 N-2이 적절한 참조프레임인지 더 확인하기 위하여, H(i+1)과 H(i+2)를 비교한다.(S15) 만약, H(i+1)가 H(i+2)보다 적다면, 참조프레임 N-2이 참조프레임 N-3 보다 더 적절하다. 다시, 참조프레임 N-2를 최종적인 최적의 참조프레임으로 선택할 수 있다.(S17) 그렇지 않다면, 탐색은 다음 참조프레임인 N-4에 대하여 상기와 같은 방식으로 계속된다.(S16) 2, if H (i) is greater than H (i + 1) in step S13, reference frame N-2 is more appropriate than reference frame N-1. Accordingly, to further confirm whether reference frame N-2 is an appropriate reference frame, compare H (i + 1) and H (i + 2) . (S15) If H (i + 1) is H (i + 2) If less, reference frame N-2 is more appropriate than reference frame N-3. Again, reference frame N-2 may be selected as the final optimal reference frame (S17). Otherwise, the search is continued in the same manner as described above for the next reference frame N-4.

상기 일련의 비교절차에서, 적어도 두번 참조프레임 적절값이 적다고 판단된 참조프레임 REF(i)을 최적의 참조프레임으로 선택하면, 더이상의 움직임 벡터 탐색과정은 중지되고, 과정은 종료된다. In the series of comparison procedures, when the reference frame REF (i), which is determined to have a low reference frame proper value at least twice, is selected as the optimal reference frame, the further motion vector search process is stopped and the process ends.

상기와 같이, 본 실시예에서는 두 번의 적절한 참조프레임이라는 확인단계를 통과한 참조프레임 REF(i)을 최종적인 최적의 참조프레임으로 선택하였으나, 움직임 추정 시간의 단축 요구성 및 안정된 영상 품질에 대한 필요성의 트레이드-오프에 따라 확인단계의 수는 두 번에서 세 번 또는 네 번 등으로 조정될 수 있다.As described above, in the present embodiment, the reference frame REF (i) that has passed two confirmation steps of the appropriate reference frame is selected as the final optimal reference frame, but it is required to shorten the motion estimation time and to stabilize the image quality. Depending on the trade-off, the number of verification steps can be adjusted from two to three or four times.

만약, 상기 확인단계의 수가 세 번일 경우는 단계S11에서 참조프레임 REF(i,i+1,i+2,i+3)에 대해 움직임 추정을 수행하여, 상기와 같은 일련의 과정으로 진행될 수 있다.If the number of checking steps is three, in step S11, motion estimation may be performed on the reference frame REF (i, i + 1, i + 2, i + 3), and the procedure may be performed as described above. .

다음으로 본 발명의 실험예 및 이에 따른 효과에 대하여 설명한다. 본 실험을 다음 표 1에 나타난 조건하에 수행하였다. Next, experimental examples of the present invention and the effects thereof will be described. This experiment was performed under the conditions shown in Table 1 below.

Figure 112008032379398-pat00004
Figure 112008032379398-pat00004

표 1를 참조하면, 본 발명의 실시예에 따른 고속 다중 참조프레임 선택 알고리즘의 성능을 확인하여 위해 본 발명은 CIF(352×288)크기의, 각각 다른 급의 움직임 활동도(activity)를 나타내는, 다섯 개의 비디오 시퀀스을 참조 소프트웨어 JM10.2에 비교하였다. 이것은 bus, foreman, hall_monitor, stefan, 및 waterfall의 100 프레임을 포함한다. 탐색범위는 16으로 설정하고, 2G RAM으로 펜티엄 4 3.2GHz PC에 대하여 수행하였다. PSNR, 움직임 예측(ME) 시간, 및 비트율을 각각 JM(Ref_1) 및 JM(Ref_5)로 비교하였다. 양자화 파라미터는 32 및 36으로 각각 설정하여, 수행하였다. 여기서, Ref_1는 참조 소프트웨어가 하나의 참조프레임만 사용한 것을 의미하고, Ref_5는 다섯개의 참조프레임을 사용한 것을 나타낸다. 본 발명의 실시예에 따른 방법을 상기 Ref_1 및 Ref_5에 대하여 각각 비교한다.Referring to Table 1, in order to confirm the performance of the fast multiple reference frame selection algorithm according to an embodiment of the present invention, the present invention indicates the different levels of motion activity of the CIF (352 × 288) size, Five video sequences were compared to the reference software JM10.2. This includes 100 frames of bus, foreman, hall_monitor, stefan, and waterfall. The search range was set to 16 and performed on a Pentium 4 3.2GHz PC with 2G RAM. PSNR, motion prediction (ME) time, and bit rate were compared with JM (Ref_1) and JM (Ref_5), respectively. Quantization parameters were set to 32 and 36, respectively. Here, Ref_1 means that the reference software uses only one reference frame, and Ref_5 indicates that five reference frames are used. The method according to the embodiment of the present invention is compared with respect to Ref_1 and Ref_5, respectively.

다음 표 2 및 표 3은 각 알고리즘에 대한 휘도 피크 신호 대 잡음비(PSNR)의 비교를 보여준다.(QP=32 및 QP=36)Tables 2 and 3 below show a comparison of the luminance peak signal to noise ratio (PSNR) for each algorithm (QP = 32 and QP = 36).

Figure 112008032379398-pat00005
Figure 112008032379398-pat00005

Figure 112008032379398-pat00006
Figure 112008032379398-pat00006

상기 표 2 및 표 3을 참조하면, JM(Ref_5)는 비디오 시퀀스에서 더 정확성을 제공하기 때문에, JM(Ref_1)과 비교하여, 0.182dB(QP=32) 및 0.142dB(QP=36)의 평균 부호화 이득(average coding gain)을 달성한다는 것을 알 수 있다. 그러나, JM(Ref_5)는 모든 참조프레임에서 움직임 추정을 이용할 필요가 있다. 본 발명은 JM(Ref_5)와 비교하여 PSNR 감소가 현저하지 않고 미비한 차이를 보였다. 모든 실험 시퀀스에서, 각각 평균적으로 0.04dB 및 0.028dB의 감소가 나타났다. Referring to Tables 2 and 3 above, since JM (Ref_5) provides more accuracy in the video sequence, an average of 0.182 dB (QP = 32) and 0.142 dB (QP = 36) compared to JM (Ref_1). It can be seen that the coding gain is achieved. However, JM (Ref_5) needs to use motion estimation in all reference frames. Compared to JM (Ref_5), the present invention showed no significant and insignificant PSNR reduction. In all experimental sequences, reductions of 0.04 dB and 0.028 dB were found, on average.

다음 표 4 및 표 5는 각 알고리즘에 대한 평균 움직임 추정 시간(ME time)의 비교를 보여준다.(QP=32 및 QP=36)Tables 4 and 5 below show a comparison of the mean motion estimation time (ME time) for each algorithm (QP = 32 and QP = 36).

Figure 112008032379398-pat00007
Figure 112008032379398-pat00007

Figure 112008032379398-pat00008
Figure 112008032379398-pat00008

상기 표 4 및 표 5를 참조하면, 평균적으로, 본 발명은 JM(Ref_5)에 비해 속도가 대략 1.4배 증가하였다. bus, foreman, stefan, 및 waterfall과 같이 높은(high) 움직임 시퀀스에 대하여, 본 발명은 움직임 추정에서 하나 이상의 참조프레임을 사용하였다. 그러므로, 고도의 움직임 시퀀스를 위한 본 발명의 코딩 소모는 hall_monitor와 같은 평탄한 움직임 시퀀스의 것보다 더 높았다. 그러나, 이러한 증가는 무시될 수 있다. Referring to Tables 4 and 5 above, on average, the present invention is approximately 1.4 times faster than JM (Ref_5). For high motion sequences such as bus, foreman, stefan, and waterfall, the present invention used one or more reference frames in motion estimation. Therefore, the coding consumption of the present invention for a highly motion sequence was higher than that of a flat motion sequence such as hall_monitor. However, this increase can be ignored.

다음 표 6 및 표 7은 전체 부호화된 비트들의 결과를 보여준다. (QP=32 및 QP=36)Tables 6 and 7 below show the results of all coded bits. (QP = 32 and QP = 36)

Figure 112008032379398-pat00009
Figure 112008032379398-pat00009

Figure 112008032379398-pat00010
Figure 112008032379398-pat00010

전체 비트들의 평균은 단지 0.425%(QP=32) 및 0.491%(QP=36) 증가 되었다. 이것은 본 발명이 JM(Ref_5)에 유사한 주관적 화질(quality)과 유사한 전체 비트들을 유지할 수 있다는 것을 입증한다. The average of all bits increased by only 0.425% (QP = 32) and 0.491% (QP = 36). This demonstrates that the present invention can retain overall bits similar to subjective quality similar to JM (Ref_5).

도 3은 JM(Ref_1) 및 JM(Ref_5)와 비교한 본 발명의 움직임 추정 시간(ME time)을 나타낸 그래프이다.3 is a graph showing a motion estimation time (ME time) of the present invention compared to JM (Ref_1) and JM (Ref_5).

도 3을 참조하면, 다섯개의 참조프레임을 사용한 JM(Ref_5)와 비교하여, 움직임 추정 시간에서 대략 40%의 감소를 보여준다. Referring to FIG. 3, it shows a reduction of approximately 40% in motion estimation time compared to JM (Ref_5) using five reference frames.

이상의 본 발명은 상기에 기술된 실시예들에 의해 한정되지 않고, 당업자들에 의해 다양한 변형 및 변경을 가져올 수 있으며, 이는 첨부된 청구항에서 정의되는 본 발명의 취지와 범위에 포함된다.The invention being thus described, it will be obvious that the same way may be varied in many ways. Such modifications are intended to be within the spirit and scope of the invention as defined by the appended claims.

도 1은 복수 참조프레임의 일례로 다섯개의 참조프레임을 이용한 움직임 추정을 나타내는 개념도이다. 1 is a conceptual diagram illustrating motion estimation using five reference frames as an example of a plurality of reference frames.

도 2는 본 발명의 일 실시예에 따른 고속 다중 참조프레임 선택 절차에 의한 움직임 추정 방법을 보여주는 흐름도이다.2 is a flowchart illustrating a motion estimation method by a fast multiple reference frame selection procedure according to an embodiment of the present invention.

도 3은 JM(Ref_1) 및 JM(Ref_5)와 비교한 본 발명의 움직임 추정 시간(ME time)을 나타낸 그래프이다.3 is a graph showing a motion estimation time (ME time) of the present invention compared to JM (Ref_1) and JM (Ref_5).

Claims (10)

복수의 참조프레임을 이용한 움직임 추정 방법에 있어서,In the motion estimation method using a plurality of reference frames, 상기 복수의 참조프레임 각각에 대한 움직임 벡터 비용함수값 및 참조프레임 비용함수값의 합인 참조프레임 적절값을 이용하여, 상기 복수의 후보 참조프레임들 중에서 최적의 참조프레임을 선택하는 단계;및Selecting an optimal reference frame among the plurality of candidate reference frames using a reference frame appropriate value that is a sum of a motion vector cost function value and a reference frame cost function value for each of the plurality of reference frames; and 상기 최적의 참조프레임으로부터 현재 블록에 대한 움직임 벡터를 구하는 단계를 포함하는 움직임 추정 방법.Obtaining a motion vector for the current block from the optimal reference frame. 제1항에 있어서, 상기 복수의 참조프레임의 일부 또는 전부에 대한 상기 참조프레임 적절값을 이용하여 상기 최적의 참조프레임을 선택하는 것을 특징으로 하는 움직임 추정 방법.The method of claim 1, wherein the optimal reference frame is selected using an appropriate value of the reference frame for some or all of the plurality of reference frames. 제1항에 있어서, 상기 최적의 참조프레임을 선택하는 단계는The method of claim 1, wherein selecting the optimal reference frame 상기 복수의 참조프레임 중에서 현재 프레임의 이전 프레임인 제1참조프레임과 상기 제1참조프레임의 이전 프레임인 제2참조프레임에 대한 상기 참조프레임 적절값을 비교하고, Comparing the appropriate values of the reference frame with respect to the first reference frame, which is the previous frame of the current frame, and the second reference frame, which is the previous frame of the first reference frame, among the plurality of reference frames, 상기 제1 및 제2참조프레임 중에서 상기 참조프레임 적절값이 더 작은 참조프레임과 상기 복수의 참조프레임 중에서 상기 제2참조프레임의 이전 프레임인 제3참조프레임의 참조프레임 적절값을 비교하며,Comparing a reference frame having a smaller reference frame appropriate value among the first and second reference frames with a reference frame suitable value of a third reference frame that is a previous frame of the second reference frame among the plurality of reference frames, 상기 더 작은 참조프레임이 상기 제3참조프레임 보다 작은 경우에는 상기 더 작은 참조프레임을 상기 최적의 참조프레임으로 선택하는 것을 특징으로 하는 움직임 추정 방법.And when the smaller reference frame is smaller than the third reference frame, selecting the smaller reference frame as the optimal reference frame. 제3항에 있어서, 상기 제3참조프레임이 상기 더 작은 참조프레임 보다 작은 경우에는 상기 제3참조프레임의 상기 참조프레임 적절값과 상기 제3참조프레임의 이전 프레임인 제4참조프레임의 참조프레임 적절값을 비교하고,The reference frame suitability of the fourth reference frame according to claim 3, wherein when the third reference frame is smaller than the smaller reference frame, the reference frame proper value of the third reference frame and the previous reference frame of the fourth reference frame are appropriate. Compare the values, 상기 제3참조프레임이 상기 제4참조프레임 보다 작은 경우에는 상기 제3참조프레임을 상기 최적의 참조프레임으로 선택하는 것을 특징으로 하는 움직임 추정 방법.And when the third reference frame is smaller than the fourth reference frame, selecting the third reference frame as the optimal reference frame. 제4항에 있어서, 상기 제4참조프레임이 상기 제3참조프레임 보다 작은 경우에는 상기 제4참조프레임의 상기 참조프레임 적절값과 상기 제4참조프레임의 이전 프레임인 제5참조프레임의 참조프레임 적절값을 비교하고,The reference frame suitability of the fifth reference frame according to claim 4, wherein when the fourth reference frame is smaller than the third reference frame, the reference frame proper value of the fourth reference frame and the previous frame of the fourth reference frame are appropriate. Compare the values, 상기 제4참조프레임이 상기 제5참조프레임 보다 작은 경우에는 상기 제4참조프레임을 상기 최적의 참조프레임으로 선택하는 것을 특징으로 하는 움직임 추정 방법.And when the fourth reference frame is smaller than the fifth reference frame, selecting the fourth reference frame as the optimal reference frame. 제5항에 있어서, 상기 복수의 참조프레임은 다섯 개이고,The method of claim 5, wherein the plurality of reference frames is five, 상기 제5참조프레임이 상기 제4참조프레임 보다 작은 경우에는 상기 제5참조 프레임을 상기 최적의 참조프레임으로 선택하는 것을 특징으로 하는 움직임 추정 방법.And when the fifth reference frame is smaller than the fourth reference frame, selecting the fifth reference frame as the optimal reference frame. 현재 프레임의 이전 프레임인 제1참조프레임과 상기 제1참조프레임의 이전 프레임인 제2참조프레임에 대한 참조프레임 적절값을 비교하고, Compares an appropriate value of a reference frame with respect to a first reference frame that is a previous frame of the current frame and a second reference frame that is a previous frame of the first reference frame, 상기 제1 및 제2참조프레임 중에서 상기 참조프레임 적절값이 더 작은 참조프레임과 상기 제2참조프레임의 이전 프레임인 제3참조프레임의 참조프레임 적절값을 비교한 후 최적의 참조프레임을 선택하되,Among the first and second reference frames, an optimal reference frame is selected after comparing a reference frame having a smaller reference frame proper value with a reference frame proper value of a third reference frame that is a previous frame of the second reference frame. 적어도 두번 참조프레임 적절값이 작다고 판단된 참조프레임이 나올때까지 참조프레임 적절값을 비교하는 절차를 상기 제3참조프레임의 이전 프레임인 제4참조프레임 및 상기 제4참조프레임의 이전 프레임인 제5프레임에 계속하여, 적어도 두번 참조프레임 적절값이 작다고 판단된 참조프레임을 최적의 참조프레임으로 선택하는 것을 특징으로 하는 다중 참조프레임 선택 절차에 의한 움직임 추정 방법.The procedure for comparing the reference frame proper values until a reference frame determined to be at least twice the appropriate value of the reference frame is determined. Continually selecting at least twice a reference frame determined to have a suitable reference frame value as an optimal reference frame. 제7항에 있어서, 상기 제2참조프레임과 상기 제3참조프레임의 참조프레임 적절값을 비교한 후, The method of claim 7, wherein after comparing the reference frame proper values of the second reference frame and the third reference frame, 상기 제2참조프레임이 작다면, 제2참조프레임을 최적의 참조프레임으로 선택하고,If the second reference frame is small, select the second reference frame as the optimal reference frame, 상기 제3참조프레임이 작다면, 상기 제3참조프레임과 상기 제3참조프레임의 이전 프레임인 제4참조프레임의 참조프레임 적절값을 비교한 후, 최적의 참조프레 임을 선택하는 것을 특징으로 하는 다중 참조프레임 선택 절차에 의한 움직임 추정 방법.If the third reference frame is small, the optimal reference frame is selected after comparing an appropriate value of the reference frame of the fourth reference frame which is the previous frame of the third reference frame with the third reference frame. Motion estimation method by reference frame selection procedure. 제8항에 있어서, 상기 제3참조프레임과 상기 제4참조프레임의 참조프레임 적절값을 비교한 후, The method of claim 8, wherein after comparing the reference frame proper values of the third reference frame and the fourth reference frame, 상기 제3참조프레임이 작다면, 제3참조프레임을 최적의 참조프레임으로 선택하고,If the third reference frame is small, select the third reference frame as the optimal reference frame, 상기 제4참조프레임이 작다면, 상기 제4참조프레임과 상기 제4참조프레임의 이전 프레임인 제5참조프레임의 참조프레임 적절값을 비교한 후, If the fourth reference frame is small, after comparing the appropriate value of the reference frame of the fourth reference frame and the fifth reference frame that is the previous frame of the fourth reference frame, 상기 제4참조프레임이 작다면, 제4참조프레임을 최적의 참조프레임으로 선택하고,If the fourth reference frame is small, select the fourth reference frame as the optimal reference frame, 상기 제5참조프레임이 작다면, 상기 제5참조프레임을 최적의 참조프레임으로 선택하는 것을 특징으로 하는 다중 참조프레임 선택 절차에 의한 움직임 추정 방법.And if the fifth reference frame is small, selecting the fifth reference frame as an optimal reference frame. 제7항 내지 제9항 중 어느 한 항에 있어서, 상기 참조프레임 적절값은 하기 수학식을 적용하는 것을 특징으로 하는 다중 참조프레임 선택 절차에 의한 움직임 추정 방법.10. The motion estimation method according to any one of claims 7 to 9, wherein the reference frame appropriate value applies the following equation.
Figure 112010029692418-pat00011
Figure 112010029692418-pat00011
상기 수학식에서 MVCostREF_(ⅰ) 참조프레임 ⅰ에 대한 현재 블록의 최상의 정합 블록의 움직임 벡터 비용함수 값을 나타내는 것으로 다음 수학식으로 정의된다.In the above equation, MVCost REF_ (ⅰ) is It represents the motion vector cost function value of the best-matching block of the current block for the reference frame ⅰ and is defined by the following equation.
Figure 112010029692418-pat00015
Figure 112010029692418-pat00015
여기서, f는 람다인자(lambda factor)이다. cx 및 cy는 현재 매크로블록의 움직임 벡터를 나타내고, s는 움직임 벡터의 추이양을 나타내며, px 및 py는 예측된 움직임 벡터를 나타낸다. WeightedCost 함수는 f 값을 사용하여 움직임 벡터 예측 오차의 부호화에 사용되는 비트량을 인수로 받아 비용 값을 반환하는 함수이다.Where f is a lambda factor. cx and cy represent the motion vector of the current macroblock, s represents the transition amount of the motion vector, and px and py represent the predicted motion vector. The WeightedCost function is a function that takes a bit amount used to encode a motion vector prediction error using an f value and returns a cost value. 또한, REFCostREF_(ⅰ) 는 참조프레임 ⅰ에 대한 현재 블록의 최상의 정합 블록의 참조프레임 비용함수 값을 나타내는 것으로 다음 수학식으로 정의된다.In addition, REFCost REF_ (ⅰ) represents a reference frame cost function value of the best matching block of the current block with respect to the reference frame 으로 and is defined by the following equation.
Figure 112010029692418-pat00016
Figure 112010029692418-pat00016
여기서, f는 람다인자(lambda factor)이고, ref는 선택된 참조프레임을 가리키며, WeightedCost 함수는 f 값을 사용하여 선택된 참조프레임 값을 부호화하는데 필요한 비트량을 인수로 받아 비용 값을 반환하는 함수이다.Here, f is a lambda factor, ref is a reference frame selected, and a WeightedCost function is a function that takes a bit amount required to encode a selected reference frame value using an f value as an argument and returns a cost value.
KR1020080042133A 2008-05-07 2008-05-07 Motion estimation procedure by fast multiple reference frame selection procedure KR100978596B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080042133A KR100978596B1 (en) 2008-05-07 2008-05-07 Motion estimation procedure by fast multiple reference frame selection procedure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080042133A KR100978596B1 (en) 2008-05-07 2008-05-07 Motion estimation procedure by fast multiple reference frame selection procedure

Publications (2)

Publication Number Publication Date
KR20090116281A KR20090116281A (en) 2009-11-11
KR100978596B1 true KR100978596B1 (en) 2010-08-27

Family

ID=41601073

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080042133A KR100978596B1 (en) 2008-05-07 2008-05-07 Motion estimation procedure by fast multiple reference frame selection procedure

Country Status (1)

Country Link
KR (1) KR100978596B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101674556B1 (en) * 2015-07-27 2016-11-10 인하대학교 산학협력단 Method and apparatus for estimating motion using multi reference frames
CN110933425A (en) * 2019-11-15 2020-03-27 西安万像电子科技有限公司 Data processing method and device
CN114286089A (en) * 2021-09-26 2022-04-05 腾讯科技(深圳)有限公司 Reference frame selection method, device, equipment and medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050041293A (en) * 2003-10-30 2005-05-04 삼성전자주식회사 Apparatus and method for estimating motion
JP2006108932A (en) 2004-10-01 2006-04-20 Ntt Docomo Inc Motion picture encoding device using plural reference pictures, motion picture decoding device, motion picture encoding method, motion picture decoding method, motion picture encoding program and motion picture decoding program
JP2006191175A (en) 2004-12-28 2006-07-20 Matsushita Electric Ind Co Ltd Image coding apparatus and method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050041293A (en) * 2003-10-30 2005-05-04 삼성전자주식회사 Apparatus and method for estimating motion
JP2006108932A (en) 2004-10-01 2006-04-20 Ntt Docomo Inc Motion picture encoding device using plural reference pictures, motion picture decoding device, motion picture encoding method, motion picture decoding method, motion picture encoding program and motion picture decoding program
JP2006191175A (en) 2004-12-28 2006-07-20 Matsushita Electric Ind Co Ltd Image coding apparatus and method

Also Published As

Publication number Publication date
KR20090116281A (en) 2009-11-11

Similar Documents

Publication Publication Date Title
KR101344200B1 (en) Dynamic selection of motion estimation search ranges and extended motion vector ranges
RU2658178C1 (en) Image decoding device, image encoding device, image decoding method and image encoding method
US8155195B2 (en) Switching distortion metrics during motion estimation
KR101895744B1 (en) Image decoding apparatus, image encoding apparatus, image decoding method, image encoding method, and recording medium for recording data structure of encoded data
US8422546B2 (en) Adaptive video encoding using a perceptual model
KR100643819B1 (en) Parameterization for fading compensation
KR20040089163A (en) Method and Apparatus for Determining Search Range for Adaptive Motion Vector for Use in Video Encoder
KR100978596B1 (en) Motion estimation procedure by fast multiple reference frame selection procedure
JP5649296B2 (en) Image encoding device
US10148954B2 (en) Method and system for determining intra mode decision in H.264 video coding
KR20120110795A (en) Device and method for adjusting search range
KR20040110755A (en) Method of and apparatus for selecting prediction modes and method of compressing moving pictures by using the method and moving pictures encoder containing the apparatus and computer-readable medium in which a program for executing the methods is recorded
KR20090037288A (en) Method for real-time scene-change detection for rate control of video encoder, method for enhancing qulity of video telecommunication using the same, and system for the video telecommunication
Yu et al. Half-pixel motion estimation bypass based on a linear model
Kim et al. A fast inter mode decision algorithm in H. 264/AVC for IPTV broadcasting services
Du Macroblock mode decision for H. 264
Kim et al. Reduced 4x4 Block Intra Prediction Modes using Directional Similarity in H. 264/AVC
Kim An Adaptive Fast Motion Estimation Based on Directional Correlation and Predictive Values in H. 264

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130628

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140528

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150630

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee