KR101036137B1 - Multiple Reference Frame Selection Method for Video Coding - Google Patents

Multiple Reference Frame Selection Method for Video Coding Download PDF

Info

Publication number
KR101036137B1
KR101036137B1 KR1020090087359A KR20090087359A KR101036137B1 KR 101036137 B1 KR101036137 B1 KR 101036137B1 KR 1020090087359 A KR1020090087359 A KR 1020090087359A KR 20090087359 A KR20090087359 A KR 20090087359A KR 101036137 B1 KR101036137 B1 KR 101036137B1
Authority
KR
South Korea
Prior art keywords
mode
region
complexity
reference frame
current macroblock
Prior art date
Application number
KR1020090087359A
Other languages
Korean (ko)
Other versions
KR20110029608A (en
Inventor
정제창
이강준
전광길
Original Assignee
중앙대학교 산학협력단
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, 한양대학교 산학협력단 filed Critical 중앙대학교 산학협력단
Priority to KR1020090087359A priority Critical patent/KR101036137B1/en
Publication of KR20110029608A publication Critical patent/KR20110029608A/en
Application granted granted Critical
Publication of KR101036137B1 publication Critical patent/KR101036137B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/573Motion compensation with multiple frame prediction using two or more reference frames in a given prediction direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock

Abstract

본 발명은 비디오 부호화를 위한 다중 참조 프레임 선택방법에 관한 것이다. 본 발명에 따른 비디오 부호화를 위한 다중 참조 프레임 선택방법은 (a) 부호화하고자 하는 현재 매크로블록의 P16×16 블록 크기에 대한 움직임 추정을 이전 프레임을 대상으로 수행하는 단계; (b)상기 움직임 추정을 통해 선택된 참조영역의 최적 참조 프레임 정보로부터 시간적 복잡도를 산출하는 단계; 및 (c) 상기 시간적 복잡도에 따라 적응적으로 상기 현재 매크로블록의 후보 참조 프레임을 선택하는 단계를 포함한다. The present invention relates to a method of selecting multiple reference frames for video encoding. The multi-reference frame selection method for video encoding according to the present invention comprises the steps of: (a) performing motion estimation on a P16 × 16 block size of a current macroblock to be encoded for a previous frame; (b) calculating temporal complexity from optimal reference frame information of the selected reference region through the motion estimation; And (c) adaptively selecting a candidate reference frame of the current macroblock according to the temporal complexity.

이에 따라, 현재 프레임과 이전 프레임의 시간적 복잡도의 연관성에 기초하여 모드 추정에 사용되는 참조 프레임의 개수를 적절히 선택함으로써 움직임 추정의 복잡도를 크게 감소시킬 수 있다.Accordingly, the complexity of motion estimation can be greatly reduced by appropriately selecting the number of reference frames used for mode estimation based on the correlation of the temporal complexity of the current frame and the previous frame.

움직임 추정, 다중 참조 프레임, H.264 Motion Estimation, Multiple Reference Frames, H.264

Description

비디오 부호화를 위한 다중 참조 프레임 선택방법{Multiple Reference Frame Selection Method for Video Coding}Multiple Reference Frame Selection Method for Video Coding

본 발명은 비디오 부호화를 위한 다중 참조 프레임 선택방법에 관한 것으로서, 보다 구체적으로는 다중 참조 프레임을 이용하는 비디오 부호화에서 후보 참조 프레임을 적절히 선택하는 방법에 관한 것이다. The present invention relates to a method of selecting multiple reference frames for video encoding, and more particularly, to a method of appropriately selecting candidate reference frames in video encoding using multiple reference frames.

최근 디지털 비디오의 압축 전송 및 부호화 기술은 방송, 인터넷 등의 통신 기술의 발달에 따라 급속도로 진보하고 있다. 특히, 디지털 동영상의 압축 또는 부호화 분야는 다양한 스펙이 제안되고 있으며, 또한 성능을 개선하기 위한 다양한 노력이 진행되고 있다. Recently, the compression transmission and encoding technology of digital video is rapidly progressing with the development of communication technology such as broadcasting and internet. In particular, various specifications have been proposed in the field of compression or encoding of digital video, and various efforts have been made to improve performance.

최근 ITU-T 비디오 전문가 그룹(Video Coding Experts Group; VCEG)과 ISO/IEC 움직임 픽쳐 전문가 그룹(Motion Picture Expert Group; MPEG)으로 형성된 JVT(Joint Video Team: JVT)에 의해 공동으로 제정된 새로운 동영상 부호화 규격으로서, H.264/AVC가 제안되었다. New video coding jointly established by the Joint Video Team (JVT), recently formed by the ITU-T Video Coding Experts Group (VCEG) and the ISO / IEC Motion Picture Expert Group (MPEG). As a standard, H.264 / AVC has been proposed.

H.264는 MPEG-2, MPEG-3, H.263과 같은 이전의 표준들과 비교하여 높은 부호화 성능을 얻기 위해 다양한 새로운 부호화 기법들을 적용하였다. 그 예로서, 1/4 화소(quarter-pel) 정확도의 움직임 예측, 다중 참조 프레임 사용, 가변 블록 크기를 이용한 부호화, 율 왜곡 최적화 등의 방법은 특히 화면 간 부호화에 큰 이점을 갖는다. 이러한 부호화 방식들은 이전의 부호화 표준에 비해서 율-왜곡 성능 관점에서 뛰어난 향상을 보이지만, 더불어 부호화 시 복잡도가 지나치게 증가하는 단점이 있다. H.264 applies a variety of new coding techniques to achieve high coding performance compared to previous standards such as MPEG-2, MPEG-3, and H.263. For example, methods such as quarter-pel accuracy motion prediction, use of multiple reference frames, coding using a variable block size, optimization of rate distortion, and the like have great advantages in inter-screen coding. These coding schemes show an excellent improvement in terms of rate-distortion performance compared to previous coding standards, but also have a disadvantage in that complexity increases excessively.

특히, H.264/AVC 규격은 기존의 표준들이 이전에 재구성된 바로 이전 프레임만을 참조 영상으로 사용한 것과는 달리, 도 1에 도시된 바와 같이 여러 장의 프레임을 참조 영상으로 사용한다. 이는 움직임이 반복적으로 일어날 때나 어떤 영역이 다른 객체에 의해 가려져 있다가 나타날 경우에 뛰어난 성능을 보이며, 압축 효율을 극대화할 수 있다. In particular, the H.264 / AVC standard uses several frames as reference images, as shown in FIG. This shows excellent performance when the movement occurs repeatedly or when an area is hidden by other objects, and the compression efficiency can be maximized.

또한, 종래의 동영상 부호화 표준들이 16×16 또는 8×8 크기로만 움직임 예측을 하는 것과는 달리, 도 2에 도시된 바와 같이, H.264/AVC 규격은 블록의 크기를 더욱 다양하게 하여 16×16, 16×8, 8×16, 8×8, 8×4, 4×8, 4×4 단위 크기로 움직임 예측을 수행한다. 특히, 8×8 블록크기 이하의 서브매크로블록으로 수행되는 움직임 예측은 복잡한 영상에서 더욱 높은 부호화 이득을 얻을 수 있게 해준다. In addition, unlike conventional video coding standards for motion prediction only in 16 × 16 or 8 × 8 size, as shown in FIG. 2, the H.264 / AVC standard makes the size of the block more varied to 16 × 16. The motion prediction is performed in units of 16 × 8, 8 × 16, 8 × 8, 8 × 4, 4 × 8, and 4 × 4 units. In particular, motion prediction performed with submacroblocks of 8x8 block size or less enables higher coding gain in complex images.

그러나, H.264/AVC의 이러한 7가지 가변 블록 크기의 움직임 예측 방식은 이전의 표준에 비해 복잡도가 늘어나는 문제점이 있다. 또한, 움직임 예측을 위해 여 러 장의 참조 프레임을 사용할 경우 계산량이 더욱 늘어난다. 그러나, 이러한 계산량의 증가에도 불구하고 예측 오차의 감소는 오히려 영상의 특성과 관계가 깊다. 따라서, 어떤 경우에는 더 많은 참조 프레임을 사용하여 얻을 수 있는 예측 이득이 클 수 있으나, 그렇지 않은 경우에는 만족할 만한 이득을 얻지 못한 채 계산량만 낭비되는 문제가 발생한다. However, these seven variable block size motion prediction schemes of H.264 / AVC have a problem of increasing complexity compared to previous standards. In addition, the calculation amount is further increased by using multiple reference frames for motion prediction. However, despite the increase in the amount of calculation, the decrease in the prediction error is rather related to the characteristics of the image. Therefore, in some cases, the prediction gain that can be obtained by using more reference frames may be large, but otherwise, only a computation amount is wasted without obtaining a satisfactory gain.

따라서, 화질을 유지하면서도 움직임 추정에 사용되는 참조 프레임의 수를 적절히 선택하기 위한 방안이 다수 제시되고 있다.Therefore, a number of methods for appropriately selecting the number of reference frames used for motion estimation while maintaining image quality have been proposed.

예컨대, 다중 참조 프레임 게인의 분석을 통한 조기 종료하는 방법, 인접 블록의 참조 프레임들을 후보 참조 프레임으로 사용하는 방법, 8×8 블록의 참조 프레임 탐색에 기반한 알고리듬(Kue's 알고리듬, "Efficient reference frame selector for H.264" IEEE Trans. Circuit Syst. Video Technol., vol. 18, no 3, pp. 400-405, Mar. 2008) 등이 제안되고 있다.For example, a method of early termination through analysis of multiple reference frame gains, a method of using reference frames of adjacent blocks as candidate reference frames, a Kue's algorithm based on a reference frame search of 8 × 8 blocks, and an "Efficient reference frame selector for H.264 "IEEE Trans. Circuit Syst. Video Technol., Vol. 18, no 3, pp. 400-405, Mar. 2008).

그러나, 이러한 종래 알고리듬도 최적 참조 프레임을 구하는 작업에 많은 복잡도가 요구된다는 문제점이 있다.However, such a conventional algorithm also has a problem that a lot of complexity is required to find an optimal reference frame.

따라서, 본 발명의 목적은 비디오 부호화를 위한 다중 참조 프레임 선택방법에 있어서 현재 프레임과 이전 프레임의 시간적 복잡도의 연관성에 기초하여 모드 추정에 사용되는 참조 프레임의 개수를 적절히 선택하는 방법을 제공하는 것이다. 또한, 매크로블록의 부호화 모드의 복잡도의 변화를 추적하여 모드 추정에 사용되는 참조 프레임의 수를 적절히 제한하는 방법을 제공하는 것이다. Accordingly, an object of the present invention is to provide a method for appropriately selecting the number of reference frames used for mode estimation based on the correlation of the temporal complexity of the current frame and the previous frame in the multiple reference frame selection method for video encoding. Another object of the present invention is to provide a method of properly limiting the number of reference frames used for mode estimation by tracking a change in complexity of an encoding mode of a macroblock.

상기 목적은 본 발명에 따라, 비디오 부호화를 위한 다중 참조 프레임 선택방법에 있어서, (a) 부호화하고자 하는 현재 매크로블록의 P16×16 블록 크기에 대한 움직임 추정을 이전 프레임을 대상으로 수행하는 단계; (b) 상기 움직임 추정을 통해 선택된 참조영역의 최적 참조 프레임 정보로부터 시간적 복잡도를 산출하는 단계; 및 (c) 상기 시간적 복잡도에 따라 적응적으로 상기 현재 매크로블록의 후보 참조 프레임을 선택하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화를 위한 참조 프레임 선택방법에 의해 달성될 수 있다. 이와 같이 이전 프레임의 참조영역의 시간적 복잡도에 따라 현재 매크로블록의 후보 참조 프레임의 개수를 적절히 선택함으로써, 영상의 품질을 유지하면서도 고속 비디오 부호화를 달성할 수 있다. According to an aspect of the present invention, there is provided a method of selecting a multi-reference frame for video encoding, comprising: (a) performing motion estimation on a P16 × 16 block size of a current macroblock to be encoded with respect to a previous frame; calculating temporal complexity from the optimal reference frame information of the selected reference region through the motion estimation; And (c) adaptively selecting a candidate reference frame of the current macroblock according to the temporal complexity. As such, by appropriately selecting the number of candidate reference frames of the current macroblock according to the temporal complexity of the reference region of the previous frame, high-speed video encoding can be achieved while maintaining image quality.

또한, 비디오 부호화를 위한 다중 참조 프레임 선택방법은, (d) 상기 현재 매크로블록의 모드를 결정하는 단계; (e) 상기 참조영역의 부호화 모드의 복잡도와 상기 현재 매크로블록의 부호화 모드의 복잡도를 비교하는 단계; (f) 상기 현재 매크로블록의 부호화 모드의 복잡도가 증가하는 경우, 상기 현재 매크로블록의 최적 참조 프레임 정보를 리셋하는 단계; 및 (g) 상기 현재 매크로블록의 최적 참조 프레임 정보와 모드의 정보를 저장하는 단계를 더 포함함으로써, 부호화 모드의 복잡도의 변화에 따른 에러 발생을 방지한다. In addition, the multiple reference frame selection method for video encoding, (d) determining the mode of the current macroblock; (e) comparing the complexity of the encoding mode of the reference region with the complexity of the encoding mode of the current macroblock; resetting optimal reference frame information of the current macroblock when the complexity of the encoding mode of the current macroblock increases; And (g) storing optimal reference frame information and mode information of the current macroblock, thereby preventing an error due to a change in the complexity of an encoding mode.

그리고, 상기 (d) 단계에서 상기 부호화 모드는 CM_0, CM_1, CM_2, CM_3로 분류되고, 상기 CM_0는 SKIP모드로만 이루어진 경우, 상기 CM_1은 SKIP모드와 P16×16모드로 구성된 경우, 상기 CM_2는 P8×8블록 크기 이상의 블록 모드로 구성된 경우, 상기 CM_3은 P8×8블록 크기 미만의 블록 모드를 포함한 경우를 의미하며, 상기 (e) 단계에서 상기 부호화 모드의 복잡도는 CM_0, CM_1, CM_2, CM_3의 오름차순으로 증가하는 것으로 정의되며, 이외에 다른 기준에 의해 분류 및 정의될 수 있음은 물론이다. In the step (d), when the encoding mode is classified into CM_0, CM_1, CM_2, and CM_3, and the CM_0 consists of only SKIP mode, the CM_1 consists of SKIP mode and P16 × 16 mode, and the CM_2 corresponds to P8. When the block mode is configured with a block size larger than 8 blocks, the CM_3 includes a block mode smaller than the P8 block size. In step (e), the complexity of the encoding mode is CM_0, CM_1, CM_2, and CM_3. It is defined as increasing in ascending order, of course, can be classified and defined by other criteria.

아울러, 상기 (d) 단계는 상기 부호화 모드의 복잡도에 기초하여 모드를 결정하는 단계로서, 상기 참조영역의 부호화 모드가 상기 CM_0 또는 상기 CM_1인 경우, P16×16블록의 RD(Rate Distortion) 코스트를 구하여 상기 RD 코스트가 더 이상 감소하지 않는 프레임까지를 이용하여 나머지 블록모드의 모드 선택 과정을 수행하는 단계; 및 상기 참조영역의 부호화 모드가 상기 CM_2 또는 상기 CM_3인 경우, P8×8 블록의 RD 코스트를 구하여 상기 RD 코스트가 더 이상 감소하지 않는 프레임까지를 이용하여 P8×4, P4×8, 및 P4×4 블록의 모드 선택과정을 수행하고, P16×16, P16×8, P8×16 블록은 P8×8 블록에서 선택된 참조 프레임에서 모드 선택 과정을 수행하는 단계를 포함함으로써, 다시 한번 후보 참조 프레임의 범위를 제한함으로써 보다 신속한 부호화가 가능하게 해 준다. In addition, step (d) is a step of determining a mode based on the complexity of the encoding mode. When the encoding mode of the reference region is the CM_0 or the CM_1, the RD (Rate Distortion) cost of a P16 × 16 block is determined. Performing a mode selection process of the remaining block modes using up to frames where the RD cost is no longer reduced; And when the coding mode of the reference region is the CM_2 or the CM_3, P8 × 4, P4 × 8, and P4 × are obtained by calculating the RD cost of the P8 × 8 block up to a frame where the RD cost no longer decreases. Performing a mode selection process of 4 blocks, and the P16 × 16, P16 × 8, and P8 × 16 blocks include performing a mode selection process on a reference frame selected from the P8 × 8 blocks, thereby again providing a range of candidate reference frames. By limiting this, faster encoding is possible.

또한, 상기 참조영역의 시간적 복잡도는 Region_0, Region_1, Region_2, Region_3으로 분류되고, 상기 Region_0은 상기 참조영역의 최적 참조 프레임이 ref0으로만 이루어진 경우, 상기 Region_1은 상기 참조영역의 최적 참조 프레임이 ref0, ref1로 이루어진 경우, 상기 Region_2는 상기 참조영역의 최적 참조 프레임이 ref0, ref1, ref2로 이루어진 경우, 상기 Region_3은 상기 참조영역의 최적 참조 프레임이 ref0, ref1, ref2, ref3, ref4로 이루어진 경우를 나타낸다. 여기서, ref0, ref1, ref2, ref3, ref4는 이전 프레임과의 거리가 멀수록 인덱스 숫자가 커지도록 부여된다. In addition, the temporal complexity of the reference region is classified into Region_0, Region_1, Region_2, and Region_3, and in Region_0, when the optimal reference frame of the reference region consists only of ref0, the Region_1 indicates that the optimal reference frame of the reference region is ref0, In the case of ref1, the Region_2 represents a case where the optimal reference frame of the reference region consists of ref0, ref1, ref2, and the region_3 represents a case where the optimal reference frame of the reference region consists of ref0, ref1, ref2, ref3, ref4. . Here, ref0, ref1, ref2, ref3, and ref4 are given so that the index number increases as the distance from the previous frame increases.

한편, 상기 목적은 본 발명에 따라, 비디오 부호화를 위한 다중 참조 프레임 선택방법에 있어서, (a) 이전 프레임들에서 현재 매크로블록의 P16×16 블록 크기에 대한 움직임 추정을 수행하여 참조영역을 구하는 단계; (b) 상기 참조영역의 시간적 복잡도에 대응하여 적응적으로 상기 현재 매크로블록의 후보 참조 프레임을 선택하는 단계; 및 (c) 상기 참조영역의 부호화모드 복잡도와 현재 매크로블록의 부호화모드 복잡도를 비교하여 상기 현재 매크로블록의 부호화모드 복잡도가 증가하는 경우 상기 현재 매크로블록의 최적 참조 프레임 정보를 보정하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화를 위한 참조 프레임 선택방법에 의해 달성될 수 있다.  Meanwhile, according to the present invention, in the multi-reference frame selection method for video encoding, (a) obtaining a reference region by performing a motion estimation on the P16 × 16 block size of the current macroblock in the previous frames ; (b) adaptively selecting a candidate reference frame of the current macroblock corresponding to the temporal complexity of the reference region; And (c) comparing the encoding mode complexity of the reference region with the encoding mode complexity of the current macroblock to correct optimal reference frame information of the current macroblock when the encoding mode complexity of the current macroblock increases. It can be achieved by a reference frame selection method for video encoding, characterized in that.

여기서, 상기 비디오 부호화를 위한 다중 참조 프레임 선택방법은, (d) 상기 현재 매크로블록의 모드를 결정하는 단계로서, 상기 참조영역의 부호화 모드 복잡도에 기초하여 각 모드에 대한 상기 후보 참조 프레임의 범위를 다시 한번 제한하는 단계를 더 포함하며, 상기 (d) 단계는 상기 (b) 단계와 상기 (c) 단계 사이에 수행된다. Here, in the multi-reference frame selection method for video encoding, (d) determining a mode of the current macroblock, the range of the candidate reference frame for each mode based on the coding mode complexity of the reference region. It further includes the step of limiting, wherein step (d) is performed between step (b) and step (c).

이상 설명한 바와 같이, 본 발명에 따르면, 현재 프레임과 이전 프레임의 시간적 복잡도의 연관성에 기초하여 모드 추정에 사용되는 참조 프레임의 개수를 적절히 선택함으로써 움직임 추정의 복잡도를 크게 감소시킬 수 있다. 또한, 매크로블록의 부호화 모드의 복잡도의 변화를 추적하여 모드 추정에 사용되는 참조 프레임의 수를 적절히 제한함으로써 화질에 영향을 미치지 않으면서도 복잡도를 감소시킬 수 있다. As described above, according to the present invention, the complexity of motion estimation can be greatly reduced by appropriately selecting the number of reference frames used for mode estimation based on the correlation of the temporal complexity of the current frame and the previous frame. In addition, the complexity can be reduced without affecting the picture quality by appropriately limiting the number of reference frames used for mode estimation by tracking changes in the complexity of the encoding mode of the macroblock.

이하, 도면을 참조하여 본 발명의 구체적인 실시예들에 대해 설명하기로 한다. Hereinafter, specific embodiments of the present invention will be described with reference to the drawings.

시간적 복잡도의 상관성Correlation of Temporal Complexity

본 발명은 추가적인 연산 없이 참조 프레임 빠르게 선택하는데 필요한 유용한 정보를 얻기 위해, 이전 프레임들의 움직임 추정을 통해 선택한 참조영역과 현재의 매크로블록 간의 시간적 복잡도의 상관성에 주목한다.The present invention focuses on the correlation of the temporal complexity between the selected reference region and the current macroblock through motion estimation of previous frames in order to obtain useful information needed for fast selection of the reference frame without additional computation.

도 3은 현재 매크로블록의 움직임 벡터에 의해 선택된 이전 프레임의 참조영역을 도시한 것이다.3 illustrates a reference region of a previous frame selected by the motion vector of the current macroblock.

도 3을 참조하면, 자동차가 있는 영역은 최적 참조 프레임과 현재 매크로블록 간의 시간적 거리가 멀며, 이는 현재 매크로블록의 시간적 복잡도가 높다는 것 을 의미한다. 반면, 도 3에서 배경부분은 단 하나의 이전 프레임이 최적 참조 프레임으로 사용되었기 때문에 현재 매크로블록의 시간적 복잡도가 낮다고 볼 수 있다. Referring to FIG. 3, the area where the car is located is far from the optimal reference frame and the current macroblock, which means that the current complexity of the macroblock is high. On the other hand, in the background part of FIG. 3, since only one previous frame is used as an optimal reference frame, it can be seen that the temporal complexity of the current macroblock is low.

이와 같은 사실로부터 현재 매크로블록의 움직임 추정에 사용되었던 이전프레임의 참조영역의 시간적 복잡도가 현재 매크로블록의 시간적 복잡도 간에 높은 상관성을 성립함을 알 수 있다. From this fact, it can be seen that the temporal complexity of the reference region of the previous frame used for the motion estimation of the current macroblock establishes a high correlation between the temporal complexity of the current macroblock.

따라서, 참조영역의 시간적 복잡도가 낮다면 현재 매크로블록의 시간적 복잡도도 낮고, 참조영역의 시간적 복잡도가 높다면 현재 매크로블록이 시간적으로 매우 복잡하게 부호화된다고 가정할 수 있다.  Therefore, if the temporal complexity of the reference region is low, it may be assumed that the temporal complexity of the current macroblock is also low, and if the temporal complexity of the reference region is high, the current macroblock is encoded very temporally.

이와 같은 가정을 증명하기 위해, 우선 참조영역을 4가지 타입으로 분류하였다. 참조 프레임의 표현에서 ref0은 부호화된 프레임으로부터 가장 가까운 거리에 있는 프레임 즉, 직전 프레임을 의미하고, ref1, ref2, ref3 등으로 숫자가 늘어날수록 현재 프레임과 시간적 거리가 먼 프레임을 의미한다. In order to prove this assumption, the reference areas are classified into four types. In the expression of the reference frame, ref0 means the frame closest to the coded frame, that is, the previous frame. As the number increases to ref1, ref2, ref3, etc., it means a frame that is far from the current frame.

도 4는 현재 매크로브록의 이전프레임에서의 참조영역을 4가지 타입으로 분류한 일 예를 도시한 것이다. FIG. 4 illustrates an example of classifying reference areas in a previous frame of the current macro block into four types.

도 4를 참조하면, Region_0은 참조영역의 모든 블록이 ref0인 경우, Region_1은 참조영역이 ref0과 ref1로 구성된 경우, Region_2는 참조영역이 ref0, ref1, ref2로 구성된 경우, Region_3은 참조영역이 ref0, ref1, ref2, ref3, ref4로 구성된 경우를 말한다.Referring to FIG. 4, Region_0 is when all blocks of the reference region are ref0, Region_1 is when the reference region consists of ref0 and ref1, Region_2 is when the reference region consists of ref0, ref1, ref2, and Region_3 is ref0 Refers to the case consisting of, ref1, ref2, ref3, ref4.

이하, 현재 매크로블록과 참조영역 간의 시간적 복잡도가 서로 연관성이 있는지 여부를 통계를 통해 알아보자. 표 1은 각 참조영역에 대응하는 현재 매크로블 록의 최적 참조 프레임들을 도시한 것이다(AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, PARIS, 및 STEFAN 영상의 평균).Hereinafter, the statistics whether the temporal complexity between the current macroblock and the reference region are related to each other will be discussed. Table 1 shows the optimal reference frames of the current macroblock corresponding to each reference region (average of AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, PARIS, and STEFAN pictures).

Figure 112009056872180-pat00001
Figure 112009056872180-pat00001

위 표 1을 보면, 현재 매크로블록의 시간적 복잡도(Temporal Complexity of the Current Macroblock: TCCMB)와 참조영역의 시간적 복잡도(Temporal Complexity of the Reference Region:TCRR) 간에 높은 상관관계가 성립함을 알 수 있다. 참조영역이 Region_0으로 선택되면, 현재 매크로블록의 최적 참조 프레임으로 선택된 ref0의 비율이 90% 이상 된다. Region_1에서는 ref0의 비율은 평균 81% 이상이고, ref1의 비율은 평균 9% 이상이다. 반면, Region_2와 Region_3에서는 ref2, ref3 및 ref4의 비율이 증가한다. In Table 1 above, it can be seen that a high correlation is established between the Temporal Complexity of the Current Macroblock (TCCMB) and the Temporal Complexity of the Reference Region (TCRR). When the reference region is selected as Region_0, the ratio of ref0 selected as the optimal reference frame of the current macroblock is 90% or more. In Region_1, the ratio of ref0 is above 81% and the ratio of ref1 is above 9% on average. On the other hand, in Region_2 and Region_3, the ratio of ref2, ref3, and ref4 increases.

따라서, 참조영역의 시간적 복잡도 정보를 사용하여 현재 매크로블록의 시간적 복잡도를 예측할 수 있다. 예컨대, 현재 매크로블록의 참조영역이 Region_0이라면 현재 매크로블록의 후보 참조 프레임으로서 ref0을 사용하고, 참조영역이 Region_1이라면 후보 참조 프레임으로서 ref0, ref1을 사용한다. 동일한 방법으로, 참조영역이 Region_2라면 후보 참조 프레임으로서 ref0, ref1, ref2를 사용하고, 참조영역이 Region_3이라면 후보 참조 프레임으로서 ref0, ref1, ref2, ref3, ref4를 사용할 수 있다.Therefore, the temporal complexity of the current macroblock can be predicted using the temporal complexity information of the reference region. For example, if the reference region of the current macroblock is Region_0, ref0 is used as a candidate reference frame of the current macroblock. If the reference region is Region_1, ref0 and ref1 are used as candidate reference frames. In the same way, if the reference region is Region_2, ref0, ref1, ref2 may be used as the candidate reference frame, and if the reference region is Region_3, ref0, ref1, ref2, ref3, ref4 may be used as the candidate reference frame.

위 예에서는 시간적 복잡도를 4가지로 평가(산출)하였으나, 적용에 있어서는 더 작거나 많은 단계로 평가할 수 있음은 물론이며, 그 구체적인 기준 또한 변경될 수 있음은 물론이다.In the above example, the temporal complexity is evaluated (calculated) in four ways, but in application, it can be evaluated in smaller or more steps, and the specific criteria can be changed.

참조영역의 부호화 Coding of Reference Area 모드mode 정보 Information

도 5는 연속하는 프레임들에서 참조영역의 시간적 복잡도의 변화의 일 예를 도시한 것이다. 5 illustrates an example of a change in temporal complexity of the reference region in successive frames.

연속된 프레임에서 부호화 모드가 변경되었다는 것은 매크로블록과 관련된 오브젝트의 특성이 변경되었다는 것을 의미한다. 이 경우, 현재 매크로블록의 시간적 복잡도와 참조영역의 시간적 복잡도 간의 상관성 또한 변경될 것이다. 그렇다면, 현재 매크로블록과 참조영역의 시간적 복잡도 간의 상관성에 기초한 후보 참조 프레임 선택방법은 그 성능은 저하될 수 있다. The change in the encoding mode in successive frames means that the characteristics of the object associated with the macroblock have changed. In this case, the correlation between the temporal complexity of the current macroblock and the temporal complexity of the reference region will also be changed. If so, the performance of the candidate reference frame selection method based on the correlation between the current macroblock and the temporal complexity of the reference region may be degraded.

본 발명에서는 이러한 성능의 저하를 방지하기 위해, 부호화 모드의 복잡도와 이의 변화에 주목한다. 도 6은 매크로블록의 특성의 변화를 검출하기 위한 다양한 참조영역들의 일 예를 도시한 것이다. In the present invention, in order to prevent such deterioration of performance, attention is paid to the complexity of the encoding mode and the change thereof. 6 illustrates an example of various reference regions for detecting a change in characteristics of a macroblock.

도 6을 참조하면, 선택된 모드에 따라 참조영역을 4가지 타입으로 나눈다. 여기서, CM_0은 참조영역의 모든 매크로블록이 SKIP 모드의 매크로블록만으로 구성된 경우를 의미하며, CM_1은 참조영역의 매크로블록이 SKIP 모드와 P16×16 모드의 매크로블록으로 구성된 경우를 말한다. CM_2는 참조영역의 모든 매크로블록의 블록 크기가 P8×8 모드의 블록크기 이상인 경우를 의미하며, CM_3는 참조영역이 P8×8 모드보다 작은 블록 크기를 가진 매크로블록들로 구성된 경우를 말한다. 여기서, CM_0, CM_1, CM_2, CM_3의 부호화 모드 복잡도(Coding Mode Complesity:CMC)를 오름차순으로 정의할 수 있다. 즉, CM_0, CM_1, CM_2, CM_3의 복잡도는 부여된 숫자가 클수록 증가한다.Referring to FIG. 6, the reference area is divided into four types according to the selected mode. Here, CM_0 refers to a case in which all macroblocks of the reference region are composed of only macroblocks of the SKIP mode, and CM_1 refers to a case in which macroblocks of the reference region are composed of macroblocks of the SKIP mode and the P16 × 16 mode. CM_2 refers to a case in which the block size of all macroblocks in the reference region is greater than or equal to the block size of the P8x8 mode, and CM_3 refers to a case in which the reference region is composed of macroblocks having a smaller block size than the P8x8 mode. Here, coding mode complexity (CMC) of CM_0, CM_1, CM_2, and CM_3 may be defined in ascending order. That is, the complexity of CM_0, CM_1, CM_2, and CM_3 increases as the number assigned to them increases.

따라서, 연속된 프레임에서 부호화 모드 복잡도가 증가하면 즉, 참조영역의 부호화 모드 복잡도에 비해 현재 매크로블록의 부호화 모드 복잡도가 증가하면 오브젝트의 특성이 변경되었을 가능성이 크므로, 현재 매크로블록의 시간적 복잡도와 참조영역의 시간적 복잡도 간의 상관성에 기초한 후보 참조 프레임 선택 방법의 성능은 저하될 수 있다. Therefore, if the encoding mode complexity increases in successive frames, that is, if the encoding mode complexity of the current macroblock is increased compared to the encoding mode complexity of the reference region, the characteristics of the object may be changed. The performance of the candidate reference frame selection method based on the correlation between the temporal complexity of the reference region may be degraded.

아래 표 2는 부호화 모드 복잡도가 변화할 때 현재 매크로블록과 참조영역의 시간적 복잡도 간의 상관성에 어떠한 변화가 있는지를 보여주는 데이터이다. Table 2 below shows data showing how there is a change in the correlation between the current macroblock and the temporal complexity of the reference region when the encoding mode complexity changes.

Figure 112009056872180-pat00002
Figure 112009056872180-pat00002

위 표에서 알 수 있듯이, 연속된 프레임에서 부호화 모드 복잡도가 증가하면 현재 매크로블록과 참조영역의 시간적 복잡도 간의 상관성은 감소하게 된다. 따라서, 현재 매크로블록과 참조영역의 시간적 복잡도의 상관성에 기반한 후보 참조 프레임 선택방법은 그 성능이 떨어질 수 있음을 알 수 있다. 또한, 이러한 에러는 이후 프레임에 영향을 미치게 된다. 본 발명에서는 이러한 에러의 영향을 방지하기 위한 방법을 추가적으로 제안한다. As can be seen from the above table, as the coding mode complexity increases in successive frames, the correlation between the current macroblock and the temporal complexity of the reference region is reduced. Therefore, it can be seen that the performance of the candidate reference frame selection method based on the correlation between the current macroblock and the temporal complexity of the reference region may be degraded. This error also affects later frames. The present invention further proposes a method for preventing the influence of such an error.

예컨대 참조영역의 부호화 모드 복잡도가 증가하면, 현재 매크로블록의 최적 참조 프레임 정보를 리셋시켜, 최대 참조 프레임의 값을 다음 프레임을 위해 저장한다. 예컨대, 해당 인코더에서 사용되는 참조 프레임의 개수가 5개라면, 해당 영역에 사용된 참조프레임을 최대값인 ref4로 리셋시킨다. 이렇게 함으로써, 이후 프레임에서 현재 매크로블록이 참조 프레임으로 사용될 경우 생길 수 있는 에러를 방지할 수 있다. For example, if the encoding mode complexity of the reference region is increased, the optimal reference frame information of the current macroblock is reset, and the value of the maximum reference frame is stored for the next frame. For example, if the number of reference frames used in the encoder is five, the reference frames used in the corresponding region are reset to ref4, the maximum value. By doing so, it is possible to prevent an error that may occur when the current macroblock is used as a reference frame in a subsequent frame.

위 예에서는 부호화 모드 복잡도를 4가지로 평가(산출)하였으나, 적용에 있어서는 더 작거나 많은 단계로 평가할 수 있음은 물론이며, 그 구체적인 기준 또한 변경될 수 있음은 물론이다.In the above example, the coding mode complexity is evaluated (calculated) in four ways, but in application, it can be evaluated in smaller or more steps, and the specific criteria can of course be changed.

RDRD (( RateRate DistortionDistortion ) ) 코스트의Coast 변경에 의한 조기 종료 Early termination by change

전술한 과정을 통해 후보 참조 프레임이 결정되면, 해당 후보 참조 프레임에 대해 현재 매크로블록의 모드 결정을 수행하게 된다. 본 발명은 종래의 방법에 비해 후보 참조 프레임의 개수를 적응적으로 제한하게 되므로, 그만큼 부호화에 걸리는 시간이 감소하게 된다.When the candidate reference frame is determined through the above-described process, the mode determination of the current macroblock is performed with respect to the candidate reference frame. Since the present invention adaptively limits the number of candidate reference frames compared to the conventional method, the time taken for encoding is reduced accordingly.

더 나아가, 본 발명은 현재 매크로블록과 참조영역이 부호화 모드 복잡도 간의 연관성에 기초하여 조기에 모드 결정을 종료하는 방법을 제안한다. Furthermore, the present invention proposes a method in which the current macroblock and the reference region terminate the mode decision early based on the association between the coding mode complexity.

참조영역의 부호화 모드 복잡도에 따라 현재 매크로블록의 부호화 모드의 비율은 달라진다. 아래 표 3은 참조영역의 부호화 모드 복잡도에 따른 현재 매크로블록의 부호화 모드 비율을 통계로 나타낸 것이다(AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, PARIS, 및 STEFAN 영상의 평균). The ratio of the encoding mode of the current macroblock varies according to the encoding mode complexity of the reference region. Table 3 below shows the encoding mode ratio of the current macroblock according to the encoding mode complexity of the reference region (AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, PARIS, and STEFAN images).

Figure 112009056872180-pat00003
Figure 112009056872180-pat00003

여기서, a={SKIP, P16×16}, b={P16×8 or P8×16}, c={P8×8, P8×4, P4×8, P4×4}를 의미한다.Here, a = {SKIP, P16 × 16}, b = {P16 × 8 or P8 × 16}, and c = {P8 × 8, P8 × 4, P4 × 8, P4 × 4}.

위 표를 보면, 참조영역이 CM_0 또는 CM_1일 때보다 CM_2 또는 CM_3일 때 현재 매크로블록이 c인 비율이 더 큰 것을 알 수 있다. 이 사실로부터 CM_2와 CM_3에서는 예컨대, P8×8, P8×4, P4×8, 및 P4×4 모드와 같은 작은 블록 크기 모드에 중점을 둔 참조 프레임 선택 방법을 고려하는 것이 유리하다는 것을 알 수 있다. Looking at the above table, it can be seen that the ratio of the current macroblock to c is larger when the reference region is CM_2 or CM_3 than when CM_0 or CM_1. From this fact it can be seen that in CM_2 and CM_3 it is advantageous to consider a reference frame selection method which focuses on small block size modes such as, for example, P8 × 8, P8 × 4, P4 × 8, and P4 × 4 modes. .

참조영역이 CM_2 또는 CM_3일 때의 현재 매크로블록의 c 항목의 RD 코스트의 변화 패턴을 한번 보자. 현재 프레임의 RD 코스트가 이전 프레임의 RD 코스트에 비해 감소하지 않는다면, 남아 있는 프레임에서 RD 코스트 값 연산을 중단한다. 따라서, 움직임 추정에 사용하는 후보 참조 프레임들은 현재 프레임까지로 한정된다. Let's look at the pattern of change in RD cost of item c of the current macroblock when the reference area is CM_2 or CM_3. If the RD cost of the current frame does not decrease compared to the RD cost of the previous frame, the RD cost value calculation is stopped in the remaining frame. Therefore, candidate reference frames used for motion estimation are limited to the current frame.

아래 표 4는 RD 코스트의 변화 패턴에 의해 제한된 참조 프레임의 정확도(적중률)를 보여준다. Table 4 below shows the accuracy (hit ratio) of the reference frame limited by the change pattern of the RD cost.

Figure 112009056872180-pat00004
Figure 112009056872180-pat00004

표 4에서, 모드 결정 과정이 P8×8의 RD 코스트가 감소하지 않는 참조 프레임까지 수행될 때, 참조 프레임 선택의 적중률이 현저히 높아진다. 따라서, P8×8, P8×4, P4×8, 및 P4×4 모드의 후보 참조 프레임들은 P8×8의 RD 코스트가 감소하지 않는 참조 프레임으로 제한한다. P16×16, P16×8 및 P8×16 모드에서는 각 P8×8 모드에서 사용된 후보 참조 프레임을 사용한다.In Table 4, when the mode decision process is performed up to the reference frame in which the RD cost of P8x8 does not decrease, the hit ratio of the reference frame selection is significantly increased. Therefore, candidate reference frames in P8x8, P8x4, P4x8, and P4x4 modes are limited to reference frames in which the RD cost of P8x8 does not decrease. In the P16x16, P16x8, and P8x16 modes, candidate reference frames used in each P8x8 mode are used.

실시예Example

전술한 본 발명의 내용을 구체적인 실시예를 통해 설명하기로 한다. The content of the present invention described above will be described through specific embodiments.

도 7은 본 발명의 제1 실시예에 따른 적응적 참조 프레임 선택 방법의 흐름도이다.7 is a flowchart of an adaptive reference frame selection method according to a first embodiment of the present invention.

우선, 이전 프레임들에서 현재 매크로블록에 대한 참조 영역을 탐색한다(S10). 이 탐색 과정은 움직임 추정에 필요한 절차이기 때문에 이로 인해 복잡도가 더 증가하지는 않는다. 참조영역이 결정되면, 참조영역의 최적참조프레임정보에 기초하여 시간적 복잡도를 산출한다(S11). 참조영역의 최적참조프레임이 거리가 먼 것일수록 복잡도가 크게 산출되고, 가까운 프레임일수록 복잡도는 낮게 평가될 것이다. First, a reference region for a current macroblock is searched for in previous frames (S10). Since this search process is necessary for motion estimation, this does not increase the complexity. When the reference region is determined, a temporal complexity is calculated based on the optimal reference frame information of the reference region (S11). The farther the optimal reference frame of the reference region is, the greater the complexity is. The closer the frame is, the lower the complexity is.

이렇게 참조영역의 시간적 복잡도가 결정되면, 시간적 복잡도에 따라 적응적으로 현재 매크로블록의 후보 참조 프레임의 범위를 결정한다(S12). 전술한 바와 같이, 시간적 복잡도가 클수록 현재 매크로블록의 후보 참조 프레임의 개수가 늘어가고, 반대로 시간적 복잡도가 낮을수록 현재 매크로블록의 후보 참조 프레임의 개수는 줄어들 것이다. When the temporal complexity of the reference region is determined as described above, the range of candidate reference frames of the current macroblock is adaptively determined according to the temporal complexity (S12). As described above, as the temporal complexity increases, the number of candidate reference frames of the current macroblock increases. On the contrary, as the temporal complexity decreases, the number of candidate reference frames of the current macroblock decreases.

후보 참조 프레임의 범위가 결정되면, 그 범위 안에서 현재 매크로블록의 모드 결정 과정이 수행된다(S13). 종래에 비해 후보 참조 프레임의 개수가 줄어들게 되므로, 모드 결정에 소요되는 시간 또한 감소하게 될 것이다. When the range of the candidate reference frame is determined, a mode determination process of the current macroblock is performed within the range (S13). Since the number of candidate reference frames is reduced compared to the related art, the time required for mode determination will also be reduced.

다만, 본 발명에서는 에러를 방지하기 위해, 참조 프레임 정보를 보정할 수 있는 기회를 부여한다. 도 7을 참조하면, 참조영역의 부호화 모드의 복잡도와 현재 매크로블록의 부호화 모드의 복잡도를 평가하여(S14), 복잡도가 증가한 경우라면 오브젝트의 변화가 있다고 가정하고 현재 매크로블록의 최적 참조 프레임 정보를 리셋한다(S15, S16). 이에 의해, 이후 프레임에서 수행되는 참조 프레임 결정과정에서 에러가 발생하는 것을 방지할 수 있게 된다. However, in the present invention, in order to prevent an error, an opportunity to correct the reference frame information is provided. Referring to FIG. 7, the complexity of the encoding mode of the reference region and the complexity of the encoding mode of the current macroblock are evaluated (S14). If the complexity is increased, it is assumed that there is a change in the object, and the optimal reference frame information of the current macroblock is determined. Reset (S15, S16). As a result, an error may be prevented from occurring in a process of determining a reference frame performed in a subsequent frame.

마지막으로, 현재 매크로브록의 최적 참조 프레임 정보와 모드 정보를 저장하여(S17), 이후 프레임에서 사용할 수 있게 한다.Finally, the optimal reference frame information and mode information of the current macroblock are stored (S17), so that they can be used in subsequent frames.

도 8은 본 발명의 제2 실시예에 따른 적응적 참조 프레임 선택 방법의 흐름도이다.8 is a flowchart of an adaptive reference frame selection method according to a second embodiment of the present invention.

우선, 이전 프레임에서 현재 매크로블록의 참조영역을 탐색한다(S20). 이전프레임에서 참조영역이 결정되면, 해당 참조영역의 최적참조프레임 정보에 기초하여 시간적 복잡도에 따라 4가지 타입 중 하나로 분류한다. 만약, 참조영역의 모든 블록이 ref0을 최적참조프레임으로 갖는 경우 Region_0으로 분류되며(S21), 현재 매크로블록에 대해 ref0즉, 직전 프레임만을 인에이블시켜 후보 참조 프레임으로 사용한다(S22).First, the reference region of the current macroblock is searched for in the previous frame (S20). When a reference region is determined in the previous frame, it is classified into one of four types according to temporal complexity based on the optimal reference frame information of the reference region. If all blocks of the reference region have ref0 as an optimal reference frame, they are classified as Region_0 (S21), and only the immediately preceding frame is enabled for the current macroblock and used as candidate reference frames (S22).

만약, 참조영역의 모든 블록이 ref0 또는 ref1을 최적참조프레임으로 갖는 경우 Region_1으로 분류되며(S23), 현재 매크로블록에 대해 ref0과 ref1 총 2개의 프레임을 인에이블시켜 후보 참조 프레임으로 사용한다(S24).If all blocks of the reference region have ref0 or ref1 as an optimal reference frame, they are classified as Region_1 (S23), and two frames of ref0 and ref1 for the current macroblock are enabled and used as candidate reference frames (S24). ).

한편, 참조영역의 모든 블록이 ref0, ref1, 및 ref2을 최적참조프레임으로 갖는 경우 Region_2으로 분류되며(S25), 현재 매크로블록에 대해 ref0, ref1, 및 ref2 총 3개의 프레임을 인에이블시켜 후보 참조 프레임으로 사용한다(S26).On the other hand, if all blocks of the reference region have ref0, ref1, and ref2 as optimal reference frames, they are classified as Region_2 (S25), and a candidate reference is performed by enabling three frames of ref0, ref1, and ref2 for the current macroblock. It is used as a frame (S26).

마지막으로, 참조영역의 블록이 ref0, ref1, ref2, 및 ref3 또는 ref4를 최적참조프레임으로 갖는 경우 Region_3으로 분류하여, 현재 매크로블록에 대해 ref0, ref1, ref2, 및 ref3 또는 ref4 총 4개의 프레임을 인에이블시켜 후보 참조 프레임으로 사용한다(S27).Finally, if the block of the reference region has ref0, ref1, ref2, and ref3 or ref4 as the best reference frame, it is classified as Region_3, and four frames of ref0, ref1, ref2, ref3 or ref4 for the current macroblock are classified. Enable it and use it as a candidate reference frame (S27).

전술한 후보참조프레임 선택에 대한 설명에서, 참조영역의 최적참조프레임의 인덱스(이전 프레임을 기준)와 현재 프레임에서 사용하는 참조프레임의 인덱스(현재 프레임을 기준)는 차이가 있다는 점을 유의해야 한다. 예컨대, ref0이라고 하더라도 이전 프레임 기준의 ref0과 현재 프레임 기준의 ref0은 다르기 때문이다. In the above description of the selection of candidate reference frames, it should be noted that there is a difference between the index of the optimal reference frame of the reference region (relative to the previous frame) and the index of the reference frame used in the current frame (relative to the current frame). . For example, even if it is ref0, ref0 of the previous frame reference and ref0 of the current frame reference are different.

다음으로, 결정된 후보 참조 프레임들을 탐색하여 현재 매크로블록의 최적 부호화모드를 결정하게 되는데, 본 발명에서는 부호화 모드 복잡도에 따라 최적모드 결정과정을 수행한다(S28). 예컨대, 참조영역에서 선택된 모드가 CM_0 또는 CM1인 경우 P16×16블록의 RD 코스트를 구하여 RD 코스트가 더 이상 감소하지 않으면 그 프레임까지를 이용하여 나머지 모드의 모드 선택 과정을 수행한다. 반면, 참조영역에서 선택된 모드가 CM_2 또는 CM3인 경우 각각 P8×8 블록의 RD 코스트를 구하여 RD 코스트가 더 이상 감소하지 않으면 그 프레임까지를 이용하여 P8×4, P4×8, 및 P4×4 블록의 모드 선택과정을 수행하고, P16×16, P16×8, P8×16 블록은 P8×8 블록에서 사용된 참조 프레임에서 모드 선택 과정을 수행한다. 이에 의해 후보 참조 프레임의 범위를 다시 한번 제한하여 더욱 신속하여 모드 결정을 수행한다. Next, the determined candidate reference frames are searched to determine an optimal encoding mode of the current macroblock. In the present invention, an optimal mode determination process is performed according to the encoding mode complexity (S28). For example, when the mode selected in the reference region is CM_0 or CM1, the RD cost of the P16 × 16 block is obtained, and if the RD cost is no longer reduced, the mode selection process of the remaining modes is performed using the frame. On the other hand, if the mode selected in the reference region is CM_2 or CM3, the RD cost of the P8 × 8 block is obtained, respectively. The mode selection process is performed, and the P16x16, P16x8, and P8x16 blocks perform the mode selection process in the reference frame used in the P8x8 block. As a result, the range of candidate reference frames is once again limited to perform mode determination more quickly.

이렇게 하여 현재 매크로블록의 최적 참조 프레임과 모드가 결정되면, 참조영역의 부호화 모드의 복잡도와 현재 매크로블록에 대해 결정된 모드의 복잡도를 비교 평가하여, 이전 프레임의 참조영역에 부호화 모드 복잡도가 증가했으면 현재 매크로블록의 시간적 복잡도 즉, 최적 참조 프레임 정보를 리셋하여(S29, S30) 다음 프레임을 부호화할 때 발생 가능성이 있는 에러의 영향이 미치지 않도록 한다. In this way, when the optimal reference frame and mode of the current macroblock are determined, the complexity of the encoding mode of the reference region is compared with the complexity of the mode determined for the current macroblock, and if the encoding mode complexity is increased in the reference region of the previous frame, The temporal complexity of the macroblock, that is, the optimal reference frame information is reset (S29 and S30) so that an error that may occur when the next frame is encoded is not affected.

이렇게 결정 또는 리셋된 현재 매크로블록의 최적 참조 프레임과 모드에 대한 정보는 다음 프레임에서 부호화 모드 복잡도로서 사용하기 위해 저장된다(S31). Information about the optimal reference frame and mode of the current macroblock thus determined or reset is stored for use as the encoding mode complexity in the next frame (S31).

실험결과 Experiment result

본 발명에 따른 고속 참조 프레임 선택 방법의 성능을 알아보기 위해 H.264/AVC J.M 12.4를 사용하였다. 실험에서는 작은 움직임부터 큰 움직임을 갖는 6개의 비디오 시퀀스, CIF 사이즈 352×288을 갖는 AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, PARIS 시퀀스를 사용하였다. 7개의 인터 블록 모드들을 사용하였고 3개의 양자화 파라미터(QP=24, 28, 32)를 실험하였다. 또한 모든 실험은 3.25 GB 램을 갖는 인텔 펜티엄 코어 2 듀오 3.16 GHz에서 수행되었으며, 기타 부호화 파라미터들은 아래 표 5에 그 조건이 나타나 있다.H.264 / AVC J.M 12.4 was used to investigate the performance of the fast reference frame selection method according to the present invention. In the experiment, six video sequences with small to large motion, and AKIYO, BUS, COASTGUARD, FORMAN, MOBILE, and PARIS sequences with CIF size 352 × 288 were used. Seven interblock modes were used and three quantization parameters (QP = 24, 28, 32) were tested. In addition, all experiments were performed on the Intel Pentium Core 2 Duo 3.16 GHz with 3.25 GB of RAM. Other coding parameters are shown in Table 5 below.

Figure 112009056872180-pat00005
Figure 112009056872180-pat00005

성능을 비교하는데 사용된 것은 ΔPSNR(PSNR Difference), ΔBitrate(Bitrate Difference)이며, ΔTime(Time Difference) 또는 ΔME Time(Motion Estimation Difference)를 구하기 위해 다음 식을 사용하였다.ΔPSNR (PSNR Difference) and ΔBitrate (Bitrate Difference) were used to compare the performance. The following equation was used to calculate ΔTime (Time Difference) or ΔME Time (Motion Estimation Difference).

Figure 112009056872180-pat00006
Figure 112009056872180-pat00006

여기서, TimeRef .는 기준 방법에 의해 사용된 부호화 시간을 의미하고, TimeProp.는 본 발명의 방법에 의해 소요된 시간을 나타낸다. Where Time Ref . Means the encoding time used by the reference method, Time Prop. Represents the time spent by the method of the present invention.

본 발명에 의한 RD 및 속도 성능을 비교하기 위해, JM 기준 소프트웨어에 의한 고속 전역 탐색(Fast Full Search; FFS)기법이 기준 방법으로 사용되었다. 아래 표 6은 본 발명에 의한 부호화 성능과 종래 Kue's 알고리듬을 비교한 결과이다. In order to compare the RD and speed performance according to the present invention, a fast full search (FFS) technique by JM reference software was used as the reference method. Table 6 below is a result of comparing the coding performance according to the present invention with the conventional Kue's algorithm.

Figure 112009056872180-pat00007
Figure 112009056872180-pat00007

위 표들을 보면, 본 발명에 따른 방법은 이미지 품질에 있어 최소 손실과 무시할 수 있을 정도의 약간의 비트 상승을 가지면서도 고속 성능을 달성함을 알 수 있다. QP=24에서, Kue's 알고리듬은 기준 방법에 비해 부호화에 걸리는 시간은 평균 42% 감소하였고, PSNR이 평균 0.048dB의 손실이 있고 비트레이트가 2.29% 상승하였다. 이에 비해, 본 발명에 따른 방법은 부호화에 걸리는 시간이 평균 53%까지 감소했으며, PSNR에서 평균 0.045 dB의 손실이 있고 비트레이트는 평균 2.35% 증가하였다.Looking at the above tables, it can be seen that the method according to the invention achieves high speed performance with minimal loss in image quality and a negligible bit rise. At QP = 24, Kue's algorithm averaged 42% less time for coding than the reference method, with PSNR loss of 0.048dB on average and 2.29% bitrate. On the other hand, the method according to the present invention has reduced the encoding time by an average of 53%, an average loss of 0.045 dB in the PSNR, and an average 2.35% increase in the bit rate.

QP=28에서, Kue's 알고리듬은 부호화에 걸리는 시간은 평균 42% 감소하였고 PSNR이 평균 0.06dB의 손실이 있고, 비트레이트가 2.13% 상승하였다. 본 발명에 따른 방법은 부호화에 걸리는 시간이 평균 55%까지 감소했으며, PSNR에서 평균 0.006 dB의 손실이 있고 비트레이트는 평균 2.33% 증가하였다.At QP = 28, the Kue's algorithm reduced the average time to coding by 42%, lost PSNR by 0.06dB, and increased the bitrate by 2.13%. In the method according to the present invention, the time taken for coding is reduced by 55% on average, there is an average loss of 0.006 dB in PSNR, and the bit rate is increased by 2.33% on average.

QP=32에서, Kue's 알고리듬은 부호화에 걸리는 총 시간은 평균 43% 감소하였고 PSNR이 평균 0.09dB의 손실이 있고, 비트레이트가 1.24% 상승하였다. 본 발명에 따른 방법은 부호화에 걸리는 총 시간이 평균 58%까지 감소했으며, PSNR에서 평균 0.09 dB의 손실이 있고 비트레이트는 평균 1.85% 증가하였다.At QP = 32, the Kue's algorithm reduced the total time to coding by an average of 43%, the PSNR lost an average of 0.09dB, and the bitrate increased by 1.24%. In the method according to the present invention, the total time taken for coding was reduced by an average of 58%, an average loss of 0.09 dB in the PSNR, and an increase in the bit rate by 1.85%.

복잡도를 정확히 분석하기 위해, 각 방법에 사용되는 프레임의 복잡도를 비교하였으며, 구체적으로 4×4 블록에 대한 SAD 산출의 복잡도를 FFS 방법과 비교하였다. 사용된 프레임과 SAD 산출 간의 성능 비교를 아래 표 7에 도시하였다. In order to accurately analyze the complexity, the complexity of the frames used in each method was compared. Specifically, the complexity of the SAD calculation for 4 × 4 blocks was compared with that of the FFS method. The performance comparison between the frame used and the SAD calculation is shown in Table 7 below.

Figure 112009056872180-pat00008
Figure 112009056872180-pat00008

위 표에서 알 수 있듯이, 본 발명에 따른 방법은 사용된 프레임의 개수와 산출된 SAD의 측면에서 Kue's 알고리듬을 능가한다. As can be seen from the table above, the method according to the present invention outperforms Kue's algorithm in terms of the number of frames used and the calculated SAD.

도 9 내지 12는 Foreman과 Stefan 시퀀스에서 사용된 프레임과 RD 성능을 비교한 그래프이다. 이 도면들을 참조하면, 본 발명에 따른 방법이 RD 성능에 있어서 Kue's와 유사한 것을 알 수 있다. 그러나, 속도면에서 본 발명은 Kue's 알고리듬을 훨씬 능가한다. 9 to 12 are graphs comparing RD performance with frames used in Foreman and Stefan sequences. Referring to these figures, it can be seen that the method according to the invention is similar to Kue's in RD performance. However, in terms of speed, the present invention far exceeds Kue's algorithm.

이와 같이, 본 발명에 따른 이전 프레임의 움직임 추정에 사용된 참조 영역의 정보에 기반한 참조 프레임 선택 방법은 실험 결과를 통해 알 수 있듯이, 복잡도를 크게 감소시키는 반면 RD 손실이 거의 없어 좋은 성능을 보여주고 있다. As described above, the reference frame selection method based on the information of the reference region used for the motion estimation of the previous frame according to the present invention shows a good performance because the complexity is greatly reduced while there is almost no RD loss. have.

전술한 본 발명은 소프트웨어 알고리즘으로 구현 가능하며, 해당 알고리즘이 저장된 메모리, 해당 알고리즘이 실행되는 프로세서 등을 포함하는 장치에 의해서도 구현 가능하다. 또한, 영상을 처리하여 표시하는 모든 디스플레이에 적용 가능하다. The present invention described above may be implemented by a software algorithm, and may also be implemented by a device including a memory in which the algorithm is stored, a processor on which the algorithm is executed, and the like. It is also applicable to all displays which process and display an image.

특히, 본 발명은 비디오 압축기술을 사용하는 모든 어플리케이션, 예컨대, 모바일 방송을 지원하는 핸드폰 및 여러 DMB 플레이어, 카메라, HDTV, IPTV, PC 등 비디오 압축기술을 필요로 하는 많은 기기들에 적용될 수 있다. In particular, the present invention can be applied to all applications using the video compression technology, for example, a mobile phone supporting a mobile broadcast and many DMB players, cameras, HDTV, IPTV, PC, such as many devices that require a video compression technology.

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.Although some embodiments of the invention have been shown and described, it will be apparent to those skilled in the art that modifications may be made to the embodiment without departing from the spirit or spirit of the invention. . It is intended that the scope of the invention be defined by the claims appended hereto and their equivalents.

도 1은 H.264에서 다중 참조 프레임을 이용하는 것을 개략적으로 도시한 것이다.1 schematically illustrates the use of multiple reference frames in H.264.

도 2는 H.264의 7가지 가변 블록 크기의 움직임 예측 방식을 설명하기 위한 그림이다. 2 is a diagram for explaining a motion prediction method of seven variable block sizes of H.264.

도 3은 현재 매크로블록의 움직임 벡터에 의해 선택된 이전 프레임의 참조영역을 도시한 것이다.3 illustrates a reference region of a previous frame selected by the motion vector of the current macroblock.

도 4는 현재 매크로블록의 이전프레임에서의 참조영역을 4가지 타입으로 분류한 일 예를 도시한 것이다. 4 illustrates an example of dividing the reference region in the previous frame of the current macroblock into four types.

도 5는 연속하는 프레임들에서 참조영역의 시간적 복잡도의 변화의 일 예를 도시한 것이다. 5 illustrates an example of a change in temporal complexity of the reference region in successive frames.

도 6은 매크로블록의 특성의 변화를 검출하기 위한 다양한 참조영역들의 일 예를 도시한 것이다. 6 illustrates an example of various reference regions for detecting a change in characteristics of a macroblock.

도 7은 본 발명의 제1 실시예에 따른 적응적 참조 프레임 선택 방법의 흐름도이다.7 is a flowchart of an adaptive reference frame selection method according to a first embodiment of the present invention.

도 8은 본 발명의 제2 실시예에 따른 적응적 참조 프레임 선택 방법의 흐름도이다.8 is a flowchart of an adaptive reference frame selection method according to a second embodiment of the present invention.

도 9 내지 12는 Foreman과 Stefan 시퀀스에서 사용된 프레임과 RD 성능을 비교한 그래프이다. 9 to 12 are graphs comparing RD performance with frames used in Foreman and Stefan sequences.

Claims (7)

비디오 부호화를 위한 다중 참조 프레임 선택방법에 있어서,In the multiple reference frame selection method for video encoding, (a) 부호화하고자 하는 현재 매크로블록의 P16×16 블록 크기에 대한 움직임 추정을 이전 프레임들 중 적어도 하나를 대상으로 수행하는 단계; (a) performing motion estimation on a P16 × 16 block size of a current macroblock to be encoded to at least one of previous frames; (b) 상기 움직임 추정을 통해 선택된 참조영역의 최적 참조 프레임 정보로부터 시간적 복잡도를 산출하는 단계; 및calculating temporal complexity from the optimal reference frame information of the selected reference region through the motion estimation; And (c) 상기 시간적 복잡도에 따라 적응적으로 상기 현재 매크로블록의 후보 참조 프레임을 선택하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법. (c) adaptively selecting candidate reference frames of the current macroblock according to the temporal complexity. 제1항에 있어서,The method of claim 1, 상기 비디오 부호화를 위한 다중 참조 프레임 선택방법은, 상기 (c) 단계 이후에The multi-reference frame selection method for video encoding, after step (c) (d) 상기 현재 매크로블록의 모드를 결정하는 단계;(d) determining a mode of the current macroblock; (e) 상기 참조영역의 부호화 모드의 복잡도와 상기 현재 매크로블록의 부호화 모드의 복잡도를 비교하는 단계; (e) comparing the complexity of the encoding mode of the reference region with the complexity of the encoding mode of the current macroblock; (f) 상기 현재 매크로블록의 부호화 모드의 복잡도가 증가하는 경우, 상기 현재 매크로블록의 최적 참조 프레임 정보를 리셋하는 단계; 및resetting optimal reference frame information of the current macroblock when the complexity of the encoding mode of the current macroblock increases; And (g) 상기 현재 매크로블록의 최적 참조 프레임 정보와 모드의 정보를 저장하는 단계를 더 포함하는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법.and (g) storing optimal reference frame information and mode information of the current macroblock. 제2항에 있어서,The method of claim 2, 상기 (d) 단계에서 상기 부호화 모드는 CM_0, CM_1, CM_2, CM_3로 분류되고, 상기 CM_0는 SKIP모드로만 이루어진 경우, 상기 CM_1은 SKIP모드와 P16×16모드로 구성된 경우, 상기 CM_2는 P8×8블록 크기 이상의 블록 모드로 구성된 경우, 상기 CM_3은 P8×8블록 크기 미만의 블록 모드를 포함한 경우를 의미하며,In step (d), the encoding mode is classified into CM_0, CM_1, CM_2, and CM_3, and CM_0 consists of only SKIP mode, CM_1 consists of SKIP mode and P16 × 16 mode, and CM_2 is P8 × 8. When configured with a block mode of block size or more, the CM_3 is a case that includes a block mode of less than the P8 × 8 block size, 상기 (e) 단계에서 상기 부호화 모드의 복잡도는 CM_0, CM_1, CM_2, CM_3의 오름차순으로 증가하는 것으로 정의되는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법.In step (e), the complexity of the encoding mode is defined as increasing in ascending order of CM_0, CM_1, CM_2, and CM_3. 제3항에 있어서,The method of claim 3, 상기 (d) 단계는 상기 부호화 모드의 복잡도에 기초하여 모드를 결정하는 단계로서,Step (d) is a step of determining a mode based on the complexity of the encoding mode, 상기 참조영역의 부호화 모드가 상기 CM_0 또는 상기 CM_1인 경우, P16×16블록의 RD(Rate Distortion) 코스트를 구하여 상기 RD 코스트가 더 이상 감소하지 않는 프레임까지를 이용하여 나머지 블록모드의 모드 선택 과정을 수행하는 단계; 및When the coding mode of the reference region is the CM_0 or the CM_1, the RD (Rate Distortion) cost of the P16 × 16 block is obtained, and the mode selection process of the remaining block modes is performed using the frame up to which the RD cost is no longer reduced. Performing; And 상기 참조영역의 부호화 모드가 상기 CM_2 또는 상기 CM_3인 경우, P8×8 블록의 RD 코스트를 구하여 상기 RD 코스트가 더 이상 감소하지 않는 프레임까지를 이용하여 P8×4, P4×8, 및 P4×4 블록의 모드 선택과정을 수행하고, P16×16, P16×8, P8×16 블록은 P8×8 블록에서 선택된 참조 프레임에서 모드 선택 과정을 수행하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법.If the coding mode of the reference region is the CM_2 or the CM_3, P8 × 4, P4 × 8, and P4 × 4 are obtained by calculating the RD cost of the P8 × 8 block to the frame where the RD cost no longer decreases. Performing a mode selection process of the block, and the P16 × 16, P16 × 8, and P8 × 16 blocks include performing a mode selection process on a reference frame selected from the P8 × 8 block. How to select a reference frame. 제1항 내지 제4항 중 어느 하나의 항에 있어서,The method according to any one of claims 1 to 4, 상기 참조영역의 시간적 복잡도는 Region_0, Region_1, Region_2, Region_3으로 분류되고, 상기 Region_0은 상기 참조영역의 최적 참조 프레임이 ref0으로만 이루어진 경우, 상기 Region_1은 상기 참조영역의 최적 참조 프레임이 ref0, ref1로 이루어진 경우, 상기 Region_2는 상기 참조영역의 최적 참조 프레임이 ref0, ref1, ref2로 이루어진 경우, 상기 Region_3은 상기 참조영역의 최적 참조 프레임이 ref0, ref1, ref2, ref3, ref4로 이루어진 경우를 나타내는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법.The temporal complexity of the reference region is classified into Region_0, Region_1, Region_2, and Region_3, and in Region_0, if the optimal reference frame of the reference region consists only of ref0, Region_1 indicates that the optimal reference frame of the reference region is ref0, ref1. In this case, the Region_2 indicates that the optimal reference frame of the reference region is composed of ref0, ref1, ref2, and the Region_3 represents a case where the optimal reference frame of the reference region is composed of ref0, ref1, ref2, ref3, ref4. Multiple reference frame selection method for video encoding. (여기서, ref0, ref1, ref2, ref3, ref4는 이전 프레임과의 거리가 멀수록 인덱스 숫자가 커지도록 부여됨)(Here, ref0, ref1, ref2, ref3, ref4 are given so that the index number increases as the distance from the previous frame increases) 비디오 부호화를 위한 다중 참조 프레임 선택방법에 있어서,In the multiple reference frame selection method for video encoding, (a) 이전 프레임들에서 현재 매크로블록의 P16×16 블록 크기에 대한 움직임 추정을 수행하여 참조영역을 구하는 단계;(a) obtaining a reference region by performing motion estimation on a P16 × 16 block size of a current macroblock in previous frames; (b) 상기 참조영역의 시간적 복잡도에 대응하여 적응적으로 상기 현재 매크로블록의 후보 참조 프레임을 선택하는 단계; 및(b) adaptively selecting a candidate reference frame of the current macroblock corresponding to the temporal complexity of the reference region; And (c) 상기 참조영역의 부호화모드 복잡도와 현재 매크로블록의 부호화모드 복잡도를 비교하여 상기 현재 매크로블록의 부호화모드 복잡도가 증가하는 경우 상기 현재 매크로블록의 최적 참조 프레임 정보를 보정하는 단계를 포함하는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법. (c) comparing the encoding mode complexity of the reference region with the encoding mode complexity of the current macroblock and correcting optimal reference frame information of the current macroblock when the encoding mode complexity of the current macroblock increases. Multiple reference frame selection method for video encoding characterized in that. 제6항에 있어서,The method of claim 6, 상기 비디오 부호화를 위한 다중 참조 프레임 선택방법은, (d) 상기 현재 매크로블록의 모드를 결정하는 단계로서, 상기 참조영역의 부호화 모드 복잡도에 기초하여 각 모드에 대한 상기 후보 참조 프레임의 범위를 다시 한번 제한하는 단계를 더 포함하며, 상기 (d) 단계는 상기 (b) 단계와 상기 (c) 단계 사이에 수행되는 것을 특징으로 하는 비디오 부호화를 위한 다중 참조 프레임 선택방법. In the multi-reference frame selection method for video encoding, (d) determining a mode of the current macroblock, and once again the range of the candidate reference frame for each mode based on the encoding mode complexity of the reference region. The method further comprises the step of limiting, wherein step (d) is performed between step (b) and step (c).
KR1020090087359A 2009-09-16 2009-09-16 Multiple Reference Frame Selection Method for Video Coding KR101036137B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090087359A KR101036137B1 (en) 2009-09-16 2009-09-16 Multiple Reference Frame Selection Method for Video Coding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090087359A KR101036137B1 (en) 2009-09-16 2009-09-16 Multiple Reference Frame Selection Method for Video Coding

Publications (2)

Publication Number Publication Date
KR20110029608A KR20110029608A (en) 2011-03-23
KR101036137B1 true KR101036137B1 (en) 2011-05-23

Family

ID=43935471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090087359A KR101036137B1 (en) 2009-09-16 2009-09-16 Multiple Reference Frame Selection Method for Video Coding

Country Status (1)

Country Link
KR (1) KR101036137B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102290964B1 (en) 2014-02-19 2021-08-18 삼성전자주식회사 Video encoding device using adaptive search range and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728031B1 (en) 2006-01-23 2007-06-14 삼성전자주식회사 Method and apparatus for deciding encoding mode for variable block size motion estimation
KR20070084686A (en) * 2006-02-21 2007-08-27 (주)씨앤에스 테크놀로지 Fast multiple reference frame selection method in motion estimation for h.264 video encoding
KR20070115309A (en) * 2006-06-01 2007-12-06 동국대학교 산학협력단 Multi-reference frame omitting method to improve coding rate of h.264

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100728031B1 (en) 2006-01-23 2007-06-14 삼성전자주식회사 Method and apparatus for deciding encoding mode for variable block size motion estimation
KR20070084686A (en) * 2006-02-21 2007-08-27 (주)씨앤에스 테크놀로지 Fast multiple reference frame selection method in motion estimation for h.264 video encoding
KR20070115309A (en) * 2006-06-01 2007-12-06 동국대학교 산학협력단 Multi-reference frame omitting method to improve coding rate of h.264

Also Published As

Publication number Publication date
KR20110029608A (en) 2011-03-23

Similar Documents

Publication Publication Date Title
JP5743496B2 (en) Motion estimation method using multiple reference images
US7720148B2 (en) Efficient multi-frame motion estimation for video compression
Huang et al. Analysis and reduction of reference frames for motion estimation in MPEG-4 AVC/JVT/H. 264
RU2491758C2 (en) Video encoding by filter selection
US10178406B2 (en) Control of video encoding based on one or more video capture parameters
KR101213513B1 (en) Fast macroblock delta qp decision
JP2006519565A (en) Video encoding
US20100296579A1 (en) Adaptive picture type decision for video coding
US20100111182A1 (en) Digital video coding with interpolation filters and offsets
US20090257492A1 (en) Video data management
IL280228B2 (en) Video encoder, video decoder, and corresponding encoding and decoding methods
Chang et al. A novel approach to fast multi-frame selection for H. 264 video coding
KR20080089624A (en) System and method for fast motion estimation
US20090274211A1 (en) Apparatus and method for high quality intra mode prediction in a video coder
US20120008685A1 (en) Image coding device and image coding method
KR100929607B1 (en) Procedure for transcoding MPEG-2 main profile into H.264/AVC baseline profile
KR101036137B1 (en) Multiple Reference Frame Selection Method for Video Coding
JP4281667B2 (en) Image encoding device
KR100657277B1 (en) Method for selecting macro block type
WO2015015404A2 (en) A method and system for determining intra mode decision in h.264 video coding
KR100982652B1 (en) Video coding method using multiple reference frame and appraratus therefor
KR101051331B1 (en) Adaptive Fast Mode Decision Method Using Dynamic Threshold
Hsieh et al. Fast motion estimation algorithm for H. 264/MPEG-4 AVC by using multiple reference frame skipping criteria
KR100939280B1 (en) Video coding method using multiple reference frame and computer readable medium recording the method
CN117376551B (en) Video coding acceleration method and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140401

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160418

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee