KR20120004874A - Apparatus and method for upconverting frame rates of decoded video frames - Google Patents

Apparatus and method for upconverting frame rates of decoded video frames Download PDF

Info

Publication number
KR20120004874A
KR20120004874A KR1020100065583A KR20100065583A KR20120004874A KR 20120004874 A KR20120004874 A KR 20120004874A KR 1020100065583 A KR1020100065583 A KR 1020100065583A KR 20100065583 A KR20100065583 A KR 20100065583A KR 20120004874 A KR20120004874 A KR 20120004874A
Authority
KR
South Korea
Prior art keywords
frame
current block
occlusion section
preliminary
block
Prior art date
Application number
KR1020100065583A
Other languages
Korean (ko)
Other versions
KR101138922B1 (en
Inventor
정제창
민창기
오형철
이주현
Original Assignee
한양대학교 산학협력단
중앙대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단, 중앙대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020100065583A priority Critical patent/KR101138922B1/en
Publication of KR20120004874A publication Critical patent/KR20120004874A/en
Application granted granted Critical
Publication of KR101138922B1 publication Critical patent/KR101138922B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)

Abstract

PURPOSE: A device and a method for up-converting frame rates of decoded video frames are provided to generate an interpolated frame with high objective/subjective picture quality in a original frame standard. CONSTITUTION: An occlusion section setting unit(120) determines whether a current block which is included in an interpolation frame is a closed interval or not. If the current block is not a closed block, a preliminary frame generator(130) generates the current block from areas. A neighbor information matching unit(140) determines whether the neighboring information of a block inside a closed interval is matched to some part on at least one reference frame. A frame interpolation unit(150) restores a block in the closed interval by the part on the matched reference frame.

Description

복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치 및 방법{Apparatus and method for upconverting frame rates of decoded video frames}Apparatus and method for upconverting frame rates of decoded video frames}

본 발명은 비디오 압축 기술에 관한 것으로, 보다 상세하게는, 복원된 비디오의 프레임율을 향상(upconverting)시키기 위하여 프레임을 보간하는 기술에 관한 것이다.TECHNICAL FIELD The present invention relates to video compression techniques, and more particularly to techniques for interpolating frames in order to upconvert frame rates of reconstructed video.

인터넷을 포함한 정보통신 기술이 발달함에 따라 문자, 음성뿐만 아니라 화상통신이 증가하고 있다. 기존의 문자 위주의 통신 방식으로는 소비자의 다양한 욕구를 충족시키기에는 부족하며, 이에 따라 문자, 영상, 음악 등 다양한 형태의 정보를 수용할 수 있는 멀티미디어 서비스가 증가하고 있다. 멀티미디어 데이터는 그 양이 방대하여 대용량의 저장매체를 필요로 하며 전송 시에 넓은 대역폭을 필요로 한다. 따라서 문자, 영상, 오디오를 포함한 멀티미디어 데이터를 전송하기 위해서는 압축코딩기법을 사용하는 것이 필수적이다.As information and communication technology including the Internet is developed, not only text and voice but also video communication are increasing. Conventional text-based communication methods are not enough to satisfy various needs of consumers, and accordingly, multimedia services that can accommodate various types of information such as text, video, and music are increasing. The multimedia data has a huge amount and requires a large storage medium and a wide bandwidth in transmission. Therefore, in order to transmit multimedia data including text, video, and audio, it is essential to use a compression coding technique.

데이터를 압축하는 기본적인 원리는 데이터의 중복(redundancy) 요소를 제거하는 과정이다. 이미지에서 동일한 색이나 객체가 반복되는 것과 같은 공간적 중복이나, 동영상 프레임에서 인접 프레임이 거의 변화가 없는 경우나 오디오에서 같은 음이 계속 반복되는 것과 같은 시간적 중복, 또는 인간의 시각 및 지각 능력이 높은 주파수에 둔감한 것을 고려하여 지각적 중복을 제거함으로써 데이터를 압축할 수 있다. 일반적인 비디오 코딩 기법에 있어서, 시간적 중복은 모션 보상에 근거한 시간적 필터링(temporal filtering)에 의해 제거하고, 공간적 중복은 공간적 변환(spatial transform)에 의해 제거한다. 이와 같이 압축된 비디오 데이터는 다양한 전달 매체를 통하여 다양한 복원 장치(비디오 디코더)에 제공된다. 상기 복원 장치는 상기 압축된 비디오 데이터에 대하여 상기 압축 과정의 역에 해당하는 과정을 수행하여 복원된 비디오 영상을 얻게 된다.The basic principle of compressing data is to eliminate redundancy in the data. Spatial overlap, such as the same color or object repeating in an image, temporal overlap, such as when there is almost no change in adjacent frames in a movie frame, or the same note over and over in audio, or high frequency of human vision and perception Data can be compressed by removing perceptual redundancy, taking into account insensitiveness to. In general video coding techniques, temporal redundancy is eliminated by temporal filtering based on motion compensation, and spatial redundancy is eliminated by spatial transform. The compressed video data is provided to various reconstruction devices (video decoders) through various transmission media. The decompression device obtains a reconstructed video image by performing a process corresponding to an inverse of the compression process on the compressed video data.

그런데, 다양한 재생 장치 또는 어플리케이션의 요구에 따라서는, 복원된 비디오의 프레임율을 변경할 필요가 발생한다. 비디오 프레임율을 저하(downconverting)시키는 경우라면 프레임 스킵, 기타 다양한 방법으로 간단히 구현이 가능하지만, 비디오 프레임율을 향상(upconverting)시키는 경우라면 존재하지 않는 프레임을 보간하여야 하고 그 보간 결과 재생되는 영상이 사용자에게 얼마나 자연스럽게 보여질 수 있는가가 관건이다. 즉, 프레임율이 향상된 프레임이 원래의 비디오 코딩 단계에서 향상된 프레임율로 얻어진 프레임과의 차이가 최소화되도록 하는 것이 목적이라고 할 수 있다.However, according to the needs of various reproduction apparatuses or applications, there is a need to change the frame rate of the reconstructed video. If the video frame rate is downconverted, it can be easily implemented by skipping the frame or various other methods.However, if the video frame rate is upconverted, the non-existent frame must be interpolated. The key is how naturally it can be seen by the user. That is, the purpose is to minimize the difference between the frame with the improved frame rate and the frame obtained with the improved frame rate in the original video coding step.

전통적인 프레임율 향상(Frane Rate Up-Conversion, 이하 FRUC라고 함) 기술로는 프레임 반복(Frame Repetition, FR), 프레임 평균(Frame Averaging, FA), 선형 프레임 보간(Linear frame Interpolation, LI) 등이 있다. 그러나 이러한 기법들은 모션 벡터(Motion vector)를 고려하지 않기 때문에 복잡도가 낮고 쉽게 보간이 가능하다. 그러나 영상 포맷이 확장되거나 물체의 움직임이 클 경우에는 영상이 고르지 못하고 영상이 중복되는 고스트 현상(Ghost artifact)이 발생한다. 또한 블록 단위로 보간을 하기 때문에 블록간의 경계부분에서 블록화 현상(Block artifact)도 발생할 수 있다.Traditional frame rate up-conversion (FRUC) techniques include frame repetition (FR), frame averaging (FA), and linear frame interpolation (LI). . However, since these techniques do not consider motion vectors, they are low in complexity and easily interpolated. However, when the image format is expanded or the movement of the object is large, ghost artifacts occur in which the image is uneven and the image is overlapped. In addition, since block interpolation is performed, block artifacts may occur at the boundary between blocks.

이러한 문제점을 개선하기 위해, 모션 벡터를 고려한 모션 보상 FRUC(MC-FRUC) 기술이 연구되었다. MC-FRUC는 정확한 모션 벡터를 예측하는 것에 큰 비중을 두고, 보다 정확한 모션 벡터의 예측에 대한 방향으로 연구가 이루어졌다. MC-FRUC의 가장 기본적인 기술인 모션 보상 프레임 보간(Motion-Compensated Frame Interpolation, MCFI)은 현재 프레임을 중심으로 이전 프레임에서 획득한 모션 벡터를 이용하여 보간 프레임을 생성하는 방법이다. 그러나, MCFI는 움직임이 적은 영상에는 효율적으로 프레임 보간이 가능하지만 움직임이 클 경우에는 정확한 모션 벡터의 예측이 어렵다. 또한 블록 단위로 프레임 보간을 수행하기 때문에 블록과 블록의 경계부분은 고려되지 않기 때문에, 생성되는 영상에는 블록화 현상이 나타나게 된다.In order to improve this problem, motion compensation FRUC (MC-FRUC) technology considering motion vectors has been studied. The MC-FRUC is heavily focused on predicting accurate motion vectors, and research has been conducted toward more accurate motion vector prediction. Motion-Compensated Frame Interpolation (MCFI), which is the most basic technology of MC-FRUC, is a method of generating an interpolated frame using a motion vector obtained from a previous frame around a current frame. However, MCFI can efficiently interpolate frames with low motion, but when motion is large, it is difficult to predict accurate motion vectors. In addition, since frame interpolation is performed on a block basis, a block and a boundary portion of the block are not taken into account, and thus a blocking phenomenon appears in the generated image.

이러한 문제점을 해결하기 위해 중복 블록 모션 보상(Overlapped Block Motion Compensation, OBMC)이 제안된 바 있다. OBMC는 MCFI에서 발생하는 블록화 현상을 막기 위해 이웃하는 블록의 경계부분에 따른 모션 벡터값을 달리함으로써 보다 부드러운 효과를 얻는다. 그러나 경계 부분의 과도한 중복으로 인해 화질이 열화되는 문제점이 발생할 수 있다.In order to solve such a problem, an overlapped block motion compensation (OBMC) has been proposed. The OBMC obtains a smoother effect by varying the motion vector values along the boundary of neighboring blocks to prevent the blockage occurring in MCFI. However, there may be a problem that the image quality is degraded due to excessive overlap of the boundary portion.

본 발명은 상기한 필요성을 감안하여 창안된 것으로, 복원된 비디오의 프레임율을 향상시키기 위한, 보다 정밀한 프레임 보간 기술을 제공하는 것을 목적으로 한다.The present invention was devised in view of the above-described needs, and an object thereof is to provide a more precise frame interpolation technique for improving a frame rate of reconstructed video.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치에 있어서, 상기 복원된 비디오 프레임 중 적어도 하나의 참조 프레임이 갖는 모션 벡터를 기준으로, 복수의 참조 프레임 상에서 대응되는 영역들을 결정하고, 상기 대응되는 영역들 간의 유사성에 기초하여, 보간 프레임에 속하는 현재 블록이 폐색 구간인지 여부를 판단하는 폐색 구간 설정부; 상기 현재 블록이 폐색 구간이 아니면 상기 현재 블록을 상기 영역들로부터 생성하고 상기 현재 블록이 폐색 구간이면 비워두는 방식으로 예비 프레임을 생성하는 예비 프레임 생성부; 상기 폐색 구간에 포함되는 블록의 주변 정보가 상기 적어도 하나의 참조 프레임 상의 어느 부분에 매칭되는가를 판단하는 주변 정보 매칭부; 및 상기 보간 프레임을 생성하기 위하여, 상기 매칭된 참조 프레임 상의 부분에 의하여 상기 폐색 구간에 포함되는 블록을 복원하는 프레임 보간부를 포함한다.In the frame rate improving apparatus for improving the frame rate of the reconstructed video frame according to an embodiment of the present invention for achieving the technical problem, based on the motion vector of at least one reference frame of the reconstructed video frame A occlusion section setting unit configured to determine corresponding regions on a plurality of reference frames, and determine whether a current block belonging to an interpolation frame is a occlusion section based on similarities between the corresponding regions; A preliminary frame generation unit generating the preliminary frame by generating the current block from the regions if the current block is not the occlusion section and leaving it empty if the current block is the occlusion section; A peripheral information matching unit configured to determine which part of the at least one reference frame is the peripheral information of the block included in the occlusion section; And a frame interpolation unit for restoring a block included in the occlusion section by a portion on the matched reference frame to generate the interpolation frame.

상기 기술적 과제를 달성하기 위한 복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치에 있어서, 상기 복원된 비디오 프레임 중 제1 참조 프레임이 갖는 모션 벡터를 이용하여, 보간될 프레임의 현재 블록과 대응되는 상기 제1 참조 프레임 상의 제1 영역과 제2 참조 프레임 상의 제2 영역을 결정하고, 상기 제1 영역과 상기 제2 영역 간의 유사성에 기초하여 상기 현재 블록이 폐색 구간인지 여부를 판단하는 폐색 구간 설정부; 상기 현재 블록이 폐색 구간이 아닌 경우에는, 상기 현재 블록을 상기 제1 영역으로 대체함에 의하여 예비 프레임을 생성하는 예비 프레임 생성부; 상기 현재 블록이 폐색 구간인 경우에는, 상기 현재 블록의 주변 정보가 상기 제1 참조 프레임 상의 어느 부분에 매칭되는가를 판단하여, 상기 현재 블록에 대응되는 상기 제1 참조 프레임 상의 제3 영역을 결정하는 주변 정보 매칭부; 및 상기 현재 블록을 상기 제3 영역으로 대체함에 의하여 상기 현재 블록을 포함하는 프레임을 보간하는 프레임 보간부를 포함한다.In the frame rate improving apparatus for improving the frame rate of the reconstructed video frame for achieving the technical problem, using the motion vector of the first reference frame of the reconstructed video frame, and the current block of the frame to be interpolated Occlusion that determines a corresponding first region on the first reference frame and a second region on a second reference frame, and determines whether the current block is an occlusion section based on similarity between the first region and the second region. An interval setting unit; A preliminary frame generator configured to generate a preliminary frame by replacing the current block with the first area when the current block is not the occlusion section; When the current block is the occlusion period, determining which part of the neighboring information of the current block matches on the first reference frame to determine a third region on the first reference frame corresponding to the current block. Peripheral information matching unit; And a frame interpolation unit which interpolates a frame including the current block by replacing the current block with the third region.

상기 기술적 과제를 달성하기 위한 복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 방법에 있어서, 상기 복원된 비디오 프레임 중 적어도 하나의 참조 프레임이 갖는 모션 벡터를 기준으로, 복수의 참조 프레임 상에서 대응되는 영역들을 결정하는 단계; 상기 대응되는 영역들 간의 유사성에 기초하여, 보간 프레임에 속하는 현재 블록이 폐색 구간인지 여부를 판단하는 단계; 상기 현재 블록이 폐색 구간이 아니면 상기 현재 블록을 상기 영역들로부터 생성하고 상기 현재 블록이 폐색 구간이면 비워두는 방식으로 예비 프레임을 생성하는 단계; 상기 폐색 구간에 포함되는 블록의 주변 정보가 상기 적어도 하나의 참조 프레임 상의 어느 부분에 매칭되는가를 판단하는 단계; 및 상기 보간 프레임을 생성하기 위하여, 상기 매칭된 참조 프레임 상의 부분에 의하여 상기 폐색 구간에 포함되는 블록을 복원하는 단계를 포함한다.In the frame rate improving method for improving the frame rate of the reconstructed video frame to achieve the technical problem, based on a motion vector of at least one reference frame of the reconstructed video frame, corresponding on a plurality of reference frames Determining regions to be; Determining whether a current block belonging to an interpolation frame is an occlusion interval based on the similarity between the corresponding regions; Generating a preliminary frame by generating the current block from the areas if the current block is not a blockage period and leaving the blank if the current block is a blockage period; Determining which part of the at least one reference frame the peripheral information of the block included in the occlusion period matches; And restoring a block included in the occlusion section by a portion on the matched reference frame to generate the interpolated frame.

본 발명에 따르면 기존의 공개된 다양한 프레임 보간 기술에 비하여, 원본 프레임 기준으로 보다 높은 주관적/객관적 화질을 갖는 보간 프레임을 생성할 수 있는 효과가 있다.According to the present invention, an interpolation frame having higher subjective / objective image quality can be generated based on the original frame, compared to various conventional frame interpolation techniques.

도 1은 본 발명의 일 실시예에 따른 프레임율 향상 장치의 구성을 도시하는 블록도이다.
도 2 내지 도 5는 현재 블록을 기준으로 참조 프레임 상에서 대응되는 영역을 결정하는 방법을 보여주는 도면들이다.
도 6은 Foreman 시퀀스의 경우에 얻어지는 제1 예비 프레임 및 제2 예비 프레임의 예를 보여주는 도면이다.
도 7은, 도 6에 도시된 두 개의 예비 프레임들을 평균에 의하여 병합한 결과를 보여주는 도면이다.
도 8은 다양한 경우에 있어서 현재 블록의 주변 정보를 선택하는 예들을 보여주는 도면이다.
도 9는 현재 블록의 주변 정보(또는 참조 프레임 상에서 비교되는 영역의 주변 정보)를 히스토그램으로 표시한 예를 보여주는 도면이다.
도 10은 현재 블록에 대한 주변 정보와, 참조 프레임들 상에서 상기 현재 블록과 대응되는 영역들에 대한 주변 정보를 보여주는 도면이다.
1 is a block diagram showing the configuration of an apparatus for improving a frame rate according to an embodiment of the present invention.
2 to 5 are diagrams illustrating a method of determining a corresponding area on a reference frame based on a current block.
6 is a diagram illustrating examples of a first preliminary frame and a second preliminary frame obtained in the case of a foreman sequence.
FIG. 7 is a diagram illustrating a result of merging two preliminary frames illustrated in FIG. 6 by an average.
8 is a diagram illustrating examples of selecting peripheral information of a current block in various cases.
FIG. 9 is a diagram illustrating an example in which peripheral information of a current block (or peripheral information of an area compared on a reference frame) is displayed as a histogram.
FIG. 10 is a diagram illustrating peripheral information about a current block and neighboring information about regions corresponding to the current block on reference frames.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the art to which the present invention pertains. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

도 1은 본 발명의 일 실시예에 따른, 복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치(100)의 구성을 도시하는 블록도이다.1 is a block diagram illustrating a configuration of a frame rate improving apparatus 100 for improving a frame rate of a reconstructed video frame according to an embodiment of the present invention.

프레임율 향상 장치(100)는 폐색구간 설정부(120), 예비 프레임 생성부(130), 주변 정보 매칭부(140) 및 프레임 보간부(150)를 포함할 수 있으며, 비디오 디코더(110)를 더 포함할 수 있다. 만약, 프레임율 향상 장치(100)가 이미 복원된 비디오 영상을 입력받아 프레임율 향상 기능만 제공하는 방식으로 구현된다면, 비디오 디코더(110)는 포함되지 않을 수도 있다.The frame rate improving apparatus 100 may include a block section setting unit 120, a preliminary frame generation unit 130, a peripheral information matching unit 140, and a frame interpolation unit 150. It may further include. If the frame rate enhancing apparatus 100 is implemented in such a manner that only the frame rate enhancement function is received by receiving the reconstructed video image, the video decoder 110 may not be included.

비디오 디코더(110)는 입력된 비트스트림에 통상의 비디오 디코딩 기술을 적용하여 소정의 프레임율을 갖는 원래의 비디오 프레임을 복원한다. 상기 통상의 비디오 디코딩은 비디오 인코딩의 역에 해당하는 과정으로서, 역 엔트로피 부호화 단계, 역 양자화 단계, 역 변환 단계, 예측 복호화(인터 예측/인트라 예측 복호화) 단계를 포함하여 구성될 수 있는데, 이 과정은 당업계에서 통상의 지식을 가진 자라면 별도의 설명 없이도 이해할 수 있다. 비디오 디코더(110)에서 복원된 비디오 프레임들은 이후 프레임율 향상을 위하여, 폐색구간 설정부(120), 예비 프레임 생성부(130), 주변 정보 매칭부(140) 및 프레임 보간부(150)의 처리를 거친다. 비디오 디코더(110)에서 복원된 비디오 프레임은 보간하고자 하는 현재 프레임(이하, 보간 프레임이라고 함)에 대한 참조 프레임(통상, 현재 프레임과 인접한 프레임이 사용됨)으로 사용될 수 있다.The video decoder 110 applies conventional video decoding techniques to the input bitstream to recover the original video frame having a predetermined frame rate. The conventional video decoding is a process corresponding to the inverse of video encoding, and may include an inverse entropy encoding step, an inverse quantization step, an inverse transform step, and a prediction decoding (inter prediction / intra prediction decoding) step. Can be understood by those of ordinary skill in the art without any additional explanation. The video frames reconstructed by the video decoder 110 are then processed by the occlusion section setting unit 120, the preliminary frame generation unit 130, the peripheral information matching unit 140, and the frame interpolation unit 150 to improve the frame rate. Go through. The video frame reconstructed by the video decoder 110 may be used as a reference frame (typically, a frame adjacent to the current frame is used) for the current frame to be interpolated (hereinafter, referred to as interpolation frame).

폐색 구간 설정부(120)는 상기 복원된 비디오 프레임 중 적어도 하나의 참조 프레임이 갖는 모션 벡터를 기준으로, 복수의 참조 프레임 상에서 대응되는 영역들을 결정하고, 상기 대응되는 영역들 간의 유사성에 기초하여, 보간 프레임에 속하는 현재 블록이 폐색 구간인지 여부를 판단한다.The occlusion section setting unit 120 determines corresponding regions on a plurality of reference frames based on a motion vector of at least one reference frame among the reconstructed video frames, and based on similarities between the corresponding regions, It is determined whether the current block belonging to the interpolation frame is a occlusion section.

본 발명의 일 실시예에 따르면, 상기 적어도 하나의 참조 프레임은 상기 보간되는 프레임(보간 프레임)의 직전 프레임 또는 직후 프레임 중 적어도 하나를 의미하고, 상기 복수의 참조 프레임은 상기 직전 프레임 및 상기 직후 프레임을 의미한다. 또한, 본 발명의 바람직한 실시예에 따르면, 상기 참조 프레임(적어도 하나의 참조 프레임 및 복수의 참조 프레임)은 상기 보간 프레임의 직전 및 직후에 존재하는 2개의 프레임이다.According to an embodiment of the present invention, the at least one reference frame means at least one of a frame immediately before or immediately after the interpolated frame (interpolation frame), and the plurality of reference frames are the frame immediately preceding the frame and the frame immediately after the frame. Means. Further, according to a preferred embodiment of the present invention, the reference frame (at least one reference frame and a plurality of reference frames) is two frames immediately before and after the interpolation frame.

상기 대응되는 영역들 간의 유사성은 그 영역들 간의 절대 차이의 합(Sum of Absolute Difference, SAD)이 소정의 문턱값을 넘는가 여부에 의하여 결정될 수 있다. 다음의 도 2 내지 도 5는 이와 같이 SAD 계산의 대상이 되는 참조 프레임 상의 대응되는 영역을 결정하는 방법을 보여주는 도면이다.The similarity between the corresponding regions may be determined by whether the sum of absolute difference (SAD) of the regions exceeds a predetermined threshold. 2 to 5 are diagrams illustrating a method of determining a corresponding region on a reference frame that is an object of SAD calculation.

도 2는 참조 프레임들(21, 23) 중에서 직전 프레임(21)이 갖는 모션 벡터(27)를 이용한, 직전 프레임(21)과 직후 프레임(23) 간의 대응 관계를 보여주는 도면이다. 이 경우에는, 보간 프레임(22) 내에서 현재 보간하고자 하는 블록(25, 현재 블록)과, 직전 프레임(21)의 영역(24)과 직후 프레임(23)의 영역(26)은, 상기 직전 프레임(21)의 영역(24)이 갖는 모션 벡터(27)에 의하여 대응된다.FIG. 2 is a diagram illustrating a correspondence relationship between the immediately preceding frame 21 and the immediately following frame 23 using the motion vector 27 of the preceding frame 21 among the reference frames 21 and 23. In this case, the block 25 (current block) to be interpolated currently in the interpolation frame 22, the region 24 of the immediately preceding frame 21 and the region 26 of the immediately following frame 23 are the preceding frame. Corresponds to the motion vector 27 included in the area 24 of (21).

한편, 도 2와 마찬가지로, 도 3은 직후 프레임(23)이 갖는 모션 벡터(37)를 이용한, 직전 프레임(21)과 직후 프레임(23) 간의 대응 관계를 보여주는 도면이다. 이 경우에는, 현재 블록(25)과, 직전 프레임(21)의 영역(34)과 직후 프레임(23)의 영역(36)은, 상기 직후 프레임(23)의 영역(36)이 갖는 모션 벡터(37)에 의하여 대응된다.Meanwhile, similar to FIG. 2, FIG. 3 is a diagram illustrating a correspondence relationship between the immediately preceding frame 21 and the immediately following frame 23 using the motion vector 37 of the immediately after frame 23. In this case, the current block 25, the region 34 of the immediately preceding frame 21 and the region 36 of the immediately after frame 23 are the motion vectors of the region 36 of the immediately after frame 23. Corresponding to 37).

그런데, 도 2 및 도 3과 같은 방식으로 대응관계를 구하는 경우에는, 현재 블록(25)의 위치를 정확하게 통과하는 모션 벡터가 존재하지 않을 수도 있다. 이 경우에는 복잡한 근사 과정을 추가로 거쳐야 하므로 바람직하지 않은 오차가 발생될 수 있는 것이다.However, when obtaining a correspondence relationship in the same manner as in FIGS. 2 and 3, there may not be a motion vector that correctly passes the position of the current block 25. In this case, since an additional complex approximation process is required, undesirable errors may occur.

따라서, 도 4와 같이 현재 블록(25)과 같은 위치에 있는 직전 프레임(21) 상의 영역(44)이 갖는 모션 벡터(47)에 의하여, 직후 프레임(23) 상의 영역(46)이 대응되도록 할 수 있다. 이와 같은 방식을 사용하면, 현재 블록(25), 직전 프레임(21) 상의 영역(44) 및 직후 프레임 상의 영역(46)은 별도의 근사 과정 없이 간단히 대응 관계를 가질 수 있다. 도 4는 직전 프레임(21) 상의 영역(44)이 갖는 모션 벡터를 이용한 대응 관계를 나타낸 것과 마찬가지로, 도 5와 같이 직후 프레임(23) 상의 영역(56)이 갖는 모션 벡터(57)를 이용한 대응 관계도 가능함은 물론이다.Accordingly, as shown in FIG. 4, the region 46 on the frame 23 immediately after the motion vector 47 of the region 44 on the immediately preceding frame 21 at the same position as the current block 25 is to be corresponded. Can be. In this manner, the current block 25, the region 44 on the immediately preceding frame 21, and the region 46 on the immediately following frame may simply have a corresponding relationship without a separate approximation process. 4 shows the correspondence using the motion vector of the region 44 on the immediately preceding frame 21, the correspondence using the motion vector 57 of the region 56 on the immediately following frame 23 as shown in FIG. Of course, relationships are possible.

결과적으로, 직전 프레임(21)의 모션 벡터 또는 직후 프레임(23)의 모션 벡터에 의하여 직전 프레임(21) 및 직후 프레임(23) 간에는 대응되는 영역이 존재하게 되는 것이다. 폐색 구간 설정부(120)는 상기 대응되는 영역들에 대하여, SAD를 계산하고 이것이 상기 문턱값을 넘는가 여부에 의하여 상기 대응되는 영역들의 유사성을 판단한다. 즉, 상기 SAD가 상기 문턱값을 넘으면 대응되는 영역 간의 에러가 크므로 현재 블록에 대한 신뢰성이 낮고, 상기 SAD가 상기 문턱값을 넘지 않으면 대응되는 영역 간의 에러가 작으므로 현재 블록에 대한 신뢰성이 높다고 볼 수 있다.As a result, a corresponding region exists between the previous frame 21 and the immediately following frame 23 by the motion vector of the immediately preceding frame 21 or the motion vector of the immediately following frame 23. The occlusion section setting unit 120 calculates SAD for the corresponding areas, and determines similarity of the corresponding areas by whether or not this exceeds the threshold. That is, if the SAD exceeds the threshold, the error between the corresponding regions is large, so that the reliability of the current block is low. If the SAD does not exceed the threshold, the reliability of the current block is small, the reliability of the current block is high. can see.

따라서, 폐색 구간 설정부(120)는 후자와 같이 신뢰성이 높은 경우에는 현재 블록을 대응되는 영역들로 대체하지만, 전자와 같이 신뢰성이 낮은 경우에는 현재 블록을 단순히 폐색 구간으로 설정하는 것이다. 상기 폐색 구간은 아직까지 데이터가 기록되지 않은 영역이라는 의미이지만, 실제로는 0을 부여(프레임 상에서 검은색 사각형으로 표시됨)하여 다른 영역과 구별되도록 할 수 있다.Accordingly, the occlusion section setting unit 120 replaces the current block with corresponding areas when the reliability is high, but sets the current block as the occlusion section when the reliability is low, such as the former. The occlusion section means an area where no data has been recorded yet, but in practice, the occlusion section may be assigned with 0 (indicated by a black square on the frame) to distinguish it from other areas.

여기서, 상기 문턱값은 경험적으로 선택될 수도 있지만, 다양한 영상에 적합한 적응적인(adaptive) 값으로 설정되는 것이 보다 바람직할 것이다. 본 발명의 일 실시예에 따르면, 상기 문턱값은 상기 대응되는 영역들이 갖는 화소 값의 공분산(covariance)으로부터 얻어질 수 있다. 즉, 상기 공분산에 비례 상수를 곱한 값을 문턱값으로 이용할 수 있다.Here, the threshold may be selected empirically, but it may be more preferable to set the adaptive value suitable for various images. According to an embodiment of the present invention, the threshold value may be obtained from covariance of pixel values of the corresponding regions. That is, a value obtained by multiplying the covariance by a proportional constant may be used as a threshold.

한편, 도 1에서, 예비 프레임 생성부(130)는 상기 현재 블록이 폐색 구간이 아니면 상기 현재 블록을 상기 영역들로부터 생성하고 상기 현재 블록이 폐색 구간이면 비워두는(또는 0으로 채우는) 방식으로 예비 프레임을 생성한다. 전술한 바와 같이, 직전 프레임의 모션 벡터를 이용하여도 하나의 예비 프레임(제1 예비 프레임)이 생성될 수 있고, 직후 프레임의 모션 벡터를 이용하여도 다른 하나의 예비 프레임(제2 예비 프레임)이 생성될 수 있기 때문에, 예비 프레임은 2개가 존재할 수 있다.Meanwhile, in FIG. 1, the preliminary frame generation unit 130 generates the current block from the regions if the current block is not a blockage period and reserves (or fills with zeros) if the current block is a blockage period. Create a frame. As described above, one preliminary frame (first preliminary frame) may be generated using the motion vector of the immediately preceding frame, and another preliminary frame (second preliminary frame) may be generated even using the motion vector of the immediately following frame. Since this can be generated, there may be two spare frames.

도 6은 Foreman 시퀀스의 경우에 얻어지는 제1 예비 프레임(도 6의 (a)) 및 제2 예비 프레임(도 6의 (b))의 예를 보여주는 도면이다. 각각의 예비 프레임에는 각각 고유의 폐색 구간(검은색 사각형으로 표시됨)이 표시되어 있다. 각각의 예비 프레임에 있어서, 폐색 구간들은 다소 유사한 패턴을 보이기는 하지만 완전히 일치하지는 않는다. 이와 같이, 상기 생성된 예비 프레임이 복수인 경우에는, 예비 프레임 생성부(130)는 상기 복수의 예비 프레임을 평균함에 의하여 병합할 수 있다. 폐색 구간이 0의 값을 가지므로, 이와 같은 평균에 의한 병합의 의미는, 두 예비 프레임 간에 대응되는 화소들이 모두 폐색 구간에 속하면 병합된 프레임에서의 화소도 폐색 구간이 되고, 두 화소들 중 하나만 정상적인 화소를 가지면 병합된 프레임에서의 화소는 상기 정상적인 화소로 대체되며, 두 화소들 모두가 정상적인 화소를 가지면 병합된 프레임에서의 화소는 상기 정상적인 화소들의 평균으로 계산된다는 것을 의미한다. 도 6에 도시된 두 개의 예비 프레임들((a) 및 (b))을 평균에 의하여 병합한 결과(병합된 프레임)는 도 7에 도시되어 있다.FIG. 6 is a diagram illustrating examples of a first preliminary frame (FIG. 6A) and a second preliminary frame (FIG. 6B) obtained in the case of a foreman sequence. Each preliminary frame is marked with its own occlusion section (indicated by a black square). For each preliminary frame, the occlusion sections show a somewhat similar pattern but do not completely match. As described above, when the generated preliminary frames are plural, the preliminary frame generator 130 may merge the plurality of preliminary frames by averaging the plurality of preliminary frames. Since the occlusion section has a value of 0, the merging by the mean means that when all pixels corresponding to the two preliminary frames belong to the occlusion section, the pixels in the merged frame also become the occlusion section, and only one of the two pixels is included. With normal pixels, the pixels in the merged frame are replaced with the normal pixels. If both pixels have normal pixels, it means that the pixels in the merged frame are calculated as the average of the normal pixels. The result of merging two preliminary frames (a) and (b) shown in FIG. 6 by an average (merged frame) is shown in FIG. 7.

다시 도 1을 참조하면, 주변 정보 매칭부(140)는 상기 폐색 구간에 포함되는 블록(폐색 구간에 포함된 현재 블록)의 주변 정보가 상기 적어도 하나의 참조 프레임 상의 어느 부분에 매칭되는가를 판단한다. 특히, 상기 주변 정보 매칭부(140)는 상기 매칭 여부를 판단함에 있어서, 재차 SAD를 이용하는 것 보다는, 절대 히스토그램 차이의 합(Sum of Absolute Histogram Difference)을 이용하는 것이 바람직하다. 그렇지만, SAD를 비롯한 기타의 매칭 방법을 배제하는 것은 아니다.Referring back to FIG. 1, the neighbor information matching unit 140 determines which part of the at least one reference frame the peripheral information of the block included in the occlusion section (the current block included in the occlusion section) matches. . In particular, the surrounding information matching unit 140 may use the sum of absolute histogram differences rather than using SAD again to determine whether the matching is performed. However, this does not exclude SAD and other matching methods.

상기 주변 정보는 상기 폐색 구간에 포함되는 현재 블록(폐색 구간에 속함, 25)의 주변에 인접한, 소정의 참조 범위를 갖는 화소 값들로서, 도 8에 도시된 다양한 경우에 있어서 음영(81 내지 85)으로 표시된다.The peripheral information is pixel values having a predetermined reference range adjacent to the periphery of the current block (which belongs to the occlusion section 25) included in the occlusion section, and shades 81 to 85 in various cases illustrated in FIG. 8. Is displayed.

도 8의 (a) 내지 (e)는 각각 현재 블록(25)의 주변에 폐색 구간에 속하는 블록의 개수가 0 내지 4인 경우를 각각 나타낸다. 본 발명의 일 실시예에 있어서 상기 참조 범위는, 상기 폐색 구간에 포함되는 블록의 주변에 폐색 구간이 증가함에 따라 더 커진다. 현재 블록에 가장 인접한 화소들의 라인으로부터 멀어지는 화소들의 라인을 추가할수록 참조 범위가 커진다는 것을 의미한다. 예를 들어, 도 8의 (a) 내지 (e)의 경우 참조 범위는 각각 2 내지 6이다. 즉, 폐색 구간에 속하는 주변 블록의 수가 많아질수록 더 많은 참조 범위가 이용된다. 만약, 폐색 구간에 속하는 주변 블록의 수에 상관없이 일정한 참조 범위를 이용한다면 폐색 구간에 속하는 주변 블록의 수가 증가할수록 참조하는 주변 정보가 줄어들게 되므로 전체적으로 신뢰성이 낮아지게 될 것이다. 상기 매칭 과정에 있어서 이러한 주변 정보는 보간 프레임에서와, 참조 프레임에서 동일한 형태 및 개수로서 비교된다.8A to 8E show cases where the number of blocks belonging to the occlusion section in the vicinity of the current block 25 is 0 to 4, respectively. In one embodiment of the present invention, the reference range becomes larger as the occlusion section increases around the block included in the occlusion section. As the line of pixels further away from the line of the pixels closest to the current block is added, the reference range is increased. For example, in the case of FIGS. 8A to 8E, the reference ranges are 2 to 6, respectively. That is, as the number of neighboring blocks belonging to the occlusion section increases, more reference ranges are used. If a constant reference range is used regardless of the number of neighboring blocks belonging to the occlusion section, as the number of neighboring blocks belonging to the occlusion section increases, the surrounding information to be referred to decreases, thereby reducing the overall reliability. In the matching process, such peripheral information is compared in the interpolation frame and the same shape and number in the reference frame.

한편, 전술한 절대 히스토그램 차이의 합을 구하기 위해서는 먼저 다음의 도 9와 같은 히스토그램의 생성이 필요하다. 예를 들어, 현재 블록의 주변 정보(도 8에서 예시된 바와 같은 주변 정보)는 복수의 화소 값의 집합인데, 이를 N개의 Bin으로 나누어 각각의 빈도(frequency)를 표시하고, 마찬가지로 비교하고자 하는 참조 프레임 상의 영역의 주변 정보도 마찬가지로 이와 같이 표시한다. 상기 절대 히스토그램 차이의 합이란, 현재 블록의 주변 정보의 Bin과, 비교되는 참조 프레임 상의 주변 정보의 Bin 간의 차이의 절대값을 구하고(Binj (j=1, 2, ..., N)간의 차이), 이러한 절대값을 합한 결과를 의미한다.On the other hand, in order to obtain the sum of the above absolute histogram difference, it is first necessary to generate the histogram as shown in FIG. For example, the peripheral information of the current block (peripheral information as illustrated in FIG. 8) is a set of a plurality of pixel values, which are divided into N bins to indicate respective frequencies and similarly referred to as a reference. The peripheral information of the region on the frame is similarly displayed in this manner. The sum of the absolute histogram differences is obtained by calculating the absolute value of the difference between the bins of the neighboring information of the current block and the bins of the neighboring information on the compared reference frame (Bin j (j = 1, 2, ..., N) difference), means the result of the sum of these absolute values.

주변 정보 매칭부(140)는 이와 같은 절대 히스토그램 차이의 합이 최소가 되는 경우 현재 블록과 참조 프레임 상의 영역이 매칭되는 것으로 판단한다. 물론 이러한 매칭 여부를 검색하는 범위는 전술한 폐색 구간 판단 과정에서, 대응된다고 판단된 영역을 중심으로 한 소정 크기의 범위가 될 것이다. 이와 같은 매칭 과정을 통하여, 도 10에 예시된 바와 같이, 보간 프레임(22) 상의 현재 블록(25)에 대응되는 참조 프레임들(직전 및 직후 참조 프레임)(21, 23) 상에서 대응되는 영역들(91, 93)이 결정된다. 여기서, 현재 블록(25)에 대한 주변 정보(81)의 형태는, 대응되는 영역들(91, 93)에 대한 주변 정보(92, 94)의 형태와 동일하다.The peripheral information matching unit 140 determines that the current block matches the region on the reference frame when the sum of the absolute histogram differences becomes the minimum. Of course, the range for searching for such a match will be a range of a predetermined size centering on the region determined to correspond in the above-described occlusion section determination process. Through such a matching process, as illustrated in FIG. 10, regions corresponding to reference frames 21 and 23 corresponding to the current block 25 on the interpolation frame 22 (previous and immediately after reference frames) 21 and 23 ( 91, 93) is determined. Here, the shape of the peripheral information 81 for the current block 25 is the same as that of the peripheral information 92 and 94 for the corresponding areas 91 and 93.

다시 도 1을 참조하면, 프레임 보간부(150)는 상기 보간 프레임을 생성하기 위하여, 상기 매칭된 참조 프레임 상의 부분에 의하여 상기 폐색 구간에 포함되는 블록을 복원한다. 그런데, 전술한 예비 프레임이 복수인 경우에는, 프레임 보간부(150)는 상기 매칭되는 참조 프레임 상의 부분도 2개가 존재할 수가 있으므로, 프레임 보간부(150)는 매칭되는 제1 참조 프레임 상의 부분과, 매칭되는 제2 참조 프레임 상의 부분을 평균하여 최종적으로 폐색 구간을 복원할 수 있다. 결국 이와 같이, 기존의 병합된 예비 프레임 상에서 모든 폐색 구간을 복원하게 되면 최종적인 보간 프레임을 생성할 수 있게 된다.Referring back to FIG. 1, the frame interpolator 150 restores a block included in the occlusion section by a portion on the matched reference frame to generate the interpolation frame. However, when the above-described preliminary frames are plural, the frame interpolator 150 may also have two parts on the matched reference frame, so that the frame interpolator 150 may include a part on the matched first reference frame, The occlusion section may be finally restored by averaging portions on the matching second reference frame. As a result, when all the occlusion sections are restored on the existing merged preliminary frame, a final interpolation frame can be generated.

지금까지 도 1의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.Until now, each component of FIG. 1 may refer to software, or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and configured to execute one or more processors. The functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.

본 발명에 따른 효과를 검증하기 위해 기존에 알려진 LI, MCFI, OBMC 및 Robust-FRUC 등의 기술과 성능을 비교 분석하였으며, 그 결과는 다음의 표 1에 정리된다. 실험 영상은 모두 CIF(352x288) 크기이며, 예측되는 블록의 크기는 8x8로 고정하였고, 폐색 구간 판단을 위한 단계에서의 탐색 영역은 16x16으로 1/4픽셀까지 탐색하는 것으로 하였다. 이웃하는 블록의 정보를 이용하여 모션 벡터를 예측하는 단계에서의 탐색 영역은 이웃하는 블록의 모션 벡터의 중간값을 고려할 수 있도록 2x2로 설정된다.In order to verify the effect according to the present invention, the performance and performance of conventionally known technologies such as LI, MCFI, OBMC and Robust-FRUC were compared and analyzed, and the results are summarized in Table 1 below. The experimental images were all CIF (352x288) size, and the predicted block size was fixed at 8x8, and the search area in the step for judging the occlusion section was 16x16 and was searched up to 1/4 pixel. The search region in the step of predicting the motion vector using the information of the neighboring block is set to 2 × 2 so that the median value of the motion vector of the neighboring block can be considered.

비디오 시퀀스들Video sequences PSNRPSNR LILI MCFIMCFI OBMCOBMC Robust-FRUCRobust-FRUC 본 발명Invention ForemanForeman 29.309229.3092 32.733832.7338 33.140433.1404 33.489533.4895 34.482934.4829 BusBus 18.963618.9636 21.671521.6715 21.912221.9122 22.657522.6575 22.879822.8798 FlowerFlower 19.802219.8022 31.214731.2147 31.214731.2147 31.808031.8080 32.624232.6242 MobileMobile 24.696524.6965 29.299629.2996 29.299629.2996 30.809530.8095 31.804331.8043 ChildrenChildren 26.226326.2263 28.914528.9145 28.965028.9650 29.603229.6032 29.855929.8559 CityCity 24.075324.0753 29.500929.5009 29.800929.8009 30.153830.1538 30.765030.7650 ContainerContainer 41.899441.8994 43.331843.3318 43.380743.3807 43.402243.4022 43.610843.6108 FootballFootball 20.560520.5605 22.675722.6757 22.875122.8751 23.408223.4082 23.976423.9764 MonitorMonitor 36.380436.3804 36.818036.8180 36.964936.9649 37.336737.3367 37.689937.6899 SoccerSoccer 19.531619.5316 20.204520.2045 20.590320.5903 20.930620.9306 21.622321.6223 평균Average 27.868927.8689 31.222031.2220 31.461631.4616 31.904331.9043 32.268532.2685

상기 표 1은 본 발명에 따른 PSNR(Peak Signal-to-Noise Ratio)이 기존의 기술들보다 성능이 향상되었음을 보여준다. LI의 경우 다른 기술들에 비해 PSNR 성능이 현저히 떨어진다. OBMC는 기존의 MCFI의 블록화 현상을 개선하기 위한 방법으로써 PSNR 측면에서는 향상된 결과를 보이지만 전술한 바와 같이 과도한 블록의 중복으로 영상의 열화 현상이 발생한다. Robust-FRUC 역시 PSNR의 성능은 다소 향상되었지만 양방향의 움직임 정보를 이용하는 연산량의 증가에 비해 크게 향상된 결과를 얻을 수 없다. Table 1 shows that the Peak Signal-to-Noise Ratio (PSNR) according to the present invention is improved in performance over existing technologies. LI has significantly lower PSNR performance than other technologies. The OBMC is a method for improving the blockage phenomenon of the existing MCFI, but shows an improved result in terms of PSNR, but as described above, image degradation occurs due to excessive duplication of blocks. Robust-FRUC also slightly improves the performance of PSNR, but cannot achieve significantly improved results compared to the increase in the amount of computation using bidirectional motion information.

이에 반해, 본 발명에 따른 기술은 기존의 기술들에 비하여 상당히 향상된 결과를 보여준다. 본 발명에 따른 기술은, Foreman 과 Mobile 영상의 경우, MCFI 보다는 각각 1.4dB, 2.5dB 향상되었고, Robust-FRUC 보다는 0.99dB 정도 향상된 결과를 보여준다. 또한 Robust-FRUC와 비교하더라도 역시 평균적으로 0.6dB 정도 화질의 개선이 있었음을 알 수 있다.In contrast, the technique according to the invention shows significantly improved results compared to existing techniques. According to the present invention, Foreman and Mobile video are 1.4dB and 2.5dB higher than MCFI and 0.99dB higher than Robust-FRUC. In addition, even compared to Robust-FRUC, it can be seen that there was an improvement of image quality by 0.6dB on average.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.Although the embodiments of the present invention have been described above with reference to the accompanying drawings, those skilled in the art to which the present invention pertains may implement the present invention in other specific forms without changing the technical spirit or essential features thereof. I can understand that. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

100: 프레임율 향상 장치 110: 비디오 디코더
120: 폐색 구간 설정부 130: 예비 프레임 생성부
140: 주변 정보 매칭부 150: 프레임 보간부
100: frame rate enhancement device 110: video decoder
120: block section setting unit 130: preliminary frame generation unit
140: peripheral information matching unit 150: frame interpolation unit

Claims (16)

복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치에 있어서,
상기 복원된 비디오 프레임 중 적어도 하나의 참조 프레임이 갖는 모션 벡터를 기준으로, 복수의 참조 프레임 상에서 대응되는 영역들을 결정하고, 상기 대응되는 영역들 간의 유사성에 기초하여, 보간 프레임에 속하는 현재 블록이 폐색 구간인지 여부를 판단하는 폐색 구간 설정부;
상기 현재 블록이 폐색 구간이 아니면 상기 현재 블록을 상기 영역들로부터 생성하고 상기 현재 블록이 폐색 구간이면 비워두는 방식으로 예비 프레임을 생성하는 예비 프레임 생성부;
상기 폐색 구간에 포함되는 블록의 주변 정보가 상기 적어도 하나의 참조 프레임 상의 어느 부분에 매칭되는가를 판단하는 주변 정보 매칭부; 및
상기 보간 프레임을 생성하기 위하여, 상기 매칭된 참조 프레임 상의 부분에 의하여 상기 폐색 구간에 포함되는 블록을 복원하는 프레임 보간부를 포함하는 프레임율 향상 장치.
In the frame rate improving apparatus for improving the frame rate of the reconstructed video frame,
Based on a motion vector of at least one reference frame of the reconstructed video frame, corresponding regions are determined on a plurality of reference frames, and based on similarity between the corresponding regions, the current block belonging to the interpolated frame is occluded. An occlusion section setting unit determining whether the section is a section;
A preliminary frame generation unit generating the preliminary frame by generating the current block from the regions if the current block is not the occlusion section and leaving it empty if the current block is the occlusion section;
A peripheral information matching unit configured to determine which part of the at least one reference frame is the peripheral information of the block included in the occlusion section; And
And a frame interpolation unit for restoring a block included in the occlusion section by a portion on the matched reference frame to generate the interpolation frame.
제1항에 있어서,
상기 적어도 하나의 참조 프레임은 상기 보간되는 프레임의 직전 프레임 또는 직후 프레임 중 적어나 하나를 의미하고, 상기 복수의 참조 프레임은 상기 직전 프레임 및 상기 직후 프레임을 의미하는 프레임율 향상 장치.
The method of claim 1,
The at least one reference frame means at least one of a frame immediately before or immediately after the interpolated frame, and the plurality of reference frames mean the frame immediately before the frame and the frame immediately after the frame.
제1항에 있어서, 상기 유사성은
상기 대응되는 영역들 간의 절대 차이의 합(Sum of Absolute Difference)이 소정의 문턱값을 넘는가 여부에 의하여 결정되는 프레임율 향상 장치.
The method of claim 1, wherein the similarity
And a sum of absolute difference between the corresponding regions is determined by a predetermined threshold value.
제3항에 있어서, 상기 문턱값은
상기 대응되는 영역들이 갖는 화소 값의 공분산에 의하여 얻어지는 프레임율 향상 장치.
The method of claim 3, wherein the threshold is
And a frame rate improving device obtained by covariance of pixel values of the corresponding regions.
제1항에 있어서, 상기 예비 프레임 생성부는
상기 생성된 예비 프레임이 복수인 경우에는, 상기 복수의 예비 프레임을 평균함에 의하여 병합하는 프레임율 향상 장치.
The method of claim 1, wherein the preliminary frame generation unit
And when the generated preliminary frames are plural, merging the plurality of preliminary frames by averaging them.
제1항에 있어서, 상기 주변 정보 매칭부는
상기 매칭 여부를 판단함에 있어서, 절대 히스토그램 차이의 합(Sum of Absolute Histogram Difference)을 이용하는 프레임율 향상 장치.
The method of claim 1, wherein the peripheral information matching unit
The frame rate improving apparatus using the sum of the absolute histogram difference in determining the matching.
제1항에 있어서, 상기 주변 정보는
상기 폐색 구간에 포함되는 블록의 주변에 인접한, 소정의 참조 범위를 갖는 화소 값들인 프레임율 향상 장치.
The method of claim 1, wherein the surrounding information is
And a pixel value having a predetermined reference range adjacent to a block included in the occlusion section.
제7항에 있어서, 상기 참조 범위는
상기 폐색 구간에 포함되는 블록의 주변에 폐색 구간이 증가함에 따라 더 커지는 프레임율 향상 장치.
The method of claim 7, wherein the reference range is
The frame rate improving device is larger as the occlusion section increases around the block included in the occlusion section.
제1항에 있어서, 상기 프레임 보간부는
상기 생성된 예비 프레임이 복수인 경우에는, 상기 매칭된 참조 프레임 상의 부분들의 평균에 의하여 상기 블록을 복원하는 프레임율 향상 장치.
The method of claim 1, wherein the frame interpolation unit
And reconstructing the block by an average of portions on the matched reference frame when the generated preliminary frames are plural.
복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 장치에 있어서,
상기 복원된 비디오 프레임 중 제1 참조 프레임이 갖는 모션 벡터를 이용하여, 보간될 프레임의 현재 블록과 대응되는 상기 제1 참조 프레임 상의 제1 영역과 제2 참조 프레임 상의 제2 영역을 결정하고, 상기 제1 영역과 상기 제2 영역 간의 유사성에 기초하여 상기 현재 블록이 폐색 구간인지 여부를 판단하는 폐색 구간설정부;
상기 현재 블록이 폐색 구간이 아닌 경우에는, 상기 현재 블록을 상기 제1 영역으로 대체함에 의하여 예비 프레임을 생성하는 예비 프레임 생성부;
상기 현재 블록이 폐색 구간인 경우에는, 상기 현재 블록의 주변 정보가 상기 제1 참조 프레임 상의 어느 부분에 매칭되는가를 판단하여, 상기 현재 블록에 대응되는 상기 제1 참조 프레임 상의 제3 영역을 결정하는 주변 정보 매칭부; 및
상기 현재 블록을 상기 제3 영역으로 대체함에 의하여 상기 현재 블록을 포함하는 프레임을 보간하는 프레임 보간부를 포함하는 프레임율 향상 장치.
In the frame rate improving apparatus for improving the frame rate of the reconstructed video frame,
The first region on the first reference frame and the second region on the second reference frame corresponding to the current block of the frame to be interpolated are determined by using the motion vector of the reconstructed video frame. An occlusion section setting unit that determines whether the current block is an occlusion section based on a similarity between a first region and the second region;
A preliminary frame generator configured to generate a preliminary frame by replacing the current block with the first area when the current block is not the occlusion section;
When the current block is the occlusion period, determining which part of the neighboring information of the current block matches on the first reference frame to determine a third region on the first reference frame corresponding to the current block. Peripheral information matching unit; And
And a frame interpolation unit which interpolates a frame including the current block by replacing the current block with the third region.
복원된 비디오 프레임의 프레임율을 향상 시키기 위한 프레임율 향상 방법에 있어서,
상기 복원된 비디오 프레임 중 적어도 하나의 참조 프레임이 갖는 모션 벡터를 기준으로, 복수의 참조 프레임 상에서 대응되는 영역들을 결정하는 단계;
상기 대응되는 영역들 간의 유사성에 기초하여, 보간 프레임에 속하는 현재 블록이 폐색 구간인지 여부를 판단하는 단계;
상기 현재 블록이 폐색 구간이 아니면 상기 현재 블록을 상기 영역들로부터 생성하고 상기 현재 블록이 폐색 구간이면 비워두는 방식으로 예비 프레임을 생성하는 단계;
상기 폐색 구간에 포함되는 블록의 주변 정보가 상기 적어도 하나의 참조 프레임 상의 어느 부분에 매칭되는가를 판단하는 단계; 및
상기 보간 프레임을 생성하기 위하여, 상기 매칭된 참조 프레임 상의 부분에 의하여 상기 폐색 구간에 포함되는 블록을 복원하는 단계를 포함하는 프레임율 향상 방법.
In the frame rate improving method for improving the frame rate of the reconstructed video frame,
Determining corresponding regions on a plurality of reference frames based on a motion vector of at least one reference frame of the reconstructed video frame;
Determining whether a current block belonging to an interpolation frame is an occlusion interval based on the similarity between the corresponding regions;
Generating a preliminary frame by generating the current block from the areas if the current block is not a blockage period and leaving the blank if the current block is a blockage period;
Determining which part of the at least one reference frame the peripheral information of the block included in the occlusion period matches; And
Restoring a block included in the occlusion section by a portion on the matched reference frame to generate the interpolated frame.
제11항에 있어서, 상기 유사성은
상기 대응되는 영역들 간의 절대 차이의 합(Sum of Absolute Difference)이 소정의 문턱값을 넘는가 여부에 의하여 결정되는 프레임율 향상 방법.
The method of claim 11, wherein the similarity is
And a sum of absolute difference between the corresponding regions is determined by a predetermined threshold value.
제12항에 있어서, 상기 문턱값은
상기 대응되는 영역들이 갖는 화소 값의 공분산에 의하여 얻어지는 프레임율 향상 방법.
The method of claim 12, wherein the threshold is
And a frame rate improving method obtained by covariance of pixel values of the corresponding regions.
제11항에 있어서, 상기 매칭되는가를 판단하는 단계는
절대 히스토그램 차이의 합(Sum of Absolute Histogram Difference)을 계산하는 단계를 포함하는 프레임율 향상 방법.
12. The method of claim 11, wherein determining whether the match is
And calculating a sum of absolute histogram difference.
제11항에 있어서, 상기 주변 정보는
상기 폐색 구간에 포함되는 블록의 주변에 인접한, 소정의 참조 범위를 갖는 화소 값들인 프레임율 향상 방법.
The method of claim 11, wherein the surrounding information is
And a pixel value having a predetermined reference range adjacent to a block included in the occlusion section.
제15항에 있어서, 상기 참조 범위는
상기 폐색 구간에 포함되는 블록의 주변에 폐색 구간이 증가함에 따라 더 커지는 프레임율 향상 방법.
The method of claim 15, wherein the reference range is
The frame rate improving method is larger as the occlusion section increases around the block included in the occlusion section.
KR1020100065583A 2010-07-07 2010-07-07 Apparatus and method for upconverting frame rates of decoded video frames KR101138922B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100065583A KR101138922B1 (en) 2010-07-07 2010-07-07 Apparatus and method for upconverting frame rates of decoded video frames

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100065583A KR101138922B1 (en) 2010-07-07 2010-07-07 Apparatus and method for upconverting frame rates of decoded video frames

Publications (2)

Publication Number Publication Date
KR20120004874A true KR20120004874A (en) 2012-01-13
KR101138922B1 KR101138922B1 (en) 2012-05-14

Family

ID=45611266

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100065583A KR101138922B1 (en) 2010-07-07 2010-07-07 Apparatus and method for upconverting frame rates of decoded video frames

Country Status (1)

Country Link
KR (1) KR101138922B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170095671A (en) * 2016-02-15 2017-08-23 세종대학교산학협력단 A method for processing a video, a method and an apparatus for frame rate conversion
US10417943B2 (en) 2011-10-13 2019-09-17 Manufacturing Resources International, Inc. Transparent liquid crystal display on display case

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240023904A (en) * 2022-08-16 2024-02-23 주식회사 맨드언맨드 Method and device for generating semantic log of video

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4417918B2 (en) 2006-03-30 2010-02-17 株式会社東芝 Interpolation frame creation device, motion vector detection device, interpolation frame creation method, motion vector detection method, interpolation frame creation program, and motion vector detection program
KR100855976B1 (en) 2007-02-02 2008-09-02 삼성전자주식회사 Frame interpolate device for estimating motion by separating static object and moving object and frame interpolate method using the device
KR101418116B1 (en) * 2007-10-24 2014-07-09 고려대학교 산학협력단 Frame Interpolating Device and Frame Rate Up-Converting Apparatus having the same
KR101498124B1 (en) * 2008-10-23 2015-03-05 삼성전자주식회사 Apparatus and method for improving frame rate using motion trajectory

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417943B2 (en) 2011-10-13 2019-09-17 Manufacturing Resources International, Inc. Transparent liquid crystal display on display case
KR20170095671A (en) * 2016-02-15 2017-08-23 세종대학교산학협력단 A method for processing a video, a method and an apparatus for frame rate conversion

Also Published As

Publication number Publication date
KR101138922B1 (en) 2012-05-14

Similar Documents

Publication Publication Date Title
KR100957322B1 (en) Encoder assisted frame rate up conversion using various motion models
US8503528B2 (en) System and method for encoding video using temporal filter
US6862372B2 (en) System for and method of sharpness enhancement using coding information and local spatial features
JP5897419B2 (en) Preprocessor method and apparatus
US20150312575A1 (en) Advanced video coding method, system, apparatus, and storage medium
US11743475B2 (en) Advanced video coding method, system, apparatus, and storage medium
US20140247890A1 (en) Encoding device, encoding method, decoding device, and decoding method
US20060093232A1 (en) Unified metric for digital video processing (umdvp)
JP2009532741A6 (en) Preprocessor method and apparatus
KR20060043051A (en) Method for encoding and decoding video signal
US20110096151A1 (en) Method and system for noise reduction for 3d video content
KR101138922B1 (en) Apparatus and method for upconverting frame rates of decoded video frames
CN115442618A (en) Time domain-space domain self-adaptive video compression based on neural network
Naccari et al. Perceptually optimized video compression
Jung Comparison of video quality assessment methods
JP5701018B2 (en) Image decoding device
US7706440B2 (en) Method for reducing bit rate requirements for encoding multimedia data
Vetro et al. True motion vectors for robust video transmission
Anantrasirichai et al. Enhanced Spatially Interleaved Techniques for Multi-View Distributed Video Coding
WO2016193949A1 (en) Advanced video coding method, system, apparatus and storage medium
Lin et al. Improved HEVC video compression algorithm using low-complexity frame rate up conversion
CN101917628A (en) Whole-frame error concealment method based on adaptive block sizes
Boroczky et al. Post-processing of compressed video using a unified metric for digital video processing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160418

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee