KR100733966B1 - Apparatus and Method for Predicting Motion Vector - Google Patents

Apparatus and Method for Predicting Motion Vector Download PDF

Info

Publication number
KR100733966B1
KR100733966B1 KR1020060033048A KR20060033048A KR100733966B1 KR 100733966 B1 KR100733966 B1 KR 100733966B1 KR 1020060033048 A KR1020060033048 A KR 1020060033048A KR 20060033048 A KR20060033048 A KR 20060033048A KR 100733966 B1 KR100733966 B1 KR 100733966B1
Authority
KR
South Korea
Prior art keywords
motion vector
block
neighboring
unit
prediction
Prior art date
Application number
KR1020060033048A
Other languages
Korean (ko)
Other versions
KR20060108510A (en
Inventor
고성제
김재곤
최해철
홍진우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR20050030794 priority Critical
Priority to KR1020050030794 priority
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020060033048A priority patent/KR100733966B1/en
Publication of KR20060108510A publication Critical patent/KR20060108510A/en
Application granted granted Critical
Publication of KR100733966B1 publication Critical patent/KR100733966B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/53Multi-resolution motion estimation; Hierarchical motion estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/177Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a group of pictures [GOP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야 1. TECHNICAL FIELD OF THE INVENTION
본 발명은 움직임 벡터 예측 장치 및 방법에 관한 것임. The present invention relates to a motion vector prediction apparatus and method.
2. 발명이 해결하려고 하는 기술적 과제 2. The technical problem to be solved by the invention
본 발명은 MCTF 또는 계층적 B 픽쳐(Hierarchical B picture)와 같은 다단계 구조의 시간 스케일러빌리티를 지원하는 스케일러블 비디오 코딩/디코딩에 있어서, 이웃 단계의 움직임 벡터를 이용하여 현재 단계의 움직임 벡터를 예측함으로써, 움직임 벡터의 코딩 효율을 높일 수 있는 움직임 벡터 예측 장치 및 방법과 이를 이용한 동영상 부호화/복호화 장치를 제공하는데 그 목적이 있음.According to the present invention, in scalable video coding / decoding that supports temporal scalability of a multi-level structure such as MCTF or hierarchical B picture, a motion vector of a current step is predicted by using a motion vector of a neighboring step. It is an object of the present invention to provide a motion vector prediction apparatus and method for improving the coding efficiency of motion vectors and a video encoding / decoding device using the same.
3. 발명의 해결방법의 요지 3. Summary of Solution to Invention
본 발명은, 스케일러블 비디오 코딩을 지원하는 동영상 부호화 시스템에 있어서의 움직임 벡터 예측 장치로서, 부호화할 블록의 움직임 벡터를 생성하기 위한 움직임 추정부; 및 상기 부호화할 블록의 소정의 주변 블록 및 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 부호화할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터부를 포함함.The present invention provides a motion vector prediction apparatus in a video encoding system supporting scalable video coding, comprising: a motion estimator for generating a motion vector of a block to be encoded; And a predicted motion vector unit for generating a predicted motion vector of the block to be encoded using the motion vector of a predetermined neighboring block of the block to be encoded and a corresponding neighboring step block.
4. 발명의 중요한 용도 4. Important uses of the invention
본 발명은 동영상 코딩 시스템 등에 이용됨. The present invention is used in a video coding system.
동영상, MCTF, 계층적 B 픽쳐(Hierarchical B picture), 움직임 벡터 Video, MCTF, Hierarchical B Picture, Motion Vector

Description

움직임 벡터 예측 장치 및 방법{Apparatus and Method for Predicting Motion Vector}Apparatus and Method for Predicting Motion Vector
도 1은 스케일러블 비디오 코딩(Scalable Video Coding, SVC)에서 공간 스케일러빌리티를 제공하는 예를 보여주는 도면,1 is a diagram illustrating an example of providing spatial scalability in scalable video coding (SVC);
도 2는 SVC에서 MCTF를 이용하여 시간 스케일러빌리티를 제공하는 예를 보여주는 도면,2 is a diagram illustrating an example of providing time scalability using MCTF in SVC;
도 3은 SVC에서 계층적 B 픽쳐(Hierarchical B Pictures)를 이용하여 시간 스케일러빌리티를 제공하는 예를 나타내는 도면,3 is a diagram illustrating an example of providing temporal scalability using hierarchical B pictures in SVC;
도 4는 본 발명에 따른 동영상 부호화 장치의 일실시예 구성도,4 is a block diagram of an embodiment of a video encoding apparatus according to the present invention;
도 5는 도 4의 움직임 벡터 추출부의 일실시예 상세 구성도,5 is a detailed configuration diagram of an embodiment of the motion vector extractor of FIG. 4;
도 6은 본 발명에 따른 움직임 벡터 예측 과정에 대한 일실시예 흐름도,6 is a flowchart illustrating an embodiment of a motion vector prediction process according to the present invention;
도 7은 MCTF를 이용한 경우의 움직임 벡터의 일 예를 보여주는 도면,7 is a diagram illustrating an example of a motion vector when using an MCTF;
도 8은 계층적 B 픽쳐를 이용한 경우의 움직임 벡터의 일 예를 보여주는 도면,8 is a diagram illustrating an example of a motion vector when using a hierarchical B picture;
도 9는 본 발명에 따른 동영상 복호화 장치의 일실시예 구성도,9 is a block diagram of an embodiment of a video decoding apparatus according to the present invention;
도 10은 도 9의 움직임 벡터 복원부의 일실시예 상세 구성도이다.FIG. 10 is a detailed block diagram of an embodiment of a motion vector recovery unit of FIG. 9. FIG.
*도면 주요 부분에 대한 설명** Description of main parts of drawing *
110: 공간 필터링부 120: 조각화부110: spatial filtering unit 120: fragmentation unit
130: 움직임 벡터 추출부 140: 시간 필터링부130: motion vector extraction unit 140: time filtering unit
150: 공간 변환부 160: 양자화부150: spatial transform unit 160: quantization unit
170: 엔트로피 부호화부 180: 다중화부170: entropy encoder 180: multiplexer
본 발명은 움직임 벡터 예측 장치 및 방법에 관한 것으로, 더욱 상세하게는 스케일러블 비디오 코딩/디코딩 시스템에 있어서 움직임 벡터의 코딩 효율을 높이기 위한 움직임 벡터 예측 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for predicting motion vectors, and more particularly, to an apparatus and method for predicting motion vector for improving coding efficiency of motion vectors in a scalable video coding / decoding system.
현재 영상을 전송하는 매체가 다양한 전송속도를 가지고, 사용자마다 단말기의 해상도가 다르기 때문에 각 매체와 단말기에 맞는 전송률을 가지는 영상 데이터가 필요하다. 이를 위해 영상 데이터 제공자가 각 매체의 전송속도와 사용자의 해상도에 맞는 다수의 영상 데이터를 보유하여 제공하는 방법이 가능하지만, 이것은 저장 공간의 제약으로 인해 한계를 가진다. 하지만, 영상 데이터가 스케일러빌리티(scalability)를 가지는 영상 압축 표준으로 부호화되어 있다면 각 매체의 전송속도와 사용자의 해상도에 맞게 영상 데이터를 추출하여 사용자에게 제공될 수 있 다.Since a medium for transmitting a current video has various transmission speeds and different resolutions of a terminal for each user, image data having a data rate suitable for each medium and the terminal is required. To this end, it is possible for the image data provider to provide a plurality of image data corresponding to the transmission speed of each medium and the resolution of the user, but this is limited due to the limitation of the storage space. However, if the image data is encoded by an image compression standard having scalability, the image data may be extracted and provided to the user according to the transmission speed of each medium and the resolution of the user.
ISO/IEC와 ITU-T의 비디오 전문가들 모임인 JVT(Joint Video Team)에서는 스케일러빌리티를 제공하는 영상 압축 표준인 SVC(Scalable Video Coding)에 관한 표준화를 진행 중에 있다. SVC는 공간, 시간 및 화질에 대한 스케일러빌리티를 제공한다.Joint Video Team (JVT), a group of video experts from ISO / IEC and ITU-T, is working on standardizing Scalable Video Coding (SVC), a video compression standard that provides scalability. SVC provides scalability for space, time, and picture quality.
도 1은 스케일러블 비디오 코딩(Scalable Video Coding, SVC)에서 공간 스케일러빌리티를 제공하는 예를 보여주는 도면이다.FIG. 1 is a diagram illustrating an example of providing spatial scalability in scalable video coding (SVC).
기초 계층 (base layer)은 QCIF(Quarter Common Intermediate Format)/15Hz로 코딩하고, 제1 향상 계층은 CIF(Common Intermediate Format)/30Hz로 코딩하고, 제2 향상 계층은 4CIF/60Hz로 코딩한다. 이러한 방식으로 공간 스케일러빌리티를 제공한다.The base layer is coded in Quarter Common Intermediate Format (QCIF) / 15 Hz, the first enhancement layer is coded in Common Intermediate Format (CIF) / 30 Hz, and the second enhancement layer is coded in 4CIF / 60 Hz. In this way, spatial scalability is provided.
도 2는 SVC에서 MCTF를 이용하여 시간 스케일러빌리티를 제공하는 예이고, 도 3은 SVC에서 계층적 B 픽쳐(Hierarchical B Pictures)를 이용하여 시간 스케일러빌리티를 제공하는 예이다.FIG. 2 is an example of providing time scalability using MCTF in SVC, and FIG. 3 is an example of providing time scalability using hierarchical B pictures in SVC.
MCTF와 계층적 B 픽쳐(Hierarchical B Pictures)는 시간 스케일러빌리티( Scalability)를 제공하는 대표적인 기술이다. 계층적 B 픽쳐는 업데이트(update) 과정이 없는 MCTF이다. 상기 두 두면, 도 2와 3에서 1단계를 코딩하면 60Hz, 2단계를 코딩하면 30Hz, 3단계를 코딩하면 15Hz, 4단계를 코딩하면 7,5Hz를 제공한다.MCTF and Hierarchical B Pictures are representative technologies that provide temporal scalability. The hierarchical B picture is an MCTF without an update process. In both cases, in FIG. 2 and FIG. 3, 60Hz is coded in step 1, 30Hz is coded in step 2, 15Hz is coded in step 3, and 7,5Hz is coded in step 4.
종래의 MCTF와 계층적 B 픽쳐와 같이 다단계 구조를 가지는 기술에서 사용되 는 움직임 벡터 코딩은 기존의 영상 압축 표준에서와 마찬가지로 현재 단계의 주변 블록의 움직임 벡터를 사용하여 예측 값을 생성한 후, 그 예측 값과의 차이값을 코딩한다. Motion vector coding, which is used in multi-stage techniques such as conventional MCTF and hierarchical B pictures, generates prediction values using motion vectors of neighboring blocks in the current stage, as in the conventional video compression standard. Code the difference with the predicted value.
하지만, 이는 다단계 구조의 특성을 이용한 것이 아니다. 다단계 구조에서 이웃하는 단계의 움직임 벡터들은 많은 상관성을 가진다. 여기서, 이웃 단계라 함은 현재 단계에서 이용가능한 움직임 벡터 정보를 가지고 있는 상위 또는 하위 단계를 의미한다.However, this does not take advantage of the properties of the multilevel structure. In a multi-level structure, motion vectors of neighboring steps have much correlation. Here, the neighboring step means a higher or lower step having motion vector information available at the current step.
따라서, 종래의 방법은 현재 단계의 움직임 벡터와 많은 상관성을 가지는 이웃하는 단계의 움직임 벡터의 상관성을 이용하지 않으므로 최적의 코딩 효율을 제공하지 못하는 문제점이 있다.Therefore, the conventional method does not use the correlation of the motion vector of the neighboring step having much correlation with the motion vector of the current step, and thus does not provide the optimal coding efficiency.
본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, MCTF 또는 계층적 B픽쳐(Hierarchical B picture)와 같은 다단계 구조의 시간 스케일러빌리티를 지원하는 스케일러블 비디오 코딩/디코딩에 있어서, 이웃 단계의 움직임 벡터를 이용하여 현재 단계의 움직임 벡터를 예측함으로써, 움직임 벡터의 코딩 효율을 높일 수 있는 움직임 벡터 예측 장치 및 방법과 이를 이용한 동영상 부호화/복호화 장치를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above-mentioned problem. In the scalable video coding / decoding that supports temporal scalability of a multi-level structure such as MCTF or hierarchical B picture, a motion vector of a neighboring step is determined. It is an object of the present invention to provide a motion vector prediction apparatus and method for improving the coding efficiency of a motion vector by predicting a motion vector at the present stage, and a video encoding / decoding device using the same.
본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시 예에 의해 더욱 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. Also, it will be readily appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.
상기 목적을 달성하기 위한 본 발명의 방법은, 스케일러블 비디오 코딩을 지원하는 동영상 부호화 장치로서, 공간 스케일러빌리티를 제공하기 위하여 입력 영상으로부터 다양한 해상도의 계층별 영상들을 추출하여 각각 출력하기 위한 공간필터링부; 상기 계층별 영상을 입력받아 GOP(Group of Pictures) 단위로 구분하여 출력하기 위한 조각화부; 상기 조각화부로부터 GOP를 입력받아, 부호화할 블록의 움직임 벡터를 추출하고, 예측 움직임 벡터를 생성하여, 상기 움직임 벡터 및 예측 움직임 벡터의 차이값인 움직임 벡터 차분값을 계산하기 위한 움직임 벡터 추출부; 상기 GOP 영상을 입력받아 고주파와 저주파 프레임으로 분리하여 시간적 중복성을 감소시키기 위한 시간 필터링부; 상기 시간 필터링부로부터 분리된 프레임을 입력받아 변환하여 공간적 중복성을 제거한 변환 계수를 출력하기 위한 공간 변환부; 상기 변환 계수를 입력받아 양자화하기 위한 양자화부 및 상기 양자화된 변환 계수 및 상기 움직임 벡터 차분값을 입력받아 부호화하여 출력하기 위한 부호화부를 포함하되, 상기 움직임 벡터 추출부는, 부호화할 블록에 대응하는 이웃 단계의 움직임 벡터를 이용하여 부호화할 블록의 예측 움직임 벡터를 생성하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a video encoding apparatus that supports scalable video coding, and includes: a spatial filtering unit for extracting and outputting layers of various resolutions from an input image to provide spatial scalability; ; A fragmentation unit for receiving the hierarchical image and dividing the image into a GOP unit; A motion vector extractor configured to receive a GOP from the fragmentation unit, extract a motion vector of a block to be encoded, generate a predictive motion vector, and calculate a motion vector difference value that is a difference between the motion vector and the predicted motion vector; A time filtering unit for receiving the GOP image and separating the high frequency and low frequency frames to reduce temporal redundancy; A spatial transform unit for receiving a transformed frame separated from the temporal filtering unit and outputting a transform coefficient from which spatial redundancy is removed; A quantizer for receiving and transforming the transform coefficients, and an encoder for receiving and encoding the quantized transform coefficients and the motion vector difference value, wherein the motion vector extracting unit comprises: a neighboring step corresponding to a block to be encoded; A predictive motion vector of a block to be encoded is generated by using a motion vector of.
또한, 본 발명은, 스케일러블 비디오 코딩을 지원하는 동영상 부호화 시스템 에 있어서의 움직임 벡터 예측 장치로서, 부호화할 블록의 움직임 벡터를 생성하기 위한 움직임 추정부; 및 상기 부호화할 블록의 소정의 주변 블록 및 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 부호화할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터부를 포함하는 것을 특징으로 한다.The present invention also provides a motion vector prediction apparatus in a video encoding system supporting scalable video coding, comprising: a motion estimation unit for generating a motion vector of a block to be encoded; And a predicted motion vector unit for generating a predicted motion vector of the block to be encoded, using the motion vector of a predetermined neighboring block of the block to be encoded and a corresponding neighboring step block.
또한, 본 발명은, 스케일러블 비디오 코딩 또는 디코딩을 지원하는 동영상 시스템에 있어서의 움직임 벡터 예측 방법으로서, 움직임 벡터를 예측할 블록의 현재 단계 주변 블록의 움직임 벡터들을 추출하는 주변 블록 움직임 벡터 추출 단계; 상기 예측할 블록에 대응하는 이웃 단계 블록의 움직임 벡터를 추출하는 이웃 단계 움직임 벡터 추출 단계; 및 상기 주변 블록의 움직임 벡터 및 이웃 단계 블록의 움직임 벡터를 이용하여 상기 예측할 블록의 예측 움직임 벡터를 계산하는 예측 움직임 벡터 생성 단계를 포함하는 것을 특징으로 한다.In addition, the present invention provides a motion vector prediction method in a video system supporting scalable video coding or decoding, comprising: a peripheral block motion vector extraction step of extracting motion vectors of a neighboring block of a current step of a block to predict a motion vector; A neighboring step motion vector extracting step of extracting a motion vector of a neighboring step block corresponding to the block to be predicted; And a prediction motion vector generation step of calculating a prediction motion vector of the block to be predicted using the motion vector of the neighboring block and the motion vector of the neighboring step block.
또한, 본 발명은, 스케일러블 비디오 디코딩을 지원하는 동영상 복호화 장치로서, 비트스트림을 입력받아 해상도별로 역다중화하여 출력하기 위한 역다중화부; 각 해상도의 비트스트림을 입력받고 엔트로피 복호하여 텍스쳐 정보 및 움직임 벡터 차분값을 추출하는 엔트로피 복호화부; 상기 텍스쳐 정보를 역양자화하여 변환 계수를 출력하는 역양자화부; 공간적 변환을 역으로 수행하여 상기 변환 계수를 공간적 영역에서의 변환 계수로 역변환하는 역공간 변환부; 상기 움직임 벡터 차분값을 입력받고, 복호할 블록의 예측 움직임 벡터를 계산하여 상기 복호할 블록의 움직임 벡터를 복원하는 움직임 벡터 복원부 및 상기 움직임 벡터를 이용하여 상기 변환 계수를 역 시간 필터링하여 영상을 복원하는 역시간 필터링부를 포함하되, 상 기 움직임 벡터 복원부는, 상기 복호할 블록에 대응하는 이웃 단계의 움직임 벡터를 이용하여 복호화할 블록의 예측 움직임 벡터를 생성하는 것을 특징으로 한다.In addition, the present invention provides a video decoding apparatus that supports scalable video decoding, comprising: a demultiplexer for receiving a bitstream and demultiplexing and outputting the bitstream by resolution; An entropy decoder configured to receive bitstreams of each resolution and entropy decode to extract texture information and motion vector difference values; An inverse quantization unit for inversely quantizing the texture information and outputting a transform coefficient; An inverse spatial transform unit inversely transforming the transform coefficients into transform coefficients in a spatial domain by performing spatial transform inversely; The motion vector decompressor receives the motion vector difference value, calculates a predicted motion vector of the block to be decoded, and restores the motion vector of the block to be decoded. And a reconstructed inverse time filtering unit, wherein the motion vector reconstruction unit generates a predictive motion vector of a block to be decoded by using a motion vector of a neighboring step corresponding to the block to be decoded.
또한, 본 발명은, 스케일러블 비디오 디코딩을 지원하는 동영상 복호화 시스템에 있어서의 움직임 벡터 예측 장치로서, 복호할 블록의 소정의 주변 블록 및 이에 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 복호할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터 생성부 및 상기 예측 움직임 벡터 및 움직임 벡터 차분값을 가산하여 움직임 벡터를 복원하기 위한 움직임 벡터 가산부를 포함하는 것을 특징으로 한다.In addition, the present invention is a motion vector prediction apparatus in a video decoding system that supports scalable video decoding, the block to be decoded by using the motion vector of a predetermined neighboring block of the block to be decoded and the neighboring step block corresponding thereto. And a motion vector adder for generating a predicted motion vector, and a motion vector adder for reconstructing the motion vector by adding the predicted motion vector and the motion vector difference value.
이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다. 또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한, 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다. The following merely illustrates the principles of the invention. Therefore, those skilled in the art, although not explicitly described or illustrated herein, can embody the principles of the present invention and invent various devices that fall within the spirit and scope of the present invention. Furthermore, all conditional terms and embodiments listed herein are in principle clearly intended for the purpose of understanding the concept of the invention and are not to be limited to the specifically listed embodiments and states. Should be. In addition, it is to be understood that all detailed descriptions, including the principles, aspects, and embodiments of the present invention, as well as listing specific embodiments, are intended to include structural and functional equivalents of these matters. In addition, these equivalents should be understood to include not only equivalents now known, but also equivalents to be developed in the future, that is, all devices invented to perform the same function regardless of structure.
따라서, 프로세서 또는 이와 유사한 개념으로 표시된 기능 블록을 포함하는 도면에 도시된 다양한 소자의 기능은 전용 하드웨어뿐만 아니라 적절한 소프트웨어와 관련하여 소프트웨어를 실행할 능력을 가진 하드웨어의 사용으로 제공될 수 있다. 프로세서에 의해 제공될 때, 상기 기능은 단일 전용 프로세서, 단일 공유 프로세서 또는 복수의 개별적 프로세서에 의해 제공될 수 있고, 이들 중 일부는 공유될 수 있다. 또한, 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다. Accordingly, the functionality of the various elements shown in the figures, including functional blocks represented by a processor or similar concept, can be provided by the use of dedicated hardware as well as hardware capable of executing software in association with appropriate software. When provided by a processor, the functionality may be provided by a single dedicated processor, by a single shared processor or by a plurality of individual processors, some of which may be shared. In addition, the use of terms presented in terms of processor, control, or similar concept should not be interpreted exclusively as a citation of hardware capable of executing software, and without limitation, ROM for storing digital signal processor (DSP) hardware, software, and the like. (ROM), RAM, and non-volatile memory are to be understood to implicitly include. Other hardware for the governor may also be included.
상술한 목적, 특징 및 장점들은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 더욱 분명해 질 것이다. 본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. In describing the present invention, when it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 4는 본 발명에 따른 동영상 부호화 장치의 일실시예 구성도이다.4 is a diagram illustrating an embodiment of a video encoding apparatus according to the present invention.
도 4에 도시된 바와 같이, 본 발명에 따른 동영상 부호화 장치는 공간 필터링부(110), 조각화부(120), 움직임 벡터 추출부(130), 시간 필터링부(140), 공간 변환부(150), 양자화부(160), 엔트로피 부호화부(170) 및 다중화부(180)를 포함하 여 구성된다.As shown in FIG. 4, the video encoding apparatus according to the present invention includes a spatial filtering unit 110, a fragmentation unit 120, a motion vector extractor 130, a temporal filtering unit 140, and a spatial transform unit 150. , The quantization unit 160, the entropy encoding unit 170, and the multiplexing unit 180 are configured.
입력 영상은 공간 필터링부(110)에 의하여 여러 해상도를 가지는 계층별 영상들로 나뉘어 계층별 조각화부(120)로 각각 출력되며, 각 해상도의 계층별 영상은 이하 동일한 처리 과정을 갖는다.The input image is divided into hierarchical images having various resolutions by the spatial filtering unit 110, and outputted to the hierarchical fragmentation unit 120, and the hierarchical images of each resolution have the same processing.
조각화부(120)는 공간 필터링부(110)로부터 입력받은 영상을 부호화의 기본 단위인 GOP(Group of Pictures)로 구분하여 출력한다.The fragmentation unit 120 classifies and outputs an image received from the spatial filtering unit 110 into a group of pictures (GOP) which is a basic unit of encoding.
움직임 벡터 추출부(130)는 GOP로 구분된 영상을 입력받아, 시간 필터링에 사용될 움직임 벡터를 추출하고 움직임 벡터 차분값을 생성하여 엔트로피 부호화부(170)로 출력한다.The motion vector extractor 130 receives an image separated by a GOP, extracts a motion vector to be used for temporal filtering, generates a motion vector difference value, and outputs the motion vector difference to the entropy encoder 170.
도 5는 본 발명에 따른 움직임 벡터 추출부의 일실시예 상세 구성도이다.5 is a detailed block diagram of an embodiment of a motion vector extractor according to the present invention.
도 5에 도시된 바와 같이, 움직임 벡터 추출부(130)는 움직임 추정부(131), 예측 움직임 벡터 생성부(132) 및 움직임 벡터 차분부(133)를 포함하여 구성된다.As shown in FIG. 5, the motion vector extractor 130 includes a motion estimator 131, a predictive motion vector generator 132, and a motion vector difference unit 133.
움직임 추정부(131)는 움직임 벡터를 생성하여 예측 움직임 벡터 생성부(132) 및 시간 필터링부(140)로 출력한다.The motion estimator 131 generates a motion vector and outputs the motion vector to the predicted motion vector generator 132 and the temporal filter 140.
예측 움직임 벡터 생성부(132)는 예측 움직임 벡터를 생성하여 움직임 벡터 차분부(133)로 출력하고, 움직임 벡터 차분부(133)는 움직임 추정부(131)로부터 생성된 움직임 벡터와 예측 움직임 벡터 생성부(132)로부터 생성된 예측 움직임 벡터의 차분값인 움직임 벡터 차분값을 엔트로피 부호화부(170)로 출력한다.The predictive motion vector generator 132 generates a predicted motion vector and outputs the predicted motion vector to the motion vector differential unit 133, and the motion vector differential unit 133 generates the motion vector and the predictive motion vector generated from the motion estimation unit 131. The motion vector difference value, which is the difference value of the predicted motion vector generated from the unit 132, is output to the entropy encoder 170.
이하, 움직임 벡터 추출부(130)의 구체적인 동작을 도 6을 참조하여 상술한 다.Hereinafter, a detailed operation of the motion vector extractor 130 will be described with reference to FIG. 6.
도 6은 본 발명에 따른 움직임 벡터 예측 과정에 대한 일실시예 흐름도이다.6 is a flowchart illustrating a motion vector prediction process according to the present invention.
먼저, 움직임 추정부(131)는 현재 단계의 부호화할 블록의 움직임 벡터를 추출한다(610).First, the motion estimator 131 extracts a motion vector of a block to be encoded in the current step (610).
이어서, 예측 움직임 벡터 생성부(132)는 상기 부호화할 블록의 현재 단계의 주변 블록의 움직임 벡터들(cMV1, cMV2, … ,cMVn)을 추출한다(620).Next, the prediction motion vector generator 132 extracts motion vectors cMV1, cMV2,..., CMVn of the neighboring block of the current step of the block to be encoded (620).
이어서, 상기 부호화할 블록에 대응하는 이웃 단계의 블록을 검색한다(630). 이웃 단계는 시간 필터링 방법에 따라 현재 단계의 프레임 율보다 크거나 작을 수 있다. 하지만, 사용하는 시간 필터링 방법에 있어서 현재 단계에 대응하는 이웃 단계의 움직임 벡터들은 현재 단계의 움직임 벡터보다 먼저 알 수 있어야 한다. 도 7은 MCTF를 이용한 경우의 움직임 벡터의 일 예를 보여주는 도면이다. 도 7에 도시된 바와 같이, MCTF의 경우에는 3단계, 2단계 그리고 1단계 순으로 움직임 벡터 정보를 알 수 있다. 따라서, MCTF인 경우에는 1단계의 이웃하는 단계는 2단계가 된다. Next, a block of a neighboring step corresponding to the block to be encoded is searched (630). The neighboring step may be larger or smaller than the frame rate of the current step depending on the time filtering method. However, in the time filtering method used, the motion vectors of the neighboring steps corresponding to the current step must be known before the motion vectors of the current step. 7 is a diagram illustrating an example of a motion vector when using an MCTF. As shown in FIG. 7, in the case of the MCTF, the motion vector information may be known in the order of 3 steps, 2 steps, and 1 step. Therefore, in the case of the MCTF, the neighboring step of the first step becomes the second step.
이어서, 상기 이웃 단계의 대응 블록의 움직임 벡터(uMV1, uMv2, …, uMVm)를 추출하고(640), 필터링하여(660), 예측 움직임 벡터를 생성한다(660). 본 과정들(640~660)을 도 7을 참조하여 더욱 상세히 설명하면 다음과 같다. 도 7의 예에서 2단계의 움직임 벡터 MVF 2 ,1에 대응하는 1단계의 움직임 벡터는 MVF 1 , 0와 MVB 1 , 0 이다. 상기 두 벡터는 현재 단계의 벡터와 같은 프레임 율에 맞춰 주기 위해 필터링 과정이 적용되며, 필요에 따라 그 부호가 변경된다. 도 7의 예에서 상기 두 벡터는 2 x MVF 1,0와 -2 x MVB 1 , 0로 변경된다. 현재 단계의 부호화할 블록의 주변 블록의 움직임 벡터와 위의 두 벡터를 사용하여 예측 움직임 벡터(pMV)를 아래의 수학식 1을 이용하여 구한다.Subsequently, the motion vectors uMV1, uMv2,..., UMVm of the corresponding block of the neighboring step are extracted (640), filtered (660), and a predicted motion vector is generated (660). The processes 640 to 660 will be described in more detail with reference to FIG. 7 as follows. In the example of FIG. 7, the motion vectors of the first stage corresponding to the motion vectors of the two stages MV F 2 , 1 are MV F 1 , 0 and MV B 1 , 0 . The filtering process is applied to the two vectors to match the same frame rate as the vector of the current stage, and the sign is changed as necessary. In the example of FIG. 7, the two vectors are changed to 2 × MV F 1,0 and −2 × MV B 1 , 0 . A prediction motion vector (pMV) is obtained by using Equation 1 below using the motion vector of the neighboring block of the block to be encoded in the current step and the above two vectors.
Figure 112006025223903-pat00001
Figure 112006025223903-pat00001
이어서, 움직임 벡터 차분부(133)는 상기 부호화할 블록의 움직임 벡터와 상기 예측 움직임 벡터의 차분값(MV - pMV)을 생성하여 엔트로피 부호회부(160)로 출력하여 엔트로피 부호화하도록 한다(670).Subsequently, the motion vector difference unit 133 generates difference values (MV-pMV) between the motion vector of the block to be encoded and the predicted motion vector, and outputs the difference values to the entropy coder 160 to perform entropy encoding (670).
도 8은 계층적 B 픽쳐(Hierarchical B Picturs)를 사용한 경우에 움직임 벡터 정보를 보여준다. 계층적 B 픽쳐인 경우에도 MCTF와 마찬가지로 3단계, 2단계 그리고 1단계 순으로 움직임 벡터 정보를 알 수 있다. 따라서, pMV를 구하는 과정은 전술한 MCTF 예와 동일한 과정이 적용된다.8 illustrates motion vector information when hierarchical B picturs are used. In the case of hierarchical B pictures, like the MCTF, the motion vector information can be known in the order of 3 steps, 2 steps, and 1 step. Therefore, the same process as the above-described MCTF example is applied to the process of obtaining pMV.
다시 도 4를 참조하여 동영상 부호화 장치의 나머지 구성 요소들에 대하여 설명하면 다음과 같다.Referring to FIG. 4, the remaining components of the video encoding apparatus will be described below.
시간 필터링부(140)는 GOP의 영상들을 고주파와 저주파 프레임으로 분리시켜 코딩하여 시간적 중복성을 감소시킨다. 시간 필터링 방법으로는 MCTF와 Hierarchical B Pictures등이 있다. The temporal filtering unit 140 separates and codes the images of the GOP into high frequency and low frequency frames to reduce temporal redundancy. Temporal filtering methods include MCTF and Hierarchical B Pictures.
공간 변환부(150)는 각 프레임에 대하여, DCT 변환(Discrete Cosine Transform) 또는 웨이블릿 변환 (Wavelet Transform)을 사용하여 공간적 중복성을 제거한다. 또한, 하위 계층의 텍스쳐 정보를 획득하여 계층별 공간적 중복성도 제거한다. 이러한 공간적 변환 결과에 의해 구해지는 계수들을 변환 계수라고 한다.The spatial transform unit 150 removes spatial redundancy for each frame by using a discrete cosine transform or a wavelet transform. In addition, by obtaining texture information of the lower layer, spatial redundancy of each layer is also removed. The coefficients obtained by the spatial transform result are called transform coefficients.
양자화부(160)는 공간 변환부(150)로부터 상기 변환 계수를 입력받아 양자화하여 엔트로피 부호화부(170)로 출력한다. The quantization unit 160 receives the transform coefficients from the spatial transform unit 150 and quantizes them and outputs them to the entropy encoder 170.
엔트로피 부호화부(170)는 상기 양자화된 변환 계수 및 움직임 벡터 차분값을 무손실 부호화하여 비트 스트림으로 출력한다.The entropy encoder 170 losslessly encodes the quantized transform coefficients and the motion vector difference value and outputs them as a bit stream.
다중화부(180)는 스케일러빌리티가 제공되도록 각 해상도의 계층별 비트스트림들을 다중화한다.The multiplexer 180 multiplexes the bitstreams of each resolution layer to provide scalability.
도 9는 본 발명에 따른 동영상 복호화 장치의 일실시예 구성도이다.9 is a block diagram of an embodiment of a video decoding apparatus according to the present invention.
도 9에 도시된 바와 같이, 본 발명에 따른 동영상 복호화 장치는 스케일러블 비디오 디코딩을 지원하는 동영상 복호화 장치로서, 역다중화부(210), 엔트로피 복호화부(220), 움직임 벡터 복원부(230), 역양자화부(240), 역공간 변환부(250) 및 역시간 필터링부(260)를 포함하여 구성되며, 상기 역다중화부(210)를 제외한 나머지 구성요소들은 계층별로 각각 설치되어 동일하게 동작한다.As shown in FIG. 9, the video decoding apparatus according to the present invention is a video decoding apparatus that supports scalable video decoding, including a demultiplexer 210, an entropy decoder 220, a motion vector reconstruction unit 230, The inverse quantization unit 240, the inverse spatial transform unit 250, and the inverse time filtering unit 260 are configured, and the other components except the demultiplexer 210 are installed in layers and operate in the same manner. .
역다중화부(210)는 입력된 비트스트림을 역다중화하여 여러 공간 해상도를 제공하는 계층별 비트스트림으로 분리하여 계층별 엔트로피 부호화부(220)로 출력 한다.The demultiplexer 210 demultiplexes the input bitstream into a bitstream for each layer providing various spatial resolutions and outputs the bitstream to the entropy encoder 220 for each layer.
엔트로피 복호화부(220)는 입력된 비트스트림을 복호화하여 텍스쳐 정보 및 움직임 벡터 차분값을 추출하여 각각 출력한다.The entropy decoder 220 extracts the texture information and the motion vector difference value by decoding the input bitstream and outputs the texture information and the motion vector difference.
역양자화부(240)는 상기 추출된 텍스처 정보를 역 양자화하여 변환 계수를 출력한다. The inverse quantizer 240 inversely quantizes the extracted texture information and outputs a transform coefficient.
역공간변환부(250)는 공간적 변환을 역으로 수행하여, 상기 변환계수들을 공간적 영역에서의 변환계수로 역변환한다. The inverse spatial transform unit 250 performs a spatial transform inversely, and inversely transforms the transform coefficients into transform coefficients in the spatial domain.
움직임 벡터 복원부(230)는 엔트로피 복호화부(220)로부터 입력받은 상기 움직임 벡터 차분값을 이용하여 역시간 필터링부에서 사용될 움직임 벡터들을 생성한다.The motion vector reconstruction unit 230 generates motion vectors to be used in the inverse time filtering unit by using the motion vector difference value received from the entropy decoding unit 220.
역시간 필터링부(260)는 움직임 벡터 복원부(230)로부터 상기 움직임 벡터를 입력받아, 상기 공간적 영역에서의 변환 계수, 즉 시간적 차분 이미지를 상기 움직임 벡터를 이용하여 역시간 필터링하여 출력 영상을 제공한다. The inverse time filtering unit 260 receives the motion vector from the motion vector reconstruction unit 230, and provides an output image by performing inverse time filtering on the transform coefficient in the spatial domain, that is, the temporal difference image using the motion vector. do.
도 10은 본 발명에 따른 움직임 벡터 복원부의 일실시예 상세 구성도이다.10 is a detailed configuration diagram of an embodiment of a motion vector recovery unit according to the present invention.
도 10에 도시된 바와 같이, 움직임 벡터 복원부(230)는 예측 움직임 벡터 생성부(231) 및 움직임 벡터 가산부(232)를 포함한다.As shown in FIG. 10, the motion vector reconstructor 230 includes a predicted motion vector generator 231 and a motion vector adder 232.
예측 움직임 벡터 생성부(231)의 동작은 도 5의 예측 움직임 벡터 생성부(132)의 동작과 동일하다. 움직임 벡터 가산부(232)는 엔트로피 복호화부(220)로부터 입력받은 움직임 벡터 차분값과 상기 예측 움직임 벡터 생성부(132)에서 생성 한 예측 움직임 벡터값을 가산하여 움직임 벡터를 복원한다.The operation of the prediction motion vector generator 231 is the same as the operation of the prediction motion vector generator 132 of FIG. 5. The motion vector adder 232 reconstructs the motion vector by adding the motion vector differential value received from the entropy decoder 220 and the predicted motion vector value generated by the predicted motion vector generator 132.
 이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하다는 것이 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어서 명백하다 할 것이다.The present invention described above is not limited to the above-described embodiments and the accompanying drawings, and various substitutions, modifications, and changes are possible in the art without departing from the technical spirit of the present invention. It will be clear to those of ordinary knowledge.
본 발명은 MCTF 또는 계층적 B픽쳐(Hierarchical B picture)와 같은 다단계 구조의 비디오 코딩 시스템에 적용되어, 이웃 단계의 움직임 벡터를 이용하여 현재 단계의 움직임 벡터를 예측함으로써 움직임 벡터의 코딩 효율을 높일 수 있는 효과가 있다.The present invention is applied to a video coding system having a multi-level structure such as an MCTF or a hierarchical B picture, and can increase the coding efficiency of the motion vector by predicting the motion vector of the current step using the motion vector of the neighboring step. It has an effect.

Claims (14)

  1. 스케일러블 비디오 코딩을 지원하는 동영상 부호화 장치로서,A video encoding apparatus supporting scalable video coding,
    공간 스케일러빌리티를 제공하기 위하여 입력 영상으로부터 다양한 해상도의 계층별 영상들을 추출하여 각각 출력하기 위한 공간필터링부;A spatial filtering unit for extracting and outputting images of layers having various resolutions from the input image to provide spatial scalability;
    상기 계층별 영상을 입력받아 GOP(Group of Pictures) 단위로 구분하여 출력하기 위한 조각화부;A fragmentation unit for receiving the hierarchical image and dividing the image into a GOP unit;
    상기 조각화부로부터 GOP를 입력받아, 부호화할 블록의 움직임 벡터를 추출하고, 예측 움직임 벡터를 생성하여, 상기 움직임 벡터 및 예측 움직임 벡터의 차이값인 움직임 벡터 차분값을 계산하기 위한 움직임 벡터 추출부;A motion vector extractor configured to receive a GOP from the fragmentation unit, extract a motion vector of a block to be encoded, generate a predictive motion vector, and calculate a motion vector difference value that is a difference between the motion vector and the predicted motion vector;
    상기 GOP 영상을 입력받아 고주파와 저주파 프레임으로 분리하여 시간적 중복성을 감소시키기 위한 시간 필터링부;A time filtering unit for receiving the GOP image and separating the high frequency and low frequency frames to reduce temporal redundancy;
    상기 시간 필터링부로부터 분리된 프레임을 입력받아 변환하여 공간적 중복성을 제거한 변환 계수를 출력하기 위한 공간 변환부;A spatial transform unit for receiving a transformed frame separated from the temporal filtering unit and outputting a transform coefficient from which spatial redundancy is removed;
    상기 변환 계수를 입력받아 양자화하기 위한 양자화부 및A quantizer for receiving the transform coefficients and quantizing the transform coefficients;
    상기 양자화된 변환 계수 및 상기 움직임 벡터 차분값을 입력받아 부호화하여 출력하기 위한 부호화부Encoder for receiving the encoded quantized transform coefficients and the motion vector difference value, encoded and output
    를 포함하되,Including but not limited to:
    상기 움직임 벡터 추출부는,The motion vector extractor,
    부호화할 블록에 대응하는 이웃 단계의 움직임 벡터를 이용하여 부호화할 블 록의 예측 움직임 벡터를 생성하는 것을 특징으로 하는 동영상 부호화 장치.And a predictive motion vector of a block to be encoded is generated using a motion vector of a neighboring step corresponding to the block to be encoded.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 움직임 벡터 추출부는,The motion vector extractor,
    부호화할 블록의 움직임 벡터를 생성하기 위한 움직임 추정부;A motion estimation unit for generating a motion vector of a block to be encoded;
    상기 부호화할 블록의 소정의 주변 블록 및 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 부호화할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터부 및A predicted motion vector unit for generating a predicted motion vector of the block to be encoded using the motion vector of a predetermined neighboring block of the block to be encoded and a corresponding neighboring step block;
    상기 움직임 벡터 및 예측 움직임 벡터와의 차분값을 계산하는 움직임 벡터 차분부A motion vector difference unit for calculating a difference value between the motion vector and the predicted motion vector
    를 포함하는 동영상 부호화 장치.Video encoding apparatus comprising a.
  3. 제 2 항에 있어서,The method of claim 2,
    상기 예측 움직임 벡터부는,The prediction motion vector unit,
    상기 이웃 단계의 움직임 벡터를 현재 단계의 움직임 벡터의 프레임 율과 일치시기 위해 필터링하여 사용하는 것을 특징으로 하는 스케일러블 비디오 코딩을 지원하는 동영상 부호화 장치.And a motion vector of the neighboring step is filtered and used to coincide with a frame rate of the motion vector of the current step.
  4. 제 2 항에 있어서,The method of claim 2,
    상기 예측 움직임 벡터부는,The prediction motion vector unit,
    아래의 수학식을 이용하여 예측 움직임 벡터를 생성하는 것을 특징으로 하는 동영상 부호화 장치.A video encoding apparatus, characterized by generating a predicted motion vector using the following equation.
    [수학식][Equation]
    Figure 112006025223903-pat00002
    Figure 112006025223903-pat00002
    (여기서, pMV는 예측 움직임 벡터, cMV1, cMV2, … ,cMVn은 부호화할 블록의 현재 단계의 주변 블록의 움직임 벡터이고, MVF 1 , 0와 MVB 1 ,0 대응하는 이웃 단계의 블록의 움직임 벡터임)Where pMV is a predictive motion vector, cMV1, cMV2, ..., cMVn are motion vectors of neighboring blocks of the current stage of the block to be encoded, and MV F 1 , 0 and MV B 1 , 0 are Motion vector of the block of the corresponding neighboring step)
  5. 스케일러블 비디오 코딩을 지원하는 동영상 부호화 시스템에 있어서의 움직임 벡터 예측 장치로서, A motion vector prediction apparatus in a video encoding system that supports scalable video coding,
    부호화할 블록의 움직임 벡터를 생성하기 위한 움직임 추정부; 및A motion estimation unit for generating a motion vector of a block to be encoded; And
    상기 부호화할 블록의 소정의 주변 블록 및 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 부호화할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터부A predicted motion vector unit for generating a predicted motion vector of the block to be encoded using the motion vector of a predetermined neighboring block of the block to be encoded and a corresponding neighboring step block.
    를 포함하는 움직임 벡터 예측 장치.Motion vector prediction device comprising a.
  6. 제 5 항에 있어서,The method of claim 5,
    상기 예측 움직임 벡터부는,The prediction motion vector unit,
    상기 이웃 단계의 움직임 벡터를 현재 단계의 움직임 벡터의 프레임 율과 일치시키기 위해 필터링하여 사용하는 것을 특징으로 하는 움직임 벡터 예측 장치.And filtering the motion vector of the neighboring step to match the frame rate of the motion vector of the current step.
  7. 제 5 항에 있어서,The method of claim 5,
    상기 예측 움직임 벡터부는,The prediction motion vector unit,
    아래의 수학식을 이용하여 예측 움직임 벡터를 생성하는 것을 특징으로 하는 움직임 벡터 예측 장치.Motion vector prediction apparatus, characterized in that for generating a predictive motion vector using the following equation.
    [수학식][Equation]
    Figure 112006025223903-pat00003
    Figure 112006025223903-pat00003
    (여기서, pMV는 예측 움직임 벡터, cMV1, cMV2, … ,cMVn은 부호화할 블록의 현재 단계의 주변 블록의 움직임 벡터이고, MVF 1 , 0와 MVB 1 ,0 대응 블록의 움직임 벡터임)Where pMV is a predictive motion vector, cMV1, cMV2, ..., cMVn are motion vectors of neighboring blocks of the current stage of the block to be encoded, and MV F 1 , 0 and MV B 1 , 0 are Motion vector of the corresponding block)
  8. 스케일러블 비디오 코딩 또는 디코딩을 지원하는 동영상 시스템에 있어서의 움직임 벡터 예측 방법으로서,A motion vector prediction method in a video system supporting scalable video coding or decoding,
    움직임 벡터를 예측할 블록의 현재 단계 주변 블록의 움직임 벡터들을 추출하는 주변 블록 움직임 벡터 추출 단계;A neighboring block motion vector extraction step of extracting motion vectors of a neighboring block of a current step of a block to predict a motion vector;
    상기 예측할 블록에 대응하는 이웃 단계 블록의 움직임 벡터를 추출하는 이웃 단계 움직임 벡터 추출 단계; 및A neighboring step motion vector extracting step of extracting a motion vector of a neighboring step block corresponding to the block to be predicted; And
    상기 주변 블록의 움직임 벡터 및 이웃 단계 블록의 움직임 벡터를 이용하여 상기 예측할 블록의 예측 움직임 벡터를 계산하는 예측 움직임 벡터 생성 단계A prediction motion vector generation step of calculating a prediction motion vector of the block to be predicted using the motion vector of the neighboring block and the motion vector of the neighboring step block.
    를 포함하는 움직임 벡터 예측 방법.Motion vector prediction method comprising a.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 추출한 이웃 단계 블록의 움직임 벡터를 시간 필터링하여 현재 단계의 움직임 벡터의 프레임 율과 일치시키는 필터링 단계Filtering the motion vector of the extracted neighboring step block to match the frame rate of the motion vector of the current step;
    를 더 포함하는 움직임 벡터 예측 방법.Motion vector prediction method further comprising.
  10. 제 8 항에 있어서,The method of claim 8,
    상기 예측 움직임 벡터 생성 단계는,The predictive motion vector generation step,
    아래의 수학식을 이용하여 예측 움직임 벡터를 생성하는 것을 특징으로 하는 움직임 벡터 예측 방법.A motion vector prediction method comprising generating a predictive motion vector using the following equation.
    [수학식][Equation]
    Figure 112006025223903-pat00004
    Figure 112006025223903-pat00004
    (여기서, pMV는 예측 움직임 벡터, cMV1, cMV2, … ,cMVn은 예측할 블록의 현재 단계 주변 블록의 움직임 벡터이고, MVF 1 , 0와 MVB 1 ,0 는 이웃 단계 대응 블록의 움직임 벡터임)(Where pMV is a predictive motion vector, cMV1, cMV2, ..., cMVn are motion vectors of blocks around the current step of the block to be predicted, and MV F 1 , 0 and MV B 1 , 0 are motion vectors of neighboring step corresponding blocks)
  11. 스케일러블 비디오 디코딩을 지원하는 동영상 복호화 장치로서,A video decoding apparatus supporting scalable video decoding,
    비트스트림을 입력받아 해상도별로 역다중화하여 출력하기 위한 역다중화부;A demultiplexer for receiving a bitstream and demultiplexing the output by resolution;
    각 해상도의 비트스트림을 입력받고 엔트로피 복호하여 텍스쳐 정보 및 움직임 벡터 차분값을 추출하는 엔트로피 복호화부;An entropy decoder configured to receive bitstreams of each resolution and entropy decode to extract texture information and motion vector difference values;
    상기 텍스쳐 정보를 역양자화하여 변환 계수를 출력하는 역양자화부;An inverse quantization unit for inversely quantizing the texture information and outputting a transform coefficient;
    공간적 변환을 역으로 수행하여 상기 변환 계수를 공간적 영역에서의 변환 계수로 역변환하는 역공간 변환부;An inverse spatial transform unit inversely transforming the transform coefficients into transform coefficients in a spatial domain by performing spatial transform inversely;
    상기 움직임 벡터 차분값을 입력받고, 복호할 블록의 예측 움직임 벡터를 계산하여 상기 복호할 블록의 움직임 벡터를 복원하는 움직임 벡터 복원부 및A motion vector reconstruction unit for receiving the motion vector difference value, calculating a predicted motion vector of a block to be decoded, and reconstructing the motion vector of the block to be decoded;
    상기 움직임 벡터를 이용하여 상기 변환 계수를 역 시간 필터링하여 영상을 복원하는 역시간 필터링부An inverse time filtering unit reconstructing an image by inversely time filtering the transform coefficients using the motion vector
    를 포함하되,Including but not limited to:
    상기 움직임 벡터 복원부는,The motion vector reconstruction unit,
    상기 복호할 블록에 대응하는 이웃 단계의 움직임 벡터를 이용하여 복호화할 블록의 예측 움직임 벡터를 생성하는 것을 특징으로 하는 동영상 복호화 장치.And a predictive motion vector of a block to be decoded using a motion vector of a neighboring step corresponding to the block to be decoded.
  12. 제 11 항에 있어서,The method of claim 11,
    상기 움직임 벡터 복원부는,The motion vector reconstruction unit,
    상기 복호할 블록의 소정의 주변 블록 및 이에 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 복호할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터 생성부 및A predicted motion vector generator for generating a predicted motion vector of the block to be decoded using the motion vector of a predetermined neighboring block of the block to be decoded and a neighboring step block corresponding thereto;
    상기 예측 움직임 벡터 및 움직임 벡터 차분값을 가산하여 움직임 벡터를 복원하기 위한 움직임 벡터 가산부A motion vector adder for reconstructing the motion vector by adding the predicted motion vector and the motion vector difference value.
    를 포함하는 동영상 복호화 장치.Video decoding apparatus comprising a.
  13. 제 12 항에 있어서,The method of claim 12,
    상기 예측 움직임 벡터 생성부는,The prediction motion vector generator,
    아래의 수학식을 이용하여 예측 움직임 벡터를 생성하는 것을 특징으로 하는 동영상 복호화 장치.A video decoding apparatus, characterized by generating a predicted motion vector using the following equation.
    [수학식][Equation]
    Figure 112006025223903-pat00005
    Figure 112006025223903-pat00005
    (여기서, pMV는 예측 움직임 벡터, cMV1, cMV2, … ,cMVn은 복호할 블록의 현재 단계의 주변 블록의 움직임 벡터이고, MVF 1 , 0와 MVB 1 ,0 대응하는 이웃 단계의 블록의 움직임 벡터임)Where pMV is the predictive motion vector, cMV1, cMV2, ..., cMVn is the motion vector of the neighboring block of the current stage of the block to be decoded, and MV F 1 , 0 and MV B 1 , 0 are Motion vector of the block of the corresponding neighboring step)
  14. 스케일러블 비디오 디코딩을 지원하는 동영상 복호화 시스템에 있어서의 움직임 벡터 예측 장치로서, A motion vector prediction apparatus in a video decoding system supporting scalable video decoding,
    복호할 블록의 소정의 주변 블록 및 이에 대응하는 이웃 단계 블록의 움직임 벡터를 이용하여 상기 복호할 블록의 예측 움직임 벡터를 생성하기 위한 예측 움직임 벡터 생성부 및A predictive motion vector generator for generating a predictive motion vector of the block to be decoded by using a motion vector of a predetermined neighboring block of the block to be decoded and a neighboring step block corresponding thereto;
    상기 예측 움직임 벡터 및 움직임 벡터 차분값을 가산하여 움직임 벡터를 복원하기 위한 움직임 벡터 가산부A motion vector adder for reconstructing the motion vector by adding the predicted motion vector and the motion vector difference value.
    를 포함하는 동영상 복호화 시스템에 있어서의 움직임 벡터 예측 장치.Motion vector prediction apparatus in a video decoding system comprising a.
KR1020060033048A 2005-04-13 2006-04-12 Apparatus and Method for Predicting Motion Vector KR100733966B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR20050030794 2005-04-13
KR1020050030794 2005-04-13
KR1020060033048A KR100733966B1 (en) 2005-04-13 2006-04-12 Apparatus and Method for Predicting Motion Vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060033048A KR100733966B1 (en) 2005-04-13 2006-04-12 Apparatus and Method for Predicting Motion Vector

Publications (2)

Publication Number Publication Date
KR20060108510A KR20060108510A (en) 2006-10-18
KR100733966B1 true KR100733966B1 (en) 2007-06-29

Family

ID=37628291

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060033048A KR100733966B1 (en) 2005-04-13 2006-04-12 Apparatus and Method for Predicting Motion Vector

Country Status (1)

Country Link
KR (1) KR100733966B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441874B1 (en) * 2009-08-21 2014-09-25 에스케이텔레콤 주식회사 Video Coding Method and Apparatus by Using Adaptive Motion Vector Resolution
KR101377528B1 (en) * 2011-01-15 2014-03-27 에스케이텔레콤 주식회사 Motion Vector Coding and Decoding Method and Apparatus
MX343471B (en) 2011-08-29 2016-11-07 Ibex Pt Holdings Co Ltd Method for generating prediction block in amvp mode.

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040056996A (en) * 2002-12-24 2004-07-01 한국전자통신연구원 Moving vector expecting device of the wavelet conversion area and Method thereof
KR20050096790A (en) * 2004-03-31 2005-10-06 삼성전자주식회사 Method and apparatus for effectively compressing motion vectors in multi-layer
KR20060059774A (en) * 2004-11-29 2006-06-02 엘지전자 주식회사 Method and apparatus for encoding/decoding a video signal using motion vectors of pictures at different temporal decomposition level

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040056996A (en) * 2002-12-24 2004-07-01 한국전자통신연구원 Moving vector expecting device of the wavelet conversion area and Method thereof
KR20050096790A (en) * 2004-03-31 2005-10-06 삼성전자주식회사 Method and apparatus for effectively compressing motion vectors in multi-layer
KR20060059774A (en) * 2004-11-29 2006-06-02 엘지전자 주식회사 Method and apparatus for encoding/decoding a video signal using motion vectors of pictures at different temporal decomposition level

Also Published As

Publication number Publication date
KR20060108510A (en) 2006-10-18

Similar Documents

Publication Publication Date Title
US8964854B2 (en) Motion-compensated prediction of inter-layer residuals
KR102051083B1 (en) Video encoding apparatus for performing intra-prediction based on directionality of neighboring block, video decoding apparatus and video decoding method for performing the same
KR100763178B1 (en) Method for color space scalable video coding and decoding, and apparatus for the same
KR101003430B1 (en) Method for encoding and decoding video signal
KR100954816B1 (en) Method of coding video and video signal, apparatus and computer readable recording medium for coding video, and method, apparatus and computer readable recording medium for decoding base layer data-stream and enhancement layer data-stream
CN100435585C (en) Method and apparatus for predecoding and decoding bitstream including base layer
KR100664928B1 (en) Video coding method and apparatus thereof
US7848425B2 (en) Method and apparatus for encoding and decoding stereoscopic video
JP5467141B2 (en) Scalable video coding with lower layer filtering
KR100746007B1 (en) Method and apparatus for adaptively selecting context model of entrophy coding
US7292165B2 (en) Context-based adaptive arithmetic coding and decoding methods and apparatuses with improved coding efficiency and video coding and decoding methods and apparatuses using the same
KR100703770B1 (en) Video coding and decoding using weighted prediction, and apparatus for the same
JP2015111952A (en) Method and apparatus for encoding and decoding video by using large-sized transform unit
KR100781525B1 (en) Method and apparatus for encoding and decoding FGS layers using weighting factor
US7961790B2 (en) Method for encoding/decoding signals with multiple descriptions vector and matrix
TWI330498B (en) Method for scalably encoding and decoding video signal
KR100849965B1 (en) Method and apparatus for providing prediction mode fine granularity scalability
US8406294B2 (en) Method of assigning priority for controlling bit rate of bitstream, method of controlling bit rate of bitstream, video decoding method, and apparatus using the same
KR101050261B1 (en) Context-based signal encoding and decoding
USRE40079E1 (en) Video encoding and decoding apparatus
RU2324302C1 (en) Method for encoding flags in layer using interlayer correlation, method and device for decoding encoded flags
EP2008469B1 (en) Multilayer-based video encoding method and apparatus thereof
RU2337503C1 (en) Methods of coding and decoding video image using interlayer filtration, and video coder and decoder using methods
Adami et al. State-of-the-art and trends in scalable video compression with wavelet-based approaches
KR100679018B1 (en) Method for multi-layer video coding and decoding, multi-layer video encoder and decoder

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130527

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140529

Year of fee payment: 8

LAPS Lapse due to unpaid annual fee