KR20070055903A - Method and apparatus for prediction of adaptive motion vector in multi-viewpoint image - Google Patents

Method and apparatus for prediction of adaptive motion vector in multi-viewpoint image Download PDF

Info

Publication number
KR20070055903A
KR20070055903A KR20050114406A KR20050114406A KR20070055903A KR 20070055903 A KR20070055903 A KR 20070055903A KR 20050114406 A KR20050114406 A KR 20050114406A KR 20050114406 A KR20050114406 A KR 20050114406A KR 20070055903 A KR20070055903 A KR 20070055903A
Authority
KR
Grant status
Application
Patent type
Prior art keywords
motion vector
block
value
prediction
detected
Prior art date
Application number
KR20050114406A
Other languages
Korean (ko)
Other versions
KR101174901B1 (en )
Inventor
김대희
윤국진
이수인
이영렬
이융기
임성창
조숙희
허남호
Original Assignee
세종대학교산학협력단
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding

Abstract

본 발명은 서로 다른 시점(viewpoint)을 가지는 복수의 카메라가 각기 촬영한 다시점(multi-viewpoint) 동영상 데이터들을 부호화하기 위하여 적응적으로 움직임 벡터를 예측하는 방법 및 장치에 관한 것으로서, 본 발명은 현재 블록의 인접 블록 중 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; The present invention has one another on a plurality of methods and apparatus for camera to predict each shot a viewpoint (multi-viewpoint) the motion vector adaptively in order to encode the video data having different time point (viewpoint), the present invention is now a block detection section for the current block among neighboring blocks of the detected block only the blocks that refer to the same block as the block referring to a temporal or spatial; 및 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부를 포함하여 적응적으로 움직임 벡터를 예측함으로써 압축률을 개선한다. And to improve the compression rate by estimating the motion vector adaptively, including on the basis of the motion vector of the detected block in the block detection current block predicted motion adaptive prediction to obtain the vector portion of the value.
다시점 영상, H.264, 움직임 벡터 예측 Multiview Video, H.264, motion vector prediction

Description

다시점 영상에서 적응적 움직임 벡터 예측 장치 및 방법{Method and Apparatus for prediction of adaptive motion vector in multi-viewpoint image} Again adaptive motion vector estimating apparatus and method in a multi-view image {Method and Apparatus for prediction of adaptive motion vector in multi-viewpoint image}

도 1 (a) 는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 구성도를 도시한다. Figure 1 (a) shows the internal configuration of the adaptive motion vector estimating apparatus in that video.

도 1 (b) 는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 상세도를 도시한다. Figure 1 (b) shows the internal detail of the adaptive motion vector estimating apparatus in that video.

도 2 (a) 내지 (c) 는 H.264 표준에서 움직임 벡터 예측 방법을 도시한다. Figure 2 (a) to (c) illustrates a motion vector prediction method in the H.264 standard.

도 3 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 3 (a) and (b) if the current block and a reference frame of the adjacent blocks, the previous space frames of the same time showing the motion vector prediction method and calculations.

도 4 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 4 (a) and (b) if the current block and a reference frame of an adjacent block of the same space of the previous frame time shows a motion vector prediction method and calculations.

도 5 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 5 (a) and (b) are current when the block and the reference frame of the two adjacent blocks, the previous space frames of the same time showing the motion vector prediction method and calculations.

도 6 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 6 (a) and (b) are current when the block and the reference frame of the two adjacent blocks in the same space frame of the previous time showing the motion vector prediction method and calculations.

도 7 (a) 및 (b) 는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 7 (a) and (b) if all blocks of the reference frame adjacent to the current block in the previous frame of the same space of time showing the motion vector prediction method and calculations.

도 8 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 8 (a) and (b) are current when the block and the reference frame of the two adjacent blocks in the same space frame of the previous time showing the motion vector prediction method and calculations.

도 9 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 9 (a) and (b) is the reference frame of the current block if all of the reference frames of an encoded frame, and adjacent blocks of the previous space is the encoded frame before the time shown by the motion vector prediction method and calculations.

도 10 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 10 (a) and (b) is a motion vector prediction method and the calculation process when the reference frame in the current block is a coded frame in the previous time, the reference frame of the neighboring blocks are both coded frame in the current area and the other area It is shown.

도 11 은 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 인코더를 도시한다. Figure 11 shows an encoder based on an adaptive motion estimation method according to an embodiment of the present invention.

도 12 는 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 디코더를 도시한다. Figure 12 shows a decoder based on the adaptive motion estimation method according to an embodiment of the present invention.

도 13 은 본 발명의 바람직한 일 실시예로서, 다시점 영상에서 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 13 illustrates a motion vector prediction process in a preferred embodiment of the present invention, the multi-view images as a flow chart.

도 14 는 본 발명의 바람직한 일 실시예로서, 인코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 14 illustrates a motion vector prediction process in the multi-view images again from the encoder as a preferred embodiment of the invention as a flow chart.

도 15 는 본 발명의 바람직한 일 실시예로서, 디코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 15 illustrates a motion vector prediction process in the multi-view images again from the decoder as an embodiment of the present invention in a flow diagram.

본 발명은 서로 다른 시점(viewpoint)을 가지는 복수의 카메라가 각기 촬영한 다시점(multi-viewpoint) 동영상 데이터에서 적응적 움직임 벡터 예측 장치 및 방법에 관한 것으로, 보다 상세히 소정 크기의 블록에 대한 움직임 벡터예측 수행 시, 이미 부호화 및 복호화가 끝난 주위 3개 블록을 기초로 적응적으로 움직임 벡터를 예측함으로써 압축률을 높이는 방법 및 그 장치에 관한 것이다. The invention together relates to adaptive motion vector estimating apparatus and method in a plurality of viewpoint (multi-viewpoint) camera takes each of the video data having different time point (viewpoint), in more detail the movement of the block with a predetermined size vector prediction performed when, how already improve the compression rate by encoding and decoding the prediction block around three basic adaptive to the motion vector to the end and to the device.

현재, 동영상 데이터를 부호화하기 위해 사용되는 H.264 표준에 따르면 하나의 프레임을 소정 크기의 블록으로 나누어 이미 부호화가 끝난 인접한 프레임을 참조하여 가장 유사한 블록을 검색하는 움직임 검색을 수행한다. Dividing the one frame according to the present, H.264 standard used for encoding the video data into blocks of a predetermined size with reference to adjacent frames and has already been coded by the motion search is performed to find the most similar block.

그러나, 주위 블록의 참조 프레임이 현재 참조 프레임과 모두 다른 경우 또는, 두 개의 블록의 참조 프레임이 현재 참조 프레임과 같은 경우에도 중간값 예측을 하여 그 값을 현재 블록의 움직임 벡터 예측 값으로 사용하는 것은 높은 압축률을 얻는데 부적합할 수 있다. However, if the reference frame around the block other all the current reference frame or, if the reference frames of the two blocks, such as the current reference frame to the median prediction, even the value of it is currently used to block the motion vector prediction value of the to achieve a high compression ratio may be unsuitable.

상기와 같은 부적합한 점을 해결하기 위하여, 본 발명은 현재 블록의 움직임 벡터값 예측에 있어 인접 블록이 참조하는 공간 프레임과 시간 프레임에 따라 움직임 벡터 예측 방법을 적응적으로 사용하여 압축률을 높이는 다시점 동영상에서 적응적 움직임 벡터 예측 방법 및 장치에 관한 것이다. In order to solve the inappropriate point as described above, the present invention is that re-present it to the motion vector value prediction of a block in accordance with the space frame and the time frame which is adjacent to the block reference with the motion vector prediction method is adaptively increasing the compression rate video in the present invention relates to adaptive motion vector prediction method and apparatus.

본 발명의 바람직한 일 실시예에서, 다시점 영상에서 적응적 움직임 벡터 예 측 장치는 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; In one preferred embodiment of the invention, the adaptive motion in that image again vector predictive unit block detection unit for detecting only the blocks that refer to the same block as the block of the current block of the current block, the adjacent block of the reference in terms of time or spatial .; 및 상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함한다. And an adaptive predictor to obtain the prediction motion vector value of the current block based on the motion vector of the detected block by the block detection unit; and a.

본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값이다. If the number of the detected block in the preferred embodiment of the adaptive predictor of the present invention, one motion vector prediction value of the current block is the motion vector value of the detected block.

본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값이다. The number of the detected block in the preferred embodiment of the adaptive predictor of the present invention if two-predicted motion vector value of the current block is a mean value of the motion vector of the detected block.

본 발명의 바람직한 일 실시예의 적응적 예측부에서 상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 중간값이다. If the number of the detected block in the preferred embodiment of the adaptive predictor of the present invention with three motion vector prediction value of the current block is a median of a motion vector of the detected block.

본 발명의 바람직한 일 실시예의 적응적 예측부에서 블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 이다. If no block is detected, in a preferred embodiment of the adaptive predictor of the present invention is a predicted motion vector value of the current block is (0, 0).

본 발명의 바람직한 일 실시예에서 움직임 벡터는 H.264 표준에 기초하여 추정된다. A motion vector in an embodiment of the present invention is estimated based on the H.264 standard.

본 발명의 또 다른 바람직한 일 실시예에서, 적응적 움직임 벡터 예측 인코더는 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블 록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; In another preferred embodiment of the invention, an adaptive motion vector prediction encoder detects the neighboring block to refer to the same block as the block for the current block is referred to as temporal or spatial and wherein on the basis of the motion vector of the detected block a motion vector predictor current to obtain the prediction motion vector values ​​of blocks; 상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 엔트로피 부호화부;를 포함한다. Includes; in the current block motion vector value of the entropy encoder for encoding the difference between the predicted motion vector value of the current block calculated in the motion vector predictor.

본 발명의 또 다른 바람직한 일 실시예에서 인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더는 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 수신부; Also using other preferred embodiment adaptively move the block of the encoded multi-view video bitstream in vector prediction method decoder for decoding of the present invention is soothing the predicted motion vector value of the predetermined block in the motion vector value of the predetermined block receiving unit for receiving a multi-view video bitstream again comprising a motion vector difference value and the motion vector information; 상기 수신된 비트 스트림 내의 블락들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 엔트로피 디코딩부; The motion vector information and the entropy decoding unit for decoding by using the motion vector difference value of the block in the received bitstream; 상기 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; Said decoding of the blocks in the decoded bit stream the current block is temporally or spatially detects the neighbor blocks referring to the same block as the block to refer to and based on the motion vector of the detected adjacent block prediction motion of the current block vector value a motion vector predictor to obtain; 및 상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 움직임 벡터 복원부;를 포함한다. And a motion vector restoring unit for combining the prediction motion vector value of the motion vector restored in the motion vector difference value; and a.

본 발명의 또 다른 바람직한 일 실시예에서, 다시점 영상에서 적응적 움직임 벡터 예측 방법은 (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록을 검출하는 단계; In another preferred embodiment, the adaptive motion vector prediction method in the multi-view images again according to the present invention comprises the steps of detecting a block which (a) the current block is referred to as temporal or spatial; (b) 상기 현재 블록과 인접한 블록 중 (a) 단계에서 검출된 블록을 참조하는 블록을 검출하는 단계; (B) detecting the blocks in which the reference to the block detected in step (a) of the current block and adjacent blocks; 및 (c) (b) 단계에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계;를 포함한다. And a; and (c) (b) obtaining a predicted motion vector value of the current block based on the motion vector detected in block stage.

본 발명의 또 다른 바람직한 일 실시예에서, 적응적 움직임 벡터 예측에 기 반한 인코딩 방법은 (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; In another preferred embodiment, the group inverse encoding method for adaptive motion vector predictor of the present invention (a) the detected adjacent blocks refer to the same block and the block to the current block is referred to as temporal or spatial and the detection block the step of the motion vector on the basis of the current to obtain the prediction motion vector values ​​of blocks; (b) 상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 단계;를 포함한다. (B) step of coding the difference between the predicted motion vector value of the current block calculated in the motion vector predictor from the motion vector values ​​of the current block; and a.

본 발명의 또 다른 바람직한 일 실시예에서 인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측에 기반하여 디코딩하는 방법은 (a) 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 단계; Method on the basis of blocks of the multi-view video bitstream re-encoded in another preferred embodiment of the present invention to the adaptive motion vector prediction decoding (a) predicting a motion vector value of the predetermined block in the motion vector value of the predetermined block the method comprising: receiving a multi-view video bitstream including a soothing motion vector difference value and the motion vector information; (b) 상기 수신된 다시점 동영상 비트 스트림 내의 블락 들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 단계; (B) a step of decoding by using the motion vector information and the motion vector difference value of the block in the received multi-view video bitstream; (c) 상기 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; (C) the decoded block, the current block is decoded from the bit stream is detected, the neighboring block which refers to the same block and the block to refer to the temporally or spatially predicting the current block based on the motion vector of the detected adjacent block obtaining a motion vector value; 및 (d) 상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 단계;를 포함한다. And a; and (d) the combined value of the predictive motion vector to the motion vector difference value to restore the motion vector.

이하 본 발명의 바람직한 실시예가 첨부된 도면들을 참조하여 설명될 것이다. Hereinafter a preferred embodiment of the present invention will be described with reference to the accompanying drawings. 도면들 중 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 참조번호들 및 부호들로 나타내고 있음에 유의해야 한다. For the drawings, the same or similar elements among should be noted that even though they are depicted in different drawings indicates as a the same reference numerals and codes available. 하기에서 본 발명을 설명함에 있어, 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. In the following description below, when the detailed description of known functions and configurations that are determined to unnecessarily obscure the subject matter of the present invention will be detailed description thereof is omitted.

도 1 (a), (b)는 다시점 동영상에서 적응적 움직임 벡터 예측 장치의 내부 구성도를 도시한다. Figure 1 (a), (b) shows the internal configuration of the adaptive motion vector estimating apparatus in that video.

도 1 (a) 에 도시된 바와 같이, 본 발명의 바람직한 일 실시예로서 다시점 동영상에서 적응적 움직임 벡터 예측 장치(100)는 블록 검출부(110), 적응적 예측부(120)를 포함한다. Figure 1 (a) of, in a preferred embodiment of the invention the adaptive motion vector prediction unit 100 in that the video again, as shown in comprises a block detection unit 110, an adaptive predictor (120).

적응적 움직임 벡터 예측 장치(100)는 H.264 표준의 움직임 벡터 예측 방법에 의해 움직임 벡터를 구하는 것을 기반으로 하며, 이에 더하여 현재 블록의 움직임 벡터 예측을 위해 주변 블록이 참조하는 공간과 시간에 따라 움직임 벡터 예측 방법을 적응적으로 사용한다. Adaptive motion vector prediction unit 100 is acquired based on the motion vectors by the motion vector prediction method of the H.264 standard, and, in addition, depending on the space and time to a neighboring block refer to a motion vector prediction of the current block It uses a motion vector prediction method is adaptively.

또한 다시점 동영상 부호화시, 현재 프레임을 부호화할 때 이전에 부호화된 다른 공간의 프레임 또는 이전에 부호화된 다른 시간의 프레임을 모두 참조하여 부호화 효율을 높인다. Also it refers to both the multi-view video encoding operation, before the other space frame or other time frames of the previously encoded in the encoding when encoding a current frame to increase the encoding efficiency.

블록 검출부(110)에서는 현재 부호화하고자 하는 블록의 참조 프레임과 인접 블록들의 참조 프레임이 공간 또는 시간이 서로 다른 경우, 인접 블록의 움직임 벡터를 이용하여 현재 블록의 움직임 벡터를 예측하면 잘못된 값이 예측될 수 있는바, 이러한 예측의 오차를 방지하기 위하여 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출한다. Block detection unit 110 in the block reference frame and the reference frame is a space or time of the adjacent blocks of the to be currently coded to each other in other cases, when predicting the current block, the motion vector using the motion vector of the neighboring block to be predicted, an incorrect value be bars, only the block in which the current block among neighboring blocks of the current block with reference to the same block as the block referring to a temporal or spatial order to prevent the errors of these predictions will be detected in.

적응적 예측부(120)는 블록 검출부(110)에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. Adaptive prediction unit 120 obtains a motion vector prediction value of the current block based on the motion vector of the detected block in the block detection unit 110. 즉, 현재 블록의 예측 움직임 벡터값은 블록 검출부(110)에서 검출된 블록의 개수와 검출된 블록의 움직임 벡터를 기초로 구해진다. That is, the predicted motion vector value of the current block is determined based on the motion vector of the detected block to the number of the detected blocks from the block detection unit 110. 이에 대하여서는 도 1b와 관련하여 상세히 살펴보기로 한다. Thus among properties is to look at in detail with respect to Figure 1b.

다시점 동영상에서 적응적 움직임 벡터 예측 장치를 구현하는 일 실시예로서, 블록 검출부(110, 130)는 현재 블록 파악부(131), 시간 벡터 추정부(132) 및 공간 벡터 추정부(133)를 포함한다(도 1(b)). As an embodiment for implementing the adaptive motion vector estimating apparatus in the multi-view video, the block detection unit (110, 130) is a current block determination unit 131, a time vector estimation unit 132 and a space vector estimation unit 133 includes (Fig. 1 (b)).

현재 블록 파악부(131)는 현재 블록이 참조하는 블락을 검출하고, 참조 블락을 참조하는 벡터가 시간에 기반한 시간벡터를 공간에 기반한 공간 벡터인지 특성을 파악한다. Current block determination unit 131 may determine the characteristic that the space-based vector for the vectors which refer to reference block detects the block, and that the current block is time reference vector based on the time space.

시간 벡터 추정부(132)는 현재 블록의 움직임 벡터가 참조 블록과 시간적 차이에 기반을 둔 시간 벡터에 해당하는 경우 블록 검출부(110)에서 검출된 현재 블록의 참조 블록과 동일한 참조 블록을 참조하는 블록 중 움직임 벡터가 상기 시간 벡터에 해당하는 블록을 파악한다. Time vector estimation unit 132 is a block that references the same reference block and the reference block of the current block is detected by the block detection unit 110 when a current block of a motion vector corresponding to the time vector based on the reference block and the temporal difference of the motion vector to identify the blocks corresponding to the time vector. 구체적인 실시예로는 도 4, 도 6, 도 8을 들 수 있다. In the specific examples there may be mentioned, Fig 4, FIG.

공간 벡터 추정부(133)는 현재 블록의 움직임 벡터가 참조 블록과 공간적 차이에 기반을 둔 공간 벡터에 해당하는 경우 블록 검출부(110)에서 검출된 현재 블록의 참조 블록과 동일한 참조 블록을 참조하는 블록 중 움직임 벡터가 공간 벡터에 해당하는 블록을 파악한다. Space vector estimation unit 133 is a block that references the same reference block and the reference block of the current block is detected by the block detection unit 110 when a current block of a motion vector corresponding to the space vector based on the reference blocks and the spatial difference of the motion vectors to identify the blocks corresponding to a space vector. 구체적인 실시예로는 도 3, 도 5, 도 7을 들 수 있 다. In a particular embodiment is a can and the 3, 5, 7.

적응적 예측부(120, 140)는 시간 벡터 추정부(132) 또는 공간 벡터 추정부(133)에서 검출된 블록의 수 및 파악된 블록의 움직임 벡터를 기초로 예측 움직임 벡터값을 계산한다. The adaptive predictor (120, 140) calculates a predicted motion vector value on the basis of the time vector estimation unit 132 or the space vector of the detected block number from the estimator 133 and the motion vector of the identified block.

적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블락이 하나일 때, 검출된 하나의 인접 블락의 움직임 벡터가 시간 벡터인 경우 시간 벡터를 현재 블락의 예측 움직임 벡터값으로 이용하고, 검출된 하나의 인접 블락의 움직임 벡터가 공간 벡터인 경우 공간 벡터를 현재 블락의 예측 움직임 벡터값으로 이용한다. The adaptive predictor (140) when the current block and the adjacent blocks, one with the same reference block, if the motion vector of the detected one of the adjacent blocks, the time vector is used the time vector to the current predicted motion vector value of the block, and when motion vectors of neighboring blocks of the detected one of the space vector used for spatial vector to the current motion vector prediction value of the block. 이에 대하여서는 도 3 (a),(b) 및 도 4 (a), (b)에서 보다 상세히 살펴보기로 한다. Thus among properties is a view at detail than in Figure 3 (a), (b) and 4 (a) also, (b).

적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블락이 두 개일 때, 검출된 두 개의 블락의 움직임 벡터 평균을 현재 블락의 예측 움직임 벡터값으로 이용한다. Adaptive prediction unit 140 uses a motion vector average of two blocks of the adjacent blocks with the same reference block and the current block when the two days, the predicted motion vector detection value of the current block. 보다 상세히, 현재 블락의 참조 블락과의 움직임 벡터가 공간 벡터인 경우 검출된 두 개 블락의 움직임 공간 벡터 평균으로, 현재 블락의 참조 블락과의 움직임 벡터가 시간 벡터인 경우 검출된 두 개의 블락의 움직임 시간 벡터 평균 각각을 현재 블락의 예측 움직임 벡터값으로 구한다. More specifically, the current block reference block and a motion vector space, if vector movement space of both the detected one block vector average, if the current vector the motion vector of the block reference in the block, the time behavior of the two blocks is detected time vector is obtained for each of the average value of a predictive motion vector of the current block. 이에 대하여서는 도 5 (a),(b) 및 도 6 (a), (b)에서 보다 상세히 살펴보기로 한다. Thus among properties is a view at detail than in Fig. 5 (a), (b) and Fig. 6 (a), (b).

적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블락이 세 개, 즉, 인접한 블록 전체인 경우, 검출된 세 개의 블락의 움직임 벡터 중간값을 현재 블락의 예측 움직임 벡터값으로 이용한다. The adaptive predictor (140) has three adjacent blocks with the same reference block and the current block is one, that is, if the total adjacent blocks, use the motion vector median value of the three detected one block to the predicted motion vector value of the current block . 보다 상세히, 현재 블락의 참조 블 락과의 움직임 벡터가 공간 벡터인 경우 검출된 세 개 블락의 움직임 공간 벡터 중간값, 현재 블락의 참조 블락과의 움직임 벡터가 시간 벡터인 경우 검출된 세 개 블락의 움직임 시간 벡터 중간값 각각을 현재 블락의 예측 움직임 벡터값으로 이용한다. Than in detail, the three blocks of the current block, see the block lock and the motion vector the space vector, if the motion space vector median value of the three detected one block, a motion vector of the reference block of the current block, the time vector is detected use a motion vector median time in each predictive motion vector value of the current block. 이에 대하여서는 도 7 (a),(b) 및 도 8 (a), (b)에서 보다 상세히 살펴보기로 한다. Thus among properties is a view at detail than in Fig. 7 (a), (b) and 8 (a), (b).

적응적 예측부(140)는 현재 블록과 동일한 참조 블록을 지닌 인접 블락이 존재하지 않는 경우, 보다 상세히, 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간의 부호화된 프레임일 경우;및 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 (0,0) 벡터를 예측 움직임 벡터값으로 이용한다. When adaptive prediction unit 140 is a contiguous block with the same reference block and the current block does not exist, in more detail, the reference frame of the current block is a reference frame of the previous and the encoded frame in the space, adjacent blocks, all the previous time If an encoded frame; and a reference frame of a current block is coded in a frame previous time reference frame of the neighboring block when all the coded frame in the current area and the other area (0,0) vector for motion vector prediction It is used as the value. 이에 대하여서는 도 9 (a),(b) 및 도 10 (a), (b)에서 보다 상세히 살펴보기로 한다. Thus among properties is a view at detail than in Fig. 9 (a), (b) 10 and (a), (b).

도 2 (a) 내지 (c) 는 H.264 표준에서 움직임 벡터 예측 방법을 도시한다. Figure 2 (a) to (c) illustrates a motion vector prediction method in the H.264 standard.

동영상 데이터를 부호화하기 위해 사용되는 H.264 표준에 따르면 하나의 프레임을 소정 크기의 블록으로 나누어 이미 부호화가 끝난 인접한 프레임을 참조하여 가장 유사한 블록을 검색하는 움직임 검색을 수행한다. According to the H.264 standard used for encoding the video data into a frame into blocks of a predetermined size with reference to adjacent frames and has already been coded by the motion search is performed to find the most similar block. 즉, 현재 매크로 블록의 좌측과 상단, 그리고 상단 우측의 세 매크로 블록의 움직임 벡터 중에서 중간값을 움직임 벡터의 예측 값으로 정한다. That is, the median value determined from the motion vector of the current macro block and the top left, and the three macro-block on the top right of the prediction value of the motion vector.

그 후 움직임 검색에서 얻은 최적의 움직임 벡터로 현재 진행 중인 블록을 표현하여 압축률을 높이고 움직임 검색을 수행하기 전에 움직임 벡터 예측을 수행 하여 실제 움직임 벡터와 예측된 움직임 벡터의 차분을 최소화하여 부호화한다. Thereafter, the encoding by minimizing the best motion vector of the block to increase the level of compression by expressing the ongoing perform the motion vector prediction to predict the actual movement vector before carrying out the motion search motion vector difference obtained by the motion search.

보다 구체적으로, 도 2 (a) 는 H.264 표준에서 움직임 벡터 중간값 예측 방법을 도시한다. More specifically, Figure 2 (a) illustrates a motion vector median prediction method in the H.264 standard. 주위의 블록 A, B, C가 같은 슬라이스이면 그 블록들의 움직임 벡터 중간값을 현재 블록의 움직임 벡터 예측 값으로 사용한다. When the slice of the block A, B, C around the use of the motion vector median of the block to the current block, the motion vector prediction value.

이 과정이 수행되기 위해서는 먼저 주위의 블록이 현재 참조 프레임과 같은지를 조사한다. In order to perform this process is to first examine the same as the block surrounding the current reference frame. 주위 세 개의 블록 A, B, C 중에 하나만 같은 참조 프레임을 참조하는 경우 중간값 예측을 수행하지 않고 바로 같은 참조 프레임을 가지는 블록의 움직임 벡터를 현재 블록의 움직임 벡터 예측 값으로 사용하고 그렇지 않은 경우에는 A, B, C 세 개 블록의 움직임 벡터에서 중간값 예측을 수행하여 현재 블록의 움직임 벡터 예측 값으로 이용한다. Around the three blocks A, B, C in one case to refer to the same reference frame, an intermediate value for without performing the prediction right motion vector of the block has the same reference frame, the current block of the motion vector using the predicted value, and otherwise, a, B, performing the median prediction from motion vectors of three blocks C to use the current block in the motion vector prediction value.

도 2 (b) 및 2 (c)는 H.264 표준에서 블록 크기가 각각 16x8, 8x16 일 경우에 움직임 벡터 예측 방법을 도시한다. Figure 2 (b) and 2 (c) illustrates a motion vector prediction method in the case of the block size in the H.264 standard, each 16x8, 8x16.

도 2 (b)에서 현재 블록 E의 크기가 16x8(220, 230)일때, 현재 블록 E1(220)의 참조 프레임과 블록 B의 참조 프레임이 같을 경우 블록 B의 움직임 벡터를 현재 블록 E1(220)의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다. Figure 2 (b) the size of the current block E 16x8 (220, 230) when a reference frame and a block B, see if the frame is the same block a motion vector the current block of the B for the current block E1 (220) E1 (220) from used as the motion vector prediction value, and otherwise, uses the median prediction method.

또, 현재 블록 E2(230)의 참조 프레임이 블록 A의 참조 프레임과 같을 경우 블록 A의 움직임 벡터를 현재 블록 E2의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다. In addition, the use of the intermediate value prediction method, if the reference frame using the motion vector of the block A in the motion vector prediction value of the current block, and E2, otherwise the same as the reference frame for a block of the current block A E2 (230).

그리고, 도 2 (c)에서 현재의 블록 E의 크기가 8x16(240, 250)이면, 블록 E3(240)의 참조 프레임이 블록 A의 참조 프레임과 같을 경우 블록 A의 움직임 벡터를 현재 블록 E3의 움직임 벡터 예측 값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다. And, FIG. 2 (c) in the size of the current block E 8x16 (240, 250) when the block E3 (240) If the reference frame is equal to the reference frame of the block A block A motion vector the current block of the E3 of using the motion vector prediction value, and otherwise, uses the median prediction method.

또, 현재 블록 E4의 참조 프레임이 블록 C의 참조 프레임과 같을 경우 블록 C의 움직임 벡터를 E4 블록의 움직임 벡터 예측값으로 사용하고, 그렇지 않을 경우 중간값 예측 방법을 사용한다. In addition, the use of median prediction method if the reference frames of the current block E4 the same as the reference frame of the C block and a motion vector of the block C as a motion vector prediction value of the block E4, otherwise.

이하, 도 3에서 도 10은 본 발명의 바람직한 일 실시예로서, H.264 표준의 움직임 예측 방법을 기초로 다시점 영상에서 움직임 예측 벡터를 구하는 방법 및 그 일 실시예 들을 살펴보겠다. Or less, 10 in Figure 3 is a preferred embodiment of the present invention, we'll look at the method in the multi-view images based on the motion prediction of H.264 standard to obtain the prediction motion vector and its implementation.

상세 설명에 앞서, 도 3에서 도 10의 점선은 현재 블록과 참조 블록 간에 시간적 차이에 기반을 둔 시간 벡터를 표시하고, 실선은 현재 블록과 참조 블록 간에 공간적 차이에 기반을 둔 공간 벡터를 표시한다. Prior to the detailed description, and the dotted line in Fig. 10 in Figure 3 are shown the block and the time vector based on the time difference between the reference block, and a solid line shows the based on the spatial difference between the current block and the reference block space vector .

도 3 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 3 (a) and (b) if the current block and a reference frame of the adjacent blocks, the previous space frames of the same time showing the motion vector prediction method and calculations.

도 3 (a)는 현재 블록(301)과 인접 블록 B(302)의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터는 공간 벡터이며, 이 경우 현재 블록의 예측 움직임 벡터값을 구하기 위하여 이전 공간의 같은 시간 프레임을 참조하는 블록 B의 공간 움직임 벡터를 이용한다. Figure 3 (a) is a case of a reference frame, the previous space frames of the same time of the current block 301 and the adjacent blocks B (302) motion vectors space vector, in which case the former to obtain the prediction motion vector value of the current block It uses the spatial motion vector of the block B that refers to the space in the same time frame.

도 3(b) 는 현재 블록과 인접 블록 B의 참조 프레임이 이전 공간의 같은 시간 프레임일 경우 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 현재 블록의 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터 간의 차분 계산 과정을 도시한다. 3 (b) is a difference between the current block and the adjacent blocks, if B reference frame is unique time frame as the previous space adaptive motion vector prediction method encoder side currently predicted spatial movement and the block of real spatial motion vector in utilizing the vector It shows a calculation process.

이 경우, 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (4, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (5, 3)(이전 공간의 같은 시간 프레임을 참조하는 블록 B의 공간 움직임 벡터)간의 차분 DVD = (-1, 0)을 인코더에서 이용한다. In this case, the optimal spatial movement through the motion search vector DV = (4, 3) and an adaptive predictor 140, a current block of a predicted motion vector value in the space motion vector PDV = obtained (5, 3) in (previous space of the difference between DVD = (-1, 0) between the spatial motion vector of the block B that refers to the same time frame) used in the encoder.

도 4 (a) 및 (b) 는 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 4 (a) and (b) if the current block and a reference frame of an adjacent block of the same space of the previous frame time shows a motion vector prediction method and calculations.

도 4 (a)에서 현재 블록과 하나의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(402) 움직임 벡터 예측 값을 구하기 위하여 동일 공간의 이전 공간에 부호화된 프레임을 참조하는 블록 A(401)의 움직임 벡터를 이용한다. Figure 4 (a) block of the reference frame of a current block and a neighboring block in reference to the frame encoded in the previous space of the same space to obtain the same when the spatial frame 402, a motion vector prediction value of the previous time from the A ( 401) uses a motion vector of.

도 4(b)는 현재 블록과 인접 블록 A의 참조 프레임이 이전 시간의 동일 공간에서 부호화된 프레임일 경우에 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 현재 블록의 실제 시간 움직임 벡터와 예측된 시간 움직임 벡터 간의 차분을 구하는 계산 과정을 나타낸다. Figure 4 (b) is the current block and the neighboring block A reference frame is predicted and a current block of the real time motion vector at the encoder side using the adaptive motion vector predicting method in the case of a coded frame in the same space of the previous time period of It shows a calculation process of calculating a difference between the motion vector.

이 경우, 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (1, 4)와 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 시간 움직임 벡터 PMV = (0, 3)(이전 시간에 부호화된 프레임을 참조하는 블록 A의 움직임 벡터)간의 차분 MVD = (1, 1)을 예측 움직임 벡터값으로 인코더에서 사용한다. In this case, the optimal time the motion vector MV = (1, 4) and an adaptive predictor 140, a current block of a predicted motion vector value into calculated time motion vector PMV = In (0, 3) through the motion search (last time a difference MVD = (1, 1) between a motion vector) of a block a that refer to the encoded frames to be used by the encoder to the predicted motion vector value.

도 5 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 5 (a) and (b) are current when the block and the reference frame of the two adjacent blocks, the previous space frames of the same time showing the motion vector prediction method and calculations.

도 5 (a)에서 현재 블록과 인접 블록 중 블록 A, B의 참조 프레임이 이전 공간의 같은 시간 프레임인 경우(501, 502, 503) 공간 움직임 벡터 예측 값은 이전 공간의 같은 시간 프레임을 참조하는 블록 A, B(501, 503)의 공간 움직임 벡터 평균을 그 값으로 사용한다. Figure 5 (a) the current block and the adjacent blocks of the block A, if the reference frames of B in the time frame of the previous area (501, 502, 503) spatial motion vector prediction value in the referencing the same time frame as the previous space It uses the spatial average motion vector of the block a, B (501, 503) to that value.

도 5 (b) 는 현재 블록과 인접 블록 중 블록 A, B의 참조 프레임이 이전 공간의 같은 시간 프레임일 경우에 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터간의 차분을 구하는 과정을 나타낸다. Figure 5 (b) is the current block and the adjacent block of the blocks A, B refer to the frames are predicted from the original space, the motion vector at the encoder side using the adaptive motion vector predicting method in the case of a time frame of the previous space area motion vector It shows the process of calculating the difference between the.

이 경우, 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (4, 1)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (4, 1)(이전 공간의 같은 시간 프레임을 참조하는 블록 A, B의 공간 움직임 벡터 평균 값)간의 차분 DVD = (0, 0)을 사용한다. In this case, the optimal spatial movement through the motion search vector DV = (4, 1) and the adaptive predictor 140, space motion vector PDV = current obtained by block prediction motion vector values ​​at (4, 1) (the previous space use of the differential DVD = (0, 0) between the block a, the motion vector space, the average value of B) to refer to the same time frame.

도 6 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 6 (a) and (b) are current when the block and the reference frame of the two adjacent blocks in the same space frame of the previous time showing the motion vector prediction method and calculations.

도 6 (a)에서 현재 블록과 인접 블록 중 블록 B, C의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(601,602,603), 움직임 벡터 예측 값을 구하기 위하여 현재 시점의 이전에 부호화된 프레임을 참조하는 블록 B, C(602,603)의 움직임 벡터 평균을 이용한다. To Fig. 6 (a) is the reference frame of the current block and the adjacent block of the block B, C refer to the previous time the same frame is a case (601 602 603), motion vector of the encoded frame to the current time prior to to obtain the prediction value of the use a motion vector average of the block B, C (602,603).

도 6 (b)는 현재 블록과 인접 블록 중 블록 B, C의 참조 프레임이 이전 시간 의 동일 공간 프레임인 경우 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 실제 시간 움직임 벡터와 예측된 시간 움직임 벡터간의 차분을 구하는 과정을 나타낸다. Between Fig. 6 (b) is the current block and the adjacent block of the block B, if the reference frame of the C in the same space frame of the previous time adaptive motion vector at the encoder side using a prediction method of predicting the original time motion vector time motion vector It shows the process of calculating the difference.

이 경우, 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (3, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 움직임 시간 벡터 PMV = (2, 3)(이전 시간의 동일 공간 프레임을 참조하는 블록 B, C의 움직임 벡터 평균 값)간의 차분 MVD = (1, 0)을 사용한다. In this case, the optimal time the motion vector MV = (3, 3) and an adaptive predictor (140) vector PMV = current movement time obtained by block prediction motion vector value at (2, 3) through the motion search (last time use of a difference MVD = (1, 0) between the block B, the motion vector of the mean value C) to refer to the same space frame.

도 7 (a) 및 (b) 는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 7 (a) and (b) if all blocks of the reference frame adjacent to the current block in the previous frame of the same space of time showing the motion vector prediction method and calculations.

도 7 (a)에서 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우(701, 702, 703, 704) 움직임 예측 값을 구하기 위하여 주변 블록들의(702, 703, 704) 공간 움직임 벡터 중간값을 이용한다. Figure 7 (a), if all the blocks of reference frames in the current and adjacent blocks, the previous space frames of the same time in (701, 702, 703, 704) (702, 703, 704) of the neighboring block to obtain a motion prediction value space use a motion vector median.

도 7 (b)는 현재 블록과 인접한 모든 블록의 참조 프레임이 동일 시간의 이전 공간 프레임인 경우 실제 공간 움직임 벡터와 예측된 공간 움직임 벡터간의 차분을 구하는 과정을 나타낸다. Figure 7 (b) shows a process of all the blocks of the reference frame adjacent to the current block to obtain a difference between the same when the time before the space frame of the actual motion vector and the spatial predicted motion vector space.

이 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 공간 움직임 벡터 DV = (8,3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (6, 2)(인접 블록들의 공간 움직임 벡터 중간값) 또는 PDV = (7, 3)(인접 블록들의 공간 움직임 벡터 평균 값)간의 차분 DVD = (1, 2) 또는 DVD = (2,2)를 사용한다. In this case, the adaptive motion vector optimum space at the encoder side using a prediction method with the motion search motion vector DV = (8,3) and an adaptive predictor 140, the current room movement determined by the block predictive motion vector value in the Vector PDV = (6, 2) (spatial motion vector median value of the adjacent block), or PDV = (7, 3) differential DVD = (1, 2) between the (spatial motion vector average value of the adjacent block), or DVD = (2 use, 2).

도 8 (a) 및 (b) 는 현재 블록과 두 개의 인접 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 8 (a) and (b) are current when the block and the reference frame of the two adjacent blocks in the same space frame of the previous time showing the motion vector prediction method and calculations.

도 8 (a)에서 현재 블록과 인접한 모든 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우(801, 802, 803, 804), 움직임 예측 값을 구하기 위하여 주변 블록(802, 803, 804)의 움직임 벡터 중간값을 이용한다. Of Figure 8 (a) all the blocks of reference frames in the current and adjacent block when the same space frame of the previous time (801, 802, 803, 804), around the blocks (802, 803, 804) to obtain the motion estimation value in the use a motion vector median.

도 8 (b)는 현재 블록과 인접한 모든 블록의 참조 프레임이 이전 시간의 동일 공간 프레임인 경우 실제 움직임 벡터와 예측된 움직임 벡터간의 차분을 구하는 과정을 나타낸다. Figure 8 (b) shows a process of all the blocks of the reference frame adjacent to the current block to obtain a difference between the previous time frame of the same space when the predicted motion vector of the original motion vector.

이 경우도, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 시간 움직임 벡터 MV = (4, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 움직임 시간 벡터 PMV = (3, 1)(인접 블록들의 움직임 시간 벡터 중간값) 또는 PMV = (2, 1)(인접 블록들의 움직임 시간 벡터 평균 값)간의 차분 MVD = (1, 2) 또는 MVD = (2, 2)를 사용한다. Also in this case, the adaptive motion vector prediction method optimal with motion search in the encoder side using time motion vector MV = (4, 3) and an adaptive predictor 140, a motion current obtained by block prediction motion vector value in the time vector PMV = (3, 1) (move time vector median value of the adjacent block), or PMV = (2, 1) a difference MVD = (1, 2) between the (movement time vector average value of the adjacent block), or MVD = ( uses 2, 2).

도 9 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 9 (a) and (b) is the reference frame of the current block if all of the reference frames of an encoded frame, and adjacent blocks of the previous space is the encoded frame before the time shown by the motion vector prediction method and calculations.

도 9 (a)에서 현재 블록의 참조 프레임은 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우, 인접 블록에서는 현재 블록의 변위 움직임 벡터 예측을 수행하는데 필요한 정보를 얻을 수 없기 때문에 변위 움직임 벡터 예측 값은 (0,0) 벡터를 그 값으로 사용한다. 9 refer to the current block in (a) the frame is a reference frame of an encoded frame, and adjacent blocks of the previous space, both when the coded frame to the previous time, the adjacent blocks in the need to carry out the displacements the motion vector prediction of the current block because they can not obtain information displacement motion vector prediction value uses a (0,0) vector with that value.

도 9 (b)는 이전 공간의 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 이전 시간에 부호화된 프레임일 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 움직임 벡터 DV = (3, 3)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 공간 움직임 벡터 PDV = (0,0)((0,0) 벡터)간의 차분 DVD = (3, 3)을 사용한다. Figure 9 (b) is a coded frame of the previous space, if all of the reference frame of the neighboring block is coded frame in the previous time, the optimum movement through the motion search in the encoder side using the adaptive motion vector prediction method vector DV = (3, 3) and the adaptive difference between the predictor 140, the motion area are obtained by block prediction motion vector value in the vector PDV = (0,0) ((0,0) vector) DVD = (3, 3 ) use.

도 10 (a) 및 (b) 는 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우 움직임 벡터 예측 방법과 계산 과정을 도시한다. Figure 10 (a) and (b) is a motion vector prediction method and the calculation process when the reference frame in the current block is a coded frame in the previous time, the reference frame of the neighboring blocks are both coded frame in the current area and the other area It is shown.

도 10 (a)에서 현재 블록의 참조 프레임은 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우, 인접 블록에서는 현재 블록의 움직임 벡터 예측을 수행하는데 필요한 정보를 얻을 수 없기 때문에 움직임 벡터 예측 값은 (0,0) 벡터를 그 값으로 사용한다. Fig from 10 (a) reference frame of the current block is coded frame in the previous time, the reference frame of the neighboring block when all of the encoded frames in the current area and other area adjacent block in performing the motion vector prediction of the current block due to the required information can not be obtained motion vector prediction value uses a (0,0) vector with that value.

도 10 (b)는 이전 시간에 부호화된 프레임이고, 인접 블록의 참조 프레임은 모두 현재 공간과 다른 공간의 부호화된 프레임일 경우, 적응적 움직임 벡터 예측 방법을 이용하는 인코더 측에서 움직임 검색을 통한 최적의 움직임 벡터 MV = (2, 1)과 적응적 예측부(140)에서 현재 블록의 예측 움직임 벡터값으로 구한 벡터 PMV = (0,0)((0,0) 벡터)간의 차분 MVD = (2, 1)을 인코더에서 사용한다. Figure 10 (b) is optimized through the motion search in the previous and the encoded frame in time, when all of the reference frame of the neighboring block is coded frames of the current area and the other area, the encoder side using the adaptive motion vector prediction method motion vector MV = (2, 1) and the adaptive predictor 140, a current block of a predicted motion vector value obtained by vector PMV = difference between MVD = (0, 0) ((0, 0) vector) in the section (2, 1) to be used by the encoder.

도 11 은 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 인코더를 도시한다. Figure 11 shows an encoder based on an adaptive motion estimation method according to an embodiment of the present invention.

적응적 움직임 예측 기법에 기반한 인코더는 움직임 벡터 예측부(1110) 및 엔트로피 부호화부(1120)를 포함한다. An encoder based on an adaptive motion estimation method includes a motion vector prediction unit 1110 and an entropy coding unit 1120.

움직임 벡터 예측부(1110)는 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. A motion vector prediction unit 1110 is a current block is detected, the neighboring block which refers to the same block and the block to refer to the temporal or spatial and calculate the predicted motion vector value of the current block based on the motion vector of the detected block. 또한, 움직임 벡터 예측부(1110)는 블록 검출부(1111)와 적응적 예측부(1112)를 포함하며, 이에 관한 설명은 도 1에서 관련된 설명과 기술적 구성이 유사한 바 이를 참고하기로 한다. In addition, there will be the motion vector predicting unit 1110 is the block detection section 1111 and the adaptive includes a predictor 1112, and thus explanation of this description, see the technical configuration is similar to the bar in the relevant Fig.

엔트로피 부호화부(1120)는 움직임 예측을 통해 찾은 현재 블록의 움직임 벡터(MV(Motion Vector)(s1122)에서 움직임 벡터 예측부(1110)에서 본 발명의 적응적 움직임 벡터 예측을 통해 구한 현재 블록의 예측 움직임 벡터값(PMV(Prediction Motion Vector)(s1121)의 차분(MVD, motion vector diffrerence)을 부호화한다. 구체적인 예로 도 3(b)~ 도 10(b)에서 구한 차분 값을 부호화 한다. An entropy coding unit 1120, a prediction of the current block is obtained through the adaptive motion vector predictor of the present invention In the motion vector predicting unit 1110 by the motion vector (MV (Motion Vector) (s1122) of the current block found by the Motion Estimation and encoding the motion vector values ​​(PMV (Prediction motion Vector) difference between the (s1121) (MVD, motion vector diffrerence). encode the difference value calculated in FIG. 3 a specific example (b) ~ 10 (b) Fig.

인코더 내의 엔트로피 부호화부(1120)에서는 본 발명의 적응적 움직임 벡터 예측 방법을 통해 예측 움직임 벡터값을 구하여 예측 정도가 더 정확해 질수록 현재 블록의 움직임 벡터에서 현재 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)이 줄어들어 부호화에 사용될 비트수가 감소된다. An entropy coding unit 1120 in the adaptive motion vector prediction method, obtain the prediction motion vector value The more predicts degree can be more accurate by the difference between the predicted motion vector value of the current block in the current block, the motion vector of the invention in the encoder ( MVD = MV- PMV) is reduced by reducing the number of bits used for encoding.

도 12 는 본 발명의 바람직한 일 실시예로서, 적응적 움직임 예측 기법에 기반한 디코더를 도시한다. Figure 12 shows a decoder based on the adaptive motion estimation method according to an embodiment of the present invention.

인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더는 수신부(도시 안됨), 엔트로피 디코딩부(1210), 움직임 벡터 예측부(1230), 움직임 벡터 복원부(1240)을 포함한다. Decoding by using the blocks of the adaptive motion vector predicting method in the encoded multi-view video bitstream decoder is a receiver (not shown), the entropy decoding unit 1210, a motion vector predictor 1230, a motion vector recovery unit (1240 ) a.

수신부는 움직임 벡터 정보, 인코더에서 소정 블록의 움직임 벡터에서 상기 소정 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)한 값인 움직임 벡터 차분값을 포함하는 인코더에서 생성된 다시점 동영상 비트스트림을 수신한다. Receiving a motion vector information, the difference between the predicted motion vector value of the predetermined block in the motion vector of a predetermined block (MVD = MV- PMV) a multi-viewpoint video bit generated by the encoder including a value of the motion vector difference value from the stream encoder It receives.

엔트로피 디코딩부(1210)에서는 인코더에서 생성된 다시점 동영상 비트스트림을 받아 수신된 비트 스트림 내의 블락들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 먼저 인트라(Intra) 프레임을 복호화를 수행한 후 인터(Inter) 프레임을 엔트로피 복호화 한다. The entropy decoding unit 1210 in the block in a received bit stream receives a multi-view video bitstream generated by the encoder by using the motion vector information and the motion vector difference value, first perform the decoding of the intra (Intra) frame the entropy decoding the Inter (Inter) frame.

움직임 벡터 예측부(1230)는 엔트로피 디코딩부(1210)에서 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다. A motion vector prediction unit 1230 entropy-decoding unit 1210, the adjacent block detects a neighboring block to refer to the same block and the block to refer to the temporal or spatial block, the current block decoded in within the bit stream decoding and the detection in the wherein the motion vector is determined on the basis of the predicted motion vector value of the current block. 움직임 벡터 예측부(1230)에서 예측 움직임 벡터값을 구하는 기술적 사상은 도 1과 관련하여 기술한 기술적 사상이 유사한바, 상세한 설명은 도 1과 관련한 부분을 참고한다. The motion vector predicting unit 1230 is the technical concept is the technical concept described in conjunction with Figure 1 to obtain the prediction motion vector value is similar to the bar, and the detailed description, please refer to the related parts with FIG.

움직임 벡터 복원부(1240) 엔트로피 디코딩 부(1210)에서 인터 프레임을 엔트로피 복호화 한 후 생성된 움직임 벡터 차분(MVD)과 움직임 벡터 예측부(1230)에서 구한 블록의 예측 움직임 벡터값(PMV)을 합하여 움직임 벡터를 복원한다. The combined prediction motion vector values ​​(PMV) of the block obtained from the motion vector reconstruction unit 1240, the motion vector difference produced after the entropy decoding the inter frame from the entropy decoding unit (1210) (MVD) and a motion vector predictor 1230 It restores the motion vector.

도 13 은 본 발명의 바람직한 일 실시예로서, 다시점 영상에서 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 13 illustrates a motion vector prediction process in a preferred embodiment of the present invention, the multi-view images as a flow chart.

다시점 영상에서 움직임 벡터를 예측하기 위하여, 현재 블록의 참조 블록을 참조하는 인접 블록을 검출한다(S1310). In order to estimate the motion vector in the multi-view images again, it detects a neighboring block refer to a reference block of the current block (S1310). 현재 블록의 움직임 벡터가 시간 기반 벡 터인지 공간 기반 벡터인지 여부를 판단한다(S1320). It is determined whether or not the current block, the motion vector is a time-based vectors that the space-based vector (S1320). 검출된 블록 중에서 움직임 벡터가 현재 블록의 움직임 벡터의 벡터 종류와 동일한 블록을 검출한다(S1330, S1340). And from among the detected motion vector is detected block of the same block and vector type of a motion vector of a current block (S1330, S1340).

현재 블록의 움직임 벡터가 시간 기반 벡터인 경우의 실시예는 도 4, 6, 8, 10 에 도시되어 있고, 현재 블록의 움직임 벡터가 공간 기반 벡터의 실시예는 3, 5, 7, 9에 도시되어 있다. Embodiment is shown in Fig. 4, 6, 8 and 10, an embodiment of a present block a motion vector space-based vector of the case where the current block is the motion vector is a time-based vectors are shown in Figure 3, 5, 7, 9 It is.

검출된 시간 기반 또는 공간 기반 움직임 벡터를 기초로 예측 움직임 벡터값을 적응적으로 예측한다. A predicted motion vector value based on the detected time-based or space-based motion vector prediction is adaptively. 움직임 벡터의 종류 및 검출된 블록의 수에 기초하여 현재 블록의 예측 움직임 벡터값을 검출하며, 이에 대하여서는 도 1의 적응적 예측부(140)에 관한 설명을 참고한다. Based on the number of kinds of motion vectors and the detected block, and detects a motion vector prediction value of the current block, reference is made to the description of the adaptive predictor 140 in FIG. 1 among properties thereto.

도 14 는 본 발명의 바람직한 일 실시예로서, 인코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 14 illustrates a motion vector prediction process in the multi-view images again from the encoder as a preferred embodiment of the invention as a flow chart.

다시점 영상에서 움직임 벡터를 적응적 예측 방법을 기반으로 부호화 하기 위하여, 현재 블록이 시간적 또는 공간적으로 참조하는 블록을 검출한다. In order to code the motion vector in the multi-view images again, based on an adaptive prediction method, and detects the block to the current block is referred to as temporal or spatial. 그 후 현재 블록과 인접한 블록 중 현재 블록이 참조하는 블록을 참조하는 블록을 검출한다(S1410). After that detects a block that references a block of the current block of the reference current block and the adjacent block (S1410). 여기서 현재 블록의 인접 블록은 현재 블록의 좌측, 상측 및 우상측의 블록을 의미한다. The adjacent blocks of the current block refers to left, upper and upper right block of the current block.

그 후, 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구한다(S1430). Then, on the basis of the motion vector of the detected block is determined the prediction value of the motion vector of the current block (S1430). 이 경우 상기 현재 블록의 예측 움직임 벡터값을 구하는 방법은 도 1 의 적응적 예측부(140)에서 예측 움직임 벡터값을 구하는 방법과 기술 적 사상에 있어 유사한바 이를 참고하기로 한다. In this case, to refer to it, similar to a bar in the current method to obtain the prediction motion vector value of the block to obtain the prediction motion vector values ​​from the adaptive predictor 140 in FIG. 1 and technical spirit.

그 후, 현재 블록의 움직임 벡터에서 상기 현재 블록의 예측 움직임 벡터값의 차분(MVD= MV- PMV)한 값인 움직임 벡터 차분값을 구하고, 그 차분값을 부호화 한다(S1430, S1440). Then, obtain a difference (MVD = MV- PMV) a value of the motion vector difference value of the predictive motion vector value of the current block from the current block of the motion vector, and encodes the difference value (S1430, S1440).

도 15 는 본 발명의 바람직한 일 실시예로서, 디코더에서 다시점 영상의 움직임 벡터 예측 과정을 흐름도로 도시한다. Figure 15 illustrates a motion vector prediction process in the multi-view images again from the decoder as an embodiment of the present invention in a flow diagram.

인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측에 기반하여 디코딩하기 위하여, 인코딩된 다시점 동영상 비트스트림을 수신한다(S1510). And the encoded multi-view order to decode the blocks on the basis of the video bit stream to the adaptive motion vector prediction, encoding the multi-view video bitstream received again (S1510). 이 경우 다시점 동영상 비트스트림은 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함한다. In this case, multi-view video bitstream including a soothing motion vector difference value and the motion vector information to the motion vector prediction value of the predetermined block in the motion vector value of the predetermined block.

그 후 수신된 다시점 동영상 비트 스트림 내의 블락 들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화한다(S1520). Then to the block in the received multi-view video bitstream decoding by using the motion vector information and the motion vector difference value (S1520).

다음 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하고(S1530), 움직임 벡터 차분(MVD)과 움직임 벡터 예측부(1230)에서 구한 블록의 예측 움직임 벡터값(PMV)을 합하여 움직임 벡터를 복원한다(S1540). And then decoding the bit block, the current block decoding of the stream is temporally or spatially detects the neighbor blocks referring to the same block as the block to refer to and based on the motion vector of the detected adjacent block prediction motion of the current block vector value the obtained (S1530), the motion vector difference (MVD) and a motion vector combined predicted motion vector values ​​(PMV) of the block obtained from prediction unit 1230, reconstructs a motion vector (S1540).

본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. The present invention can also be embodied as computer readable code on a computer-readable recording medium. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스 템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. The computer-readable recording medium includes all kinds of recording devices in which data readable by a computer system are stored.

컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플라피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, a magnetic tape, floppy disks, optical data storage devices, to be implemented in the form of carrier waves (such as data transmission through the Internet) including those. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상 도면과 명세서에서 최적 실시예들이 개시되었다. Optimum embodiments have been described in the above drawings and specification. 여기서 특정한 용어들이 사용되었으나, 이는 단지 본 발명을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것은 아니다. Here, although specific terms are used, which only geotyiji used for the purpose of illustrating the present invention is a thing used to limit the scope of the invention as set forth in the limited sense or the claims.

그러므로 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. Therefore, those skilled in the art will appreciate the various modifications and equivalent embodiments are possible that changes therefrom. 따라서 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다. Therefore, the true technical protection scope of the invention as defined by the technical spirit of the appended claims.

본 발명에서는 움직임 벡터 예측의 정확도를 높이기 위해 주위의 블록 중에 현재 프레임과 관련된 블록만을 이용하여 움직임 벡터 차분을 줄여 압축률을 높이는 효과가 있다. In the present invention, the effect of increasing the compression rate by reducing the motion vector difference by using only the blocks associated with the current frame in the block around to improve the accuracy of motion vector prediction.

또한, 본 발명의 움직임 벡터 예측 방법은 주위 블록의 상태에 따라 결정하 기 때문에 기존의 신택스(syntax)에 어떠한 영향을 주지 않으며, 부호화 및 복호화 단계의 움직임 벡터 예측 방법의 의미(semantics)만 약간 수정함으로써 달성될 수 있는 효과가 있다. Also, a motion vector prediction method of the present invention because that determines, depending on the state of the around the block, only a slight modification does not affect the existing syntax (syntax), the encoding and decoding stage motion vector prediction method means (semantics) of the there are effects that can be achieved by.

이에 따라, 보다 정확한 움직임 벡터 예측을 하여 실제 움직임 벡터와 예측된 움직임 벡터간의 차분 값을 줄여 엔트로피 부호화의 효율을 높임으로써 종래의 부호화 방법보다 높은 압축률을 얻을 수 있다. Thus, increasing more accurate motion vector prediction to reduce the difference value between the actual motion vector and the predicted motion vector efficiency of entropy encoding by a high compression rate can be attained than the prior art coding method.

Claims (36)

  1. 현재 블록의 인접 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; Of the current block, the adjacent block of the block detection unit for detecting only the blocks that refer to the same block as the block of the current block is referred to as temporal or spatial; And
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 다시점 영상에서 적응적 움직임 벡터 예측 장치. Adaptive motion vector estimating apparatus in the multi-view images again comprises a; adaptive prediction unit based on the motion vector of the detected block by the block detection unit to obtain the prediction motion vector value of the current block.
  2. 제 1 항에 있어서, 상기 적응적 예측부는 The method of claim 1, wherein the adaptive prediction section
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치. If the number of the detected block is one wherein the motion vector prediction value of the current block is an adaptive motion vector estimating apparatus in the multi-view video again, characterized in that the motion vector value of the detected block.
  3. 제 1 항에 있어서, 상기 적응적 예측부는 The method of claim 1, wherein the adaptive prediction section
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치. In either case, the number of individuals of the detected block the motion vector prediction value of the current block is an adaptive motion vector estimating apparatus in the multi-view video again, it characterized in that the average value of the motion vector of the detected block.
  4. 제 1 항에 있어서, 상기 적응적 예측부는 The method of claim 1, wherein the adaptive prediction section
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터 값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치. If the number of the detected block with three block of the current predicted motion vector value of the adaptive motion vector estimating apparatus in the multi-view video again, characterized in that the intermediate value of the motion vector of the detected block.
  5. 제 1 항에 있어서, 상기 적응적 예측부는 The method of claim 1, wherein the adaptive prediction section
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치. If no block is detected, the motion vector prediction value of the current block is (0, 0) of the adaptive motion vector estimating apparatus in the multi-view video again, characterized in that.
  6. 제 1 항에 있어서, According to claim 1,
    상기 움직임 벡터는 H.264 표준에 기초하여 추정되는 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 장치. The motion vectors to the adaptive motion vector estimating apparatus in the multi-view video, characterized in that the estimation based on the H.264 standard.
  7. 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; The current block is temporally or spatially detects the neighbor blocks referring to the same block as the block and referenced to the above on the basis of the motion vector of the detected current block to obtain the prediction motion vector value of the block motion vector predictor;
    상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 엔트로피 부호화부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. Adaptive motion vector prediction encoder comprises a; from the current block the motion vector value of the entropy encoder for encoding the difference between the predicted motion vector value of the current block calculated in the motion vector predictor.
  8. 제 7 항에 있어서, 상기 움직임 벡터 예측부는 The method of claim 7, wherein the motion vector prediction section
    상기 현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록 이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; The left block of the current block, the upper block and the upper right block of the block detection unit for detecting only the reference block of the same block and the block to the current block is referred to as temporal or spatial; And
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. Adaptive motion vector prediction encoder comprises a; adaptive prediction unit based on the motion vector of the detected block by the block detection unit to obtain the prediction motion vector value of the current block.
  9. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서 The method of claim 7, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. If the number of the detected block is one wherein the motion vector prediction value of the current block is an adaptive motion vector prediction encoder, characterized in that the motion vector value of the detected block.
  10. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서 The method of claim 7, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. If the number of the detected two-blocks the prediction motion vector value of the current block is an adaptive motion vector prediction encoder, characterized in that the average value of the motion vector of the detected block.
  11. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서 The method of claim 7, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. If the number of the detected block with three said predicted motion vector value of the current block is an adaptive motion vector prediction encoder, characterized in that the intermediate value of the motion vector of the detected block.
  12. 제 7 항에 있어서, 상기 움직임 벡터 예측부에서 The method of claim 7, wherein in the motion vector prediction section
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측 인코더. If no block is detected, the motion vector prediction value of the current block is an adaptive motion vector prediction encoder, characterized in that (0,0).
  13. 인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측방법을 이용하여 디코딩하는 디코더에 있어서, According to the block of the encoded multi-view video bitstream adaptive motion vector prediction method to a decoder for decoding by using,
    소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 수신부; Receiving unit for receiving a multi-view video bitstream to the motion vector prediction value of a predetermined block including the soothing motion vector difference value and the motion vector information in the motion vector value of the predetermined block;
    상기 수신된 비트 스트림 내의 블락들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 엔트로피 디코딩부; The motion vector information and the entropy decoding unit for decoding by using the motion vector difference value of the block in the received bitstream;
    상기 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 움직임 벡터 예측부; Said decoding of the blocks in the decoded bit stream the current block is temporally or spatially detects the neighbor blocks referring to the same block as the block to refer to and based on the motion vector of the detected adjacent block prediction motion of the current block vector value a motion vector predictor to obtain; And
    상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 움직임 벡터 복원부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. Adaptive motion vector prediction decoder comprises a; the motion vector difference value of the predictive motion vector value of the combined motion vector restoring unit for restoring a motion vector on the.
  14. 제 13 항에 있어서, 상기 움직임 벡터 예측부는 The method of claim 13, wherein the motion vector prediction section
    현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 블록 검출부; Of the current block, left side block, the upper block and the upper right block of the block detection unit for detecting only the blocks that refer to the same block as the block referenced by the current block is temporally or spatially; And
    상기 블록 검출부에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 적응적 예측부;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. Adaptive motion vector prediction decoder comprises a; adaptive prediction unit based on the motion vector of the detected block by the block detection unit to obtain the prediction motion vector value of the current block.
  15. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서 14. The method of claim 13, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 하나인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. If the number of the detected block is a predicted motion vector value of the current block is an adaptive motion vector prediction decoder, characterized in that the motion vector value of the detected block.
  16. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서 14. The method of claim 13, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 두 개인 경우 상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. If the number of the detected two-block motion vector prediction value of the current block is an adaptive motion vector prediction decoder, characterized in that the average value of the motion vector of the detected block.
  17. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서 14. The method of claim 13, wherein in the motion vector prediction section
    상기 검출된 블록의 수가 세 개인 경우 상기 현재 블록의 예측 움직임 벡터 값은 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. If the number of the detected block with three motion vector prediction value of the current block is an adaptive motion vector prediction decoder characterized in that the median value of the motion vector of the detected block.
  18. 제 13 항에 있어서, 상기 움직임 벡터 예측부에서 14. The method of claim 13, wherein in the motion vector prediction section
    블록이 검출되지 않은 경우 상기 현재 블록의 예측 움직임 벡터값은 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측 디코더. If no block is detected, the motion vector prediction value of the current block is an adaptive motion vector prediction decoder, characterized in that (0,0).
  19. (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록을 검출하는 단계; (A) detecting a block for the current block is referred to as temporal or spatial;
    (b) 상기 현재 블록과 인접한 블록 중 (a) 단계에서 검출된 블록을 참조하는 블록을 검출하는 단계; (B) detecting the blocks in which the reference to the block detected in step (a) of the current block and adjacent blocks; And
    (c) (b) 단계에서 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계;를 포함하는 것을 특징으로 하는 다시점 영상에서 적응적 움직임 벡터 예측 방법. Adaptive motion vector prediction method in the multi-view images comprising the; (c) (b) step the phase current to obtain the prediction motion vector value of the block based on the motion vector of the detected block from.
  20. 제 19 항에 있어서, 상기 (c) 단계에서 20. The method of claim 19, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 검출된 블록의 수가 하나인 경우 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 방법. The predicted motion vector value of the current block when the number of the detected block is a motion vector value of the motion adaptive in that video again, characterized in that the vector of the detected block prediction method.
  21. 제 19 항에 있어서, 상기 (c) 단계에서 20. The method of claim 19, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 두 개인 경우 상기 검출된 두 개 블록 각각의 움직임 벡터의 평균값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 방법. The predicted motion vector value of the current block is not the case with two back adaptive motion vector prediction method in the multi-view video, it characterized in that the average value of the two blocks each motion vector of the detection of the detected block.
  22. 제 19 항에 있어서, 상기 (c) 단계에서 20. The method of claim 19, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 세 개인 경우 상기 검출된 세 개 블록 각각의 움직임 벡터의 중간값인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 방법. The predicted motion vector value of the current block is not the case with three re-adaptive motion vector prediction method in the multi-view video, it characterized in that the median of the three blocks each motion vector of the detection of the detected block.
  23. 제 19 항에 있어서, 상기 (c) 단계에서 20. The method of claim 19, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 블록이 검출되지 않은 경우 (0,0) 인 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 방법. The predicted motion vector value of the current block is a block in this case is detected (0,0) is re-adaptive motion vector prediction method in the multi-view video according to claim.
  24. 제 19 항에 있어서, 20. The method of claim 19,
    상기 움직임 벡터는 H.264 표준에 기초하여 추정되는 것을 특징으로 하는 다시점 동영상에서 적응적 움직임 벡터 예측 방법. The motion vector adaptive motion vector prediction method in the multi-view video, characterized in that the estimated based on the H.264 standard.
  25. (a) 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; Comprising the steps of: (a) detecting the neighbor blocks referring to the same block as the block for the current block is referred to as temporal or spatial and motion vector to obtain the prediction value of the current block based on the motion vector of the detected block;
    (b) 상기 현재 블록의 움직임 벡터값에서 상기 움직임 벡터 예측부에서 구한 현재 블록의 예측 움직임 벡터값의 차분을 부호화하는 단계;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. (B) step of coding the difference between the predicted motion vector value of the current block calculated in the motion vector predictor from the motion vector value of the current block, the encoding method based on the adaptive motion vector predictor comprises a.
  26. 제 25 항에 있어서, 상기 (a) 단계는 26. The method of claim 25, wherein the step (a)
    (a1) 상기 현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 단계; (A1) the step of detecting only the block in which the current block, left side block, the upper block and the upper right block of the current block of the reference block with the same block that refers to a temporal or spatial; And
    (a2) 상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 계산하는 단계;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. (A2) calculating a predicted motion vector value of the current block based on the motion vector of the detected block, an encoding method based on the adaptive motion vector prediction which is characterized in that it comprises a.
  27. 제 25 항에 있어서, 상기 (b) 단계는 26. The method of claim 25, wherein step (b)
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 하나인 경우 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. The predicted motion vector value of the current block is the encoding method based on the adaptive motion vector prediction, it characterized in that the motion vector value in the case where a number of the detected block of the detected block.
  28. 제 25 항에 있어서, 상기 (b) 단계는 26. The method of claim 25, wherein step (b)
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 두 개인 경우 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. The predicted motion vector value of the current block is the number of the detected block, if a two-encoding method based on the adaptive motion vector prediction, characterized in that the average value of the motion vector of the detected block.
  29. 제 25 항에 있어서, 상기 (b) 단계는 26. The method of claim 25, wherein step (b)
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 세 개인 경우 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. The predicted motion vector value of the current block is the encoding method based on the adaptive motion vector prediction of a case with three the number of the detected block characterized in that the median value of the motion vector of the detected block.
  30. 제 25 항에 있어서, 상기 (b) 단계는 26. The method of claim 25, wherein step (b)
    상기 현재 블록의 예측 움직임 벡터값은 블록이 검출되지 않은 경우 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 인코딩 방법. The predicted motion vector value of the current block is the encoding method based on the adaptive motion vector prediction, characterized in that (0, 0) when no block is detected.
  31. 인코딩된 다시점 동영상 비트 스트림의 블락들을 적응적 움직임 벡터 예측에 기반하여 디코딩하는 방법에 있어서, In the block of the encoded multi-view video bitstream again, a method of decoding based on the adaptive motion vector prediction,
    (a) 소정 블록의 움직임 벡터값에서 상기 소정 블록의 예측 움직임 벡터값을 차분한 움직임 벡터 차분값, 움직임 벡터 정보를 포함하는 다시점 동영상 비트스트림을 수신하는 단계; (A) receiving a multi-view video bitstream to the motion vector prediction value of a predetermined block including the soothing motion vector difference value and the motion vector information in the motion vector value of the predetermined block;
    (b) 상기 수신된 다시점 동영상 비트 스트림 내의 블락 들을 상기 움직임 벡터 정보 및 상기 움직임 벡터 차분값을 이용하여 복호화하는 단계; (B) a step of decoding by using the motion vector information and the motion vector difference value of the block in the received multi-view video bitstream;
    (c) 상기 복호화된 비트 스트림 내의 블락 중 복호화된 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 인접 블록을 검출하고 상기 검출된 인접 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계; (C) the decoded block, the current block is decoded from the bit stream is detected, the neighboring block which refers to the same block and the block to refer to the temporally or spatially predicting the current block based on the motion vector of the detected adjacent block obtaining a motion vector value; And
    (d) 상기 움직임 벡터 차분값에 상기 예측 움직임 벡터값을 합하여 움직임 벡터를 복원하는 단계;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. The decoding method based on the adaptive motion vector prediction comprising the; (d) recovering a motion vector difference value of the motion vector combined with said motion vector prediction value to.
  32. 제 31 항에 있어서, 상기 (c) 단계는 32. The method of claim 31, wherein the step (c)
    (c1) 현재 블록의 좌측 블록, 상측 블록 및 우상측 블록 중 상기 현재 블록이 시간적 또는 공간적으로 참조하는 블록과 동일한 블록을 참조하는 블록만을 검출하는 단계; (C1) the step of detecting only the blocks that refer to the same block and the block to the left block, an upper block and the upper right side of the current block of the blocks of the current block is referred to as temporal or spatial;
    (c2)상기 검출된 블록의 움직임 벡터를 기초로 상기 현재 블록의 예측 움직임 벡터값을 구하는 단계;를 포함하는 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. (C2) calculating a predicted motion vector value of the current block based on the motion vector of the detected block, the decoding method based on the adaptive motion vector prediction which is characterized in that it comprises a.
  33. 제 31 항에 있어서, 상기 (c) 단계에서 32. The apparatus of claim 31, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 하나인 경우 상기 검출된 블록의 움직임 벡터값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. The predicted motion vector value of the current block is a decoding method based on the adaptive motion vector prediction, it characterized in that the motion vector value in the case where a number of the detected block of the detected block.
  34. 제 31 항에 있어서, 상기 (c) 단계에서 32. The apparatus of claim 31, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 두 개인 경우 상기 검출된 블록들의 움직임 벡터의 평균값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. The predicted motion vector value of the current block is the number of the detected block, if a two-decoding method based on the adaptive motion vector prediction, characterized in that the average value of the motion vector of the detected block.
  35. 제 31 항에 있어서, 상기 (c) 단계에서 32. The apparatus of claim 31, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 상기 검출된 블록의 수가 세 개인 경우 상기 검출된 블록들의 움직임 벡터의 중간값인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. The predicted motion vector value of the current block is a decoding method based on the adaptive motion vector prediction of a case with three the number of the detected block characterized in that the median value of the motion vector of the detected block.
  36. 제 31 항에 있어서, 상기 (c) 단계에서 32. The apparatus of claim 31, wherein (c) in step
    상기 현재 블록의 예측 움직임 벡터값은 블록이 검출되지 않은 경우 (0,0) 인 것을 특징으로 하는 적응적 움직임 벡터 예측에 기반한 디코딩 방법. The predicted motion vector value of the current block is a decoding method based on the adaptive motion vector prediction, characterized in that (0, 0) when no block is detected.
KR20050114406A 2005-11-28 2005-11-28 Again adaptive motion vector estimating apparatus and method in a multi-view image KR101174901B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20050114406A KR101174901B1 (en) 2005-11-28 2005-11-28 Again adaptive motion vector estimating apparatus and method in a multi-view image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20050114406A KR101174901B1 (en) 2005-11-28 2005-11-28 Again adaptive motion vector estimating apparatus and method in a multi-view image

Publications (2)

Publication Number Publication Date
KR20070055903A true true KR20070055903A (en) 2007-05-31
KR101174901B1 KR101174901B1 (en) 2012-08-17

Family

ID=38277167

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20050114406A KR101174901B1 (en) 2005-11-28 2005-11-28 Again adaptive motion vector estimating apparatus and method in a multi-view image

Country Status (1)

Country Link
KR (1) KR101174901B1 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101039204B1 (en) * 2006-06-08 2011-06-03 경희대학교 산학협력단 Method for predicting a motion vector in multi-view video coding and encoding/decoding method and apparatus of multi-view video using the predicting method
KR101144874B1 (en) * 2007-04-11 2012-05-15 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
WO2012173415A3 (en) * 2011-06-14 2013-03-28 삼성전자 주식회사 Method and apparatus for encoding motion information and method and apparatus for decoding same
US8488891B2 (en) 2007-04-11 2013-07-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
KR101349405B1 (en) * 2010-08-23 2014-01-10 한국전자통신연구원 Method and apparatus for template matching for improving compression efficiency of scalable video codec
WO2014065546A1 (en) * 2012-10-22 2014-05-01 (주)휴맥스 Method for predicting inter-view motion and method for determining inter-view merge candidates in 3d video
US9171376B2 (en) 2009-09-22 2015-10-27 Samsung Electronics Co., Ltd. Apparatus and method for motion estimation of three dimension video

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101039204B1 (en) * 2006-06-08 2011-06-03 경희대학교 산학협력단 Method for predicting a motion vector in multi-view video coding and encoding/decoding method and apparatus of multi-view video using the predicting method
US8520961B2 (en) 2006-10-13 2013-08-27 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
US8554002B2 (en) 2007-04-11 2013-10-08 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8488891B2 (en) 2007-04-11 2013-07-16 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US9088779B2 (en) 2007-04-11 2015-07-21 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8532412B2 (en) 2007-04-11 2013-09-10 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8548261B2 (en) 2007-04-11 2013-10-01 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding multi-view image
KR101144874B1 (en) * 2007-04-11 2012-05-15 삼성전자주식회사 Method and apparatus for encoding and decoding multi-view image
US8611688B2 (en) 2007-04-11 2013-12-17 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8670626B2 (en) 2007-04-11 2014-03-11 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US8644628B2 (en) 2007-04-11 2014-02-04 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding and multi-view image
US9171376B2 (en) 2009-09-22 2015-10-27 Samsung Electronics Co., Ltd. Apparatus and method for motion estimation of three dimension video
KR101349405B1 (en) * 2010-08-23 2014-01-10 한국전자통신연구원 Method and apparatus for template matching for improving compression efficiency of scalable video codec
WO2012173415A3 (en) * 2011-06-14 2013-03-28 삼성전자 주식회사 Method and apparatus for encoding motion information and method and apparatus for decoding same
WO2014065546A1 (en) * 2012-10-22 2014-05-01 (주)휴맥스 Method for predicting inter-view motion and method for determining inter-view merge candidates in 3d video

Also Published As

Publication number Publication date Type
KR101174901B1 (en) 2012-08-17 grant

Similar Documents

Publication Publication Date Title
RU2310231C2 (en) Space-time prediction for bi-directional predictable (b) images and method for prediction of movement vector to compensate movement of multiple images by means of a standard
US20070019724A1 (en) Method and apparatus for minimizing number of reference pictures used for inter-coding
US20040223548A1 (en) Moving picture encoding apparatus, moving picture decoding apparatus, moving picture encoding method, moving picture decoding method, moving picture encoding program, and moving picture decoding program
US20060256866A1 (en) Method and system for providing bi-directionally predicted video coding
US20110002389A1 (en) Methods and systems to estimate motion based on reconstructed reference frames at a video decoder
US20080107181A1 (en) Method of and apparatus for video encoding and decoding based on motion estimation
US20080240246A1 (en) Video encoding and decoding method and apparatus
US20090168884A1 (en) Method and Apparatus For Reusing Available Motion Information as a Motion Estimation Predictor For Video Encoding
US20090245376A1 (en) Method and apparatus for encoding/decoding motion vector information
US20080117977A1 (en) Method and apparatus for encoding/decoding image using motion vector tracking
US20070064799A1 (en) Apparatus and method for encoding and decoding multi-view video
US20080107180A1 (en) Method and apparatus for video predictive encoding and method and apparatus for video predictive decoding
US20110150095A1 (en) Image encoding/decoding apparatus and method
EP1610560A1 (en) Method and apparatus for generating and for decoding coded picture data
US20040013309A1 (en) Method and apparatus for encoding and decoding motion vectors
US20080240247A1 (en) Method of encoding and decoding motion model parameters and video encoding and decoding method and apparatus using motion model parameters
US20080181309A1 (en) Method and apparatus for encoding video and method and apparatus for decoding video
US20050185712A1 (en) Method, medium, and apparatus for 3-dimensional encoding and/or decoding of video
US20080159401A1 (en) Method and apparatus for estimating motion vector using plurality of motion vector predictors, encoder, decoder, and decoding method
US20090220005A1 (en) Method and apparatus for encoding and decoding image by using multiple reference-based motion prediction
US20090092188A1 (en) Method and apparatus for inter prediction encoding/decoding an image using sub-pixel motion estimation
US20100232507A1 (en) Method and apparatus for encoding and decoding the compensated illumination change
JP2010081465A (en) Moving image encoding method and moving image decoding method
US20090225842A1 (en) Method and apparatus for encoding and decoding image by using filtered prediction block
US20080159400A1 (en) Method and apparatus for predicting motion vector using global motion vector, encoder, decoder, and decoding method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150728

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160726

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee