KR100893930B1 - Time direct prediction method for encoding multi-view video - Google Patents

Time direct prediction method for encoding multi-view video Download PDF

Info

Publication number
KR100893930B1
KR100893930B1 KR1020070061714A KR20070061714A KR100893930B1 KR 100893930 B1 KR100893930 B1 KR 100893930B1 KR 1020070061714 A KR1020070061714 A KR 1020070061714A KR 20070061714 A KR20070061714 A KR 20070061714A KR 100893930 B1 KR100893930 B1 KR 100893930B1
Authority
KR
South Korea
Prior art keywords
block
motion vector
anchor
view
image
Prior art date
Application number
KR1020070061714A
Other languages
Korean (ko)
Other versions
KR20080050952A (en
Inventor
권형진
조숙희
허남호
김진웅
이수인
정제창
진순종
최민석
김원기
Original Assignee
한국전자통신연구원
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원, 한양대학교 산학협력단 filed Critical 한국전자통신연구원
Publication of KR20080050952A publication Critical patent/KR20080050952A/en
Application granted granted Critical
Publication of KR100893930B1 publication Critical patent/KR100893930B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Abstract

1. 청구범위에 기재된 발명이 속한 기술분야

본 발명은 다시점 비디오 부호화를 위한 시간 직접예측 방법에 관한 것임.

2. 발명이 해결하려고 하는 기술적 과제

본 발명은 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(참조블록)이 동일 시점(View) 영상이면 시간적인 상관도를 이용하여 대상블록의 움직임 벡터를 예측하되, 특히 다른 시점 영상이면 앵커블록의 움직임 벡터를 이용하여 예측함으로써, 다시점 영상에서 현재 대상블록의 움직임 정보를 정밀하게 예측할 수 있으며 이로 인해 압축 효율을 개선할 수 있는, 다시점 비디오 부호화를 위한 시간 직접예측 방법을 제공하는데 그 목적이 있음.

3. 발명의 해결방법의 요지

본 발명은, 다시점 비디오 부호화를 위한 시간 직접예측 방법에 있어서, 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(참조블록)이 상기 앵커블록과 동일한 시간축 상에 있는 다른 시점(View)의 영상블록인지를 확인하는 참조블록 확인 단계; 및 상기 확인 결과, 상기 참조블록이 다른 시점의 영상블록이면 상기 앵커블록의 움직임 벡터를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 다시점 예측 단계를 포함함.

4. 발명의 중요한 용도

본 발명은 다시점 비디오 부호화를 위한 시간 직접예측 등에 이용됨.

Figure R1020070061714

다시점 비디오 부호화, 시간 직접예측, 공간 직접예측, 움직임 벡터, 대상블록, 대상픽처, 앵커블록, 앵커픽처, 참조블록, 참조픽처, 시간적 상관도

1. TECHNICAL FIELD OF THE INVENTION

The present invention relates to a temporal direct prediction method for multiview video coding.

2. The technical problem to be solved by the invention

The present invention predicts a motion vector of a target block using a temporal correlation when the block (reference block) referred to by the anchor block to the target block to be encoded is the same view image. By predicting the motion vector of the block, it is possible to precisely predict the motion information of the current target block in the multiview image, thereby improving the compression efficiency, thereby providing a temporal direct prediction method for multiview video coding. There is a purpose.

3. Summary of Solution to Invention

According to the present invention, in the direct temporal prediction method for multi-view video encoding, a block (reference block) referenced by an anchor block for a target block to be encoded is located at a different view (View) on the same time axis as the anchor block. A reference block checking step of checking whether the image block is an image block; And a multi-view prediction step of predicting a motion vector of the target block using the motion vector of the anchor block if the reference block is an image block of another view.

4. Important uses of the invention

The present invention is used for temporal direct prediction for multi-view video encoding.

Figure R1020070061714

Multi-view video coding, temporal direct prediction, spatial direct prediction, motion vector, target block, target picture, anchor block, anchor picture, reference block, reference picture, temporal correlation

Description

다시점 비디오 부호화를 위한 시간 직접예측 방법{TIME DIRECT PREDICTION METHOD FOR ENCODING MULTI-VIEW VIDEO}Time-directed prediction for multi-view video coding {TIME DIRECT PREDICTION METHOD FOR ENCODING MULTI-VIEW VIDEO}

도 1 은 종래의 시간 직접예측 모드에 대한 설명도,1 is an explanatory diagram of a conventional time direct prediction mode;

도 2 는 다시점 비디오 부호화에서의 종래의 시간 직접예측 모드에 대한 설명도,2 is an explanatory diagram of a conventional temporal direct prediction mode in multiview video encoding;

도 3 은 다시점 비디오 부호화에서 사용하는 픽처 그룹의 구조도,3 is a structural diagram of a picture group used in multiview video encoding;

도 4 는 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법에 대한 일실시예 설명도,4 is a diagram for explaining a direct temporal prediction method for multi-view video encoding according to the present invention;

도 5 및 도 6 은 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법 중 앵커블록의 움직임 벡터가 하나인 경우에 대한 일실시예 설명도,5 and 6 are diagrams illustrating one embodiment of a motion vector of an anchor block in a direct temporal prediction method for multi-view video encoding according to the present invention;

도 7 은 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법에 대한 일실시예 흐름도,7 is a flowchart illustrating a method for directly predicting time for multiview video encoding according to the present invention;

도 8 은 본 발명에 적용되는 시간 직접예측 방법에서의 픽처 그룹의 일실시예 구조도,8 is a structural diagram of an embodiment of a picture group in a time direct prediction method applied to the present invention;

도 9a 내지 도 9c 는 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법과 종래의 공간 직접예측 방법에 따라 측정된 피크 전력에 따른 신호대 잡음비에 대한 비교도이다.9A to 9C are comparison diagrams of a signal-to-noise ratio according to peak power measured according to a temporal direct prediction method and a conventional spatial direct prediction method for multi-view video encoding according to the present invention.

* 도면의 주요 부분에 대한 부호 설명* Explanation of symbols on the main parts of the drawing

40: 대상픽처 401: 대상블록40: target picture 401: target block

41: 앵커픽처 411: 앵커블록41: anchor picture 411: anchor block

413, 415: 참조블록413, 415: reference block

본 발명은 다시점 비디오 부호화를 위한 시간 직접예측 방법에 관한 것으로, 더욱 상세하게는 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(참조블록)이 동일 시점(View) 영상이면 시간적인 상관도를 이용하여 대상블록의 움직임 벡터를 예측하되, 특히 다른 시점 영상이면 앵커블록의 움직임 벡터를 이용하여 예측함으로써, 다시점 영상에서 현재 대상블록의 움직임 정보를 정밀하게 예측할 수 있으며 이로 인해 압축 효율을 개선할 수 있는, 다시점 비디오 부호화를 위한 시간 직접예측 방법에 관한 것이다.The present invention relates to a temporal direct prediction method for multiview video encoding. More specifically, when a block (reference block) referenced by an anchor block for a target block to be encoded is the same view image, temporal correlation Predict the motion vector of the target block by using, but in particular, by using the motion vector of the anchor block if it is another viewpoint image, it is possible to accurately predict the motion information of the current target block in the multi-view image, thereby improving the compression efficiency. The present invention relates to a temporal direct prediction method for multiview video encoding.

직접예측 모드란 움직임 정보 부호화가 끝난 블록의 움직임 정보를 이용하여 부호화하고자 하는 블록의 움직임 정보를 예측하는 부호화 모드를 말한다. 직접예측 모드는 움직임 정보를 부호화하는 경우에 소요되는 비트 수가 없이도 부호화가 가능하기 때문에 압축효율이 향상된다. 직접예측 모드는 차분치 데이터(residual data)를 전송할 필요가 없을 뿐 아니라, 직접예측 모드가 나오는 빈도가 높기 때문에 엔트로피 부호화를 사용하는 H.264에서는 부호화 효율이 높아진다. 직접예측 모드를 이용하여 얻어지는 압축 효과는 부호화가 끝난 블록을 이용해서 현재 블록의 움직임 정보를 예측했을 때의 정밀도에 따라 다르다. 여기서, 정밀도란 정확한 움직임 정보를 예측할 수 있는 정도를 의미한다. The direct prediction mode refers to an encoding mode that predicts motion information of a block to be encoded using motion information of a block in which motion information is encoded. In the direct prediction mode, since the encoding can be performed without the number of bits required for encoding the motion information, the compression efficiency is improved. In the direct prediction mode, not only does it need to transmit residual data, but also because of the high frequency of the direct prediction mode, the encoding efficiency is increased in H.264 using entropy coding. The compression effect obtained by using the direct prediction mode depends on the precision when the motion information of the current block is predicted using the encoded block. Here, the precision means the degree to which accurate motion information can be predicted.

이러한 직접예측 모드는 시간 방향의 움직임 정보 상관도를 사용하는 시간 직접예측 모드와, 공간방향(예를 들어, 픽처 내의 수평수직 2차원 공간 등)의 움직임 정보 상관도를 사용하는 공간 직접예측 모드로 나눌 수 있다. Such direct prediction modes include temporal direct prediction mode using motion information correlation in the temporal direction and spatial direct prediction mode using motion information correlation in the spatial direction (for example, horizontal and vertical two-dimensional space in a picture). Can be divided.

H.264/AVC에서 제공되는 두 가지의 직접예측 모드를 살펴보면, 시간 직접예측 모드는 서로 다른 움직임을 가진 영상에서 그 움직임의 속도가 일정할 경우 이용된다. 이러한 경우에 공간 직접예측 모드에 비해 시간 직접예측 모드에서의 예측 효과가 크다. 서로 다른 움직임이 포함되면 블록 간의 공간적인 상관도가 없어지기 때문에, 공간 직접예측 모드로는 예측하기 곤란하다.Looking at the two direct prediction modes provided in H.264 / AVC, the temporal direct prediction mode is used when the speed of the motion is constant in an image having different motions. In this case, the prediction effect in the temporal direct prediction mode is greater than in the spatial direct prediction mode. Since the spatial correlation between blocks is lost when different motions are included, it is difficult to predict in the spatial direct prediction mode.

다음으로, 공간 직접예측 모드는 서로 같은 움직임을 가진 영상에서 움직임의 속도가 변하는 경우에 이용된다. 이러한 경우에 시간 직접예측 모드에 비해 공간 직접예측 모드에서의 예측 효과가 크다. 움직임의 속도가 변할 경우 시간적인 움직임 상관도가 없어지기 때문에, 시간 직접예측 모드로는 예측하기 곤란하다.Next, the spatial direct prediction mode is used when the speed of motion changes in an image having the same motion. In this case, the prediction effect is larger in the spatial direct prediction mode than in the temporal direct prediction mode. Since the temporal motion correlation disappears when the speed of motion changes, it is difficult to predict in the time direct prediction mode.

도 1 은 종래의 시간 직접예측 모드에 대한 설명도이다. 1 is an explanatory diagram of a conventional time direct prediction mode.

도 1에 도시된 바와 같이, 종래 시간 직접예측 모드에서는 현재 부호화하고 자 하는 대상픽처(10)의 역방향으로 가장 가까운 참조픽처가 앵커픽처(11)가 된다. 앵커픽처(11)에서 대상블록(101)과 같은 위치에 있는 블록이 앵커블록(111)이 된다. 앵커블록(111)의 움직임 벡터(Motion Vector)를 MVCOL(Motion Vector of the Co-Located block)(13)로 정하면, MVCOL(13)이 가리키는 참조픽처(12) 내의 영상블록(121)을 구할 수 있다.As shown in FIG. 1, in the conventional temporal direct prediction mode, the anchor picture 11 is the closest reference picture in the reverse direction of the target picture 10 to be currently encoded. A block at the same position as the target block 101 in the anchor picture 11 becomes the anchor block 111. If the motion vector of the anchor block 111 is set as the motion vector of the co-located block (MVCOL) 13, the image block 121 in the reference picture 12 indicated by the MVCOL 13 can be obtained. have.

그리고 종래 시간 직접예측 모드에서는 참조픽처(12), 대상픽처(10) 및 앵커픽처(11) 간의 움직임 속도가 일정하다고 가정한다. 대상블록(101)의 제1 및 제2 움직임 벡터를 각각 MVL0(141), MVL1(142)로 정하면, MVL0(141)와 MVL1(142)의 크기는 하기의 [수학식 1]을 이용하여 구할 수 있다.In the conventional temporal direct prediction mode, it is assumed that the moving speed between the reference picture 12, the target picture 10, and the anchor picture 11 is constant. If the first and second motion vectors of the target block 101 are determined as MVL0 141 and MVL1 142, respectively, the magnitudes of MVL0 141 and MVL1 142 can be obtained using Equation 1 below. Can be.

MVL0=MVCOL×TB/TDMVL0 = MVCOL × TB / TD

MVL1=-MVCOL×(TD-TB)/TD=MVL0-MVCOLMVL1 = -MVCOL X (TD-TB) / TD = MVL0-MVCOL

여기서, MVCOL는 앵커블록의 움직임 벡터, MVL0는 대상블록의 제1 움직임 벡터, MVL1는 대상블록의 제2 움직임 벡터, TB는 참조픽처 시점부터 대상픽처 시점까지의 시간, TD는 참조픽처 시점부터 앵커픽처 시점까지의 시간을 나타낸다.Here, MVCOL is the motion vector of the anchor block, MVL0 is the first motion vector of the target block, MVL1 is the second motion vector of the target block, TB is the time from the reference picture viewpoint to the target picture viewpoint, and TD is the anchor from the reference picture viewpoint. The time until the picture viewpoint is shown.

MVL0(141)와 MVL1(142)의 크기는 참조픽처(12), 대상픽처(10) 및 앵커픽처(11)의 간격에 비례함을 이용하여 상기의 [수학식 1]에서와 같이 구해진다. 따라서 시간 직접예측 모드는 MVL0(141)과 MVL1(142)에 각각 대응되는 영상블록(122, 112)을 이용하여 대상블록(101)을 부호화할 수 있다. The sizes of the MVL0 141 and the MVL1 142 are obtained as in Equation 1 using the proportionality between the reference picture 12, the target picture 10, and the anchor picture 11. Accordingly, in the direct temporal prediction mode, the target block 101 may be encoded using the image blocks 122 and 112 corresponding to the MVL0 141 and the MVL1 142, respectively.

시간 직접예측 모드에서는 전술한 대로 부호화하고자 하는 대상블록과 같은 위치에 있는 앵커블록의 움직임 벡터를 각각 L0과 L1과의 거리로 분할하여 대상블록의 움직임 벡터를 결정한다. 따라서 비교적 움직임이 일정한 패닝 영상 등에서는 예측 효율을 클 수 있다.In the temporal direct prediction mode, the motion vector of the target block is determined by dividing the motion vector of the anchor block at the same position as the target block to be encoded by the distance between L0 and L1, respectively. Therefore, the prediction efficiency may be high in a panning image having relatively constant motion.

하지만, 종래 H.264/AVC에서의 다시점 비디오 부호화에서는 두 가지 직접예측 모드 중 공간 직접예측 모드만이 사용되고 있다. 종래 다시점 부호화 구조에서는 시간 직접예측 모드를 지원하지 않고 있다. 이는 시간 직접예측 모드에서 사용하는 참조픽처와 다시점 비디오에서 사용하는 참조픽처가 상이하기 때문이다. 다시 말하면, 시간 직접예측 모드를 사용하기 위해서는 참조픽처가 동일한 카메라에서 찍은 연속화면에 존재해야 하지만, 다시점 비디오에서는 앵커블록이 동일 시간상에서 다른 카메라에서의 영상을 참조하게 되므로 종래의 시간 직접예측 모드를 그대로 사용할 수 없다. However, in multi-view video encoding in H.264 / AVC, only the spatial direct prediction mode is used among the two direct prediction modes. The conventional multi-view coding structure does not support the temporal direct prediction mode. This is because the reference picture used in the temporal direct prediction mode and the reference picture used in the multiview video are different. In other words, in order to use the temporal direct prediction mode, the reference picture must exist in a continuous picture taken by the same camera, but in the multi-view video, the anchor block refers to the image of another camera at the same time. Cannot be used as is.

도 2 는 다시점 비디오 부호화에서의 종래의 시간 직접예측 모드에 대한 설명도이다.2 is an explanatory diagram of a conventional temporal direct prediction mode in multiview video encoding.

도 2에 도시된 바와 같이, 종래의 시간 직접예측 모드를 다시점 비디오 부호화에 적용하는 경우를 살펴보면 다음과 같다. As shown in FIG. 2, the case where the conventional temporal direct prediction mode is applied to multi-view video encoding is as follows.

다시점 비디오 부호화에서 시간 직접예측 모드를 적용하여 C1 카메라의 대상픽처(20) 내의 대상블록(201)을 부호화하는 경우를 살펴보면, 부호화에 필요한 움직임 벡터는 앵커픽처(21) 내의 앵커블록(211)이 참조픽처(22) 내의 참조블록(221)을 시간 축으로 가리키는 MVCOL(222)이다. Referring to the case where the target block 201 is encoded in the target picture 20 of the C1 camera by applying a temporal direct prediction mode in multi-view video encoding, the motion vector required for encoding is the anchor block 211 in the anchor picture 21. The MVCOL 222 which points to the reference block 221 in this reference picture 22 on the time axis.

그러나 실제 앵커블록(211)의 움직임 벡터는 MVC0L0(212)와 MVC0L1(213)이다. MVCOL0(212)과 MVCOL1(213)는 부호화에 필요한 움직임 벡터(MVCOL)(222)와 상이하다. 따라서 종래의 시간예측 모드에서는 앵커블록(211)이 동일한 시간축 상에서 다른 시점의 영상블록을 참조하게 되므로, 종래의 시간 직접예측 모드를 그대로 이용하여 대상블록(201)의 움직임 벡터를 구하기 곤란하다는 문제점이 있다.However, the motion vectors of the actual anchor block 211 are MVC0L0 212 and MVC0L1 213. The MVCOL0 212 and the MVCOL1 213 are different from the motion vector (MVCOL) 222 necessary for encoding. Therefore, in the conventional time prediction mode, since the anchor block 211 refers to image blocks of different views on the same time axis, it is difficult to obtain a motion vector of the target block 201 using the conventional time direct prediction mode. have.

도 3 은 다시점 비디오 부호화에서 사용하는 픽처 그룹의 구조도이다. 3 is a structural diagram of a picture group used in multiview video encoding.

도 3에 도시된 바와 같이, 다시점 비디오 부호화에서 사용하는 픽처 그룹(GOP: Group of Picture)은 각각의 카메라(C0 내지 C7)에 의해 촬영된 영상의 프레임을 포함한다. 이러한 픽처 그룹에서 시간 직접예측 모드가 가능한 프레임과 가능하지 않은 프레임을 살펴보기로 한다.As shown in FIG. 3, a group of pictures (GOPs) used in multiview video encoding includes frames of an image photographed by the cameras C0 to C7. In this group of pictures, a frame in which temporal direct prediction mode is enabled and a frame not available will be described.

픽처 그룹 구조에서 B9 프레임을 부호화하고자 하는 경우에, 참조가능한 프레임은 I0 프레임과 I8 프레임뿐이다. 이러한 경우 종래의 H.264/AVC와 같이, B9 프레임은 종래의 시간 직접예측 모드를 이용하여 부호화가 가능하다. 예를 들면, 종래의 시간 직접예측 모드를 이용한 부호화는 0번 카메라에 의해 촬영된 영상의 B 프레임(B9 내지 B19)에서 모두 동일하게 적용된다. B9 내지 B19 프레임은 모두 참조픽처를 시간축 방향(가로 방향)으로 가지므로 종래의 시간 직접예측 모드를 사용할 수 있다. 2번, 4번, 6번, 7번 카메라의 B 프레임 역시 앵커픽처를 대부분 가로 방향으로 가진다. 이러한 경우에도 종래의 시간 직접예측 모드를 그대로 사용할 수 있다.In the case where the B9 frame is to be encoded in the picture group structure, only reference frames are I0 frames and I8 frames. In this case, like the conventional H.264 / AVC, the B9 frame can be encoded using the conventional time direct prediction mode. For example, the conventional encoding using the temporal direct prediction mode is equally applied to all the B frames B9 to B19 of the image photographed by the camera No.0. Since the frames B9 to B19 all have the reference picture in the time axis direction (horizontal direction), the conventional time direct prediction mode can be used. The B frames of cameras 2, 4, 6, and 7 also have most of the anchor pictures in the horizontal direction. Even in this case, the conventional time direct prediction mode can be used as it is.

한편, B45 프레임의 경우 P44 프레임을 앵커픽처로 가진다. P44 프레임의 참 조픽처는 P20 프레임이 되어 다른 카메라의 픽처를 참조한다. 이러한 경우, 종래의 시간 직접예측 모드를 사용할 수 없다는 문제점이 있다.On the other hand, the B45 frame has a P44 frame as an anchor picture. The reference picture of the P44 frame becomes the P20 frame to refer to the picture of another camera. In this case, there is a problem that the conventional time direct prediction mode cannot be used.

또한, 1번, 3번, 5번 카메라에서 찍은 영상도 역시 앵커픽처의 참조픽처는 동일 시간축 상에서 다른 카메라에 촬영된 영상에 존재할 수 있다. B34 프레임의 앵커픽처는 B33 프레임이고, B33 프레임의 참조픽처는 B2 프레임 또는 B32 프레임이거나, B9 프레임 또는 B21 프레임이 될 수 있다. B33 프레임의 참조픽처가 B9 프레임 또는 B21 프레임일 경우, 부호화하고자 하는 대상픽처의 앵커블록은 동일 시간축 상의 다른 카메라상의 픽처를 참조한다. 따라서 이러한 경우에 종래의 시간 직접예측 모드가 이용될 수 없다는 문제점이 있다.Also, an image taken by cameras 1, 3, and 5 may also exist in a reference picture of an anchor picture in an image captured by another camera on the same time axis. The anchor picture of the B34 frame is a B33 frame, and the reference picture of the B33 frame may be a B2 frame or a B32 frame, or a B9 frame or a B21 frame. When the reference picture of the B33 frame is a B9 frame or a B21 frame, the anchor block of the target picture to be encoded refers to a picture on another camera on the same time axis. Therefore, in this case, there is a problem that the conventional time direct prediction mode cannot be used.

본 발명은 상기 문제점을 해결하기 위하여 제안된 것으로, 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(참조블록)이 동일 시점(View) 영상이면 시간적인 상관도를 이용하여 대상블록의 움직임 벡터를 예측하되, 특히 다른 시점 영상이면 앵커블록의 움직임 벡터를 이용하여 예측함으로써, 다시점 영상에서 현재 대상블록의 움직임 정보를 정밀하게 예측할 수 있으며 이로 인해 압축 효율을 개선할 수 있는, 다시점 비디오 부호화를 위한 시간 직접예측 방법을 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above problem, and if the block (reference block) referenced by the anchor block for the target block to be encoded is the same view image, the motion vector of the target block using temporal correlation Multi-view video encoding, which predicts the motion information of the current target block in the multi-view image by predicting the motion block of the anchor block, in particular, if it is another viewpoint image, thereby improving compression efficiency. The purpose of the present invention is to provide a direct time prediction method.

본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있으며, 본 발명의 실시예에 의해 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Other objects and advantages of the present invention can be understood by the following description, and will be more clearly understood by the embodiments of the present invention. It will also be appreciated that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

상기 목적을 달성하기 위한 본 발명은, 다시점 비디오 부호화를 위한 시간 직접예측 방법에 있어서, 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(참조블록)이 상기 앵커블록과 동일한 시간축 상에 있는 다른 시점(View)의 영상블록인지를 확인하는 참조블록 확인 단계; 및 상기 확인 결과, 상기 참조블록이 다른 시점의 영상블록이면 상기 앵커블록의 움직임 벡터를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 다시점 예측 단계를 포함한다.According to the present invention for achieving the above object, in the time direct prediction method for multi-view video encoding, a block (reference block) referenced by an anchor block for a target block to be encoded is located on the same time axis as the anchor block. A reference block checking step of checking whether the image block is at another view; And a multi-view prediction step of predicting the motion vector of the target block using the motion vector of the anchor block if the reference block is an image block of another view.

또한, 본 발명은, 상기 확인 결과, 상기 참조블록이 상기 앵커블록과 동일 시점의 영상블록이면 시간적 상관도를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 동일시점 예측 단계를 더 포함한다.The present invention may further include a same-view prediction step of predicting a motion vector of the target block using a temporal correlation when the reference block is an image block having the same view as the anchor block.

또한, 본 발명은, 상기 확인 결과, 상기 참조블록이 상기 앵커블록과 다른 시점의 영상블록 및 동일 시점의 영상블록이면 시간적 상관도를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 제2 움직임벡터 예측 단계를 더 포함한다.The present invention also provides a second motion vector prediction that predicts a motion vector of the target block by using a temporal correlation when the reference block is a video block at a different time than the anchor block and a video block at the same time. It further comprises a step.

또한, 본 발명은, 상기 확인 결과, 상기 참조블록이 상기 앵커블록과 다른 시점의 영상블록 및 동일 시점의 영상블록이면 시간적 상관도를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 제2 움직임벡터 예측 단계를 더 포함한다. The present invention also provides a second motion vector prediction that predicts a motion vector of the target block by using a temporal correlation when the reference block is a video block at a different time than the anchor block and a video block at the same time. It further comprises a step.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해 질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.The above objects, features and advantages will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, whereby those skilled in the art may easily implement the technical idea of the present invention. There will be. In addition, in describing the present invention, when it is determined that the detailed description of the known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 4 는 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법에 대한 일실시예 설명도이다.4 is a diagram illustrating an embodiment of a direct temporal prediction method for multi-view video encoding according to the present invention.

도 4에 도시된 바와 같이, 부호화하고자 하는 대상픽처(40)에서 가장 가까운 역방향의 참조픽처를 앵커픽처(41)로 정한다. 앵커픽처(41)에서 현재 부호화할 대상블록(401)과 동일한 시간축 상에 있는 다른 시점(View)의 영상블록이 앵커블록(411)이 된다. 앵커블록(411)의 움직임 벡터를 MVCOL0(412)와 MVCOL1(414)라 하면, MVCOL0(412)와 MVCOL1(414)는 동일한 시간축 상의 다른 카메라의 영상을 참조하고 있다. 즉, 앵커블록(411)은 앵커블록(411)의 움직임 벡터(MVCOL0, MVCOL1)(412, 414)에 따라 두 개의 참조블록(413, 415)을 참조한다. As shown in Fig. 4, the anchor picture 41 is determined as the reference picture in the reverse direction closest to the target picture 40 to be encoded. The anchor block 411 is an image block of another view (View) on the same time axis as the target block 401 to be currently encoded in the anchor picture 41. When the motion vectors of the anchor block 411 are MVCOL0 412 and MVCOL1 414, the MVCOL0 412 and MVCOL1 414 refer to images of other cameras on the same time axis. That is, the anchor block 411 refers to two reference blocks 413 and 415 according to the motion vectors MVCOL0 and MVCOL1 412 and 414 of the anchor block 411.

앵커블록(411)이 MVCOL0(412)와 MLCOL1(414)의 움직임 벡터를 모두 가지고 있다면, 앵커블록(411)의 움직임 벡터인 MVCOL0(412)와 MLCOL1(414)을 조합하여 대상블록(401)의 움직임 벡터인 MVL0(402)와 MVL1(404)을 예측할 수 있다. If the anchor block 411 has both the motion vectors of the MVCOL0 412 and the MLCOL1 414, the MVCOL0 412 and the MLCOL1 414, which are the motion vectors of the anchor block 411, may be combined to form the target block 401. The motion vectors MVL0 402 and MVL1 404 can be predicted.

그리고 대상블록(401)은 다시점 비디오 부호화를 위한 시간 직접예측 모드에서 예측된 MVL0(412)과 MVL1(414)가 가리키는 영상블록(403, 405)이 이용되어 부호 화된다.The object block 401 is encoded using the image blocks 403 and 405 indicated by the MVL0 412 and the MVL1 414 predicted in the temporal direct prediction mode for multiview video encoding.

도 5 및 도 6 은 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법 중 앵커블록의 움직임 벡터가 하나인 경우에 대한 일실시예 설명도이다.5 and 6 are diagrams illustrating an embodiment of one motion vector of an anchor block in a temporal direct prediction method for multiview video encoding according to the present invention.

도 5 및 도 6에 도시된 바와 같이, 앵커픽처가 B 픽처인 경우에, 양방향 예측이 아닌 한쪽 방향 예측을 수행함으로써 움직임 벡터를 하나만 가질 수도 있고, 참조픽처가 P 픽처일 수도 있다. 이러한 경우는 앵커블록이 움직임 벡터를 하나만 가지므로 앵커픽처의 움직임 벡터를 그대로 가져다 쓰는 대상블록의 움직임 벡터 역시 하나만 가지게 된다. 이러한 경우, 도 5 및 도 6을 참조하여 살펴보면 다음과 같다.As shown in FIGS. 5 and 6, when the anchor picture is a B picture, the anchor picture may have only one motion vector by performing one direction prediction instead of the bidirectional prediction, and the reference picture may be a P picture. In this case, since the anchor block has only one motion vector, the anchor block also has only one motion vector of the target block that uses the motion vector of the anchor picture as it is. In this case, referring to Figures 5 and 6 as follows.

도 5에 도시된 바와 같이, 대상픽처(50) 내에는 대상블록(501), 앵커픽처(51) 내에는 앵커블록(511)이 있다. 앵커블록(511)이 가리키는 영상블록(513)의 움직임 벡터(512)를 이용하여 대상블록(501)의 움직임 벡터(502)를 구한다. 그리고 그 움직임 벡터(502)가 가리키는 영상블록(503)을 이용하여 대상블록(501)을 부호화할 수 있다.As shown in FIG. 5, a target block 501 is present in the target picture 50, and an anchor block 511 is present in the anchor picture 51. The motion vector 502 of the target block 501 is obtained using the motion vector 512 of the image block 513 indicated by the anchor block 511. The target block 501 may be encoded using the image block 503 indicated by the motion vector 502.

마찬가지로, 도 6에 도시된 바와 같이, 도 5와는 다른 카메라의 영상을 참조하는 경우에는 대상픽처(60) 내의 대상블록(601)을 부호화하기 위해, 앵커픽처(61) 내의 앵커블록(611)이 가리키는 영상블록(613)의 움직임 벡터(612)를 이용하여 대상블록(601)의 움직임 벡터(602)를 구한다. 그리고 그 움직임 벡터(602)가 가리키는 영상블록(603)을 이용하여 대상블록(601)을 부호화한다.Similarly, as shown in FIG. 6, when referring to an image of a camera different from FIG. 5, an anchor block 611 in the anchor picture 61 is used to encode the target block 601 in the target picture 60. The motion vector 602 of the target block 601 is obtained using the motion vector 612 of the pointing image block 613. The target block 601 is encoded using the video block 603 indicated by the motion vector 602.

도 7 은 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법에 대한 일실시예 흐름도이다.7 is a flowchart illustrating an embodiment of a direct temporal prediction method for multiview video encoding according to the present invention.

본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법을 도 4 내지 도 6에 도시된 실시예를 참조하여 살펴보기로 한다.A direct temporal prediction method for multi-view video encoding according to the present invention will be described with reference to the embodiments illustrated in FIGS. 4 to 6.

다시점 비디오 부호화를 위한 시간 직접예측 방법은 우선 부호화하고자 하는 대상블록에 대하여 앵커블록을 탐색한다(702). 본 발명에서는 상기 대상블록이 참조가능한 영상블록 중 가장 가까운 영상블록을 앵커블록으로 정한다.The temporal direct prediction method for multiview video encoding first searches for an anchor block for a target block to be encoded (702). In the present invention, the closest video block among the video blocks to which the target block can be referred to is defined as an anchor block.

그리고 "702" 과정에서 구한 앵커블록의 움직임 벡터를 산출하고 그 산출된 움직임 벡터가 가리키는 영상블록을 찾는다(704). "704" 과정은 앵커블록이 참조하는 블록(참조블록)을 탐색하는 과정을 의미한다. 본 발명에서는 앵커블록과 동일 시간축 상의 영상블록 중, 앵커블록과 최단 거리에 있는 영상블록을 참조블록으로 정한다.The motion vector of the anchor block obtained in the process "702" is calculated and the image block indicated by the calculated motion vector is found (704). The process "704" refers to a process of searching for a block (reference block) to which the anchor block refers. In the present invention, among the image blocks on the same time axis as the anchor block, the image block at the shortest distance from the anchor block is defined as the reference block.

이때, "704" 과정에서 찾은 영상블록, 즉 참조블록이 동일한 시간축 상에서 다른 시점(View)의 영상블록인지를 확인한다(706). 이때, 상기 확인 결과(706), 참조블록은 동일한 시간축 상에서 다른 시점(View)의 영상블록이거나, 또는 동일 시점의 영상 블록이거나, 또는 동일 시점 및 다른 시점의 영상블록 모두 해당될 수 있다. 이하, 도 4 내지 도 6을 참조하여 "708" 과정을 살펴보면 다음과 같다. In this case, it is checked whether the image block found in step 704, that is, the reference block, is an image block of a different view on the same time axis (706). In this case, the check result 706, the reference block may be an image block of different views on the same time axis, an image block of the same view, or both image blocks of the same view and different views. Hereinafter, the process "708" will be described with reference to FIGS. 4 to 6.

상기 확인 결과(706), 참조블록이 동일한 시간축 상에서 다른 시점의 영상블록이면, 앵커블록의 움직임 벡터를 이용하여 대상블록의 움직임 벡터를 예측한다(708). 즉, "704" 과정에서 산출된 앵커블록의 움직임 벡터를 이용하여 대상블록의 움직임 벡터를 예측한다.As a result of the check 706, if the reference block is an image block of different views on the same time axis, the motion vector of the target block is predicted using the motion vector of the anchor block (708). That is, the motion vector of the target block is predicted using the motion vector of the anchor block calculated in the process "704".

도 4에 도시된 바와 같이, 앵커블록의 움직임 벡터가 양방향 영상을 참조하는 경우 즉, 앵커블록이 두 개의 움직임 벡터를 가지면, 부호화하고자 하는 대상블록은 두 개의 앵커블록의 움직임 벡터를 조합하여 대상블록의 움직임 벡터를 예측한다. 이는 앵커블록과 마찬가지로 대상블록 역시 참조픽처를 상/하로 가질 수 있기 때문이다. As shown in FIG. 4, when the motion vector of the anchor block refers to a bidirectional image, that is, when the anchor block has two motion vectors, the target block to be encoded is a target block by combining the motion vectors of the two anchor blocks. Predict the motion vector This is because, like the anchor block, the target block may have a reference picture up and down.

도 5 및 도 6에 도시된 바와 같이, 앵커블록의 움직임 벡터가 한쪽 방향 영상을 참조하는 경우 즉, 앵커블록이 한 개의 움직임 벡터를 가지거나 또는 참조픽처가 P 픽처인 경우에는, 부호화하고자 하는 대상블록은 하나의 벡터를 가질 수 있다. 이러한 경우에는 앵커블록이 움직임 벡터를 하나만 가지므로, 앵커픽처의 움직임 벡터를 대상블록의 움직임 벡터로 지정하게 된다.5 and 6, when the motion vector of the anchor block refers to one direction image, that is, when the anchor block has one motion vector or the reference picture is a P picture, the target to be encoded A block can have one vector. In this case, since the anchor block has only one motion vector, the motion vector of the anchor picture is designated as the motion vector of the target block.

상기 확인 결과(706), 참조블록이 동일한 시간축 상에서 같은 시점의 영상블록인 경우, 시간적 상관도(예를 들어, 시간 방향의 움직임 벡터 상관도)를 이용하여 대상블록의 움직임 벡터를 예측한다(710). 즉, 앵커블록이 동일 시점의 영상을 참조하는 경우에는 종래의 시간 직접예측 방법을 적용한다. As a result of the check 706, when the reference block is an image block of the same view on the same time axis, the motion vector of the target block is predicted using a temporal correlation (for example, a motion vector correlation in the time direction) (710). ). That is, when the anchor block refers to the image of the same view, the conventional time direct prediction method is applied.

한편, 상기 확인 결과(706), 참조블록이 앵커블록과 다른 시점의 영상블록 및 동일 시점의 영상블록 모두에 해당하면 "710" 과정인 시간적 상관도를 이용하여 대상블록의 움직임 벡터를 예측할 수 있다. 또한, 상기 확인 결과(706), 참조블록이 다른 시점의 영상블록 및 동일 시점의 영상블록 모두에 해당하면 "708" 과정인 앵커블록의 움직임 벡터를 이용하여 대상블록의 움직임 벡터를 예측할 수 있다. On the other hand, when the check result 706, the reference block corresponds to both the anchor block and the image block of the different view and the image block of the same view, it is possible to predict the motion vector of the target block using the temporal correlation that is the process "710". . In addition, when the check result 706 corresponds to both the image block and the image block of the same view, the motion vector of the target block may be predicted using the motion vector of the anchor block, which is a process "708".

그리고 "708 및 710" 과정에서 예측된 대상블록의 움직임 벡터를 이용하여 대상블록을 부호화한다. The target block is encoded using the motion vector of the target block predicted in the process 708 and 710.

도 8 은 본 발명에 적용되는 시간 직접예측 방법에서의 픽처 그룹의 일실시예 구조도이다.8 is a structural diagram of an embodiment of a picture group in a time direct prediction method applied to the present invention.

도 8에 도시된 픽처 그룹은 스케일러블 비디오 코딩 방식을 사용하고, 정렬 프로그램을 이용하여 영상을 정렬하여 부호화한 것이다. 픽처 그룹 구조는 도 8에 도시된 구조와 같으며, 픽처 그룹 길이는 12로 정한다. 다시점 비디오 부호화에서 사용하는 픽처 그룹 구조의 세로축은 카메라 축을 의미하고, 픽처 그룹 구조의 가로축은 시간 축을 의미한다. The picture group shown in FIG. 8 uses a scalable video coding scheme and aligns and encodes an image using an alignment program. The picture group structure is the same as the structure shown in Fig. 8, and the picture group length is set to 12. The vertical axis of the picture group structure used in the multi-view video encoding refers to the camera axis, and the horizontal axis of the picture group structure refers to the time axis.

그리고 JSVM(Joint Scalable Video Model)에서 기본적으로 제공되는 공간 직접예측 모드와의 비교를 위하여 음영으로 표시된 부분(B33 내지 B43, B57 내지 B67, B81 내지 B91)은 공간 직접예측 모드를 사용하지 않고, 본 발명에 따른 다시점 부호화를 위한 시간 직접예측 방법을 적용한 영역이다. 음영으로 둘러싸여 지지 않은 부분은 종래의 JSVM과 동일하게 부호화한 영역이다. 즉, C1번, C3번, C5번 카메라의 영상부분이 본 발명에 따른 다시점 부호화를 위한 시간 직접예측 방법을 적용한 영역이다. The shaded portions B33 to B43, B57 to B67, and B81 to B91 do not use the spatial direct prediction mode for comparison with the spatial direct prediction mode provided by the Joint Scalable Video Model (JSVM). This is a region to which a temporal direct prediction method for multi-view coding according to the present invention is applied. The unenclosed part is the same coded area as the conventional JSVM. That is, the image portions of cameras C1, C3, and C5 are regions to which the time direct prediction method for multi-view encoding according to the present invention is applied.

이때, B12, B13 프레임 또는 B14, B15 프레임과 같은 프레임의 경우, 참조픽처는 가로 방향으로 존재하게 된다. 즉, B12 프레임의 경우 참조픽처는 I0와 B10 프레임이고, B27 프레임의 경우 참조픽처는 B22와 B21 프레임이다. 이러한 경우, 움직임 벡터가 동일한 카메라에서의 픽처 상에 위치하므로 종래의 시간 직접예측 모드(예를 들면, H.264/AVC의 시간 직접예측 모드)를 그대로 사용할 수 있다. In this case, in the case of a frame such as a B12 or B13 frame or a B14 or B15 frame, the reference picture exists in the horizontal direction. That is, in the case of the B12 frame, the reference pictures are I0 and B10 frames, and in the case of the B27 frame, the reference pictures are B22 and B21 frames. In this case, since the motion vector is located on the picture in the same camera, the conventional time direct prediction mode (for example, the time direct prediction mode of H.264 / AVC) can be used as it is.

도 9a 내지 도 9c 는 본 발명에 따른 다시점 비디오 부호화를 위한 시간 직접예측 방법과 종래의 공간 직접예측 방법에 따라 측정된 피크 전력에 따른 신호대 잡음비에 대한 비교도이다.9A to 9C are comparison diagrams of a signal-to-noise ratio according to peak power measured according to a temporal direct prediction method and a conventional spatial direct prediction method for multi-view video encoding according to the present invention.

본 발명에 따른 시간 직접예측 방법과 종래의 공간 직접예측 방법에 따라 측정된 피크 전력에 따른 신호대 잡음비(PSNR: Peak Signal to Noise Rate)를 비교하기 위해, 'Exit' 영상, 'Ballroom' 영상, 'Park_run' 영상을 실험 영상으로 이용하였다. 각 영상의 피크 전력에 따른 신호 대 잡음비가 도 9a 내지 도 9c에 차례대로 나타나 있다. 종래의 공간 직접예측 방법과 본 발명의 결과를 비교하면, 피크 전력에 따른 신호 대 잡음비의 차이가 크지 않음을 알 수 있다. 실험 영상인 'Exit' 영상, 'Ballroom' 영상, 'Park_run' 영상이 공간 직접예측 방법에 적합한 영상이다. 향후 본 발명에 따른 시간 직접예측 방법을 시간 직접예측모드에 적합한 영상에 적용할 경우 더욱 좋은 성능을 발휘할 것으로 예상된다.In order to compare the peak signal to noise ratio (PSNR) according to the peak power measured according to the direct time prediction method according to the present invention and the conventional spatial direct prediction method, an 'Exit' image, a 'Ballroom' image, ' Park_run 'image was used as an experimental image. The signal-to-noise ratio according to the peak power of each image is shown in sequence in FIGS. 9A to 9C. Comparing the results of the present invention with the conventional spatial direct prediction method, it can be seen that the difference in the signal-to-noise ratio according to the peak power is not large. Experimental images 'Exit' image, 'Ballroom' image, and 'Park_run' image are suitable for the spatial direct prediction method. In the future, when the time direct prediction method according to the present invention is applied to an image suitable for the time direct prediction mode, it is expected to exhibit better performance.

상술한 바와 같은 본 발명의 방법은 프로그램으로 구현되어 컴퓨터로 읽을 수 있는 형태로 기록매체(씨디롬, 램, 롬, 플로피 디스크, 하드 디스크, 광자기 디스크 등)에 저장될 수 있다. 이러한 과정은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있으므로 더 이상 상세히 설명하지 않기로 한다.As described above, the method of the present invention may be implemented as a program and stored in a recording medium (CD-ROM, RAM, ROM, floppy disk, hard disk, magneto-optical disk, etc.) in a computer-readable form. Since this process can be easily implemented by those skilled in the art will not be described in more detail.

이상에서 설명한 본 발명은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.The present invention described above is capable of various substitutions, modifications, and changes without departing from the technical spirit of the present invention for those skilled in the art to which the present invention pertains. It is not limited by the drawings.

상기와 같은 본 발명은, 동일한 시간축 상에 있는 앵커블록이 다시점 영상을 참조하면 대상블록의 움직임 벡터를 앵커블록의 움직임 벡터를 이용하여 예측하고 또한, 동일 시점 영상을 참조하면 시간적인 상관도를 이용하여 예측함으로써, 다시점 영상에서 현재 대상블록의 움직임 정보를 정밀하게 예측할 수 있는 효과가 있다. As described above, when the anchor blocks on the same time axis refer to the multi-view image, the motion vector of the target block is predicted by using the motion vector of the anchor block. By using the prediction, it is possible to accurately predict the motion information of the current target block in the multiview image.

예를 들어, 본 발명은, 서로 다른 움직임을 포함하고 있는 영상에서 패닝 영상과 같이 그 움직임의 속도가 비교적 일정한 영상에 대하여, 현재 블록의 움직임 정보 예측의 정밀도가 향상되기 때문에 압축 효율을 개선할 수 있는 효과가 있다. For example, the present invention can improve the compression efficiency because the accuracy of the motion information prediction of the current block is improved for an image having a relatively constant speed such as a panning image in an image including different movements. It has an effect.

Claims (8)

다시점 비디오 부호화를 위한 시간 직접예측 방법에 있어서,In the temporal direct prediction method for multi-view video encoding, 부호화하고자 하는 대상블록에 대한 앵커블록이 참조하는 블록(이하, "참조블록"이라 함)이 상기 앵커블록과 동일한 시간축 상에 있는 다른 시점(View)의 영상블록인지를 확인하는 참조블록 확인 단계; 및A reference block checking step of checking whether a block (hereinafter referred to as a "reference block") referenced by the anchor block for the target block to be encoded is an image block of another view (View) on the same time axis as the anchor block; And 상기 확인 결과, 상기 참조블록이 다른 시점의 영상블록이면 상기 앵커블록의 움직임 벡터를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 다시점 예측 단계The multi-view prediction step of predicting the motion vector of the target block by using the motion vector of the anchor block if the reference block is an image block of a different view. 를 포함하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.A direct temporal prediction method for multiview video encoding comprising a. 제 1 항에 있어서,The method of claim 1, 상기 확인 결과, 상기 참조블록이 상기 앵커블록과 동일 시점의 영상블록이면 시간적 상관도를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 동일시점 예측 단계As a result of the checking, if the reference block is an image block of the same view as the anchor block, the same view prediction step of predicting a motion vector of the target block using temporal correlation 를 더 포함하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.The direct temporal prediction method for multi-view video encoding further comprising. 제 1 항에 있어서,The method of claim 1, 상기 확인 결과, 상기 참조블록 중 하나는 상기 앵커블록과 다른 시점의 영상블록이고, 다른 하나는 동일 시점의 영상블록이면 상기 앵커블록의 움직임 벡터를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 제1 움직임벡터 예측 단계As a result of the checking, when one of the reference blocks is an image block at a different viewpoint than the anchor block, and the other is an image block at the same viewpoint, a first vector predicting the motion vector of the target block using the motion vector of the anchor block is performed. Motion vector prediction step 를 더 포함하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.The direct temporal prediction method for multi-view video encoding further comprising. 제 1 항에 있어서,The method of claim 1, 상기 확인 결과, 상기 참조블록 중 하나는 상기 앵커블록과 다른 시점의 영상블록이고, 다른 하나는 동일 시점의 영상블록이면 시간적 상관도를 이용하여 상기 대상블록의 움직임 벡터를 예측하는 제2 움직임벡터 예측 단계As a result of the checking, if one of the reference blocks is an image block at a different viewpoint than the anchor block, and the other is an image block at the same viewpoint, a second motion vector prediction predicting a motion vector of the target block using temporal correlation. step 를 더 포함하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.The direct temporal prediction method for multi-view video encoding further comprising. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 4, 상기 참조블록 확인 단계는,The reference block check step, 상기 대상블록이 참조가능한 영상블록 중 가장 가까운 영상블록을 앵커블록으로 정하는 것을 특징으로 하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.The method of claim 1, wherein the closest video block among the video blocks that can be referenced by the target block is defined as an anchor block. 제 5 항에 있어서,The method of claim 5, wherein 상기 다시점 예측 단계는,The multi-view prediction step, 상기 앵커블록과 동일 시간축 상의 영상블록 중, 상기 앵커블록과 최단 거리에 있는 영상블록을 상기 참조블록으로 정하는 것을 특징으로 하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.And a video block located at the shortest distance from the anchor block among the image blocks on the same time axis as the anchor block as the reference block. 제 6 항에 있어서,The method of claim 6, 상기 다시점 예측 단계는,The multi-view prediction step, 상기 앵커블록의 움직임 벡터를 이용하되, 상기 앵커블록의 움직임 벡터가 하나이면, 상기 앵커블록의 움직임 벡터를 상기 대상블록의 움직임 벡터로 지정하는 것을 특징으로 하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.If the motion vector of the anchor block is used, and if there is only one motion vector of the anchor block, a time direct prediction method for multi-view video encoding comprising designating the motion vector of the anchor block as the motion vector of the target block. . 제 6 항에 있어서,The method of claim 6, 상기 다시점 예측 단계는,The multi-view prediction step, 상기 앵커블록의 움직임 벡터를 이용하되, 상기 앵커블록의 움직임 벡터가 복수이면, 상기 앵커블록의 움직임 벡터들의 평균 값을 이용하여 상기 대상블록의 움직임 벡터를 예측하는 것을 특징으로 하는 다시점 비디오 부호화를 위한 시간 직접예측 방법.Multi-view video encoding is performed by using the motion vector of the anchor block, and predicting the motion vector of the target block by using an average value of the motion vectors of the anchor block if there are a plurality of motion vectors of the anchor block. Time for direct prediction method.
KR1020070061714A 2006-12-04 2007-06-22 Time direct prediction method for encoding multi-view video KR100893930B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20060121687 2006-12-04
KR1020060121687 2006-12-04

Publications (2)

Publication Number Publication Date
KR20080050952A KR20080050952A (en) 2008-06-10
KR100893930B1 true KR100893930B1 (en) 2009-04-21

Family

ID=39806103

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070061714A KR100893930B1 (en) 2006-12-04 2007-06-22 Time direct prediction method for encoding multi-view video

Country Status (1)

Country Link
KR (1) KR100893930B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980301B (en) * 2010-10-28 2012-08-22 北京智安邦科技有限公司 Method and device for acquiring movement speed of target in video image
RU2480941C2 (en) 2011-01-20 2013-04-27 Корпорация "Самсунг Электроникс Ко., Лтд" Method of adaptive frame prediction for multiview video sequence coding
KR101293200B1 (en) * 2011-09-23 2013-08-05 세종대학교산학협력단 Method and apparatus for hevc image encoding

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050076441A (en) * 2004-01-20 2005-07-26 학교법인 대양학원 3 dimensional coding method of video
KR20060012440A (en) * 2004-08-03 2006-02-08 학교법인 대양학원 Direct mode motion prediction method and apparatus for multi-view video
KR20060108952A (en) * 2005-04-13 2006-10-19 연세대학교 산학협력단 Method for coding and inter-view balanced disparity estimation in multiview animation coding/decoding system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050076441A (en) * 2004-01-20 2005-07-26 학교법인 대양학원 3 dimensional coding method of video
KR20060012440A (en) * 2004-08-03 2006-02-08 학교법인 대양학원 Direct mode motion prediction method and apparatus for multi-view video
KR20060108952A (en) * 2005-04-13 2006-10-19 연세대학교 산학협력단 Method for coding and inter-view balanced disparity estimation in multiview animation coding/decoding system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 : 한국방송공학회논문지

Also Published As

Publication number Publication date
KR20080050952A (en) 2008-06-10

Similar Documents

Publication Publication Date Title
JP5052134B2 (en) Image encoding method, image decoding method, image encoding device, image decoding device, image encoding program, and image decoding program
US8542739B2 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vector estimation method, and computer-readable recording medium storing a program for executing the method
JP5021739B2 (en) Signal processing method and apparatus
US8559515B2 (en) Apparatus and method for encoding and decoding multi-view video
US7876828B2 (en) Method, medium, and apparatus predicting direct mode motion of a multi-angle moving picture
KR101227601B1 (en) Method for interpolating disparity vector and method and apparatus for encoding and decoding multi-view video
US9924168B2 (en) Method and apparatus of motion vector derivation 3D video coding
EP1927249B1 (en) Apparatus and method for encoding and decoding multi-view video
KR101653118B1 (en) Method for processing one or more videos of a 3d-scene
JP4786585B2 (en) Multi-view video encoder
US8155461B2 (en) Methods and apparatuses for encoding and decoding multi-view image
JP4570159B2 (en) Multi-view video encoding method, apparatus, and program
KR100893930B1 (en) Time direct prediction method for encoding multi-view video
WO2007037645A1 (en) Method of estimating disparity vector using camera parameters, apparatus for encoding and decoding multi-view picture using the disparity vectors estimation method, and computer-redadable recording medium storing a program for executing the method
KR20140051789A (en) Methods for performing inter-view motion prediction in 3d video and methods for determining inter-view merging candidate
KR101315295B1 (en) Method and apparatus for encoding and decoding multi-view image
KR101261577B1 (en) Apparatus and method for encoding and decoding multi view video
JPWO2015098827A1 (en) Video encoding method, video decoding method, video encoding device, video decoding device, video encoding program, and video decoding program
Wong et al. Stretching, compression and shearing disparity compensated prediction techniques for stereo and multiview video coding
JP2008016986A (en) Animation encoder

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130329

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140401

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee