KR20130084053A - Sample adaptive offset(sao) edge offset prediction simplification - Google Patents

Sample adaptive offset(sao) edge offset prediction simplification Download PDF

Info

Publication number
KR20130084053A
KR20130084053A KR1020120004756A KR20120004756A KR20130084053A KR 20130084053 A KR20130084053 A KR 20130084053A KR 1020120004756 A KR1020120004756 A KR 1020120004756A KR 20120004756 A KR20120004756 A KR 20120004756A KR 20130084053 A KR20130084053 A KR 20130084053A
Authority
KR
South Korea
Prior art keywords
offset
category
prediction
current
region
Prior art date
Application number
KR1020120004756A
Other languages
Korean (ko)
Inventor
이배근
권재철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020120004756A priority Critical patent/KR20130084053A/en
Publication of KR20130084053A publication Critical patent/KR20130084053A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/89Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving methods or arrangements for detection of transmission errors at the decoder

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

Sample Adaptive Offset(SAO)에서는 각 saoTypeIdx마다 offset value를 부호화해야 한다. 이 값을 줄이기 위해서 주변 값을 이용하는 방법이 제시되었다. JCTVC-G222에서는 left region과 current region이 같은 Edge Offset(EO) depth를 가지면, category 1 과 category 2는 left region의 edge offset값을 현재 region의 edge offset값의 prediction으로 사용하고, category 3와 category 4에서는 각각 category 2와 category 1의 offset 값의 opposite sign값을 prediction으로 사용하는 방법이 제시되었다. 본 발명에서는 category에 상관없이 left region에서 prediction을 수행하는 방법을 제시하고자 한다. In Sample Adaptive Offset (SAO), an offset value must be encoded for each saoTypeIdx. To reduce this value, a method of using the ambient value has been proposed. In JCTVC-G222, if the left region and the current region have the same Edge Offset (EO) depth, category 1 and category 2 use the edge offset of the left region as the prediction of the edge offset of the current region, and category 3 and category 4 In this paper, a method of using opposite sign values of the offset values of category 2 and category 1, respectively, is presented. In the present invention, a method of performing prediction in a left region regardless of a category is proposed.

Figure P1020120004756
Figure P1020120004756

Description

Sample Adaptive Offset(SAO)에서의 edge offset prediction simplification 방법{.}Edge offset 에서 의 rediction simplification method in Sample Adaptive Offset (SAO)

본 발명은 Sample Adaptive Offset(SAO)에서의 edge offset prediction simplification 방법에 관한 것이다.
The present invention relates to an edge offset prediction simplification method in a sample adaptive offset (SAO).

Sample Adaptive Offset(SAO)에서는 각 saoTypeIdx마다 offset value를 부호화해야 한다. 이 값을 줄이기 위해서 주변 값을 이용하는 방법이 제시되었다. JCTVC-G222에서는 left region과 current region이 같은 Edge Offset(EO) depth를 가지면, category 1 과 category 2는 left region의 edge offset값을 현재 region의 edge offset값의 prediction으로 사용하고, category 3와 category 4에서는 각각 category 2와 category 1의 offset 값의 opposite sign값을 prediction으로 사용하는 방법이 제시되었다. 본 발명에서는 category에 상관없이 left region에서 prediction을 수행하는 방법을 제시하고자 한다.
In Sample Adaptive Offset (SAO), an offset value must be encoded for each saoTypeIdx. To reduce this value, a method of using the ambient value has been proposed. In JCTVC-G222, if the left region and the current region have the same Edge Offset (EO) depth, category 1 and category 2 use the edge offset of the left region as the prediction of the edge offset of the current region, and category 3 and category 4 In this paper, a method of using opposite sign values of the offset values of category 2 and category 1, respectively, is presented. In the present invention, a method of performing prediction in a left region regardless of a category is proposed.

본 발명은 Sample Adaptive Offset(SAO)에서의 edge offset prediction simplification 방법을 제공한다.
The present invention provides a method for edge offset prediction simplification in Sample Adaptive Offset (SAO).

본 발명의 일 실시예에 따르면 Sample Adaptive Offset(SAO)에서의 edge offset prediction simplification 방법이 제공된다.
According to an embodiment of the present invention, an edge offset prediction simplification method in a sample adaptive offset (SAO) is provided.

본 발명에 따르면 Sample Adaptive Offset(SAO)에서의 edge offset prediction을 simplification 할 수 있다.
According to the present invention, edge offset prediction in Sample Adaptive Offset (SAO) can be simplified.

도 1은 HM5의 Edge offset category이다.1 is an edge offset category of HM5.

I. SAO edge offset prediction[JCTVC-G222]I. SAO edge offset prediction [JCTVC-G222]

각 Edge offset region마다 edge offset을 부호화해야 하는데, 이 경우에 bit overhead가 크게 나타난다. 현재 edge offset region의 depth가 left region이 depth와 같은 경우에는 비슷한 statistics을 가진다고 가정하고 SAO edge offset 값을 left region에서 prediction하는 방법을 사용한다. Edge offsets should be encoded for each edge offset region. In this case, the bit overhead is large. When the depth of the current edge offset region is equal to the depth of the left region, it is assumed that the statistics have similar statistics, and the SAO edge offset value is predicted from the left region.

Process는 다음과 같다. Process is as follows.

left region과 current region의 edge offset depth가 같은 경우에, 다음을 계산하고 Δ을 부호화 한다. If the edge offset depths of the left region and the current region are the same, calculate the following and encode Δ.

1. Category 1 & category 2 -> Offsetcurr = OffsetLeft + Δ Category 1 & category 2-> Offset curr = Offset Left + Δ

2. Category 3 -> Offsetcurr = -Offsetcategory1 + Δ 2.Category 3-> Offset curr = -Offset category1 + Δ

3. Category 4 -> Offsetcurr = -Offsetcategory2 + Δ 3.Category 4-> Offset curr = -Offset category2 + Δ

II. 제안 방법II. Proposal method

1 SAO edge offset prediction simplification1 SAO edge offset prediction simplification

기존 JCTVC-G680에서는 category 3과 category 4는 category1과 category2의 offset 값을 prediction으로 사용하는데, 본 발명에서는 category와 상관없이 주변에서 상관관계가 있는 영역에서 prediction하는 방법을 사용한다. In the existing JCTVC-G680, category 3 and category 4 use the offset values of category 1 and category 2 as predictions. In the present invention, a method of predicting in a region correlated with each other regardless of category is used.

방법 1. Method 1.

1. left region과 current region의 edge offset depth가 같은 경우에, 다음을 계산하고 Δ을 부호화 한다.1. If the edge offset depths of the left region and the current region are the same, calculate the following and encode Δ.

Offsetcurr = OffsetLeft + ΔOffset curr = Offset Left + Δ

여기서 Offsetcurr 는 current region의 edge offset, Offsetleft는 left region의 edge offsetWhere Offset curr is the edge offset of the current region and Offset left is the edge offset of the left region

방법 2. Method 2.

2. left region과 current region의 edge offset depth가 같은 경우에, 다음을 계산하고 Δ을 부호화 한다.2. If the edge offset depths of the left region and the current region are the same, calculate the following and encode Δ.

Offsetcurr = OffsetLeft + ΔOffset curr = Offset Left + Δ

여기서 Offsetcurr 는 current region의 edge offset, Offsetleft는 left region의 edge offset Where Offset curr is the edge offset of the current region and Offset left is the edge offset of the left region

3. left region과 edge offset depth가 같지 않고, upper region과 current region의 edge offset depth가 같은 경우에, 다음을 계산하고 Δ을 부호화 한다.3. If the left region and edge offset depth are not the same, and the upper and current region have the same edge offset depth, calculate the following and encode Δ.

Offsetcurr = Offsetupper + Δ, Offset curr = Offset upper + Δ,

여기서 Offsetcurr 는 current region의 edge offset, Offsetupper는 upper region의 edge offset Where Offset curr is the edge offset of the current region and Offset upper is the edge offset of the upper region

III. 인코딩 프로세스III. Encoding Process

1. 현재 프레임의 새로운 코딩유닛(CU)이 입력된다.1. A new coding unit (CU) of the current frame is input.

A. 하나의 Inter CU는 여러 개의 Inter PU로 구성되며, 2가지의 예측모드(PredMode), MODE_SKIP와 MODE_INTER를 가진다. MODE_SKIP의 경우 더 작은 PU로 분할되지 않으며, 파티션모드(PartMode)가 PART_2Nx2N인 PU의 모션정보가 할당된다.A. One Inter CU consists of several Inter PUs and has two Prediction Modes, MODE_SKIP and MODE_INTER. In case of MODE_SKIP, motion information of a PU having a partition mode (PartMode) of PART_2Nx2N is allocated.

B. MODE_INTER CU인 경우에는 4가지 형태의 PU 파티션으로 존재할 수 있으며, CU 레벨의 신택스에 PredMode==MODE_INTER와 파티션 형태를 나타내는 PartMode==PART_2Nx2N 또는 PART_2NxN, PART_Nx2N, PART_NxN이 시그널링된다.B. In the case of a MODE_INTER CU, four types of PU partitions may exist, and PredMode == MODE_INTER and PartMode == PART_2Nx2N or PART_2NxN, PART_Nx2N, or PART_NxN are signaled in the CU level syntax.

2. 현재 Inter PU에 대해 모션예측을 수행한다.2. Perform motion prediction on the current Inter PU.

A. CU가 여러 개의 PU로 파티션 되면 현재 부호화될 PU가 입력된다.A. If a CU is partitioned into multiple PUs, a PU to be currently encoded is input.

B. 현재의 PU에 대해 이전 프레임, 또는 이전 및 이후 프레임을 이용하여 모션예측을 수행한다. 모션예측을 통해 현재의 PU에 대한 모션정보 {모션벡터, 참조픽처인덱스, 예측방향 인덱스}를 구한다.B. Perform motion prediction using the previous frame, or the before and after frames for the current PU. Through motion prediction, motion information {motion vector, reference picture index, prediction direction index} for the current PU is obtained.

3. 현재 Inter PU의 모션예측값(MVP)을 구한다.3. Obtain the motion prediction value (MVP) of the current Inter PU.

A. 현재 PU의 모션정보는 그대로 보내지 않고, 압축효율을 높이기 위하여 시공간적으로 인접한 블록들로부터 얻은 예측값과의 차이를 보낸다. 예측모드의 종류에는 Merge 모드와 AMVP 모드가 있다.A. The current PU motion information is not sent as it is, but the difference with the predicted values obtained from neighboring blocks in time and space is sent to increase the compression efficiency. There are two kinds of prediction modes: merge mode and AMVP mode.

B. 모션예측값을 구하기 위해 Merge 후보리스트와 AMVP 후보리스트를 작성한다. B. Create Merge candidate list and AMVP candidate list to find the motion prediction value.

C. Merge 모드는 시공간적으로 현재 PU와 인접한 블록들의 모션정보로부터 Merge 후보들을 구한다. 후보들 중 현재 PU의 모션정보와 같은 후보가 있으면, Merge 모드를 사용한다는 플래그와 그 후보의 인덱스를 전송한다.C. Merge mode obtains merge candidates from the motion information of blocks adjacent to the current PU in time and space. If there are candidates such as motion information of the current PU among the candidates, a flag indicating that the merge mode is used and an index of the candidates are transmitted.

i. 계산된 참조픽처인덱스(refIdxLX)를 이용하여 가용한 Temporal 모션벡터 예측값을 구한다.i. The available temporal motion vector prediction value is obtained using the calculated reference picture index (refIdxLX).

ii. Merge 후보 리스트(MergeCandList)를 작성한다. ii. Create a merge candidate list (MergeCandList).

iii. 현재 PU와 같은 모션정보를 가지는 후보가 있으면, Merge_Flag=1로 세팅하고, 그 후보의 인덱스(Merge_Idx)를 부호화한다.iii. If there is a candidate having the same motion information as the current PU, Merge_Flag = 1 is set, and the index (Merge_Idx) of the candidate is encoded.

D. AMVP 모드는 시공간적으로 현재 PU와 인접한 블록들의 모션정보로부터 AMVP 후보들을 구한다.D. The AMVP mode obtains AMVP candidates from the motion information of blocks adjacent to the current PU in time and space.

i. Luma 모션벡터 예측값(mvpLX)을 구한다.i. The luma motion vector prediction value (mvpLX) is obtained.

1) 인접 PU들로부터 Spatial 모션벡터후보(MVP)를 추출한다.1) Spatial Motion Vector Candidate (MVP) is extracted from adjacent PUs.

2) 모션추정 프로세스에서 구해진 RefIdxLX을 가지고 Co-located 블록의 Temporal 모션벡터후보를 추출한다.2) Extract the temporal motion vector candidate of the co-located block with RefIdxLX obtained from the motion estimation process.

3) MVP 리스트 (mvpListLX)를 작성한다. 모션벡터의 우선순위는 다음과 같다. 단 가용한 벡터에 한정한다.3) Create MVP list (mvpListLX). The priority of the motion vector is as follows. However, it is limited to the available vectors.

A) 왼쪽 인접블럭 (mvLXA)A) Left adjacent block (mvLXA)

B) 상위 인접블럭 (mvLXB)B) Upper Adjacent Block (mvLXB)

C) Temporal Co-located 블록의 모션벡터 (mvLXCol)C) Motion Vector of Temporal Co-located Block (mvLXCol)

4) 여러 개의 모션벡터가 동일한 값을 가지면, 가장 우선순위가 높은 것을 제외한 모든 모션벡터를 리스트에서 삭제한다.4) If several motion vectors have the same value, all motion vectors except the highest priority are deleted from the list.

5) mvListLX 내 모션후보들 중 best predictor의 모션벡터를 mvpLX에 할당한다. Best Predictor는 코스트함수 JMot SAD를 최소화하는 후보블럭이다.5) Assign the motion vector of the best predictor among the motion candidates in mvListLX to mvpLX. Best Predictor Cost Function J Mot Candidate block that minimizes SAD .

4. 현재 PU의 모션정보를 부호화한다.4. Encode the motion information of the current PU.

A. Merge 모드의 경우, Merger 후보들 중 현재 PU와 같은 모션정보를 가진 후보가 존재하면 현재 PU를 Merge 모드로 선언하고, Merge 모드를 사용했음을 알리는 Merge_Flag와 Merge 후보들 중 어떤 후보인지를 알리는 Merge_Idx를 보낸다. 그 다음 모션보상을 한 후 현재 PU와 Merge 모드로 예측된 PU와의 차이신호(잔여신호)를 얻는다. 보내야 할 잔여신호가 없을 때는 Merge_SKIP 모드로 보낸다.A. In the Merge mode, if there is a candidate with the same motion information as the current PU among Merger candidates, the current PU is declared as the Merge mode, and Merge_Flag indicating that the Merge mode is used and Merge_Idx indicating which one of the Merge candidates are sent. . After the motion compensation, a difference signal (residual signal) between the current PU and the PU predicted in the merge mode is obtained. When there is no remaining signal to send, send in Merge_SKIP mode.

B. AMVP 모드의 경우, AMVP 후보들 중 현재 부호화할 PU의 모션벡터 정보와 비교하여 코스트함수가 최소화되는 후보를 결정한다. 코스트함수를 최소화하는 후보의 모션정보와의 차이값과 이 AMVP 후보를 이용하여 모션보상 후 잔여신호를 얻는다. PU의 모션벡터를 best predictor 모션벡터와의 차이(MVD)를 엔트로피 부호화한다.B. In the AMVP mode, a candidate whose cost function is minimized is determined by comparing the AMVP candidates with motion vector information of a PU to be currently encoded. The residual signal is obtained after motion compensation using the difference between the candidate motion information minimizing the cost function and the AMVP candidate. Entropy-encodes the difference (MVD) from the motion vector of the PU to the best predictor motion vector.

5. 이동보상을 통해 현재블럭의 픽셀값과 예측블록의 픽셀값을 픽셀단위로 차분을 구해서 Residual 신호를 얻는다.5. Through moving compensation, the residual signal is obtained by calculating the difference between the pixel value of the current block and the pixel value of the prediction block in units of pixels.

6. Residual 신호를 변환 부호화한다.6. Transform and encode the residual signal.

A. 변환부호화 커널은 2x2, 4x4, 8x8, 16x16, 32x32, 64x64 를 사용할 수 있으며, 변환에 사용될 커널을 사전에 제한할 수도 있다.A. The transcoding kernel can use 2x2, 4x4, 8x8, 16x16, 32x32, 64x64, and may limit the kernel used for conversion in advance.

B. n*n 블록에 대해 변환계수 C는 다음과 같이 계산된다. B. For n * n blocks, the conversion factor C is calculated as

C(n,n)=T(n,n) x B(n,n) x T(n,n)T C (n, n) = T (n, n) x B (n, n) x T (n, n) T

C. 변환계수를 양자화한다.C. Quantize the transform coefficients.

7. Residual 신호와 변환계수 중 어떤 것을 전송할 지 RDO를 통해 결정한다.7. The RDO decides whether to send the residual signal or the conversion factor.

A. 예측이 잘된 경우 변환부호화 하지 않고 Residual 신호를 그대로 전송할 수 있다.A. If the prediction is good, the residual signal can be transmitted without conversion coding.

B. 변환부호화 전/후 코스트함수를 비교하여 코스트가 minimize되는 방법을 선택한다.B. Compare the cost functions before and after the conversion encoding and choose how the cost is minimized.

C. 현재 블록에 대해 전송할 신호의 타입(Residual 또는 변환계수)을 시그널링한다.C. Signal the type of signal (Residual or transform coefficient) to be transmitted for the current block.

8. 변환계수를 스캔한다.8. Scan the conversion factor.

9. 스캔된 변환계수와 Inter 예측모드를 엔트로피 부호화한다.9. Entropy encode the scanned transform coefficients and the Inter prediction mode.

10. Prediction 신호와 residual 신호를 합하여 reconstructed 신호를 얻게 되고, 이 신호에 deblocking filtering을 수행한다. 10. The prediction signal and the residual signal are summed to obtain a reconstructed signal, and deblocking filtering is performed on this signal.

11. Deblocking filtering을 수행한 reconstructed 신호에 Sample Adaptive Offset(SAO)를 적용한다. 11. Apply Sample Adaptive Offset (SAO) to the reconstructed signal that has undergone deblocking filtering.

A. Left region과 current region의 edge offset depth가 같으면, left region에서 edge offset 값을 현재 region의 prediction으로 사용하고, upper region과 current region의 edge offset depth가 같으면, upper region에서 edge offset 값을 현재 region의 prediction으로 사용한다. A. If the left and current regions have the same edge offset depth, use the edge offset value in the left region as the prediction of the current region, and if the upper region and the current region have the same edge offset depth, use the edge region in the upper region. Used as a prediction of.

IV. 디코딩 프로세스IV. Decoding process

1. 수신된 비트스트림을 엔트로피 복호화한다.1. Entropy decode the received bitstream.

A) VLC 테이블로부터 블록타입을 알아내고, 현재 블록의 예측모드를 얻는다.A) Find the block type from the VLC table and get the prediction mode of the current block.

B) 현재 블록에 대해 전송되어 온 신호가 Residual 인지, 아니면 변환계수인지 타입을 알아낸다.B) Determine whether the signal transmitted for the current block is residual or conversion factor.

C) 현재 블록에 대한 Residual 신호나 변환계수를 얻는다.C) Obtain the residual signal or transform coefficient for the current block.

2. Inter Prediction의 partition type에 따라 scan 방법을 결정한다. 2. Determine the scan method according to the partition type of Inter Prediction.

3. 엔트로피 복호화된 Residual 신호나 변환계수를 역스캔(inverse scan)하여 2차원 블록을 생성한다.3. Inverse scan the entropy decoded residual signal or transform coefficient to generate a two-dimensional block.

A. Residual 신호의 경우, Residual 블록을 생성한다.A. For residual signals, create residual blocks.

B. 변환계수인 경우, 변환블록을 생성한다. B. In the case of transform coefficients, generate transform blocks.

4. 변환계수인 경우, 역양자화, 역변환을 하여 Residual 블록을 얻는다.4. In case of transform coefficient, inverse quantization and inverse transform are performed to obtain residual block.

A. B(n,n)=T(n,n) x C(n,n) x T(n,n)T.A. B (n, n) = T (n, n) x C (n, n) x T (n, n) T.

B. 역변환을 통해 Residual 신호를 얻는다. B. Residual signal is obtained through inverse transformation.

5. Inter 예측을 수행한다.5. Perform Inter prediction.

A. Merge 모드의 경우A. For Merge Mode

i. PredMode==MODE_SKIP && Merge_Flag==1이면 Merge 모드를 통해 Luma 모션벡터(mvLX), 참조픽처인덱스(refIdxLX)를 구해야 한다.i. If PredMode == MODE_SKIP && Merge_Flag == 1, Luma motion vector (mvLX) and reference picture index (refIdxLX) should be obtained through Merge mode.

ii. 이 정보들을 구하기 위해 인접 PU 파티션들로부터 Merge 후보를 추출한다.ii. Merge candidates are extracted from adjacent PU partitions to obtain these informations.

iii. 현재 PU의 Temporal Merge 후보를 구하기 위해 참조픽처인덱스(refIdxLX)를 구한다.iii. A reference picture index (refIdxLX) is obtained to find a temporary merge candidate of the current PU.

iv. 계산된 참조픽처인덱스(redIdxLX)를 이용하여, 가용한 Temporal 모션벡터예측값(MVP)을 구한다.iv. Using the calculated reference picture index redIdxLX, the available Temporal Motion Vector Prediction Value (MVP) is obtained.

v. MergeCandList 내의 후보갯수(NumMergeCand)가 ‘1’이면 Merge_Idx=1로 세팅하고, 그렇지 않으면 Merge_Idx를 수신한 Merge 인덱스값으로 세팅한다. 이 인덱스값이 가리키는 후보의 모션벡터(mvLX)와 참조픽처인덱스(refIdxLX)를 추출하여, 이동보상에 사용한다.v. If the number of candidates (NumMergeCand) in the MergeCandList is '1', Merge_Idx = 1 is set. Otherwise, Merge_Idx is set to the received Merge index value. The motion vector (mvLX) and the reference picture index (refIdxLX) of the candidate indicated by this index value are extracted and used for the motion compensation.

B. AMVP 모드의 경우B. For AMVP Mode

i. Merge 모드가 아니면, 현재 PU의 참조픽처인덱스(refIdxLX)를 추출한다.i. If not in the merge mode, the reference picture index (refIdxLX) of the current PU is extracted.

ii. 참조픽처인덱스를 이용하여 Luma 모션벡터예측값(mvpLX)을 구한다.ii. The luma motion vector prediction value (mvpLX) is obtained using the reference picture index.

1) 인접 PU들로부터 Spatial 모션벡터후보(MVP)를 추출한다.1) Spatial Motion Vector Candidate (MVP) is extracted from adjacent PUs.

2) 참조픽처인덱스가 가리키는 Co-located 블록의 Temporal MVP를 추출한다. 2) Extract the Temporal MVP of the co-located block indicated by the reference picture index.

3) MVP 리스트 (mvpListLX)를 작성한다. 모션벡터의 우선순위는 다음과 같다. 단 가용한 벡터에 한정한다.3) Create MVP list (mvpListLX). The priority of the motion vector is as follows. However, it is limited to the available vectors.

A) 왼쪽 인접블럭 (mvLXA)A) Left adjacent block (mvLXA)

B) 상위 인접블럭 (mvLXB)B) Upper Adjacent Block (mvLXB)

C) Temporal Co-located 블록의 모션벡터 (mvLXCol)C) Motion Vector of Temporal Co-located Block (mvLXCol)

4) 여러 개의 모션벡터가 동일한 값을 가지면, 가장 우선순위가 높은 것을 제외한 모든 모션벡터를 리스트에서 삭제한다.4) If several motion vectors have the same value, all motion vectors except the highest priority are deleted from the list.

5) mvpListLX 안에 있는 Mvp 후보의 개수 (NumMVPCand(LX))가 ‘1’이면, mvpIdx=0으로 세팅하고, ‘1’이 아니면(즉 후보가 2개 이상이면) mpvIdx를 수신한 인덱스값으로 세팅한다.5) If the number of Mvp candidates (NumMVPCand (LX)) in mvpListLX is '1', then mvpIdx = 0 is set, and if it is not '1' (that is, if there are more than one candidates), mpvIdx is set to the received index value. do.

6) mvListLX 내 모션후보들 중 mvpIdx가 가리키는 모션벡터를 mvpLX에 할당한다.6) Of the motion candidates in mvListLX, the motion vector pointed to by mvpIdx is assigned to mvpLX.

7) 모션벡터 mvLX를 계산한다.7) Calculate the motion vector mvLX.

A) mvLX[0] = mvdLX[0] + mvpLX[0] ; x 방향A) mvLX [0] = mvdLX [0] + mvpLX [0]; x direction

B) mvLX[1] = mvdLX[1] + mvpLX[1] ; y 방향B) mvLX [1] = mvdLX [1] + mvpLX [1]; y direction

6. Residual 신호와 이전 프레임의 신호를 더하여 재생신호를 생성한다.6. Residual signal is added to the previous frame signal to generate the playback signal.

A. 계산된 모션벡터를 이용하여 이전 프레임에서 이동보상된 예측신호과 디코딩된 현재 PU의 잔여신호를 더해서 재생신호를 생성한다.A. A reproduction signal is generated by adding the motion compensation prediction signal in the previous frame and the residual signal of the current PU decoded by using the calculated motion vector.

7. Prediction 신호와 residual 신호를 합하여 reconstructed 신호를 얻게 되고, 이 신호에 deblocking filtering을 수행한다. 7. Add the Prediction signal and the residual signal to get the reconstructed signal and perform deblocking filtering on this signal.

8. Deblocking filtering을 수행한 reconstructed 신호에 Sample Adaptive Offset(SAO)를 적용한다. 8. Apply a Sample Adaptive Offset (SAO) to the reconstructed signal that has undergone deblocking filtering.

A. Left region과 current region의 edge offset depth가 같으면, left region에서 edge offset 값을 현재 region의 prediction으로 사용하고, upper region과 current region의 edge offset depth가 같으면, upper region에서 edge offset 값을 현재 region의 prediction으로 사용한다.
A. If the left and current regions have the same edge offset depth, use the edge offset value in the left region as the prediction of the current region, and if the upper region and the current region have the same edge offset depth, use the edge region in the upper region. Used as a prediction of.

Claims (1)

Sample Adaptive Offset(SAO)에서의 edge offset prediction simplification 방법.
Edge offset prediction simplification method in Sample Adaptive Offset (SAO).
KR1020120004756A 2012-01-16 2012-01-16 Sample adaptive offset(sao) edge offset prediction simplification KR20130084053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120004756A KR20130084053A (en) 2012-01-16 2012-01-16 Sample adaptive offset(sao) edge offset prediction simplification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120004756A KR20130084053A (en) 2012-01-16 2012-01-16 Sample adaptive offset(sao) edge offset prediction simplification

Publications (1)

Publication Number Publication Date
KR20130084053A true KR20130084053A (en) 2013-07-24

Family

ID=48994820

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120004756A KR20130084053A (en) 2012-01-16 2012-01-16 Sample adaptive offset(sao) edge offset prediction simplification

Country Status (1)

Country Link
KR (1) KR20130084053A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417821B2 (en) 2015-05-07 2019-09-17 Institut Mines Telecom Method of simplifying a geometry model
GB2575119B (en) * 2018-06-29 2021-11-24 Canon Kk Methods and devices for performing sample adaptive offset (SAO) filtering

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10417821B2 (en) 2015-05-07 2019-09-17 Institut Mines Telecom Method of simplifying a geometry model
GB2575119B (en) * 2018-06-29 2021-11-24 Canon Kk Methods and devices for performing sample adaptive offset (SAO) filtering

Similar Documents

Publication Publication Date Title
KR102531738B1 (en) Method for encoding/decoding video and apparatus thereof
KR102085183B1 (en) Method and apparatus for encoding and decoding motion information
EP3606076B1 (en) Encoding and decoding motion information
EP2988508A1 (en) Methods and apparatuses for encoding and decoding motion vector
KR20170058838A (en) Method and apparatus for encoding/decoding of improved inter prediction
KR101984605B1 (en) A method and an apparatus for processing a video signal
KR20160106020A (en) Apparatus for decoding a moving picture
SG195596A1 (en) Method and apparatus for encoding and decoding image through intra prediction
US11671584B2 (en) Inter-prediction method and video decoding apparatus using the same
US20240236302A1 (en) Inter-prediction method and video decoding apparatus using the same
KR20130083314A (en) Lcu boundary methods deblocking filtering
KR20130084053A (en) Sample adaptive offset(sao) edge offset prediction simplification
KR20130002221A (en) Method of determining mvp candidate in inter prediction
KR20130084054A (en) Sample adaptive offset (sao) edge offset
KR20130084052A (en) Sample adaptive offset(sao) diagonal edge offset
KR20130039429A (en) Mvd bi-predictive temporal motion vector derivation
KR20230074682A (en) Method for encoding/decoding video and apparatus thereof
KR20130083313A (en) Asymmetric motion partition methods deblocking filtering
KR20130039778A (en) How to improve the encoding efficiency of feference IDN
KR20130050851A (en) Transform Coding Method Using Subblocks

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20120116

PG1501 Laying open of application
PC1203 Withdrawal of no request for examination
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid