CN107483954A - 基于多元线性回归的视频编码帧间预测方法 - Google Patents
基于多元线性回归的视频编码帧间预测方法 Download PDFInfo
- Publication number
- CN107483954A CN107483954A CN201710685286.5A CN201710685286A CN107483954A CN 107483954 A CN107483954 A CN 107483954A CN 201710685286 A CN201710685286 A CN 201710685286A CN 107483954 A CN107483954 A CN 107483954A
- Authority
- CN
- China
- Prior art keywords
- msub
- mtd
- mrow
- sigma
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012417 linear regression Methods 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 20
- 230000001419 dependent effect Effects 0.000 claims description 3
- 241000208340 Araliaceae Species 0.000 claims 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 claims 1
- 235000003140 Panax quinquefolius Nutrition 0.000 claims 1
- 235000008434 ginseng Nutrition 0.000 claims 1
- 239000000463 material Substances 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/50—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
- H04N19/503—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
- H04N19/51—Motion estimation or motion compensation
- H04N19/513—Processing of motion vectors
- H04N19/517—Processing of motion vectors by encoding
- H04N19/52—Processing of motion vectors by encoding by predictive encoding
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/169—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
- H04N19/17—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
- H04N19/176—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明的基于多元线性回归的视频编码帧间预测方法,包括:A.初始化信源t时刻的图像,将t‑1时刻的图像为参考图像,在t‑1时刻对t时刻的图像进行运动估计,得到绝对误差值;B.扩展t‑1时刻的参考像素块大小,其中扩展的像素块信息分别为参考像素块的左边外侧像素与上边外侧像素,得到多元线性回归模型;C.在t时刻前对t时刻的图像进行重构,得到t时刻的重构图像中对应位置的像素值;D.确定是否更新参考图像:如果重构后的像素块与对应的信源像素块的绝对误差值小于步骤A的绝对误差值,则更新参考图像的像素;反之则不更新参考图像的像素。本发明有效增强了参考图像与当前编码图像的时域相关性,进而获得了更好的残差信息,非常明显的提高了编码效率。
Description
技术领域
本发明涉及视频编码的方法,具体的讲是基于多元线性回归的视频编码帧间预测方法。
背景技术
帧间预测指的是利用视频时间域的相关性,使用邻近已编码图像像素预测当前图像的像素,以达到有效去除视频时域冗余的目的。目前主要的视频编码标准帧间预测部分都采用了基于块的运动补偿技术,其主要原理是为当前图像的每个像素块在之前已编码图像中寻找一个最佳匹配快,该过程称为运动估计(Motion Estimation,ME),其中用于预测的图像称为参考图像(Reference Frame),当前像素块与参考块的差值称为预测残差(Prediction Residual)。其中残差越接近于“0”或者越“平坦”,那么将残差信号进行变换、量化、扫描及熵编码后,可以更高效的对视频信号进行压缩。
在编码过程中,图像内容的纹理复杂度,以及图像间的变化强度都会影响到编码后的图像质量,且以块为编码单元的方式,会导致图像块边界位置处像素不平坦,这些因素都会影响自身的参考性,会使得预测后的残差信息不利于编码。
发明内容
本发明提供了一种基于多元线性回归的视频编码帧间预测方法,以减小参考像素与信源像素的绝对误差的和值,并且提高编码效率。
本发明的基于多元线性回归的视频编码帧间预测方法,包括:
A.建立信源图像间的像素块的参考关系:将信源当前的t时刻的图像分割为8×8像素块大小,将t-1时刻的图像为参考图像,在参考图像中搜索到同样大小的8×8参考像素块,在t-1时刻的图像中对t时刻的图像进行运动估计,得到当前t时刻的像素快与t-1时刻的参考像素块的绝对误差值SAD;
B.建立多元线性回归模型:将所述t-1时刻的8×8参考像素块扩展为9×9的大小,其中扩展的像素块信息分别为参考像素块的左边外侧像素与上边外侧像素,方法为:设m为像素块横向像素的标号,n为像素块竖向像素的标号,t为时刻标号,在8×8参考像素块中,取当前位置像素的值ft-1(m,n)为回归方程的自变量x1,上方像素的值ft-1(m,n-1)和左侧像素的值ft-1(m-1,n)分别为x2与x3,以及所述信源在t时刻的8×8像素块中对应位置的像素值ft(m,n)作为因变量y,得到多元线性回归的一组数据为(x1,x2,x3,y),将多组(x1,x2,x3,y)组成的数据集,进行多元线性回归,得到多元线性回归模型;
C.重构图像:在t时刻前对t时刻的图像进行重构,根据所述的多元线性回归模型得到t时刻的重构图像中对应位置的像素值;
D.根据步骤C得到的像素值确定是否更新参考图像:如果重构后的像素块与对应的信源像素块的绝对误差值SAD小于步骤A的绝对误差值SAD,则更新参考图像的像素;反之则不更新参考图像的像素。
本发明以参考图像的空域相关性,通过像素信息得到多元线性回归模型,增强了参考图像与当前编码图像的时域相关性,进而获得了更好的残差信息。
具体的,步骤A所述的当前t时刻的像素快与t-1时刻的参考像素块的绝对误差值SAD为:
其中M,N表示像素块的宽度与高度,在获取数据集时,将M与N的值均为8,ft和ft-1分别表示当前t时刻和t-1时刻图像的像素值,x和y分别表示运动矢量的水平分量和垂直分量,m为像素块横向像素的标号,n为像素块竖向像素的标号。
进一步的,步骤B中所述的由多组(x1,x2,x3,y)组成的数据集的表达式为:
其中a0,a1,a2,a3分别为模型参数,由a=(x'x)-1·(x'y)可得:
由此得到多元线性回归模型:其中b表示数据集间的三角函数关系,可由x1(1+sinbi)=xi+1计算得出。
进一步的,步骤C中所述t时刻重构图像中对应位置的像素值的表达式为:
其中y为像素值,a0,a1,a2分别为模型参数,x1为在参考像素块中所选的当前位置像素值,x2为x1的上方像素值,x3为x1的左侧像素值。
在此基础上,步骤D中判断出是否更新更新参考图像的像素后,在编码流中进行相应的标识。
本发明基于多元线性回归的视频编码帧间预测方法,有效增强了参考图像与当前编码图像的时域相关性,进而获得了更好的残差信息,非常明显的提高了编码效率。
以下结合实施例的具体实施方式,对本发明的上述内容再作进一步的详细说明。但不应将此理解为本发明上述主题的范围仅限于以下的实例。在不脱离本发明上述技术思想情况下,根据本领域普通技术知识和惯用手段做出的各种替换或变更,均应包括在本发明的范围内。
附图说明
图1为本发明基于多元线性回归的视频编码帧间预测方法的流程图。
具体实施方式
如图1所示本发明的基于多元线性回归的视频编码帧间预测方法,包括:
A.建立信源图像间的像素块的参考关系:获取信源视频的序列集,采用的视频序列来源于HEVC的通测序列。将信源当前的t时刻的图像分割为8×8像素块大小,将t-1时刻的图像为参考图像,在参考图像中搜索到同样大小的8×8参考像素块,在t-1时刻的图像中对t时刻的图像进行运动估计,得到当前t时刻的像素快与t-1时刻的参考像素块的绝对误差值SAD:
其中M,N表示像素块的宽度与高度,在获取数据集时,将M与N的值设定为8,ft和ft-1分别表示当前t时刻和t-1时刻图像的像素值,t-1时刻的图像为参考图像,x,y表示运动矢量(Motion Vector,MV)的水平分量和垂直分量。SAD(x,y)就是一个8×8像素块在当前时刻t与前一时刻t-1的参考像素块的绝对误差值。通常情况下SAD选择最小值。
B.建立多元线性回归模型:将所述t-1时刻的8×8参考像素块扩展为9×9的大小,以便能获得有效地数据集信息。其中扩展的像素块信息分别为参考像素块的左边外侧像素与上边外侧像素,方法为:选取训练集,设m为像素块横向像素的标号,n为像素块竖向像素的标号,t为时刻标号,在8×8参考像素块中,取当前位置像素的值ft-1(m,n)为回归方程的自变量x1,上方像素的值ft-1(m,n-1)和左侧像素的值ft-1(m-1,n)分别为x2与x3,以及所述信源在t时刻的8×8像素块中对应位置的像素值ft(m,n)作为因变量y,得到多元线性回归的一组数据为(x1,x2,x3,y)。其中自变量x1的数量可以实际情况进行修正,若训练集数据不足,则返回执行步骤A,增加参考像素块的信息。将多组(x1,x2,x3,y)组成的数据集,进行多元线性回归,得到多元线性回归模型:
其中a0,a1,a2,a3为模型参数。
a=(x'x)-1·(x'y)(3)
得到:
由公式(4),可以分别得到线性回归模型:
y=a0+a1x1+a2x2+a3x3 (5)
对于一个视频序列,不同像素块获得的数据存在较明显的差异,因此为了更好的建立线性回归模型,需要对数据集(x1,x2,x3,y)进行改进:
由上述的各表达式可以得到新的线性回归模型。
y=a0+a1sinb1+a2sinb2 (7)
其中,a0,a1,a2为新的模型参数,同时,可以根据自变量x的选取样本数量,对公式(7)进行修正,当一组数据中自变量x的数量为n,得到了多元线性回归模型如公式(8)所示:
C.重构图像:在t时刻前对t时刻的图像进行重构,选取参考像素块的自变量x的数量n=3,然后取当前位置、上方位置和左侧的三个像素值组成的数据集合(x1,x2,x3),再根据之前建立的多元线性回归模型公式(6)、(7)、(8)得到t时刻的重构图像对应位置的像素值y:
D.根据步骤C得到的像素值确定是否更新参考图像:如果重构后的像素块与对应的信源像素块的绝对误差值SAD小于步骤A的绝对误差值SAD,说明经过线性回归后的图像像素会更加平滑,有利于之后的残差信息的编码,则并将标识“1”写入编码流中,更新缓存中的参考图像的像素;反之则将标识“0”写入编码流中,不更新缓存中的参考图像的像素。
Claims (5)
1.基于多元线性回归的视频编码帧间预测方法,其特征包括:
A.建立信源图像间的像素块的参考关系:将信源当前的t时刻的图像分割为8×8像素块大小,将t-1时刻的图像为参考图像,在参考图像中搜索到同样大小的8×8参考像素块,在t-1时刻的图像中对t时刻的图像进行运动估计,得到当前t时刻的像素快与t-1时刻的参考像素块的绝对误差值SAD;
B.建立多元线性回归模型:将所述t-1时刻的8×8参考像素块扩展为9×9的大小,其中扩展的像素块信息分别为参考像素块的左边外侧像素与上边外侧像素,方法为:设m为像素块横向像素的标号,n为像素块竖向像素的标号,t为时刻标号,在8×8参考像素块中,取当前位置像素的值ft-1(m,n)为回归方程的自变量x1,上方像素的值ft-1(m,n-1)和左侧像素的值ft-1(m-1,n)分别为x2与x3,以及所述信源在t时刻的8×8像素块中对应位置的像素值ft(m,n)作为因变量y,得到多元线性回归的一组数据为(x1,x2,x3,y),将多组(x1,x2,x3,y)组成的数据集,进行多元线性回归,得到多元线性回归模型;
C.重构图像:在t时刻前对t时刻的图像进行重构,根据所述的多元线性回归模型得到t时刻的重构图像中对应位置的像素值;
D.根据步骤C得到的像素值确定是否更新参考图像:如果重构后的像素块与对应的信源像素块的绝对误差值SAD小于步骤A的绝对误差值SAD,则更新参考图像的像素;反之则不更新参考图像的像素。
2.如权利要求1所述的基于多元线性回归的视频编码帧间预测方法,其特征为:步骤A所述的当前t时刻的像素快与t-1时刻的参考像素块的绝对误差值SAD为:
<mrow>
<mi>S</mi>
<mi>A</mi>
<mi>D</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>m</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>M</mi>
</munderover>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>n</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>N</mi>
</munderover>
<mo>|</mo>
<msub>
<mi>f</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<msub>
<mi>f</mi>
<mrow>
<mi>t</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>+</mo>
<mi>x</mi>
<mo>,</mo>
<mi>n</mi>
<mo>+</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
</mrow>
其中M,N表示像素块的宽度与高度,在获取数据集时,将M与N的值均为8,ft和ft-1分别表示当前t时刻和t-1时刻图像的像素值,x和y分别表示运动矢量的水平分量和垂直分量,m为像素块横向像素的标号,n为像素块竖向像素的标号。
3.如权利要求1所述的基于多元线性回归的视频编码帧间预测方法,其特征为:步骤B中所述的由多组(x1,x2,x3,y)组成的数据集的表达式为:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mi>&Sigma;</mi>
<mi>y</mi>
<mo>=</mo>
<mi>n</mi>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<mi>y</mi>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<msubsup>
<mi>&Sigma;x</mi>
<mn>1</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<mi>y</mi>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msubsup>
<mi>&Sigma;x</mi>
<mn>2</mn>
<mn>2</mn>
</msubsup>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>3</mn>
</msub>
<mi>y</mi>
<mo>=</mo>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>3</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
<mo>+</mo>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
<msubsup>
<mi>&Sigma;x</mi>
<mn>3</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
其中a0,a1,a2,a3分别为模型参数,由a=(x'x)-1·(x'y)可得:
<mrow>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>0</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>1</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>2</mn>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>a</mi>
<mn>3</mn>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>=</mo>
<msup>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>n</mi>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>&Sigma;x</mi>
<mn>1</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>&Sigma;x</mi>
<mn>2</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>1</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msub>
<mi>&Sigma;x</mi>
<mn>2</mn>
</msub>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
</mrow>
</mtd>
<mtd>
<mrow>
<msubsup>
<mi>&Sigma;x</mi>
<mn>3</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>&CenterDot;</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mi>&Sigma;</mi>
<mi>y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>1</mn>
</msub>
<mi>y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>2</mn>
</msub>
<mi>y</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mi>&Sigma;</mi>
<msub>
<mi>x</mi>
<mn>3</mn>
</msub>
<mi>y</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
由此得到多元线性回归模型:其中b表示数据集间的三角函数关系,可由x1(1+sinbi)=xi+1计算得出。
4.如权利要求1所述的基于多元线性回归的视频编码帧间预测方法,其特征为:步骤C中所述t时刻重构图像中对应位置的像素值的表达式为:
其中y为像素值,a0,a1,a2分别为模型参数,x1为在参考像素块中所选的当前位置像素值,x2为x1的上方像素值,x3为x1的左侧像素值。
5.如权利要求1至4之一所述的基于多元线性回归的视频编码帧间预测方法,其特征为:步骤D中判断出是否更新更新参考图像的像素后,在编码流中进行相应的标识。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710685286.5A CN107483954B (zh) | 2017-08-11 | 2017-08-11 | 基于多元线性回归的视频编码帧间预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710685286.5A CN107483954B (zh) | 2017-08-11 | 2017-08-11 | 基于多元线性回归的视频编码帧间预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107483954A true CN107483954A (zh) | 2017-12-15 |
CN107483954B CN107483954B (zh) | 2019-12-03 |
Family
ID=60599241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710685286.5A Expired - Fee Related CN107483954B (zh) | 2017-08-11 | 2017-08-11 | 基于多元线性回归的视频编码帧间预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107483954B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112894154A (zh) * | 2021-05-07 | 2021-06-04 | 视睿(杭州)信息科技有限公司 | 激光打标方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080310506A1 (en) * | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Joint Spatio-Temporal Prediction for Video Coding |
CN101815218A (zh) * | 2010-04-02 | 2010-08-25 | 北京工业大学 | 基于宏块特征的快速运动估计视频编码方法 |
US20110206122A1 (en) * | 2010-02-25 | 2011-08-25 | International Business Machines Corporation | Method and Apparatus for Encoding Surveillance Video |
CN103281533A (zh) * | 2013-05-14 | 2013-09-04 | 芯原微电子(北京)有限公司 | 用于可伸缩视频编码中增强层运动估计的设备和方法 |
WO2015101627A1 (en) * | 2013-12-31 | 2015-07-09 | Patents Factory Ltd Sp. Z O.O. | Video coding with different spatial resolutions for intra-coded frames and inter-coded frames |
-
2017
- 2017-08-11 CN CN201710685286.5A patent/CN107483954B/zh not_active Expired - Fee Related
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080310506A1 (en) * | 2007-06-15 | 2008-12-18 | Microsoft Corporation | Joint Spatio-Temporal Prediction for Video Coding |
US20110206122A1 (en) * | 2010-02-25 | 2011-08-25 | International Business Machines Corporation | Method and Apparatus for Encoding Surveillance Video |
CN101815218A (zh) * | 2010-04-02 | 2010-08-25 | 北京工业大学 | 基于宏块特征的快速运动估计视频编码方法 |
CN103281533A (zh) * | 2013-05-14 | 2013-09-04 | 芯原微电子(北京)有限公司 | 用于可伸缩视频编码中增强层运动估计的设备和方法 |
WO2015101627A1 (en) * | 2013-12-31 | 2015-07-09 | Patents Factory Ltd Sp. Z O.O. | Video coding with different spatial resolutions for intra-coded frames and inter-coded frames |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112894154A (zh) * | 2021-05-07 | 2021-06-04 | 视睿(杭州)信息科技有限公司 | 激光打标方法及装置 |
CN112894154B (zh) * | 2021-05-07 | 2021-09-03 | 视睿(杭州)信息科技有限公司 | 激光打标方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107483954B (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106960416B (zh) | 一种内容复杂性自适应的视频卫星压缩图像超分辨率方法 | |
CN100527842C (zh) | 基于背景的运动估计编码方法 | |
CN108235007B (zh) | 各模式使用不同精度同种编码参数的数据压缩方法和装置 | |
US8902994B1 (en) | Deblocking filtering | |
CN108462874A (zh) | 运动图像编码装置以及运动图像解码装置 | |
CN101816183A (zh) | 使用子像素运动估计对图像进行帧间预测编码/解码的方法和设备 | |
CN111434115B (zh) | 用于对包括像素点的视频图像进行编解码的方法和相关装置 | |
RU2008113772A (ru) | Способ кодирования и декодирования видеосигнала с использованием взвешенного предсказания и устройство для его осуществления | |
CN101933331A (zh) | 视频编码装置、视频解码装置、视频编码方法、视频解码方法、视频编码或解码程序 | |
CN108289224B (zh) | 一种视频帧预测方法、装置及自动补偿神经网络 | |
JP2008521324A (ja) | カバーリング及びアンカバーリングを扱う動きベクトル場の投影 | |
CN108174208B (zh) | 一种基于特征分类的高效视频编码方法 | |
CN104811726B (zh) | 帧率转换中运动估计的候选运动矢量选择方法 | |
CN105554502A (zh) | 基于前景背景分离的分布式压缩感知视频编解码方法 | |
CN101350920A (zh) | 一种面向全景视频的全局运动估计方法 | |
Ou et al. | A two-stage multi-hypothesis reconstruction scheme in compressed video sensing | |
CN109660811B (zh) | 一种快速的hevc帧间编码方法 | |
CN107222742A (zh) | 基于时空域相关性的视频编码Merge模式快速选择方法及装置 | |
JP3794749B2 (ja) | 映像信号符号化装置 | |
KR100640498B1 (ko) | 프레임의 오류 은닉 장치 및 방법 | |
CN107483954A (zh) | 基于多元线性回归的视频编码帧间预测方法 | |
CN104581180A (zh) | 一种视频编码方法及装置 | |
Chen et al. | Pixel-level texture segmentation based AV1 video compression | |
CN113810715A (zh) | 一种基于空洞卷积神经网络的视频压缩参考图像生成方法 | |
JP4563982B2 (ja) | 動き推定方法,装置,そのプログラムおよびその記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20191203 |
|
CF01 | Termination of patent right due to non-payment of annual fee |