CN108366265B - 一种基于时空相关性的分布式视频边信息生成方法 - Google Patents

一种基于时空相关性的分布式视频边信息生成方法 Download PDF

Info

Publication number
CN108366265B
CN108366265B CN201810192379.9A CN201810192379A CN108366265B CN 108366265 B CN108366265 B CN 108366265B CN 201810192379 A CN201810192379 A CN 201810192379A CN 108366265 B CN108366265 B CN 108366265B
Authority
CN
China
Prior art keywords
frame
block
motion
motion vector
corrected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810192379.9A
Other languages
English (en)
Other versions
CN108366265A (zh
Inventor
张登银
陆娇娇
万可欣
季航
赵莎莎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Posts and Telecommunications
Original Assignee
Nanjing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Posts and Telecommunications filed Critical Nanjing University of Posts and Telecommunications
Priority to CN201810192379.9A priority Critical patent/CN108366265B/zh
Publication of CN108366265A publication Critical patent/CN108366265A/zh
Application granted granted Critical
Publication of CN108366265B publication Critical patent/CN108366265B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • H04N19/517Processing of motion vectors by encoding
    • H04N19/52Processing of motion vectors by encoding by predictive encoding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提出一种基于时空相关性的分布式视频边信息生成方法,包括步骤:通过对已解码的相邻关键帧进行运动估计得到内插帧的初始运动矢量场;对初始运动矢量场通过可变块的前向运动估计进行逐级细化处理;采用三帧法提取内插帧前一关键帧中的运动区域,根据前一关键帧的运动区域和内插帧运动矢量场预测内插帧中运动扩展区域;从内插帧中选取有超过一半的像素落在扩展区域内的块作为待修正块,并修正待修正块的运动矢量;根据修正后的内插帧的运动矢量场计算边信息。本发明能够充分考虑帧内由于分块采样带来的块效应和时空相关性,在相同的采样率和重构时间的基础下,能够提高重构视频序列帧质量。

Description

一种基于时空相关性的分布式视频边信息生成方法
技术领域
本发明涉及视频图像处理技术领域,尤其是一种基于时空相关性的分布式视频边信息生成方法。
背景技术
目前,信息社会正朝着数字化、网络化和智能化方向快速发展,采用视频传感构建的无线传感器网络来实现现场实时视频感知的应用需求日益增加。由于视频信号复杂,信号传输过程流量大,并且通信资源有限,所以使得视频图像通信面临较大的挑战。近年来,压缩感知(CS,Compressed Sensing)的出现突破了奈奎斯特采样定理的瓶颈,使得以欠奈奎斯特速率采样的信号仍可无失真复原信号。分布式视频编码中,边信息看作是在解码端对当前的非关键帧进行预测,它要求在非关键帧未知的情况下,利用视频序列的帧间相关性对非关键帧做出准确的估计。而在传统的视频编码标准中,在编码端进行的帧间预测补偿都是在本帧信息已知的前提下进行的,传统视频编码算法中的运动补偿方法并不适用于边信息的生成。现有的边信息生成算法由以下三种算法组成:1.根据可能的运动矢量预测边信息,然后进行迭代解码,但可能的运动矢量是很多的,由此产生可能的边信息数量是巨大的,在实际的应用中难以实现。2.基于附加信息的边信息预测,该方法需要从编码端传送附加冗余信息,这部分信息占用一部分固定的码率,当视频运动缓慢或没有运动时会浪费一定的带宽。3.基于运动补偿的算法,这也是目前采用最多的算法,它可以分为运动补偿的内插插值法和运动补偿外推法。
但是,现有运动补偿模型没有充分考虑视频帧间空时运动信息稀疏相关性的问题,对于运动剧烈的视频场景,无法提供非常好的视频重构效果,且对于由于分块造成的块效应没有得到有效的改善。
发明内容
发明目的:为解决上述现有运动补偿模型没有充分考虑视频帧间空时运动信息稀疏相关性的技术问题,本发明提出了一种基于时空相关性的分布式视频边信息生成方法。
技术方案:本发明包括步骤:
(1)获取原始视频流已解码的关键帧,根据内插帧前后相邻的已解码关键帧进行运动估计,将得到的所有运动矢量作为候选运动矢量;将内插帧分为互不重叠的宏块,对每个宏块,选取距离该宏块中心最近的候选运动矢量作为该宏块对应的运动矢量,得到内插帧的初始运动矢量场;
(2)对初始运动矢量场进行逐级细化处理:
(2-1)定义内插帧中宏块B2k的匹配失真度DST为B2k的平均方差和边界方差的加权平均和;
(2-2)计算内插帧中的每个宏块的匹配失真度,并为相同大小的宏块设置一个统一的阈值;
(2-3)当宏块的匹配失真度小于其相应的阈值时,则不做处理,否则,执行步骤(2-4);
(2-4)将匹配失真度大于等于其相应的阈值的宏块细分为更小的子宏块,重新计算各子宏块的匹配失真度,并重新设置子宏块的阈值,返回步骤(2-3);
(2-5)重复执行步骤(2-3)至(2-4),直至细分的宏块尺寸满足预设的终止阈值范围;
(3)采用三帧差法提取前一关键帧中物体的运动区域;基于逐级细化处理后的内插帧运动矢量场和提取出的物体运动区域,得到物体运动的扩展区域;
(4)从内插帧中选取有超过一半的像素落在扩展区域内的块作为待修正块,并修正待修正块的运动矢量;
(5)根据修正后的内插帧的运动矢量场计算边信息。
进一步的,所述步骤(2-1)中宏块B2k的匹配失真度计算公式为:
DST(B2k+1,B2k-1,MV)=αVar(B2k+1,B2k-1,MV)+(1-α)BV(B2k+1,B2k-1,MV)
式中,B2k+1为内插帧后一关键帧F2k+1上与B2k相对应的块,B2k-1为内插帧前一关键帧F2k-1上与B2k+1匹配的块,MV表示B2k+1到B2k-1的运动矢量,α为权重因子,Var()为平均方差函数,BV()为边界方差函数。
进一步的,所述基于时空相关性的分布式视频边信息生成方法还包括步骤:
在根据内插帧前后相邻的已解码关键帧进行运动估计之前,对已经解码的关键帧进行空间平滑滤波,消除孤立噪声点对前向运动估计的影响。
进一步的,所述根据内插帧前后相邻的已解码关键帧进行运动估计的方法为前向运动估计或后向运动估计。
进一步的,所述步骤(3)中采用三帧差法提取关键帧中物体的运动区域的步骤包括:
选取三个连续的关键帧,分别计算相邻两帧的差值;
对得到的两个差值图像,选取一个阈值进行二值化;
最后将两幅二值化图像做相与处理,得到第二幅关键帧的二值图像;
采用形态学的开运算对第二幅关键帧的二值图像中孤立的噪声点和边缘进行处理,得到运动区域。
进一步的,所述对两个差值图像进行二值化的阈值为20。
进一步的,所述步骤(4)中修正待修正块的运动矢量的方法为:
以待修正块为中心块,计算中心块8个相邻块的运动矢量方向角:
Figure BDA0001591275100000031
式中,θ(i)为第i个相邻块的运动矢量MVi的方向角,i=1,2,…,8;x,y分别为MVi的水平分量和垂直分量;
若满足
Figure BDA0001591275100000032
则将第i个相邻块的运动矢量归入候选运动矢量集合R,计算中心块的运动矢量MV为:
Figure BDA0001591275100000033
若8个相邻块的运动矢量的方向角均不满足
Figure BDA0001591275100000034
则对中心块不做处理。
进一步的,所述分布式视频采用分布式编码模型,每7帧为一个GOP组,每个GOP组中第1、4、7帧为关键帧,其余为非关键帧。
进一步的,所述步骤(2-2)中每个宏块的阈值设置为该宏块像素方差的
Figure BDA0001591275100000035
进一步的,所述步骤(5)中生成边信息的方法为运动补偿法。
有益效果:与现有技术相比,本发明具有以下优势:
本发明能够充分考虑帧内由于分块采样带来的块效应和时空相关性,在相同的采样率和重构时间的基础下,能够提高重构视频序列帧质量。
附图说明
图1为本发明的原理流程图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
图1所示为本发明的原理流程图,本发明基于时域和空域相邻的视频运动矢量都是高度相关的这一视频序列的特征,对视频帧做运动区域和静止区域的划分,并对这些分块分别做基于可变块的前向运动估计。由于新出现的背景区域和运动物体新覆盖背景的区域均处于运动区域的边缘,所以本发明对视频中运动区域采用三帧差进行分割和预测,确定要修正的边缘运动矢量,对于新出现的背景部分利用相邻的背景区域做均值填充,进而预测视频下一帧的可能运动区域;最后设计了一个空间滤波器,对要修正的运动矢量进行修正。
下面通过具体实施方式进一步阐述本发明的技术方案:
本实施例中分布式视频采用分布式编码模型,每7帧为一个GOP组,每个GOP组中第1、4、7帧为关键帧,其余为非关键帧。
(1)将原始视频流拆分为关键帧和非关键帧,所述分布式视频采用分布式编码模型,每7帧为一个GOP组,每个GOP组中第1、4、7帧为关键帧,其余为非关键帧。
(2)对前面已经解码的帧图像进行空间平滑滤波,消除孤立噪声点对前向运动估计的影响。
(3)假设t时刻输入的关键帧xt共有N=Ic×Ir个像素点,即关键帧xt写为一个矩阵,Ic为像素矩阵的行数,Ir为像素矩阵的列数;将关键帧xt划分成n个大小为B×B的宏块,n=N/B2,记第i个图像块的列向量形式为xt,i,i=1,2,…,n。
根据内插帧前后相邻的已解码关键帧进行运动估计,将得到的所有运动矢量作为候选运动矢量;将内插帧分为互不重叠的宏块,对每个宏块,选取距离该宏块中心最近的候选运动矢量作为该宏块对应的运动矢量,得到内插帧的初始运动矢量场。
(4)由于视频前向运动估计的结果对划分块的大小是敏感的,若划分的块过大,则对图像中细节丰富的区域造成严重的块效应;相反若划分的块过小,则运动平滑的区域将陷入局部最优,破坏了运动的一致性,同时会大大增加算法的复杂度。
因此,本发明定义了一个分块的匹配失真度作为内插帧分块的标准,根据块的匹配失真度自适应决定内插帧中分块的大小,然后再为相同大小的分块设置一个阈值,用于判定该分块的运动矢量的偏差是否在可接受偏差范围内,具体步骤为:
a.设内插帧中任意一宏块为B2k,则B2k的匹配失真度计算公式为:
DST(B2k+1,B2k-1,MV)=αVar(B2k+1,B2k-1,MV)+(1-α)BV(B2k+1,B2k-1,MV)
式中,B2k+1为内插帧后一关键帧F2k+1上与B2k相对应的块,B2k-1为内插帧前一关键帧F2k-1上与B2k+1匹配的块,MV表示B2k+1到B2k-1的运动矢量,α为权重因子,Var()为平均方差函数,BV()为边界方差函数。
b.将内插帧划分为大小16×16的若干子块,计算每个16×16子块的匹配失真度DST16×16,设置一个16×16子块的阈值T16×16,比较DST16×16和T16×16的大小,若DST16×16大于DST16×16,则转到步骤c,进行进一步分块;否则认为该子块的运动矢量是可靠的;
c.将满足DST16×16≤T16×16的16×16子块再划分为大小为8×8的子块,计算每个8×8子块的匹配失真度DST8×8,设置一个8×8子块的阈值T8×8;对每个8×8子块进行判断:若DST8×8大于T8×8,则转到步骤d,进行进一步分块;否则认为该子块的运动矢量是可靠的;
d.将满足DST8×8≤T8×8的8×8子块再划分为大小为4×4的子块。
至此,已完成对内插帧初始运动矢量场的逐级细化处理。
上述步骤中,同一大小的宏块的阈值设置为该宏块像素方差的
Figure BDA0001591275100000051
(5)由以上步骤得出的内插帧运动矢量场中的部分运动矢量是不正确的,必须对其进行修正。首先要找出这些运动矢量所对应的块才能进行处理。由于运动物体的运动轨迹在帧间的变化主要表现为该物体从前一帧的某个位置转移到下一帧的同样位置的附近,因此会在下一帧形成新出现的背景区域和运动物体新覆盖背景的区域。由于背景区域和运动物体新覆盖背景的区域均处于运动区域的边缘,所以要对内插帧前一关键帧的运动区域进行提取,然后根据前一关键帧中的运动区域预测内插帧中物体运动的扩展区域。
本发明采用三帧差法提取内插帧前一关键帧的运动区域:定义内插帧前一关键帧为F2k-1,F2k-1的前一个已解码关键帧为F2k-2,F2k-1的后一个已解码关键帧为F2k+1(也就是内插帧的后一关键帧);
选取三个连续的关键帧F2k-2、F2k-1、F2k+1,分别计算相邻两帧的差值;
对得到的两个差值图像,选取一个阈值进行二值化;
最后将两幅二值化图像做相与处理,得到第二幅关键帧F2k-1的二值图像;
采用形态学的开运算对F2k-1的二值图像中孤立的噪声点和边缘进行处理,得到F2k-1中的运动区域。
步骤(5)得出的是前一帧的运动区域,由于不知道当内插帧的信息,内插帧的运动区域是通过对运动区域的扩展进行预测得到的。平移运动在视频中是最常见的,因此假设内插帧与其前一关键帧之间发生的为平移运动,我们对分割出来的运动区域按照内插帧运动矢量场进行向外扩展,新出现背景区和新覆盖区域的块都将落在扩展区域内。
(6)在步骤(5)中新出现的背景部分利用相邻的背景区域做均值填充,在扩展区域内运动物体向前运动而覆盖背景的区域里,前向运动估计得到的运动矢量为零,但实际上不为零,因此需要对这部分运动矢量进行修正,本发明设计一个空间滤波器修复这部分错误的运动矢量,步骤为:
从内插帧中选取有超过一半的像素落在扩展区域内的块作为待修正块,以待修正块为中心块,计算中心块8个相邻块的运动矢量方向角:
Figure BDA0001591275100000061
式中,θ(i)为第f个相邻块的运动矢量MVi的方向角,i=1,2,…,8;x,y分别为MVi的水平分量和垂直分量;
若满足
Figure BDA0001591275100000071
则将第i个相邻块的运动矢量归入候选运动矢量集合R,计算中心块的运动矢量MV为:
Figure BDA0001591275100000072
若8个相邻块的运动矢量的方向角均不满足
Figure BDA0001591275100000073
则对中心块不做处理。
在上面步骤对运动矢量修正后,可以通过运动补偿来生成最终的边信息。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (1)

1.一种基于时空相关性的分布式视频边信息生成方法,其特征在于,包括步骤:
(1)获取原始视频流已解码的关键帧,根据内插帧前后相邻的已解码关键帧进行运动估计,将得到的所有运动矢量作为候选运动矢量;将内插帧分为互不重叠的宏块,对每个宏块,选取距离该宏块中心最近的候选运动矢量作为该宏块对应的运动矢量,得到内插帧的初始运动矢量场;
(2)对初始运动矢量场进行逐级细化处理:
(2-1)定义内插帧中宏块B2k的匹配失真度DST为B2k的平均方差和边界方差的加权平均和;
(2-2)计算内插帧中的每个宏块的匹配失真度,并为相同大小的宏块设置一个统一的阈值;
(2-3)当宏块的匹配失真度小于其相应的阈值时,则不做处理,执行步骤(3);否则,执行步骤(2-4);
(2-4)将匹配失真度大于等于其相应的阈值的宏块细分为更小的子宏块,重新计算各子宏块的匹配失真度,并重新设置子宏块的阈值,返回步骤(2-3);
(2-5)重复执行步骤(2-3)至(2-4),直至细分的子宏块的尺寸满足预设的终止阈值范围;
(3)采用三帧差法提取前一关键帧中物体的运动区域;基于逐级细化处理后的内插帧运动矢量场和提取出的物体运动区域,得到内插帧中物体运动的扩展区域;
(4)从内插帧中选取有超过一半的像素落在扩展区域内的块作为待修正块,并修正待修正块的运动矢量;
(5)根据修正后的内插帧的运动矢量场计算边信息;
所述步骤(2-1)中宏块B2k的匹配失真度计算公式为:
DST(B2k+1,B2k-1,MV)=αVar(B2k+1,B2k-1,MV)+(1-α)BV(B2k+1,B2k-1,MV)
式中,B2k+1为内插帧后一关键帧F2k+1上与B2k相对应的块,B2k-1为内插帧前一关键帧F2k-1上与B2k+1匹配的块,MV表示B2k+1到B2k-1的运动矢量,α为权重因子,Var( )为平均方差函数,BV()为边界方差函数;
在根据内插帧前后相邻的已解码关键帧进行运动估计之前,对已经解码的关键帧进行空间平滑滤波,消除孤立噪声点对前向运动估计的影响;
所述根据内插帧前后相邻的已解码关键帧进行运动估计的方法为前向运动估计或后向运动估计;
所述步骤(3)中采用三帧差法提取关键帧中物体的运动区域的步骤包括:
选取三个连续的关键帧,分别计算相邻两帧的差值;
对得到的两个差值图像,选取一个阈值进行二值化;
最后将两幅二值化图像做相与处理,得到第二幅关键帧的二值图像;
采用形态学的开运算对第二幅关键帧的二值图像中孤立的噪声点和边缘进行处理,得到运动区域;
所述对两个差值图像进行二值化的阈值为20;
所述步骤(4)中修正待修正块的运动矢量的方法为:
以待修正块为中心块,计算中心块8个相邻块的运动矢量方向角:
Figure FDA0003242739550000021
式中,θ(i)为第i个相邻块的运动矢量MVi的方向角,i=1,2,…,8;x,y分别为MVi的水平分量和垂直分量;
若满足
Figure FDA0003242739550000022
则将第i个相邻块的运动矢量归入候选运动矢量集合R,计算中心块的运动矢量MV为:
Figure FDA0003242739550000023
若8个相邻块的运动矢量的方向角均不满足
Figure FDA0003242739550000024
则对中心块不做处理;
所述分布式视频采用分布式编码模型,每7帧为一个GOP组,每个GOP组中第1、4、7帧为关键帧,其余为非关键帧;
所述步骤(2-2)中每个宏块的阈值设置为该宏块像素方差的
Figure FDA0003242739550000025
所述步骤(5)中生成边信息的方法为运动补偿法。
CN201810192379.9A 2018-03-08 2018-03-08 一种基于时空相关性的分布式视频边信息生成方法 Active CN108366265B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810192379.9A CN108366265B (zh) 2018-03-08 2018-03-08 一种基于时空相关性的分布式视频边信息生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810192379.9A CN108366265B (zh) 2018-03-08 2018-03-08 一种基于时空相关性的分布式视频边信息生成方法

Publications (2)

Publication Number Publication Date
CN108366265A CN108366265A (zh) 2018-08-03
CN108366265B true CN108366265B (zh) 2021-12-31

Family

ID=63003627

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810192379.9A Active CN108366265B (zh) 2018-03-08 2018-03-08 一种基于时空相关性的分布式视频边信息生成方法

Country Status (1)

Country Link
CN (1) CN108366265B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113475072B (zh) 2019-03-04 2023-12-15 北京字节跳动网络技术有限公司 视频处理中滤波信息的信令

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101795400A (zh) * 2010-03-16 2010-08-04 上海复控华龙微系统技术有限公司 一种婴幼儿主动跟踪监护的方法及其实现系统
WO2013095180A1 (en) * 2011-12-22 2013-06-27 Intel Corporation Complexity scalable frame rate up-conversion
CN103475879A (zh) * 2013-09-10 2013-12-25 南京邮电大学 一种分布式视频编码中边信息生成方法
CN105939475A (zh) * 2016-06-06 2016-09-14 中国矿业大学 一种高质量边信息生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101795400A (zh) * 2010-03-16 2010-08-04 上海复控华龙微系统技术有限公司 一种婴幼儿主动跟踪监护的方法及其实现系统
WO2013095180A1 (en) * 2011-12-22 2013-06-27 Intel Corporation Complexity scalable frame rate up-conversion
CN103475879A (zh) * 2013-09-10 2013-12-25 南京邮电大学 一种分布式视频编码中边信息生成方法
CN105939475A (zh) * 2016-06-06 2016-09-14 中国矿业大学 一种高质量边信息生成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
分布式视频编码关键技术研究;吴媛媛;《中国优秀硕士学位论文全文数据库 信息科技辑》;20150515;I136-321 *

Also Published As

Publication number Publication date
CN108366265A (zh) 2018-08-03

Similar Documents

Publication Publication Date Title
TWI729422B (zh) 色彩分量間的子區塊移動向量繼承
JP3393832B2 (ja) 電子ディジタル画像シーケンス再生システムにおける画像データ補間方法
US6618439B1 (en) Fast motion-compensated video frame interpolator
EP1262073B1 (en) Methods and apparatus for motion estimation using neighboring macroblocks
AU2002324085C1 (en) Method for sub-pixel value interpolation
KR102140331B1 (ko) 인트라 예측 방법 및 그 장치
CN111131830B (zh) 重叠块运动补偿的改进
JP2010524383A (ja) ビデオ信号処理方法及び装置
JPH10327415A (ja) 動きベクトル検出装置
KR100565066B1 (ko) 중첩된 블록 기반 움직임 추정에 의한 움직임 보상 보간방법 및 그를 적용한 프레임 레이트 변환 장치
KR20090041562A (ko) 프레임 보간 장치 및 그를 포함한 프레임 속도 상향 변환장치
JP2000224593A (ja) フレーム補間方法および装置およびこの方法を記録した記録媒体
KR102126511B1 (ko) 보충 정보를 이용한 영상 프레임의 보간 방법 및 장치
CN114793282B (zh) 带有比特分配的基于神经网络的视频压缩
CN108366265B (zh) 一种基于时空相关性的分布式视频边信息生成方法
Choe et al. An effective temporal error concealment in H. 264 video sequences based on scene change detection-PCA model
KR100393063B1 (ko) 프레임 레이트 변환 기능을 갖는 비디오 디코더 및 그 방법
KR101220097B1 (ko) 분산비디오 코덱 장치 및 이를 이용한 전경 영역 분할 보조정보 생성 방법
CN109547798B (zh) 一种快速的hevc帧间模式选择方法
CN106878754A (zh) 一种3d视频深度图像帧内预测模式选择方法
KR100926752B1 (ko) 동영상 부호화를 위한 미세 움직임 추정 방법 및 장치
KR20060085150A (ko) 베이스 레이어의 내부모드 블록의 예측정보를 이용하여영상신호를 엔코딩/디코딩하는 방법 및 장치
CN109168000B (zh) 一种基于rc预测的hevc帧内预测快速算法
CN102204256B (zh) 图像预测方法和系统
JP2014230031A (ja) 画像符号化装置、及び画像符号化プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant