CN112291562A - 针对h.266/vvc的快速cu分区和帧内模式决策方法 - Google Patents

针对h.266/vvc的快速cu分区和帧内模式决策方法 Download PDF

Info

Publication number
CN112291562A
CN112291562A CN202011183696.8A CN202011183696A CN112291562A CN 112291562 A CN112291562 A CN 112291562A CN 202011183696 A CN202011183696 A CN 202011183696A CN 112291562 A CN112291562 A CN 112291562A
Authority
CN
China
Prior art keywords
partition
value
variance
mode
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011183696.8A
Other languages
English (en)
Other versions
CN112291562B (zh
Inventor
赵进超
景志勇
张秋闻
王祎菡
崔腾耀
李鹏
郭睿骁
王晓
蒋斌
黄立勋
张伟伟
钱晓亮
吴庆岗
常化文
魏涛
孙丽君
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhengzhou University of Light Industry
Original Assignee
Zhengzhou University of Light Industry
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhengzhou University of Light Industry filed Critical Zhengzhou University of Light Industry
Priority to CN202011183696.8A priority Critical patent/CN112291562B/zh
Publication of CN112291562A publication Critical patent/CN112291562A/zh
Application granted granted Critical
Publication of CN112291562B publication Critical patent/CN112291562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/64Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
    • H04N19/647Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission using significance based coding, e.g. Embedded Zerotrees of Wavelets [EZW] or Set Partitioning in Hierarchical Trees [SPIHT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • H04N19/159Prediction type, e.g. intra-frame, inter-frame or bidirectional frame prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种针对H.266/VVC的快速CU分区和帧内模式决策方法,其步骤为:首先,当CU大小为第一种尺寸时,选择有效特征来区分CU分区模式;其次,通过有效特征在线训练SVM分类器模型,并利用训练好的SVM分类器模型用于确定第一种尺寸对应的CU分区模式;当CU大小为第二种尺寸时,分别计算五个分割模式下CU的方差的方差,并将最大值对应的分割模式作为CU的最佳模式;最后,根据计算的划分后的CU的像素值偏差PVD将帧内预测模式分为垂直帧内模式和水平帧内模式,并使用改进的搜索方式确定最佳帧内预测模式。本发明既缩短了CU划分的时间,又减少了需要计算的帧内预测模式的数量,可以在保持编码质量的同时降低编码的计算复杂度。

Description

针对H.266/VVC的快速CU分区和帧内模式决策方法
技术领域
本发明涉及图像处理技术领域,特别是指一种针对H.266/VVC的快速CU分区和帧内模式决策方法。
背景技术
随着诸如4K/8K超高清之类的视频应用的兴起,视频数据量激增,对编码技术提出了更高的要求。运动图像专家组和视频编码专家组成立了联合视频探索小组,负责下一代视频编码标准H.266/VVC项目开发。2017年,MPEG和VCEG联合发布了针对新一代视频编码压缩标准的提案征集。随后发布了参考软件,并计划在2020年完成进一步的标准化草案。截至2020年初,JVET发布了H.266/VVC的最新版本视频测试模型(VTM8.0)。与H.265/HEVC参考软件HM相比,H.266/VVC可以保持主观视觉质量不变,并将编码效率提高大约40%。
上一代视频编码标准无法满足未来市场的压缩能力,而高度密集的数据带来了带宽和存储方面的巨大挑战。为了满足人们对清晰度,流畅性和实时视频的要求,H.266/VVC的开发迫在眉睫。H.266/VVC具有良好的网络适应性,并行处理能力和压缩效率,将在许多领域得到应用。此外,H.266/VVC的位深度为10位,适用于4K/8K视频。例如,即使在编码过程中输入是8位序列,也将其转换为10位进行处理。H.266/VVC不仅继承了H.265/HEVC的某些技术,例如四叉树嵌套多类型树分区结构,位置相关帧内预测组合,仿射运动补偿预测和自适应多核转换等编码工具。同时,帧内预测模式从35种增加至67种,这与提供35种预测模式的H.265/HEVC相比,能够提供更准确的预测。众多先进编码工具的引入,大大提高新一代视频编码标准H.266/VVC的编码效率。但是,由于H.266/VVC加入了这些新的编码工具,导致了编码计算复杂度的大幅度提高,从而显著降低了新一代视频的编码速度。与全帧内“AllIntra”配置中的HM相比,VTM的计算复杂度是HM的19倍。因此,如何降低H.266/VVC复杂度及对海量的数据进行高效的压缩成为多功能视频应用于实际的一个重要问题。
鉴于上述问题,目前已经提出了许多快速H.266/VVC算法以减轻编码负担。Z.Wang等人提出了一种快速CU拆分决策方法,以平衡编码时间和压缩性能。T.Lin等人针对H.266/VVC开发了一种基于空间特性的快速CU分割方案,以减少计算复杂度,其中通过调节相关的错误率来获得自适应阈值。T.Fu等人引入了一种基于贝叶斯规则的快速CU划分方案,以减少由四叉树加二叉树编码结构引起的编码复杂度。J.Chen等人计划了一种基于相邻最大编码单元的平均深度信息的快速CU大小决定算法,以消除不必要的RDO处理。M.Lei等人提出了一种新颖的CU大小修剪预测方案,以降低编码复杂度。S.Park等人通过在H.266/VVC的编码上下文中识别特征,提出了一种简单的早期决策工具,可以有效地降低编码复杂度。为了在编码效率和压缩质量之间取得平衡,J.Chen等人采用了一种基于方差和梯度的快速拆分方法来解决四叉树嵌套多类型树分区结构带来的不对称拆分问题。N.Tang等人采用快速帧内划分方法来平衡复杂度和编码效率,其中帧内编码使用Canny边缘检测器,而帧间编码使用三帧差方法。H.Yang等人开发了一种基于统计学习的快速编码方法,该方法由低复杂度编码树单元体系结构和基于梯度下降的快速帧内模式决策组成,以降低计算复杂度。为了解决不对称分裂问题,Y.Fan等人使用方差和Sobel算子,对H.266/VVC采用了快速CU划分方法,可以平衡编码复杂度和编码质量。Z.Wang等人设计了一种基于局部约束的快速四叉树加二叉树结构分割算法,以减少四叉树和二叉树分割之间的冗余。T.Amestoy等人设计了基于机器学习的快速四叉树加二叉树分区结构方法,该方法使用随机森林分类器模型来确定拆分模式。Z.Jin等人介绍了一种基于卷积神经网络的新型快速四叉树加二叉树分区方法,其中该方法采用卷积神经网络架构直接估计CU拆分深度范围。G.Tang等人采用了一种针对各种CU形状的自适应CU分裂决策方法,以降低编码复杂度。F.Chen等人设计了一种基于支持向量机SVM的快速CU大小决策方法,以减少H.266/VVC的计算复杂度,其中CU的有效特征可用于区分分区方向并训练不同CU大小的支持向量机SVM分类器模型用于预测CU的分区方向。
发明内容
针对上述背景技术中存在的不足,本发明提出了一种针对H.266/VVC的快速CU分区和帧内模式决策方法,解决了现有编码技术存在编码质量差、编码复杂度高的技术问题。
本发明的技术方案是这样实现的:
一种针对H.266/VVC的快速CU分区和帧内模式决策方法,其步骤如下:
步骤一:采集M帧视频图像,针对第一帧视频图像中尺寸为128×128或64×64的CU,利用四叉树划分模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为128×128或64×64时,与CU划分的类别相关的特征包括CU的方差、分区的期望值、分区的方差值和量化参数QP;
步骤二:针对第一帧视频图像中尺寸为32×16、16×32、16×16、8×16或16×8的CU,分别利用水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的分割模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为32×16、16×32、16×16、8×16或16×8时,与CU划分的类别相关的特征包括熵方差、纹理对比度差和Haar小波变换系数;
步骤三:利用与CU划分的类别相关的特征训练得到尺寸为128×128、64×64、32×16、16×32、16×16、8×16或16×8的CU对应的SVM模型;
步骤四:利用步骤三中的SVM模型分别对其余M-1帧视频图像进行CU划分预测,得到CU划分的最佳模式,执行步骤七;
步骤五:针对M帧视频图像中尺寸为32×32的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对尺寸为32×32的CU进行CU划分,并计算五种分割模式对应的CU的方差的方差,将CU的方差的方差的最大值对应的分割模式作为CU划分的最佳模式,执行步骤七;
步骤六:针对M帧视频图像中其他尺寸的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对其他尺寸的CU进行CU划分,并分别计算着五种分割模式的率失真值,将最小的率失真值对应的分割模式作为CU划分的最佳模式,执行步骤七;
步骤七:将视频图像按照最佳模式进行CU划分,得到子CU,计算子CU的像素值偏差PVD和像素值平均偏差,根据像素值偏差PVD与像素值平均偏差的对比结果将帧内预测模式分为垂直帧内模式和水平帧内模式;
步骤八:分别计算垂直帧内模式和水平帧内模式的绝对变换差之和SATD值,根据绝对变换差之和SATD值构建RDO模式集,并分别计算RDO模式集中垂直帧内模式和水平帧内模式的RDO值,将最小的RDO值对应的模式作为最佳帧内预测模式。
所述CU的方差的计算方法为:
Figure BDA0002750871770000031
其中,W表示CU的宽度,H表示CU的高度,ξ表示CU的方差,
Figure BDA0002750871770000032
表示CU中像素的平均值,xij表示CU中坐标为(i,j)的像素值,i=0,1,…,W-1,j=0,1,…,H-1;
所述分区的期望值的计算方法为:
es=ev+eh
其中,ev=|eu-ed|表示CU中像素期望值的垂直方向的绝对差,eh=|el-er|表示CU中像素期望值的水平方向的绝对差,eu表示CU的上分区的像素期望值,ed表示CU的下分区的期望值,el表示CU的左分区的期望值,er表示CU的右分区的期望值,CU的上分区和下分区的大小均为
Figure BDA0002750871770000041
CU的左分区和右分区的大小均为
Figure BDA0002750871770000042
所述分区的方差值的计算方法为:
ξs=ξvh
其中,ξv=|ξud|表示CU中像素方差值的垂直方向的绝对差,ξh=ξlr|表示CU中像素方差值的水平方向的绝对差,ξu表示CU的上分区的方差值,ξd表示CU的下分区的方差值,ξl表示CU的左分区的方差值,ξr表示CU的右分区的方差值。
所述熵方差的计算公式为:
ΔEBT=|EBTH_0-EBTH_1|-|EBTV_0-EBTV_1|
ΔETT=|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|-|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|
Figure BDA0002750871770000043
其中,ΔEBT表示二进制划分的熵方差,|EBTH_0-EBTH_1|表示水平二进制划分的熵方差,|EBTV_0-EBTV_1|表示垂直二进制划分的熵方差,ΔETT表示三进制划分的熵方差,|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|表示水平三进制划分的熵方差,|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|表示垂直三进制划分的熵方差,EK是划分后的CU的熵,i'表示划分后的CU的灰度值,p(i')表示第i个灰度值的概率;
所述纹理对比度差的计算公式为:
ΔTBT=|TBTH_0-TBTH_1|-|TBTV_0-TBTV_1|
ΔTTT=|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|-|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|
Figure BDA0002750871770000044
其中,ΔTBT表示水平二进制划分和垂直二进制划分的纹理对比度之间的差异,|EBTH_0-EBTH_1|表示水平二进制划分的纹理对比度,|EBTV_0-EBTV_1|表示垂直二进制划分的纹理对比度,ΔTTT表示水平三进制划分和垂直三进制划分的纹理对比度之间的差异,|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|表示水平三进制划分的纹理对比度,|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|表示垂直三进制划分的纹理对比度,TK表示划分后的CU的纹理,W1代表划分后的CU的宽度,H1代表划分后的CU的高度,f(i1,j1)代表划分后的CU中的位置(i1,j1)的像素值;
所述Haar小波变换系数的计算公式为:
Figure BDA0002750871770000051
其中,|f(2×i,2×j)-f(2×i,2×j+1)+f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的水平系数,|f(2×i,2×j)+f(2×i,2×j+1)-f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的垂直系数,D表示Haar小波变换系数值。
所述CU的方差的方差的计算公式为:
Figure BDA0002750871770000052
Figure BDA0002750871770000053
Figure BDA0002750871770000054
Figure BDA0002750871770000055
Figure BDA0002750871770000056
VM=max(VQT,VBT_H,VBT_V,VTT_H,VTT_V)
其中,VQT表示四叉树划分后的CU的方差的方差,VBT_H表示水平二进制划分后的CU的方差的方差,VBT_V表示垂直二进制划分后的CU的方差的方差,VTT_H表示水平三进制划分后的CU的方差的方差,VTT_V表示垂直三进制划分后的CU的方差的方差,Wn表示划分后的CU的像素的宽,Hn表示划分后的CU的像素的高,ξn表示划分后的CU的像素的平均值,ξQT四叉树划分后的CU的平均方差值,ξBT表示水平二进制划分后的CU的平均方差值,ξBV表示垂直二进制划分后的CU的平均方差值,ξTH表示水平三进制划分后的CU的平均方差值,ξTV表示垂直三进制划分后的CU的平均方差值,VM表示五种分割模式中的方差的方差的最大值,X(i2,j2)表示划分后的CU在位置(i2,j2)上的像素,i2表示像素的横坐标,j2表示像素的纵坐标。
所述F-Score值的计算公式为:
Figure BDA0002750871770000061
其中,
Figure BDA0002750871770000062
表示第i3个特征的F-Score值,npos表示正类样本的数量,nneg表示负类样本的数量,
Figure BDA0002750871770000063
表示正类样本集中第i3个特征的平均值,
Figure BDA0002750871770000064
表示负类样本集中第i3个特征的平均值,
Figure BDA0002750871770000065
指第i3个特征的平均值,
Figure BDA0002750871770000066
代表第l个正类样本点的第i3个特征的特征值,
Figure BDA0002750871770000067
代表第l个负类样本点的第i3个特征的特征值,正类样本是指分裂或跳过垂直分裂的CU,负类样本是指不分裂或跳过水平分裂的CU。
所述子CU的像素值偏差PVD的计算公式为:
Figure BDA0002750871770000068
Figure BDA0002750871770000069
所述子CU的像素值平均偏差的计算公式为:
Figure BDA00027508717700000610
其中,PVDD(x)表示某个方向的像素值偏差值,W'表示子CU的宽度,H'表示子CU的高度,y(x)表示第x个像素条的平均亮度值,P(x,i”)表示第x个像素条的第i”行亮度像素,PVDw表示像素条的平均值,N表示像素条的编号,i”表示子CU的像素的横坐标,j”表示子CU的像素的纵坐标。
本技术方案能产生的有益效果:本发明首先选择有效特征来区分CU分区模式。当CU大小为128×128和64×64时,有效特征包括整个CU的方差、分区的期望值、分区的差异和量化参数QP。当CU尺寸为32×16、16×32、16×16、8×16和16×8时,有效特征包括熵方差、纹理对比度差和Haar。随后,通过使用这些有效特征在线训练与支持向量机SVM分类器模型。最终,将训练好的SVM分类器模型用于确定CU分区模式。当CU尺寸为32×32时,分别计算五个分割模式下CU的方差的方差,并且每个值对应于一个分割模式,将最大值对应的模式为CU的最优划分模式。此外,设计了快速帧内预测模式决策方案,其中,通过像素值偏差PVD判断属于垂直模式还是水平模式,然后使用改进的搜索方式,减少需要计算的帧内预测模式的数量,从而减少了帧内预测模式选择的时间。所提出的整体方法可以在保持编码质量的同时降低编码的计算复杂度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明的流程图;
图2为本发明的CU的上分区、下分区、左分区、右分区的位置图;
图3为本发明的帧内CU划分方法流程图;
图4为本发明的支持向量机SVM分类器模型的预测精度;
图5为本发明的帧内预测模式方法流程图;
图6为本发明方法与CTMD、FIVG、FBDA、FQPD和ACSD方法的编码时间的节省情况对比结果图;
图7为本发明方法与CTMD、FIVG、FBDA、FQPD和ACSD方法的BDBR的增加情况对比结果图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有付出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明实施例提供了一种针对H.266/VVC的快速CU分区和帧内模式决策方法,主要分为快速CU分区和快速帧内模式预测;首先选择有效特征来区分CU分区模式。当CU大小为128×128和64×64时,有效特征包括整个CU的方差、分区的期望值、分区的差异和量化参数QP。当CU尺寸为32×16、16×32、16×16、8×16和16×8时,有效特征包括熵方差、纹理对比度差和Haar。随后,通过使用这些有效特征在线训练与支持向量机SVM分类器模型。最终,将训练好的SVM分类器模型用于确定CU分区模式。当CU尺寸为32×32时,分别计算五个分割模式的方差的方差,并且每个值对应于一个分割模式,将最大值对应的模式为CU的最优划分模式。此外,设计了快速帧内预测模式决策方案,其中,通过像素值偏差PVD判断属于垂直模式还是水平模式,然后使用改进的搜索方式,减少需要计算的帧内预测模式的数量,从而减少了帧内预测模式选择的时间。本实施例所提出的整体方法可以在保持编码质量的同时降低编码的计算复杂度。具体步骤如下:
在快速CU分区方法中,首先通过计算F-Score值进行特征选择,从许多特征中选择最有效的分类特征,最有效的分类特征可以计算每个特征对分类的影响,进而使用有效特征来区分CU分区模式。F-Score值越大,该特征的辨别力越强,使用这些特征在线训练相应的支持向量机SVM分类器模型,并将支持向量机SVM分类器模型用于确定CU分区模式。另外,考虑到不同视频序列的不同情况,对支持向量机SVM分类器模型进行在线训练并定期进行更新,每个周期为80帧。在第一帧中训练SVM分类器模型,而随后的79帧用于预测。而当CU尺寸为32×32时,分别计算五个分割模式方差的方差值,每个值对应一个分割模式,最大值对应的模式为CU划分的最优模式;在快速帧内预测模式决策方案中,首先通过像素值偏差PVD判断属于垂直模式还是水平模式,然后使用改进的搜索方式,减少需要计算的帧内预测模式的数量。具体包括步骤一~步骤六。
步骤一:采集M帧视频图像,针对第一帧视频图像中尺寸为128×128或64×64的CU,由于QT分区结构超过了最大允许BT和TT尺寸,因此利用四叉树划分QT模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为128×128或64×64时,与CU划分的类别相关的特征包括CU的方差、分区的期望值、分区的方差值和量化参数QP;
在图像编码过程中,单一区域的图像内容往往采用较大的CU进行编码。相反,具有丰富细节的区域通常使用较小的CU进行编码。由于纹理特征和CU大小具有很强的关系,因此,使用方差来度量纹理复杂度,所述CU的方差的计算方法为:
Figure BDA0002750871770000081
其中,W表示CU的宽度,H表示CU的高度,ξ表示CU的方差(代表整个CU的纹理变化),
Figure BDA0002750871770000082
表示CU中像素的平均值,xij表示CU中坐标为(i,j)的像素值,i=0,1,…,W-1,j=0,1,…,H-1;
当CU拆分提前终止时,CU的上下或左右纹理非常相似。因此,上边和下边的期望值和方差值的绝对差可以预测这两部分是否存在差异。同样,左边和右边的期望值和方差值的绝对差可以预测这两部分是否存在差异,如图2所示,将CU分为上分区和下分区,或者将CU分为左分区和右分区;所述分区的期望值的计算方法为:
es=ev+eh
其中,ev=|eu-ed|表示CU中像素期望值的垂直方向的绝对差,eh=|el-er|表示CU中像素期望值的水平方向的绝对差,eu表示CU的上分区的像素期望值,ed表示CU的下分区的期望值,el表示CU的左分区的期望值,er表示CU的右分区的期望值,CU的上分区和下分区的大小均为
Figure BDA0002750871770000091
CU的左分区和右分区的大小均为
Figure BDA0002750871770000092
所述分区的方差值的计算方法为:
ξs=ξvh
其中,ξv=|ξud|表示CU中像素方差值的垂直方向的绝对差,ξh=|ξlr|表示CU中像素方差值的水平方向的绝对差,ξu表示CU的上分区的方差值,ξd表示CU的下分区的方差值,ξl表示CU的左分区的方差值,ξr表示CU的右分区的方差值。
此外,量化参数QP的大小还影响CU划分的决定。当量化参数QP较大时,CU通常会选择较大的尺寸。相反,当量化参数QP较小时,CU可能会选择较小的尺寸。基于上述分析,当CU尺寸为128×128和64×64时,将CU的方差,分区的期望值,分区的方差值和量化参数QP视为特征向量。
通过F-Score值可以从许多特征中选择最有效的分类特征,它可以计算每个特征对分类的影响,F-Score的值越大,该特征的辨别力越强,所述F-Score值的计算公式为:
Figure BDA0002750871770000093
其中,
Figure BDA0002750871770000094
表示第i3个特征的F-Score值,npos表示正类样本的数量,nneg表示负类样本的数量,
Figure BDA0002750871770000095
表示正类样本集中第i3个特征的平均值,
Figure BDA0002750871770000096
表示负类样本集中第i3个特征的平均值,
Figure BDA0002750871770000097
指第i3个特征的平均值,
Figure BDA0002750871770000098
代表第l个正类样本点的第i3个特征的特征值,
Figure BDA0002750871770000099
代表第l个负类样本点的第i3个特征的特征值,正类样本是指分裂或跳过垂直分裂的CU,负类样本是指不分裂或跳过水平分裂的CU。
步骤二:针对第一帧视频图像中尺寸为32×16、16×32、16×16、8×16或16×8的CU,分别利用水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的分割模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为32×16、16×32、16×16、8×16或16×8时,与CU划分的类别相关的特征包括熵方差、纹理对比度差和Haar小波变换系数,熵方差、纹理对比度差表示信息量;
所述熵方差的计算公式为:
ΔEBT=|EBTH_0-EBTH_1|-|EBTV_0-EBTV_1|
ΔETT=|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|-|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|
Figure BDA0002750871770000101
其中,ΔEBT表示二进制划分的熵方差,|EBTH_0-EBTH_1|表示水平二进制划分BT_H的熵方差,|EBTV_0-EBTV_1|表示垂直二进制划分BT_V的熵方差,ΔETT表示三进制划分的熵方差,|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|表示水平三进制划分TT_H的熵方差,|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|表示垂直三进制划分TT_V的熵方差,EK是划分后的CU的熵,i'表示划分后的CU的灰度值,p(i')表示第i个灰度值的概率;
所述纹理对比度差的计算公式为:
ΔTBT=|TBTH_0-TBTH_1|-|TBTV_0-TBTV_1|
ΔTTT=|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|-|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|
Figure BDA0002750871770000102
其中,ΔTBT表示水平二进制划分BT_H和垂直二进制划分BT_V的纹理对比度之间的差异,|EBTH_0-EBTH_1|表示水平二进制划分BT_H的纹理对比度,|EBTV_0-EBTV_1|表示垂直二进制划分BT_V的纹理对比度,ΔTTT表示水平三进制划分TT_H和垂直三进制划分TT_V的纹理对比度之间的差异,|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|表示水平三进制划分TT_H的纹理对比度,|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|表示垂直三进制划分TT_V的纹理对比度,TK表示划分后的CU的纹理,W1代表划分后的CU的宽度,H1代表划分后的CU的高度,f(i1,j1)代表划分后的CU中的位置(i1,j1)的像素值;
Haar反映了图像的灰度变化,用于精确预测CU分割模式,所述Haar小波变换系数的计算公式为:
Figure BDA0002750871770000103
其中,|f(2×i,2×j)-f(2×i,2×j+1)+f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的水平系数,|f(2×i,2×j)+f(2×i,2×j+1)-f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的垂直系数,D表示Haar小波变换系数值。
步骤三:利用与CU划分的类别相关的特征训练得到尺寸为128×128、64×64、32×16、16×32、16×16、8×16或16×8的CU对应的SVM模型;
支持向量机SVM分类器模型可以解决两类分类问题,通过最佳超平面可以在特征空间中实现更好的分类性能,其中训练样本集表示为,
Dz={(xz,yz),xz∈RN,yz∈{-1,+1},z=1,2,…,m}
其中,Dz表示训练样本集,yz表示输入特征向量xz对应的类标签,RN表示特征向量的维数。由于最大化
Figure BDA0002750871770000111
和最小化
Figure BDA0002750871770000112
是等效的,则
Figure BDA0002750871770000113
s.t.yz[(W1·xz+b)]≥1,z=1,2…,m
其中,
Figure BDA0002750871770000114
表示分类间隔,Ψ(W1)表示最小化后的
Figure BDA0002750871770000115
b表示超平面的偏差变量。尽管如此,并不存在精确的分类。比如,一个类别的样本被错误分类为其他类别。因此,最优超平面可以通过误差惩罚来解决分类错误的分类问题,从而控制分类精度,其表示为,
Figure BDA0002750871770000116
s.t.yz(W1 Txz+a)≥1-μzz≥0,z=1,2,…,m
其中,W1代表通过使用原始对偶关系获得的法向量,C是惩罚参数。μz表示松弛变量,a表示偏差变量,τ(W1,μ)表示加入误差惩罚并最小化之后的分类间隔。此外,通过引入拉格朗日乘法器得到上述优化问题的解,
Figure BDA0002750871770000117
其中γz和ηz表示拉格朗日乘数。Φ(xz)表示一个输入特征到特征空间的映射。转化为通过拉格朗日函数的鞍点以解决超平面优化问题,即转化为对偶问题,表示为,
Figure BDA0002750871770000118
Figure BDA0002750871770000119
其中,W(γ)表示转化为的对偶问题,z'=1,2…,m表示特征向量的个数。
最后,决策函数表示为,
Figure BDA00027508717700001110
Figure BDA0002750871770000121
其中,sign{·}表示符号函数,<·,·〉表示标量积。具体来说,首先判断是否在线学习帧,如果是在线学习帧,进行特征提取,训练相应的支持向量机SVM模型,由于不同的视频序列具有不同的情况,因此支持向量机SVM模型会进行在线训练并定期更新。每个周期有80帧,在第一帧中训练支持向量机SVM分类器模型,随后的79帧用于预测;如果不是在线学习帧,则判断CU的尺寸是否是本发明中设计的尺寸,然后预测划分模式或进一步分割;如果进行预测模式分割,当CU大小为128×128和64×64时,可以判断CU是否拆分。类似地,当CU尺寸为32×16、16×32、16×16、8×16和16×8时,可以判断CU提过垂直划分还是水平划分。图4示了这些SVM分类器模型的预测精度。从图6中可以看出,大多数SVM分类器模型的平均精度都高于80%,而小尺寸CU的分类器的平均精度超过90%。因此,它验证了支持向量机SVM分类器模型对于这些CU是有效的。
步骤三:利用步骤二中的SVM模型分别对其余M-1帧视频图像进行CU划分预测,得到CU划分的最佳模式,执行步骤六;
步骤四:利用步骤三中的SVM模型分别对其余M-1帧视频图像进行CU划分预测,得到CU划分的最佳模式,执行步骤七;
步骤五:针对M帧视频图像中尺寸为32×32的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对尺寸为32×32的CU进行CU划分,并计算五种分割模式对应的CU的方差的方差,将CU的方差的方差的最大值对应的分割模式作为CU划分的最佳模式,执行步骤七;
根据基于DIV2K数据集中的100张图像的统计分析,可以获得每个划分后的CU的方差的方差,可以合理地推测出五个分裂模式中较大值对应的模式是最佳模式。所述CU的方差的方差的计算公式为:
Figure BDA0002750871770000122
Figure BDA0002750871770000123
Figure BDA0002750871770000124
Figure BDA0002750871770000131
Figure BDA0002750871770000132
VM=max(VQT,VBT_H,VBT_V,VTT_H,VTT_V)
其中,VQT表示四叉树划分后的CU的方差的方差,VBT_H表示水平二进制划分后的CU的方差的方差,VBT_V表示垂直二进制划分后的CU的方差的方差,VTT_H表示水平三进制划分后的CU的方差的方差,VTT_V表示垂直三进制划分后的CU的方差的方差,Wn表示划分后的CU的像素的宽,Hn表示划分后的CU的像素的高,ξn表示划分后的CU的像素的平均值,ξQT四叉树划分后的CU的平均方差值,ξBT表示水平二进制划分后的CU的平均方差值,ξBV表示垂直二进制划分后的CU的平均方差值,ξTH表示水平三进制划分后的CU的平均方差值,ξTV表示垂直三进制划分后的CU的平均方差值,VM表示五种分割模式中的方差的方差的最大值,X(i2,j2)表示划分后的CU的像素值,i2表示像素的横坐标,j2表示像素的纵坐标。当CU大小为32×32时,VM对应的划分模式是可能的划分模式,也是最佳分割模式。本实施例提出的快速CU分区方法的流程图如图3所示。
步骤六:针对M帧视频图像中其他尺寸的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对其他尺寸的CU进行CU划分,并分别计算着五种分割模式的率失真值,将最小的率失真值对应的分割模式作为CU划分的最佳模式,执行步骤七;
在快速帧内模式预测中,首先通过像素值偏差PVD判断属于垂直模式还是水平模式,然后使用改进的搜索方式,减少需要计算的帧内预测模式的数量。具体包括步骤七和步骤八。
步骤七:将视频图像按照最佳模式进行CU划分,得到子CU,计算子CU的像素值偏差PVD和像素值平均偏差,根据像素值偏差PVD与像素值平均偏差的对比结果将帧内预测模式分为垂直帧内模式和水平帧内模式;
纹理方向是重要的纹理特征,它表示图像中相应事物的属性。具体地,像素之间的平均绝对偏差可以更准确地表示CU的能量方向趋势。因此,像素值偏差PVD用于快速帧内预测决策方法,以获得CU的纹理方向。所述子CU的像素值偏差PVD的计算公式为:
Figure BDA0002750871770000133
Figure BDA0002750871770000141
所述子CU的像素值平均偏差的计算公式为:
Figure BDA0002750871770000142
其中,PVDD(x)表示某个方向的像素值偏差值,W'表示子CU的宽度,H'表示子CU的高度,y(x)表示第x个像素条的平均亮度值,P(x,i”)表示第x个像素条的第i”行亮度像素,PVDw表示像素条的平均值,N表示像素条的编号,i”表示子CU的横坐标,j”表示子CU的纵坐标,x=0,1,2,3。
步骤八:分别计算垂直帧内模式和水平帧内模式的绝对变换差之和SATD值,根据绝对变换差之和SATD值构建RDO模式集,并分别计算RDO模式集中垂直帧内模式和水平帧内模式的RDO值,将最小的RDO值对应的模式作为最佳帧内预测模式。
在快速帧内预测模式方法中,如图5所示,如果属于水平模式,则首先计算模式2、18和34的绝对变换差之和(Sum of Absolute Transformed Difference,SATD)值,最小的绝对变换差之和SATD值记为Mh0。然后,计算模式Mh0±8的绝对变换差之和SATD值(如果不存在,则不执行计算)并与模式Mh0相比,最小绝对变换差之和SATD值对应的模式记为Mh1。如果为模式Mh0=2,则将模式2、3、4、5和6添加到RDO模式集中。接着计算模式Mh1±4的绝对变换差之和SATD值,与模式Mh1相比,最小的绝对变换差之和SATD值记为Mh2。最后,在RDO模式集中添加了模式Mh2±2、Mh2、Mh2±1。同样地,如果属于垂直模式,则计算模式34、50和66的绝对变换差之和SATD值,最小的绝对变换差之和SATD值对应的模式记录为Mv0。计算模式Mv0±8的绝对变换差之和SATD,与模式Mv0相比,最小绝对变换差之和SATD对应的模式记为Mv1。计算模式Mv1±4的绝对变换差之和SATD,与Mv1相比,最小的绝对变换差之和SATD记为Mv2。如果为Mv1=66模式,则将模式62、63、64、65和66添加到RDO模式集中。最后,将模式Mv2±2、Mv2、Mv2±1添加到RDO模式集。计算RDO模式集合中每个方向模式的RDO值,最小值相对应的模式视为最佳模式。因此,快速帧内预测模式判定方法可以在保持编码性能的同时降低编码复杂度。
为了评估本发明的方法,在最新的H.266/VVC编码器(VTM 7.0)上进行了仿真测试。测试视频序列在全帧内“All Intra”配置中使用默认参数进行编码。BDBR反映了本发明的压缩性能,节省的编码时间ATS体现了复杂性的降低。表1给出了本发明的编码特性,该发明可以节省54.83%的编码运行时间,平均BDBR增量为1.02%。因此,本发明可以有效地节省编码时间,并且RD性能的损失可以忽略不计。
表1本发明的编码特性
Figure BDA0002750871770000151
从表1可以看出本发明与VTM相比RD性能和节省的编码运行时间。对于不同的测试视频,可能实验结果可能会有所波动,但是对本发明提出的方法是有效的。与VTM相比,本发明可以有效地增加时间节省,并具有良好的RD性能。
将本发明提出的方法与最新的H.266/VVC快速方法相比较。这些方法包括CTDM、FIVG、FBDA、FQPD和ACSD。图6和图7分别给出了节省编码时间和BDBR的编码结果,由图6和图7可知,与CTDM、FIVG、FBDA、FQPD和ACSD算法相比,本发明方法在减轻计算负担方面具有更高的性能,可进一步节省约0.74-18.14%的编码时间。与CTDM、FIVG、FBDA和FQPD算法相比,本发明方法具有更好的编码效率,可以进一步降低BD率0.02-0.39%。这些结果表明,本发明对于视频序列的所有分类都是有效的,并且计算复杂度优于H.266/VVC的最新快速方法。
本发明提出了一种针对H.266/VVC的快速CU分区和帧内模式决策方法,在快速CU分区方法中,当CU大小为128×128、64×64、32×16、16×32、16×16、8×16和16×8时,首先进行特征选择,使用有效特征来训练支持向量机SVM以区分CU分区模式。具体地,有两种情况:当CU大小为128×128和64×64时,有效特征包括整个CU的方差、分区的期望值、分区的方差值和量化参数QP;当CU尺寸为32×16、16×32、16×16、8×16和16×8时,有效特征包括熵方差、纹理对比度差和Haar然后使用这些特征在线训练相应的支持向量机SVM分类器模型。最终,支持向量机SVM分类器模型用于确定CU分区模式。另外,考虑到不同视频序列的不同情况,对支持向量机SVM分类器模型进行在线训练并定期进行更新,每个周期为80帧。在第一帧中训练SVM分类器模型,而随后的79帧用于预测;而当CU尺寸为32×32时,分别计算五个分割模式方差的方差值,每个值对应一个分割模式,最大值对应的模式为CU划分的最优模式;在快速帧内预测模式决策方案中,首先通过像素值偏差PVD判断属于垂直模式还是水平模式,然后使用改进的搜索方式,减少需要计算的帧内预测模式的数量。本发明提出的方法可以在保持编码质量的同时降低编码的计算复杂度。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,其步骤如下:
步骤一:采集M帧视频图像,针对第一帧视频图像中尺寸为128×128或64×64的CU,利用四叉树划分模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为128×128或64×64时,与CU划分的类别相关的特征包括CU的方差、分区的期望值、分区的方差值和量化参数QP;
步骤二:针对第一帧视频图像中尺寸为32×16、16×32、16×16、8×16或16×8的CU,分别利用水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的分割模式对第一帧视频图像进行CU划分,并利用F-Score值选择与CU划分的类别相关的特征,其中,CU尺寸为32×16、16×32、16×16、8×16或16×8时,与CU划分的类别相关的特征包括熵方差、纹理对比度差和Haar小波变换系数;
步骤三:利用与CU划分的类别相关的特征训练得到尺寸为128×128、64×64、32×16、16×32、16×16、8×16或16×8的CU对应的SVM模型;
步骤四:利用步骤三中的SVM模型分别对其余M-1帧视频图像进行CU划分预测,得到CU划分的最佳模式,执行步骤七;
步骤五:针对M帧视频图像中尺寸为32×32的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对尺寸为32×32的CU进行CU划分,并计算五种分割模式对应的CU的方差的方差,将CU的方差的方差的最大值对应的分割模式作为CU划分的最佳模式,执行步骤七;
步骤六:针对M帧视频图像中其他尺寸的CU,分别利用四叉树划分、水平二进制划分、垂直二进制划分、水平三进制划分和垂直三进制划分的五种分割模式对其他尺寸的CU进行CU划分,并分别计算着五种分割模式的率失真值,将最小的率失真值对应的分割模式作为CU划分的最佳模式,执行步骤七;
步骤七:将视频图像按照最佳模式进行CU划分,得到子CU,计算子CU的像素值偏差PVD和像素值平均偏差,根据像素值偏差PVD与像素值平均偏差的对比结果将帧内预测模式分为垂直帧内模式和水平帧内模式;
步骤八:分别计算垂直帧内模式和水平帧内模式的绝对变换差之和SATD值,根据绝对变换差之和SATD值构建RDO模式集,并分别计算RDO模式集中垂直帧内模式和水平帧内模式的RDO值,将最小的RDO值对应的模式作为最佳帧内预测模式。
2.根据权利要求1所述的针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,所述CU的方差的计算方法为:
Figure FDA0002750871760000021
其中,W表示CU的宽度,H表示CU的高度,ξ表示CU的方差,
Figure FDA0002750871760000022
表示CU中像素的平均值,xij表示CU中坐标为(i,j)的像素值,i=0,1,…,W-1,j=0,1,…,H-1;
所述分区的期望值的计算方法为:
es=ev+eh
其中,ev=|eu-ed|表示CU中像素期望值的垂直方向的绝对差,eh=|el-er|表示CU中像素期望值的水平方向的绝对差,eu表示CU的上分区的像素期望值,ed表示CU的下分区的期望值,el表示CU的左分区的期望值,er表示CU的右分区的期望值,CU的上分区和下分区的大小均为
Figure FDA0002750871760000023
CU的左分区和右分区的大小均为
Figure FDA0002750871760000024
所述分区的方差值的计算方法为:
ξs=ξvh
其中,ξv=|ξud|表示CU中像素方差值的垂直方向的绝对差,ξh=|ξlr|表示CU中像素方差值的水平方向的绝对差,ξu表示CU的上分区的方差值,ξd表示CU的下分区的方差值,ξl表示CU的左分区的方差值,ξr表示CU的右分区的方差值。
3.根据权利要求2所述的针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,所述熵方差的计算公式为:
ΔEBT=|EBTH_0-EBTH_1|-|EBTV_0-EBTV_1|
ΔETT=|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|-|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|
Figure FDA0002750871760000025
其中,ΔEBT表示二进制划分的熵方差,|EBTH_0-EBTH_1|表示水平二进制划分的熵方差,|EBTV_0-EBTV_1|表示垂直二进制划分的熵方差,ΔETT表示三进制划分的熵方差,|ETTH_0-ETTH_1|+|ETTV_1-EBTV_2|表示水平三进制划分的熵方差,|ETTV_0-ETTV_1|-|ETTV_1-ETTV_2|表示垂直三进制划分的熵方差,EK是划分后的CU的熵,i'表示划分后的CU的灰度值,p(i')表示第i个灰度值的概率;
所述纹理对比度差的计算公式为:
ΔTBT=|TBTH_0-TBTH_1|-|TBTV_0-TBTV_1|
ΔTTT=|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|-|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|
Figure FDA0002750871760000031
其中,ΔTBT表示水平二进制划分和垂直二进制划分的纹理对比度之间的差异,|EBTH_0-EBTH_1|表示水平二进制划分的纹理对比度,|EBTV_0-EBTV_1|表示垂直二进制划分的纹理对比度,ΔTTT表示水平三进制划分和垂直三进制划分的纹理对比度之间的差异,|TTTH_0-ETTH_1|+|TTTV_1-TBTV_2|表示水平三进制划分的纹理对比度,|TTTV_0-TTTV_1|-|TTTV_1-TTTV_2|表示垂直三进制划分的纹理对比度,TK表示划分后的CU的纹理,W1代表划分后的CU的宽度,H1代表划分后的CU的高度,f(i1,j1)代表划分后的CU中的位置(i1,j1)的像素值;
所述Haar小波变换系数的计算公式为:
Figure FDA0002750871760000032
其中,|f(2×i,2×j)-f(2×i,2×j+1)+f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的水平系数,|f(2×i,2×j)+f(2×i,2×j+1)-f(2×i+1,2×j)-f(2×i+1,2×j+1)|表示Harr小波变换的垂直系数,D表示Haar小波变换系数值。
4.根据权利要求1所述的针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,所述CU的方差的方差的计算公式为:
Figure FDA0002750871760000033
Figure FDA0002750871760000034
Figure FDA0002750871760000035
Figure FDA0002750871760000036
Figure FDA0002750871760000041
VM=max(VQT,VBT_H,VBT_V,VTT_H,VTT_V)
其中,VQT表示四叉树划分后的CU的方差的方差,VBT_H表示水平二进制划分后的CU的方差的方差,VBT_V表示垂直二进制划分后的CU的方差的方差,VTT_H表示水平三进制划分后的CU的方差的方差,VTT_V表示垂直三进制划分后的CU的方差的方差,Wn表示划分后的CU的像素的宽,Hn表示划分后的CU的像素的高,ξn表示划分后的CU的像素的平均值,ξQT四叉树划分后的CU的平均方差值,ξBT表示水平二进制划分后的CU的平均方差值,ξBV表示垂直二进制划分后的CU的平均方差值,ξTH表示水平三进制划分后的CU的平均方差值,ξTV表示垂直三进制划分后的CU的平均方差值,VM表示五种分割模式中的方差的方差的最大值,X(i2,j2)表示划分后的CU在位置(i2,j2)上的像素,i2表示像素的横坐标,j2表示像素的纵坐标。
5.根据权利要求3所述的针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,所述F-Score值的计算公式为:
Figure FDA0002750871760000042
其中,
Figure FDA0002750871760000043
表示第i3个特征的F-Score值,npos表示正类样本的数量,nneg表示负类样本的数量,
Figure FDA0002750871760000044
表示正类样本集中第i3个特征的平均值,
Figure FDA0002750871760000045
表示负类样本集中第i3个特征的平均值,
Figure FDA0002750871760000046
指第i3个特征的平均值,
Figure FDA0002750871760000047
代表第l个正类样本点的第i3个特征的特征值,
Figure FDA0002750871760000048
代表第l个负类样本点的第i3个特征的特征值,正类样本是指分裂或跳过垂直分裂的CU,负类样本是指不分裂或跳过水平分裂的CU。
6.根据权利要求1所述的针对H.266/VVC的快速CU分区和帧内模式决策方法,其特征在于,所述子CU的像素值偏差PVD的计算公式为:
Figure FDA0002750871760000049
Figure FDA00027508717600000410
所述子CU的像素值平均偏差的计算公式为:
Figure FDA0002750871760000051
其中,PVDD(x)表示某个方向的像素值偏差值,W'表示子CU的宽度,H'表示子CU的高度,y(x)表示第x个像素条的平均亮度值,P(x,i”)表示第x个像素条的第i”行亮度像素,PVDw表示像素条的平均值,N表示像素条的编号,i”表示子CU的像素的横坐标,j”表示子CU的像素的纵坐标。
CN202011183696.8A 2020-10-29 2020-10-29 针对h.266/vvc的快速cu分区和帧内模式决策方法 Active CN112291562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011183696.8A CN112291562B (zh) 2020-10-29 2020-10-29 针对h.266/vvc的快速cu分区和帧内模式决策方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011183696.8A CN112291562B (zh) 2020-10-29 2020-10-29 针对h.266/vvc的快速cu分区和帧内模式决策方法

Publications (2)

Publication Number Publication Date
CN112291562A true CN112291562A (zh) 2021-01-29
CN112291562B CN112291562B (zh) 2022-06-14

Family

ID=74353398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011183696.8A Active CN112291562B (zh) 2020-10-29 2020-10-29 针对h.266/vvc的快速cu分区和帧内模式决策方法

Country Status (1)

Country Link
CN (1) CN112291562B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115695803A (zh) * 2023-01-03 2023-02-03 宁波康达凯能医疗科技有限公司 一种基于极限学习机的帧间图像编码方法
WO2023024115A1 (zh) * 2021-08-27 2023-03-02 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器和解码系统
CN116193147A (zh) * 2022-10-19 2023-05-30 宁波康达凯能医疗科技有限公司 一种基于决策树支持向量机的帧间图像编码方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
CN106937116A (zh) * 2017-03-15 2017-07-07 杭州电子科技大学 基于随机训练集自适应学习的低复杂度视频编码方法
WO2017205701A1 (en) * 2016-05-25 2017-11-30 Arris Enterprises Llc Weighted angular prediction for intra coding
CN108712647A (zh) * 2018-05-17 2018-10-26 哈尔滨工业大学 一种用于hevc的cu划分方法
US20190289301A1 (en) * 2016-05-23 2019-09-19 Kaonmedia Co., Ltd. Image processing method, and image encoding and decoding method using same
CN111212292A (zh) * 2020-01-16 2020-05-29 郑州轻工业大学 基于h.266的自适应cu分区和跳过模式方法
CN111355956A (zh) * 2020-03-09 2020-06-30 蔡晓刚 一种hevc帧内编码中基于深度学习的率失真优化快速决策系统及其方法
CN111462261A (zh) * 2020-04-06 2020-07-28 郑州轻工业大学 针对h.266/vvc的快速cu分区和帧内决策方法
CN111654698A (zh) * 2020-06-12 2020-09-11 郑州轻工业大学 一种针对h.266/vvc的快速cu分区决策方法
WO2020185004A1 (ko) * 2019-03-12 2020-09-17 현대자동차주식회사 예측 유닛을 서브 유닛들로 분할하여 예측하는 인트라 예측 방법 및 장치

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110274162A1 (en) * 2010-05-04 2011-11-10 Minhua Zhou Coding Unit Quantization Parameters in Video Coding
US20190289301A1 (en) * 2016-05-23 2019-09-19 Kaonmedia Co., Ltd. Image processing method, and image encoding and decoding method using same
WO2017205701A1 (en) * 2016-05-25 2017-11-30 Arris Enterprises Llc Weighted angular prediction for intra coding
CN106937116A (zh) * 2017-03-15 2017-07-07 杭州电子科技大学 基于随机训练集自适应学习的低复杂度视频编码方法
CN108712647A (zh) * 2018-05-17 2018-10-26 哈尔滨工业大学 一种用于hevc的cu划分方法
WO2020185004A1 (ko) * 2019-03-12 2020-09-17 현대자동차주식회사 예측 유닛을 서브 유닛들로 분할하여 예측하는 인트라 예측 방법 및 장치
CN111212292A (zh) * 2020-01-16 2020-05-29 郑州轻工业大学 基于h.266的自适应cu分区和跳过模式方法
CN111355956A (zh) * 2020-03-09 2020-06-30 蔡晓刚 一种hevc帧内编码中基于深度学习的率失真优化快速决策系统及其方法
CN111462261A (zh) * 2020-04-06 2020-07-28 郑州轻工业大学 针对h.266/vvc的快速cu分区和帧内决策方法
CN111654698A (zh) * 2020-06-12 2020-09-11 郑州轻工业大学 一种针对h.266/vvc的快速cu分区决策方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
QIUWEN ZHANG 等: "Fast_CU_Partition_and_Intra_Mode_Decision_Method_for_H.266_VVC", 《IEEE》 *
司丽娜 等: "一种提前终止CU划分和模式选择的HEVC快速算法", 《科技通报》 *
李伟等: "一种HEVC帧内预测模式快速选择算法", 《计算机工程与应用》 *
毋笑蓉等: "基于随机森林分类的HEVC帧内CU快速划分算法", 《计算机工程与应用》 *
王驰等: "3D-HEVC深度图帧内预测快速算法", 《中国图象图形学报》 *
祝世平等: "基于机器学习的HEVC帧内模式快速决策算法", 《光电子?激光》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023024115A1 (zh) * 2021-08-27 2023-03-02 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器和解码系统
CN116193147A (zh) * 2022-10-19 2023-05-30 宁波康达凯能医疗科技有限公司 一种基于决策树支持向量机的帧间图像编码方法
CN115695803A (zh) * 2023-01-03 2023-02-03 宁波康达凯能医疗科技有限公司 一种基于极限学习机的帧间图像编码方法

Also Published As

Publication number Publication date
CN112291562B (zh) 2022-06-14

Similar Documents

Publication Publication Date Title
CN112291562B (zh) 针对h.266/vvc的快速cu分区和帧内模式决策方法
CN110087087B (zh) Vvc帧间编码单元预测模式提前决策及块划分提前终止方法
CN115914649B (zh) 一种用于医疗视频的数据传输方法及系统
CN108495135B (zh) 一种屏幕内容视频编码的快速编码方法
CN111462261B (zh) 针对h.266/vvc的快速cu分区和帧内决策方法
WO2018192235A1 (zh) 编码单元深度确定方法及装置
CN111479110B (zh) 针对h.266/vvc的快速仿射运动估计方法
CN114286093A (zh) 一种基于深度神经网络的快速视频编码方法
CN100479527C (zh) 一种帧内预测模式选取方法
CN111429497B (zh) 基于深度学习和多特征融合的自适应cu拆分决策方法
Zhang et al. Fast CU decision-making algorithm based on DenseNet network for VVC
CN112437310B (zh) 一种基于随机森林的vvc帧内编码快速cu划分决策方法
CN107690069B (zh) 一种数据驱动的级联视频编码方法
CN114900691B (zh) 编码方法、编码器及计算机可读存储介质
Kamble et al. Modified three-step search block matching motion estimation and weighted finite automata based fractal video compression
CN115941943A (zh) 一种hevc视频编码方法
CN115484464A (zh) 视频编码方法和装置
Zhao et al. ResNet-based fast CU partition decision algorithm for VVC
US20080253670A1 (en) Image Signal Re-Encoding Apparatus And Image Signal Re-Encoding Method
CN112468808A (zh) 一种基于强化学习的i帧目标带宽分配方法及装置
CN106878754A (zh) 一种3d视频深度图像帧内预测模式选择方法
CN108024113B (zh) 一种目标占比自适应的压缩域小目标跟踪方法
CN110581993A (zh) 一种基于多用途编码中帧内编码的编码单元快速划分方法
CN114143536B (zh) 一种shvc空间可伸缩帧的视频编码方法
JP4490351B2 (ja) 階層間予測処理方法,階層間予測処理装置,階層間予測処理プログラムおよびその記録媒体

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant