CN114222134A - 视频数据的帧间预测方法、装置及电子设备 - Google Patents

视频数据的帧间预测方法、装置及电子设备 Download PDF

Info

Publication number
CN114222134A
CN114222134A CN202111604439.1A CN202111604439A CN114222134A CN 114222134 A CN114222134 A CN 114222134A CN 202111604439 A CN202111604439 A CN 202111604439A CN 114222134 A CN114222134 A CN 114222134A
Authority
CN
China
Prior art keywords
motion vector
target
determining
current
offset step
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111604439.1A
Other languages
English (en)
Inventor
张鹏
罗昕颉
向国庆
黄晓峰
严伟
范益波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Advanced Institute of Information Technology AIIT of Peking University
Hangzhou Weiming Information Technology Co Ltd
Original Assignee
Advanced Institute of Information Technology AIIT of Peking University
Hangzhou Weiming Information Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Advanced Institute of Information Technology AIIT of Peking University, Hangzhou Weiming Information Technology Co Ltd filed Critical Advanced Institute of Information Technology AIIT of Peking University
Priority to CN202111604439.1A priority Critical patent/CN114222134A/zh
Publication of CN114222134A publication Critical patent/CN114222134A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/567Motion estimation based on rate distortion criteria

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本申请公开了一种视频数据的帧间预测方法、装置及电子设备。其中,该方法包括:选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,参考CU集合中的每个CU均为已编码CU;根据参考CU集合每个CU的编码信息,确定当前CU的参考运动矢量;根据参考CU集合每个CU的编码信息中的运动矢量的标准差,确定当前CU的运动剧烈程度;将参考CU集合中与参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;基于目标基准点确定出与运动剧烈程度相匹配的偏移步长,并根据偏移步长确定UMVE的候选运动矢量;基于候选运动矢量对当前CU进行帧间预测。本申请解决了相关技术中的确定CU的运动矢量效率较低的技术问题。

Description

视频数据的帧间预测方法、装置及电子设备
技术领域
本申请涉及视频编解码领域,具体而言,涉及一种视频数据的帧间预测方法、装置及电子设备。
背景技术
在第三代音视频标准AVS3中,使用了许多基于编码单元(Coding Unit,CU)块的混合编码工具,其中,除了传统的时域和空域候选,SKIP模式还使用了两个新的编码工具历史运动矢量预测HMVP和高级运动矢量表达UMVE。它们被用于SKIP或DIRECT模式,以提高编码质量。
AVS3新增时域运动矢量预测(TMVP)/HMVP/UMVE/仿射(AFFINE)等新技术,在视频编码规则IPPP配置下,SKIP模式中将产生55种候选模式,全部的候选模式串行需要几十秒一帧,全部并行需要55个参考窗,为每一个参考窗分配一组读取、插值、率失真优化RDO、写入电路,这将难以满足硬件编码时序和面积约束。而且,由于预测模式数量较多,计算CU在每一预测模式下的率失真代价的复杂度较高,使得确定CU候选运动矢量计算量较大,从而会导致确定CU的运动矢量的效率较低。
发明内容
本申请实施例提供了一种视频数据的帧间预测方法、装置及电子设备,以至少解决相关技术中的确定CU的运动矢量效率较低的技术问题。
根据本申请实施例的一个方面,提供了一种视频数据的帧间预测方法,包括:选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;基于上述候选运动矢量对上述当前CU进行帧间预测。
根据本申请实施例的另一方面,还提供了一种视频数据的帧间预测装置,包括:选择单元,选择单元,选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;第一确定单元,用于根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;第二确定单元,用于根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;第三确定单元,用于将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;第四确定单元,用于基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;预测单元,用于基于上述候选运动矢量对上述当前CU进行帧间预测。
根据本申请实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述的视频数据的帧间预测方法。
根据本申请实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的视频数据的帧间预测方法。
在本申请实施例中,通过选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;基于上述候选运动矢量对上述当前CU进行帧间预测。由于在在率失真优化RDO阶段之前对SKIP/DIRECT模式的候选运动矢量进行预筛选,不仅减少了视频编码算法的复杂度,而且提高了确定CU的运动矢量的效率,解决了相关技术中的确定CU的运动矢量效率较低的技术问题。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本发明实施例的一种可选的视频数据的帧间预测方法的应用环境的示意图;
图2是根据本发明实施例的另一种可选的视频数据的帧间预测方法的应用环境的示意图;
图3是根据本发明实施例的一种可选的视频数据的帧间预测方法的流程示意图;
图4是根据本发明实施例的一种当前CU的空域CU示意图;
图5是根据本发明实施例的另一种当前CU的时域CU示意图;
图6是根据本发明实施例的UMVE示意图;
图7是根据本发明实施例的一种可选的视频数据的帧间预测装置的结构示意图;
图8是根据本申请实施例的一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
根据本发明实施例的一个方面,提供了一种视频数据的帧间预测上述方法,可选地,作为一种可选的实施方式,上述视频数据的帧间预测上述方法可以但不限于应用于如图1所示的硬件环境中。该硬件环境中包括:与用户进行人机交互的终端设备102、网络104、服务器106。用户108与终端设备102之间可以进行人机交互,终端设备102中运行有视频数据的帧间预测应用客户端。上述终端设备102中包括人机交互屏幕1022,处理器1024及存储器1026。人机交互屏幕1022用于呈现视频帧处理的界面;处理器1024用于获取当前编码单元CU的相邻空域CU和时域同位CU。存储器1026用于存储基于当前编码单元CU的参考空域CU集合。
此外,服务器106中包括数据库1062及处理引擎1064,数据库1062中用于存储当前编码单元CU的参考空域CU,及用于存储当前CU的候选运动矢量。处理引擎1064用于:选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;基于上述候选运动矢量对上述当前CU进行帧间预测。
作为另一种可选的实施方式,本申请上述视频数据的帧间预测上述方法可以应用于图2中。如图2所示,用户202与用户设备204之间可以进行人机交互。用户设备204中包含有存储器206和处理器208。本实施例中终端设备204可以但不限于参考执行上述终端设备102所执行的操作,基于候选运动矢量对上述当前CU进行帧间预测。
可选地,上述终端设备102和用户设备204可以但不限于为手机、平板电脑、笔记本电脑、PC机等终端,上述网络104可以包括但不限于无线网络或有线网络。其中,该无线网络包括:WIFI及其他实现无线通信的网络。上述有线网络可以包括但不限于:广域网、城域网、局域网。上述服务器106可以包括但不限于任何可以进行计算的硬件设备。上述服务器可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述仅是一种示例,本实施例中对此不作任何限定。
可选地,在一个或多个实施例中,如图3所示,上述视频数据的帧间预测方法包括:
S302,选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU。
在本实施例中,如图4与图5所示,按照AVS3标准,当前帧图像Cur_pic的参考帧图像Col_pic;当前CU(Cur)的1个时域同位{T}位于当前Cu相邻的右下方,当前CU相邻的6个空域CU{A,B,D,G,C,F},共7个CU,将上述7个CU作为当前Cu的参考CU集合{A,B,D,G,C,F,T}。对于标准中未编码CU、编码模式为帧内(INTRA)的模式的CU予以舍弃。
S304,根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量。
在本发明实施例中,CU的编码信息包括但不限于编码模式,运动矢量等,在此不做任何限定。通过编码信息,计算出参考CU集合中的每个CU率失真代价中最小率失真代价对应的运动矢量,为每个CU最优的运动矢量,优选地,如图4所示,参考CU集合{A,B,D,G,C,F,T}中,CU最优的运动矢量表示为如下公式:
MVi=(MVi,x,MVi,y),其中i∈{F,G,C,A,B,D,T}。
取参考CU集合中的7个CU最优的运动矢量的平均值,作为当前CU的参考运动矢量。
MVref=(MVref,x,MVref,y)
Figure BDA0003433214790000061
Figure BDA0003433214790000062
其中,MVref为当前CU的参考运动矢量,MVref,x为横坐标,MVref,y纵坐标,i∈{F,G,C,A,B,D,T}。
S306,根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度。
在本发明实施例中,例如,如图4所示,参考CU集合{A,B,D,G,C,F,T}中,取参考CU集合中的7个CU最优的运动矢量的标准差,作为当前CU的参考运动矢量差值MVD;具体公式如下:
MVDref=(MVDref,x,MVDref,y)
Figure BDA0003433214790000071
Figure BDA0003433214790000072
其中,MVDref为当前CU的参考运动矢量差值,i∈{F,G,C,A,B,D,T}。
在本实施例中,可以根据MVDref的大小来判断当前CU的运动剧烈程度。
S308,将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点。
在AVS3标准中,UMVE基准点最多有2个,如图6所示,对跳过模式/直接模式的基础运动矢量进行步长和方向上的精细调整,在节省码率的同时提高了编码质量。从2个起始点出发,分别向着上、下、左、右这4个方向进行搜索,偏移步长为1/4像素、1/2像素、1像素、2像素、4像素,总共有2(基准点)×4(方向)×5(步长)=40种运动矢量候选。
在本发明实施例中,将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点,例如,空域CUA的运动矢量与上述参考运动矢量距离最接近,那么久可以将A运动矢量的终点作为目标基准点。
具体地,选择目标基准点的公式如下:
D=miniDi
Figure BDA0003433214790000073
其中i∈{0,1},D为目标基准点。
S310,基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量。
在本发明实施例中,从1/4像素、1/2像素、1像素、2像素、4像素中计算出与MVDref=(MVDref,x,MVDref,y)得到的参考运动矢量差值最接近的偏移步长,然后以目标基准点为起始点,根据该偏移步长得到终点,最终可以得到4中UMVE的候选运动矢量。
S312,基于上述候选运动矢量对上述当前CU进行帧间预测。
具体地,在得到仿射融合候选列表后,对当前帧进行仿射变换插值,以预测得到当前帧的下一帧。
在本申请实施例中,通过选择当前编码单元CU的参考空域CU;其中,上述参考空域CU为可用状态的编码单元;在上述参考空域CU中存在一个参考空域CU的目标编码模式为仿射模式时,将目标编码模式为仿射模式的参考空域CU的仿射控制点作为上述当前CU的仿射控制点,并将第一仿射模型写入仿射融合候选列表;其中,上述目标编码模式为多种帧间预测模式下的率失真代价中最小率失真代价对应的预测模式,第一仿射模型包括基于模型的仿射模式;在上述参考空域CU中存在至少两个参考空域CU的目标编码模式为仿射模式时,将第一仿射模型和/或第二仿射模型写入仿射融合候选列表中;其中,第二仿射模型包括基于控制点的仿射模式;在上述参考空域CU中不存在参考空域CU的目标编码模式为仿射模式时,将上述第二仿射模型写入仿射融合候选列表中;根据上述仿射融合候选列表对上述当前CU进行帧间预测。由于在在率失真优化RDO阶段之前对仿射SKIP模式的候选列表进行预筛选,不仅减少了仿射SKIP模式的计算复杂度,而且提高了确定CU的预测模式的效率,解决了相关技术中的确定CU的预测模式效率较低的技术问题。
在一个或多个实施例中,上述步骤S304,上述根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量,包括:
根据上述参考CU集合中每个CU的编码信息,确定出上述每个CU的目标运动矢量以及包含每个CU的目标运动矢量的目标运动矢量集合;上述目标运动矢量为指示最小率失真代价对应的运动矢量;
将上述目标运动矢量集合中的所有目标运动矢量的平均值,作为上述参考运动矢量。
具体地,如图4所示,参考CU集合{A,B,D,G,C,F,T}中,每个CU的编码信息包括每个CU的运动矢量,CU最优的运动矢量表示为如下公式:
MVi=(MVi,x,MVi,y),其中i∈{F,G,C,A,B,D,T}。
取参考CU集合中的7个CU最优的运动矢量的平均值,作为当前CU的参考运动矢量,公式如下:
MVref=(MVref,x,MVref,y)
Figure BDA0003433214790000091
Figure BDA0003433214790000092
其中,MVref为当前CU的参考运动矢量,MVref,x为横坐标,MVref,y纵坐标,i∈{F,G,C,A,B,D,T}。
在一个或多个实施例中,上述根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度,包括:确定上述目标运动矢量集合中的所有目标运动矢量的标准差,将上述标准差作为上述当前CU的参考运动矢量差值MVD;其中,上述参考MVD用于指示上述当前CU的运动剧烈程度。
具体地,如图4所示,参考CU集合{A,B,D,G,C,F,T}中,取参考CU集合中的7个CU最优的运动矢量的标准差,作为当前CU的参考运动矢量差值MVD;具体公式如下:
MVDref=(MVDref,x,MVDref,y)
Figure BDA0003433214790000101
Figure BDA0003433214790000102
其中,MVDref为当前CU的参考运动矢量差值,i∈{F,G,C,A,B,D,T}。
在本实施例中,可以根据MVDref的大小来判断当前CU的运动剧烈程度。
在一个或多个实施例中,上述基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量,包括:基于上述目标基准点从上述目标基准点的偏移步长集合中确定出与上述参考MVD距离最近的目标偏移步长;根据上述目标偏移步长确定上述UMVE的候选运动矢量。
例如,空域CUA的运动矢量与上述参考运动矢量距离最接近,那么久可以将A运动矢量的终点作为目标基准点。从1/4像素、1/2像素、1像素、2像素、4像素中计算出与MVDref=(MVDref,x,MVDref,y)得到的参考运动矢量差值最接近的偏移步长,然后以目标基准点为起始点,根据该偏移步长得到终点,最终可以得到4中UMVE的候选运动矢量。
在一个或多个实施例中,上述基于上述目标基准点从上述目标基准点的偏移步长集合中确定出与上述参考MVD距离最近的目标偏移步长,包括:
以上述目标基准点为原点、上述目标基准点的左右方向为X轴、上述目标基准点的上下方向为Y轴构建二维坐标系;
在上述X轴上从偏移步长集合中确定出与上述参考MVD距离最近的第一目标偏移步长;基于上述目标基准点和第一目标偏移步长,确定出第一候选UMVE运动矢量;
在上述Y轴上从偏移步长集合中确定出与上述参考MVD距离最近的第二目标偏移步长;基于上述目标基准点和第二目标偏移步长,确定出第二候选UMVE运动矢量。
具体地,在X轴、Y轴上分别选取与参考MVD最接近的偏移步长,最终得到4种UMVE运动矢量候选。计算偏移步长的公式如下:
Figure BDA0003433214790000111
Figure BDA0003433214790000112
其中,(stepx,stepx)为偏移步长的位置信息。
在一个或多个实施例中,上述视频数据的帧间预测方法还包括:确定出上述目标运动矢量集合中的每个CU的运动矢量与上述参考运动矢量之间的距离;根据上述距离选择目标数量的运动矢量,作为用于帧间预测的跳跃SKIP模式或直接DIRECT模式的候选运动矢量。
在本发明实施例中,目标数量包括但不限于2个。
在一个或多个实施例中,上述选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合,包括:
选取当前编码单元CU的六个相邻空域CU和一个时域同位CU,作为上述参考CU集合。
如图4与图5所示,按照AVS3标准,当前帧图像Cur_pic的参考帧图像Col_pic;当前CU(Cur)的1个时域同位{T}位于当前Cu相邻的右下方,当前CU相邻的6个空域CU{A,B,D,G,C,F},共7个CU。
基于上述实施例,在一个或多个实施例中,上述视频数据的帧间预测方法还包括:
1)选取当前CU的6个空域CU(F/G/C/A/B/D)、时域同位CU(T)共7个CU。7个CU的位置示意如图4、图5所示。
2)根据7个CU的已编码信息,统计出概率最大(率失真代价中最小)的运动矢量参考值。
3)根据7个CU的运动矢量信息,预测当前CU的运动剧烈程度。
4)选取7个CU的运动矢量中距离上述的参考运动矢量最近的空域运动矢量作为UMVE基点,根据上述步骤3)中得出运动剧烈程度选取相符的MVD,作为UMVE运动矢量候选。
5)选取7个CU的运动矢量中距离步骤2)中的参考运动矢量最近的2个运动矢量作为SKIP/DIRECT模式运动矢量候选。
具体地,在上述步骤1)中:按照AVS3标准,当前CU的1个时域和6个空域CU共7个相关CU。对于标准中未编码、编码模式为帧内(INTRA)的模式应予以舍弃。
具体地,在上述步骤2)中,具体包括如下内容:
a)记录7个CU最优的运动矢量,表示为MVi=(MVi,x,MVi,y),其中i∈{F,G,C,A,B,D,T}。
b)取7个CU最优的运动矢量的平均值,作为当前CU的参考运动矢量。
MVref=(MVref,x,MVref,y)
Figure BDA0003433214790000131
Figure BDA0003433214790000132
其中,i∈{F,G,C,A,B,D,T}。
具体地,在上述步骤3)中,具体包括如下内容:
取7个CU最优的运动矢量的标准差,作为当前CU的参考MVD。公式如下:
MVDref=(MVDref,x,MVDref,y)
Figure BDA0003433214790000133
Figure BDA0003433214790000134
其中,i∈{F,G,C,A,B,D,T}。
具体地,在上述步骤4)中,具体包括如下内容:
a)按照AVS3标准,UMVE基准点最多有2个,选取其中与过程2)中得到的参考运动矢量最接近的1个,即
Figure BDA0003433214790000135
Figure BDA0003433214790000136
其中,i∈{0,1}。
b)按照AVS3标准,UMVE技术支持由基准点开始向上、下、左、右四个方向分别遍历5个点,共支持遍历40个点。与基准点的距离(步长)分别为1、2、4、8、16。在x、y方向上分别选取与过程3)中得到的参考MVD最接近的步长,最终得到4种UMVE运动矢量候选。计算公式如下:
||stepx|-MVDref,x|=mini||stepi,x|-MVDref,x|;
||stepy|-MVDref,y|=mini||stepi,y|-MVDref,y|;
本发明实施例基于AVS3标准,通过CU相关性、运动剧烈程度等预分析手段,在率失真优化RDO前阶段对SKIP/DIRECT模式中UMVE技术提供的候选运动矢量进行预选,减少插值和RDO运算次数,提高视频帧编码效率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
根据本申请实施例的另一个方面,还提供了一种用于实施上述视频数据的帧间预测方法的视频数据的帧间预测装置。如图7所示,该装置包括:
选择单元702,用于选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;
第一确定单元704,用于根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;
第二确定单元706,用于根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;
第三确定单元708,用于将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;
第四确定单元710,用于基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;
预测单元712,用于基于上述候选运动矢量对上述当前CU进行帧间预测。
在本申请实施例中,通过选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;基于上述候选运动矢量对上述当前CU进行帧间预测。由于在在率失真优化RDO阶段之前对SKIP/DIRECT模式的候选运动矢量进行预筛选,不仅减少了视频编码算法的复杂度,而且提高了确定CU的运动矢量的效率,解决了相关技术中的确定CU的运动矢量效率较低的技术问题。
在一个或多个实施例中,上述第一确定单元704,具体包括:
第一确定模块,用于根据上述参考CU集合中每个CU的编码信息,确定出上述每个CU的目标运动矢量以及包含每个CU的目标运动矢量的目标运动矢量集合;上述目标运动矢量为指示最小率失真代价对应的运动矢量;
计算模块,用于将上述目标运动矢量集合中的所有目标运动矢量的平均值,作为上述参考运动矢量。
在一个或多个实施例中,上述第二确定单元706,具体包括:
第二确定模块,用于确定上述目标运动矢量集合中的所有目标运动矢量的标准差,将上述标准差作为上述当前CU的参考运动矢量差值MVD;其中,上述参考MVD用于指示上述当前CU的运动剧烈程度。
在一个或多个实施例中,上述第四确定单元710,具体包括:
第三确定模块,用于基于上述目标基准点从上述目标基准点的偏移步长集合中确定出与上述参考MVD距离最近的目标偏移步长;
第四确定模块,用于根据上述目标偏移步长确定上述UMVE的候选运动矢量。
在一个或多个实施例中,上述第三确定模块,具体包括:
构建子单元,用于以上述目标基准点为原点、上述目标基准点的左右方向为X轴、上述目标基准点的上下方向为Y轴构建二维坐标系;
第一确定子单元,用于在上述X轴上从偏移步长集合中确定出与上述参考MVD距离最近的第一目标偏移步长;
第二确定子单元,用于基于上述目标基准点和第一目标偏移步长,确定出第一候选UMVE运动矢量;
第三确定子单元,用于在上述Y轴上从偏移步长集合中确定出与上述参考MVD距离最近的第二目标偏移步长;
第四确定子单元,用于基于上述目标基准点和第二目标偏移步长,确定出第二候选UMVE运动矢量。
在一个或多个实施例中,上述视频数据的帧间预测装置还包括:
第五确定单元,用于确定出上述目标运动矢量集合中的每个CU的运动矢量与上述参考运动矢量之间的距离;
第六确定单元,用于根据上述距离选择目标数量的运动矢量,作为用于帧间预测的跳跃SKIP模式或直接DIRECT模式的候选运动矢量。
在一个或多个实施例中,上述选择单元,具体包括:
选择模块,用于选取当前编码单元CU的六个相邻空域CU和一个时域同位CU,作为上述参考CU集合。
根据本申请实施例的又一个方面,还提供了一种用于实施上述视频数据的帧间预测方法的电子设备,该电子设备可以是图1所示的终端设备或服务器。本实施例以该电子设备为服务器为例来说明。如图8所示,该电子设备包括存储器802和处理器804,该存储器802中存储有计算机程序,该处理器804被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;
S2,根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;
S3,根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;
S4,将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;
S5,基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;
S6,基于上述候选运动矢量对上述当前CU进行帧间预测。
可选地,本领域普通技术人员可以理解,图8所示的结构仅为示意,电子装置电子设备也可以是智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图8其并不对上述电子装置电子设备的结构造成限定。例如,电子装置电子设备还可包括比图8中所示更多或者更少的组件(如网络接口等),或者具有与图8所示不同的配置。
其中,存储器802可用于存储软件程序以及模块,如本申请实施例中的视频数据的帧间预测方法和装置对应的程序指令/模块,处理器804通过运行存储在存储器802内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的视频数据的帧间预测方法。存储器802可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器802可进一步包括相对于处理器804远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器802具体可以但不限于用于存储当前编码单元CU的运动矢量等信息。作为一种示例,如图8所示,上述存储器802中可以但不限于包括上述视频数据的帧间预测装置中的选择单元702、第一确定单元704、第二确定单元706、第三确定单元708、第四确定单元710及预测单元712。此外,还可以包括但不限于上述视频数据的帧间预测装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置808用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置808包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置808为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器808,用于显示上述当前编码单元CU的运动矢量信息;和连接总线810,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
在一个或多个实施例中,本申请还提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述视频数据的帧间预测方法。其中,该计算机程序被设置为运行时执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述计算机可读的存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,上述参考CU集合中的每个CU均为已编码CU;
S2,根据上述参考CU集合每个CU的编码信息,确定上述当前CU的参考运动矢量;
S3,根据上述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定上述当前CU的运动剧烈程度;
S4,将上述参考CU集合中与上述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;
S5,基于上述目标基准点确定出与上述运动剧烈程度相匹配的偏移步长,并根据上述偏移步长确定上述UMVE的候选运动矢量;
S6,基于上述候选运动矢量对上述当前CU进行帧间预测。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。上述本申请实施例序号仅仅为了描述,不代表实施例的优劣。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本申请各个实施例上述方法的全部或部分步骤。
在本申请的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上上述仅是本申请的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本申请的保护范围。

Claims (10)

1.一种视频数据的帧间预测方法,其特征在于,包括:
选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,所述参考CU集合中的每个CU均为已编码CU;
根据所述参考CU集合每个CU的编码信息,确定所述当前CU的参考运动矢量;
根据所述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定所述当前CU的运动剧烈程度;
将所述参考CU集合中与所述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;
基于所述目标基准点确定出与所述运动剧烈程度相匹配的偏移步长,并根据所述偏移步长确定所述UMVE的候选运动矢量;
基于所述候选运动矢量对所述当前CU进行帧间预测。
2.根据权利要求1所述的方法,其特征在于,所述根据所述参考CU集合每个CU的编码信息,确定所述当前CU的参考运动矢量,包括:
根据所述参考CU集合中每个CU的编码信息,确定出所述每个CU的目标运动矢量以及包含每个CU的目标运动矢量的目标运动矢量集合;所述目标运动矢量为指示最小率失真代价对应的运动矢量;
将所述目标运动矢量集合中的所有目标运动矢量的平均值,作为所述参考运动矢量。
3.根据权利要求2所述的方法,其特征在于,所述根据所述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定所述当前CU的运动剧烈程度,包括:
确定所述目标运动矢量集合中的所有目标运动矢量的标准差,将所述标准差作为所述当前CU的参考运动矢量差值MVD;其中,所述参考MVD用于指示所述当前CU的运动剧烈程度。
4.根据权利要求3所述的方法,其特征在于,所述基于所述目标基准点确定出与所述运动剧烈程度相匹配的偏移步长,并根据所述偏移步长确定所述UMVE的候选运动矢量,包括:
基于所述目标基准点从所述目标基准点的偏移步长集合中确定出与所述参考MVD距离最近的目标偏移步长;
根据所述目标偏移步长确定所述UMVE的候选运动矢量。
5.根据权利要求4所述的方法,其特征在于,所述基于所述目标基准点从所述目标基准点的偏移步长集合中确定出与所述参考MVD距离最近的目标偏移步长,包括:
以所述目标基准点为原点、所述目标基准点的左右方向为X轴、所述目标基准点的上下方向为Y轴构建二维坐标系;
在所述X轴上从偏移步长集合中确定出与所述参考MVD距离最近的第一目标偏移步长;
基于所述目标基准点和第一目标偏移步长,确定出第一候选UMVE运动矢量;
在所述Y轴上从偏移步长集合中确定出与所述参考MVD距离最近的第二目标偏移步长;
基于所述目标基准点和第二目标偏移步长,确定出第二候选UMVE运动矢量。
6.根据权利要求2所述的方法,其特征在于,所述方法还包括:
确定出所述目标运动矢量集合中的每个CU的运动矢量与所述参考运动矢量之间的距离;
根据所述距离选择目标数量的运动矢量,作为用于帧间预测的跳跃SKIP模式或直接DIRECT模式的候选运动矢量。
7.根据权利要求1所述的方法,其特征在于,所述选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合,包括:
选取当前编码单元CU的六个相邻空域CU和一个时域同位CU,作为所述参考CU集合。
8.一种视频数据的帧间预测装置,其特征在于,包括:
选择单元,选取当前编码单元CU的相邻空域CU和时域同位CU,作为参考CU集合;其中,所述参考CU集合中的每个CU均为已编码CU;
第一确定单元,用于根据所述参考CU集合每个CU的编码信息,确定所述当前CU的参考运动矢量;
第二确定单元,用于根据所述参考CU集合每个CU的编码信息中的运动矢量的标准差,确定所述当前CU的运动剧烈程度;
第三确定单元,用于将所述参考CU集合中与所述参考运动矢量距离最近的空域CU的运动矢量的终点,作为高级运动矢量表达UMVE的目标基准点;
第四确定单元,用于基于所述目标基准点确定出与所述运动剧烈程度相匹配的偏移步长,并根据所述偏移步长确定所述UMVE的候选运动矢量;
预测单元,用于基于所述候选运动矢量对所述当前CU进行帧间预测。
9.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至7任一项中所述的方法。
10.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至7中任一项所述的方法。
CN202111604439.1A 2021-12-24 2021-12-24 视频数据的帧间预测方法、装置及电子设备 Pending CN114222134A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111604439.1A CN114222134A (zh) 2021-12-24 2021-12-24 视频数据的帧间预测方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111604439.1A CN114222134A (zh) 2021-12-24 2021-12-24 视频数据的帧间预测方法、装置及电子设备

Publications (1)

Publication Number Publication Date
CN114222134A true CN114222134A (zh) 2022-03-22

Family

ID=80705749

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111604439.1A Pending CN114222134A (zh) 2021-12-24 2021-12-24 视频数据的帧间预测方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN114222134A (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2727149A1 (en) * 2010-01-08 2011-07-08 Research In Motion Limited Method and device for video encoding using predicted residuals
US20200007889A1 (en) * 2018-06-29 2020-01-02 Qualcomm Incorporated Buffer restriction during motion vector prediction for video coding
CN111885389A (zh) * 2020-07-24 2020-11-03 腾讯科技(深圳)有限公司 一种多媒体数据编码方法、装置及存储介质
KR20210094089A (ko) * 2019-01-03 2021-07-28 에스지 디제이아이 테크놀러지 코., 엘티디 비디오 처리 방법 및 장치
CN113301348A (zh) * 2021-07-27 2021-08-24 杭州博雅鸿图视频技术有限公司 运动矢量选择方法、装置、电子设备及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2727149A1 (en) * 2010-01-08 2011-07-08 Research In Motion Limited Method and device for video encoding using predicted residuals
US20200007889A1 (en) * 2018-06-29 2020-01-02 Qualcomm Incorporated Buffer restriction during motion vector prediction for video coding
KR20210094089A (ko) * 2019-01-03 2021-07-28 에스지 디제이아이 테크놀러지 코., 엘티디 비디오 처리 방법 및 장치
CN111885389A (zh) * 2020-07-24 2020-11-03 腾讯科技(深圳)有限公司 一种多媒体数据编码方法、装置及存储介质
CN113301348A (zh) * 2021-07-27 2021-08-24 杭州博雅鸿图视频技术有限公司 运动矢量选择方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN110213590B (zh) 时域运动矢量获取、帧间预测、视频编码的方法及设备
Cuevas et al. Block-matching algorithm based on differential evolution for motion estimation
CN101569202B (zh) 活动图像编码方法和解码方法、其装置
CN109672894B (zh) 一种帧间预测方法、装置及存储介质
CN113194314B (zh) 视频处理方法、编码端及解码端
CN111357290B (zh) 视频图像处理方法与装置
CN112087629A (zh) 图像预测方法及相关装置
CN104704819A (zh) 3d视频编码的视差矢量推导和视图间运动矢量预测的方法及装置
WO2019169949A1 (zh) 预测运动矢量生成方法以及相关设备
CN107396112A (zh) 一种编码方法及装置、计算机装置、可读存储介质
CN113709458B (zh) 视频编解码中的位移矢量预测方法、装置及设备
CN109565601B (zh) 一种基于模板匹配的预测方法及装置
CN114157868B (zh) 视频帧的编码模式筛选方法、装置及电子设备
CN114222134A (zh) 视频数据的帧间预测方法、装置及电子设备
CN116074517B (zh) 基于运动向量的目标检测方法和装置
Eriksson et al. Algorithms for distributed feature extraction in multi-camera visual sensor networks
CN114630114A (zh) 视频编码的帧内预测方法和装置、存储介质及电子设备
CN115550645A (zh) 帧内预测模式的确定方法、装置、存储介质及电子设备
CN112565753B (zh) 运动矢量差的确定方法和装置、存储介质及电子装置
CN114554209A (zh) 基于avs3的仿射模式筛选方法、装置及电子设备
CN110545428A (zh) 一种运动估计方法及装置、服务器及计算机可读存储介质
Lee et al. Bilateral frame rate up‐conversion algorithm based on the comparison of texture complexity
CN114501022A (zh) 一种数据处理方法、装置、计算机设备及存储介质
CN116760986B (zh) 候选运动矢量生成方法、装置、计算机设备和存储介质
CN110636293A (zh) 视频编码、解码方法和装置、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination