CN110213590B - 时域运动矢量获取、帧间预测、视频编码的方法及设备 - Google Patents

时域运动矢量获取、帧间预测、视频编码的方法及设备 Download PDF

Info

Publication number
CN110213590B
CN110213590B CN201910555587.5A CN201910555587A CN110213590B CN 110213590 B CN110213590 B CN 110213590B CN 201910555587 A CN201910555587 A CN 201910555587A CN 110213590 B CN110213590 B CN 110213590B
Authority
CN
China
Prior art keywords
block
position block
blocks
adjacent position
adjacent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910555587.5A
Other languages
English (en)
Other versions
CN110213590A (zh
Inventor
方诚
江东
林聚财
殷俊
曾飞洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN201910555587.5A priority Critical patent/CN110213590B/zh
Publication of CN110213590A publication Critical patent/CN110213590A/zh
Priority to PCT/CN2020/098125 priority patent/WO2020259589A1/en
Priority to EP20830559.9A priority patent/EP3973708A4/en
Priority to US17/645,968 priority patent/US20220124321A1/en
Application granted granted Critical
Publication of CN110213590B publication Critical patent/CN110213590B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Abstract

本申请公开了一种时域运动矢量获取、帧间预测、视频编码的方法及设备,该方法包括:按照预设方法确定当前编码块的至少一个同位帧;按照当前编码块的候选位置块的搜索顺序在同位帧中确定至少一个同位块;获取同位块的运动矢量;利用当前帧和当前帧的参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量。通过上述方式,本申请能够提高帧间预测的准确度。

Description

时域运动矢量获取、帧间预测、视频编码的方法及设备
技术领域
本申请涉及视频编解码技术领域,特别是涉及时域运动矢量获取、帧间预测、视频编码的方法及设备。
背景技术
因为视频图像数据量比较大,通常需要对视频像素数据(RGB、YUV等)其进行压缩,从而降低视频的数据量。压缩后的数据称之为视频码流,视频码流通过有线或者无线网络传输至用户端,再进行解码观看,能够实现降低传输过程中的网络带宽和减少存储空间的目的。
整个视频编码流程包括预测、变换、量化、编码等过程,其中预测分为帧内预测和帧间预测两部分。帧间预测用的是图像帧间的时域相关性来对图像进行压缩。帧间预测过程实际上就是获取当前编码块的运动矢量(MotionVector,MV)信息的过程,为了便于描述,下文中将MV信息简称为MV。由于连续的图像帧中的某一物体运动一般不会发生突然变化,所以可以用时域上前面的图像帧和/或后面图像帧的运动信息来预测当前图像帧的运动信息。其中P帧用的是前向预测,即用它前向(POC比当前帧小,POC是picture order count(图像序列号)的缩写,用于标识图像的播放顺序)帧作为参考帧,获取参考帧中对应块的运动矢量信息来对当前P帧中的当前编码块进行预测;B帧用的是双向预测,即用它前向帧和后向(POC比当前帧大)帧作为参考帧,获取参考帧中对应块的运动矢量信息来对当前B帧中的当前编码块进行预测。本申请的发明人在长期的研发过程中,发现目前时域MV的获取方式还存在一定的局限性,也在一定程度上影响了帧间预测的准确度。
发明内容
本申请主要解决的技术问题是提供一种时域运动矢量获取、帧间预测、视频编码的方法及设备,能够提高帧间预测的准确度。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种时域运动矢量获取方法,该方法包括:按照预设方法确定当前编码块的至少一个同位帧;按照当前编码块的候选位置块的搜索顺序在同位帧中确定至少一个同位块;获取同位块的运动矢量;利用当前帧和当前帧的参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种时域运动矢量获取方法,该方法包括:按照当前编码块的候选位置块的搜索顺序在当前帧的同位帧中确定至少一个同位块;获取同位块的运动矢量;利用当前帧和当前帧的至少一个参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量,其中当前帧的至少一个参考帧是按照预定方法获取的。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种时域运动矢量获取方法,该方法包括:按照当前编码块的候选位置块的搜索顺序在当前帧的同位帧中确定至少一个同位块,候选位置块包括当前编码块的中心位置块、相邻位置块及相邻位置块的扩展位置块中的至少一个,扩展位置块按照与对应的相邻位置块之间的距离由近到远排列,同一相邻位置块的第q个扩展位置块相对于第q-1扩展位置块的位置关系与相邻位置块相对于当前编码块的位置关系相同,q为正整数,第0个扩展位置块为相邻位置块;获取同位块的运动矢量;利用当前帧和当前帧的参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种帧间预测方法,该方法包括:至少利用时域运动矢量构建运动矢量候选列表,时域运动矢量是利用上述的任一种方法获取的;利用运动矢量候选列表确定当前编码块的运动矢量。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种视频编码方法,该方法包括:获取当前编码块的运动矢量,其中,当前编码块的运动矢量是上述的帧间预测方法获取的;基于当前编码块的运动矢量对当前编码块进行编码。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种计算机设备,计算机设备包括处理器和存储器,处理器耦接存储器,存储器用于存储程序,处理器用于执行程序以实现上述的方法。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种具有存储功能的装置,装置存储有程序,程序被执行时能够实现上述的方法。
本申请的有益效果是:区别于现有技术的情况,本申请提供一种时域运动矢量获取,该方法中扩展了同位帧的获取方式,可以获取更多的同位帧,进而得到更多的时域MV。
附图说明
图1是本申请实施方式中时域运动矢量获取方法的流程示意图;
图2是本申请实施方式中候选位置块与当前编码块的位置关系示意图;
图3是本申请实施方式中时域运动矢量缩放的示意图;
图4是本申请实施方式中时域运动矢量缩放的示意图;
图5是本申请实施方式中时域运动矢量获取方法的流程示意图;
图6是本申请实施方式中时域运动矢量缩放的示意图;
图7是本申请实施方式中时域运动矢量获取方法的流程示意图;
图8是本申请实施方式中时域运动矢量缩放的示意图;
图9是本申请实施方式中时域运动矢量缩放的示意图;
图10是本申请实施方式中帧间预测方法的流程示意图;
图11是本申请实施方式中当前编码块与空域块的位置关系示意图;
图12是本申请实施方式中视频编码方法的流程示意图;
图13是本申请实施方式中计算机设备的结构示意图;
图14是本申请实施方式中具有存储功能的装置的结构示意图。
具体实施方式
为使本申请的目的、技术方案及效果更加清楚、明确,以下参照附图并举实施方式对本申请进一步详细说明。
本申请提供一种时域MV的获取方法,应用于视频编码中的帧间预测,在视频编码中,最常用颜色编码方法有YUV、RGB等,本申请中所采用的颜色编码方法为YUV。Y表示明亮度,也就是图像的灰度值;U和V(即Cb和Cr)表示色度,作用是描述图像色彩及饱和度。每个Y亮度块都对应一个Cb和一个Cr色度块,每个色度块也只对应一个亮度块。
帧间预测模式分为高级运动向量预测(Advanced Motion Vector Prediction,AMVP)模式、Merge模式、三角模式、HASH模式和仿射模式等几大类,这些模式都是利用帧与帧之间的相关性采用不同的预测方式来得到最终的预测值。其中,一些预测模式中获取当前编码块的MV时,会使用到时域MV。
其中,当前编码块的时域MV是由当前帧的同位帧中的同位块的MV经缩放得到的。为了确定同位块需要确定当前帧的同位帧、同位块的候选位置;对同位块的MV进行缩放时还需要确定当前帧的参考帧,基于此,本申请提供一种时域MV的获取方法。
请结合参阅图1-图3,图1是本申请实施方式中时域运动矢量获取方法的流程示意图,图2是本申请实施方式中候选位置块与当前编码块的位置关系示意图,图3是本申请实施方式中时域运动矢量缩放的示意图。在该实施方式中,时域运动矢量的获取方法包括如下步骤:
S110:按照预设方法确定当前编码块的至少一个同位帧。
同位帧是与当前帧时域相关性较强的已编码图像帧,如可以是在POC上比较相近的图像帧,同位帧可能与参考帧相同也可能不同。
S120:按照当前编码块的候选位置块的搜索顺序在同位帧中确定至少一个同位块。
同位块为在同位帧中按照一定规则选取的块,同位块的选取位置可以是多个,这些位置称为候选位置;同位块的候选位置在当前帧中对应位置的块为候选位置块,候选位置块与同位块具有相同的空域坐标位置。如图2和3中所示,当前帧中C0位置的块为候选位置块。对应地,同位帧中与C0位置的候选位置块处于相同的空间位置的块col_PU为同位块。
S130:获取同位块的运动矢量。
同位块的运动矢量信息可以直接从同位块的编码信息中获得。
S140:利用当前帧和当前帧的参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量。
参考帧是与当前帧时域相关性较强的已编码图像帧,如可以是当前帧的前向帧和/或后向帧。
请继续参阅图3,可利用如下公式对时域MV进行缩放:
curMV=(td/tb)*colMV
其中,cur_PU表示当前编码块,col_PU表示同位块,curMV为当前编码块的时域MV,colMV为同位块的时域MV,td表示当前帧(cur_pic)与当前帧的参考帧(cur_ref)之间的距离,tb表示同位帧(col_pic)与同位帧的参考帧(col_ref)之间的距离。
因此,通过改变参数td、tb和colMV可以得到不同的curMV;即通过选择不同的同位帧、参考帧、同位块可以得到不同的curMV。
在一实施方式中,可以采用以下方式中的至少一种选择同位帧。
方式A:选择当前帧的至少一个参考帧作为同位帧。如直接指定参考帧列表中的某一帧或某些帧作为同位帧,如直接指定参考帧列表list0/list1中index=0的帧或index=0和index=3的帧作为同位帧。参考帧列表list0中先存放当前帧的前向参考帧,后存放后向参考帧,list1中先存放当前帧的后向参考帧,后存放前向参考帧。
方式B:从与当前帧在POC序号上最接近的n个已编码帧中选择m个作为同位帧,对选择顺序、选择条件不做限定,可以任意方式选择,如随机选择,或选择具有一定特点的已编码帧。n和m均为大于1的整数,且n大于或等于m,即可以取多个同位帧。
方案C:统计已帧间编码块的同位帧的出现次数,选择出现次数最多的前m个作为同位帧。已帧间编码块为候选位置块中的使用帧间编码的已编码块,即可以使用编码已帧间编码块时所用的同位帧。可以在已帧间编码的候选位置块中选择已帧间编码块。候选位置块的位置可按照现有方式来确定,也可以按照本申请中所提供的方式来确认,具体请参阅相应实施方式的描述。
方案D:按照候选位置块的搜索顺序选择前m个已帧间编码块的同位帧作为同位帧。候选位置块的搜索顺序可按照现有方式来确定,也可以按照本申请中所提供的方式来确认,具体请参阅相应实施方式的描述。
通过上述实施方式的实施,扩展了同位帧的获取方式,可以获取更多的同位帧,得到更多的时域MV。如若选出m个同位帧后,可确定m组(每组包含同位帧内k个同位块)原始时域MV,以及对应的m个(td/tb)系数,最终对应相乘得到m组缩放后的时域MV,这些时域MV都可按任意顺序加入到当前编码块时域MV候选列表中。
在一实施方式中,可以按照现有的方法确定同位块和参考帧,也可以按照本申请提供的方法确定同位块和参考帧,具体请参阅相应实施方式的描述,在此不再赘述。
如图4所示,图4是本申请实施方式中时域运动矢量缩放的示意图。该实施方式中,利用上述方案B来选择同位帧,且m=2,共选择到图中的col_pic0和col_pic1两个同位帧,在这两个同位帧中取对应C0位置的同位块,分别获取到这两个同位块的时域MV:MV0和MV1,同时两个同位帧分别对应两个同位帧的参考帧col_ref0、col_ref1,以及两个缩放比例系数(td/tb0)、(td/tb1),进行缩放后可得到当前编码块的时域MV。
请参阅图5,图5是本申请实施方式中时域运动矢量获取方法的流程示意图。在该实施方式中,时域运动矢量的获取方法包括如下步骤:
S510:按照当前编码块的候选位置块的搜索顺序在当前帧的同位帧中确定至少一个同位块。
S520:获取同位块的运动矢量。
S530:利用当前帧和当前帧的至少一个参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量,其中当前帧的至少一个参考帧是按照预定方法获取的。
在一实施方式中,可以采用以下方式中的至少一种获取当前帧的参考帧。
从当前帧的参考帧列表中选择至少一个参考帧作为当前帧的参考帧。
如方案a:直接指定参考帧列表中的某一帧或某些帧作为参考帧,如直接指定参考帧列表list0/list1中index=1的帧或index=1和index=3的帧作为参考帧。
方案b:在list0中选择前i帧,在list1中选择前j帧作为参考帧,(i+j)>1,即可以取多个参考帧。
方案c:统计已帧间编码块的参考帧的出现次数,选择出现次数最多的前s个作为当前帧的参考帧,s为正整数。已帧间编码块为候选位置块中的使用帧间编码的已编码块,即可以使用编码已帧间编码块时所用的参考帧。可以在已帧间编码的候选位置块中选择已帧间编码块。
其中,若存在统计数目一样多的情况,则按照候选位置块的搜索顺序确定优先选择已帧间编码块对应的参考帧。即若有三个参考帧对应的已帧间编码块的数目最多且一致,那么对比这些已帧间编码块,最终取搜索顺序上最优先的已帧间编码块所对应的参考帧。候选位置块的位置及搜索顺序可按照现有方式来确定,也可以按照本申请中所提供的方式来确认,具体请参阅相应实施方式的描述。
方案d:按照候选位置块的搜索顺序选择前s个已帧间编码块的参考帧作为当前帧的参考帧。
通过上述该实施方式的实施,相对于相关技术中只采用一个参考帧的帧间预测方法,本申请所提供的方法扩展了参考帧的获取方式,可以获取更多的参考帧,在对同位块的时域MV缩放时,可得到多个(td/tb)系数,也就最终对应多组(每组包含同位帧内k个同位块)缩放后的时域MV,这些时域MV都可按任意顺序加入到时域MV的候选列表中。如该方法可以用于构建merge模式的运动矢量候选列表。
在一实施方式中,可以按照现有的方法确定同位帧和同位块,也可以按照本申请提供的方法确定同位帧和同位块,具体请参阅相应实施方式的描述,在此不再赘述。
如图6所示,图6是本申请实施方式中时域运动矢量缩放的示意图。该实施方式中,若取到三个参考帧cur_ref0、cur_ref1、cur_ref2,就会分别对应三个比例系数:(td0/tb)、(td1/tb)、(td2/tb);当取一个同位帧中的一个同位块时,获取该同位块的时域MV,结合这三个比例系数,缩放后最终得到3个curMV;当取一个同位帧的两个同位块时,可得两个同位块的时域MV,结合这三个比例系数,缩放后最终得到6个curMV。
请参阅图7,图7是本申请实施方式中时域运动矢量获取方法的流程示意图。在该实施方式中,时域运动矢量的获取方法包括如下步骤:
S710:按照当前编码块的候选位置块的搜索顺序在当前帧的同位帧中确定至少一个同位块;其中,候选位置块包括当前编码块的中心位置块、相邻位置块及相邻位置块的扩展位置块中的至少一个,扩展位置块按照与对应的相邻位置块之间的距离由近到远排列,同一相邻位置块的第q个扩展位置块相对于第q-1个扩展位置块的位置关系与相邻位置块相对于当前编码块的位置关系相同,q为正整数,第0个扩展位置块为相邻位置块。
S720:获取同位块的运动矢量。
S730:利用当前帧和当前帧的参考帧之间的距离,以及同位帧和同位帧的参考帧之间的距离,对同位块的运动矢量进行缩放,得到当前编码块的时域运动矢量。
在一实施方式中,可以采用以下方式扩展候选位置块。
请参阅图8,图8是本申请实施方式中时域运动矢量缩放的示意图。该实施方式中,除了目前的C0和C1位置外,还可以向当前编码块的下面、右下、右侧、上面、左上、右上继续扩展候选位置块。其中,候选位置块必须完全位于当前树形编码块(CTU)上面L个CTU行、下面L个CTU行、左侧L个CTU列和右侧L个CTU列之内(L>=0,L为整数,L=0时代表只在当前CTU内选取扩展候选位置块),且位于一帧图像内。最终候选位置块可从C0、C1和扩展位置块中任意选取若干个。
具体地,候选位置块包括当前编码块的中心位置块、相邻位置块及相邻位置块的扩展位置块中的至少一个,扩展位置块按照与对应的相邻位置块之间的距离由近到远排列,同一相邻位置块的第q个扩展位置块相对于第q-1个扩展位置块的位置关系与相邻位置块相对于当前编码块的位置关系相同,q为正整数,第0个扩展位置块为相邻位置块。
相邻位置块包括第一右下相邻位置块(C0)、第二右下相邻位置块(C2)、第三右下相邻位置块(C3)、第一左下相邻位置块(B0)、第二左下相邻位置块(B1)、第三左下相邻位置块(B2)、第一左上相邻位置块(A0)、第二左上相邻位置块(A1)、第三左上相邻位置块(A2)、第一右上相邻位置块(D0)、第二右上相邻位置块(D1)、第三右上相邻位置块(D2)中的至少一个。
其中,第一右下相邻位置块(C0)为当前编码块的右下角像素的右下方相邻像素所在的块;第二右下相邻位置块(C2)为当前编码块的右下角像素的下方相邻像素所在的块;第三右下相邻位置块(C3)为当前编码块的右下角像素的右方相邻像素所在的块。
第一左下相邻位置块(B0)为当前编码块的左下角像素的左下方相邻像素所在的块;第二左下相邻位置块(B1)为当前编码块的左下角像素的下方相邻像素所在的块;第三左下相邻位置块(B2)为当前编码块的左下角像素的左方相邻像素所在的块。
第一左上相邻位置块(A0)为当前编码块的左上角像素的左上方相邻像素所在的块;第二左上相邻位置块(A1)为当前编码块的左上角像素的上方相邻像素所在的块;第三左上相邻位置块(A2)为当前编码块的左上角像素的左方相邻像素所在的块。
第一右上相邻位置块(D0)为当前编码块的右上角像素的右上方相邻像素所在的块;第二右上相邻位置块(D1)为当前编码块的右上角像素的上方相邻像素所在的块;第三右上相邻位置块(D2)为当前编码块的右上角像素的右方相邻像素所在的块。
其中,C1、C0、C2、C3、D0、D1、B0、B1及其对应的扩展位置块的块为未被编码的块,其他位置的块则为已编码块,如可以是已帧间编码块。
在一实施方式中,可按照一定的顺序搜索候选位置块是否可用,若C0和扩展位置块都不可用,则选用C1。可以按照以下几种搜索顺序中的至少一种对候选位置块进行搜索。
先在所有相邻位置块中按照第一顺序进行搜索,再按照由近到远的顺序依次在每组扩展位置块中按照第一顺序进行搜索,直至所有相邻位置块及扩展位置块搜索完成,其中第q组扩展位置块包括所有相邻位置块的第q个扩展位置块;或先按照由近到远的顺序搜索一相邻位置块及其扩展位置块,再按照第一顺序选择下一相邻位置块并按照由近到远的顺序搜索下一相邻位置块及其扩展位置块,直至所有相邻位置块及扩展位置块搜索完成。
第一顺序包括顺时针、逆时针、先按顺时针或逆时针搜索角落位置再按顺时针或逆时针搜索非角落位置、先按对角顺序搜索第一相邻位置块再按任意顺序搜索剩余的相邻位置块及扩展位置块,第一相邻位置块包括第一右下相邻位置块、第一左下相邻位置块、第一左上相邻位置块和第一右上相邻位置块,角落位置包括第一右下相邻位置块及其扩展位置块、第一左下相邻位置块及其扩展位置块、第一左上相邻位置块及其扩展位置块、第一右上相邻位置块及其扩展位置块中的至少一个,非角落位置包括除第一右下相邻位置块及其扩展位置块、第一左下相邻位置块及其扩展位置块、第一左上相邻位置块及其扩展位置块、第一右上相邻位置块及其扩展位置块之外的其他相邻位置块及扩展位置块中的至少一个,对角顺序中相邻的三个搜索对象中至少两个呈对角分布。
如方案I:先以当前编码块周围的某一相邻位置块(如C0/C2/A0/A1等)为起点,从离当前编码块最近的相邻位置块按顺时针或逆时针扫描相邻位置块,再按从近到远的顺序扫描扩展位置块,若扫描完后所有位置都不可用,则选用C1。
方案II:以当前编码块四个角落的某一相邻位置块(A0/B0/C0/D0)为起点,先按顺时针或逆时针搜索四个角落的相邻位置块,再以同样的块为起点,按顺时针或逆时针搜索非角落的相邻位置块,再按从近到远的顺序扫描扩展位置块,若扫描完后所有位置都不可用,则选用C1。
方案III:先按对角顺序搜索第一相邻位置块,如可以按C0->A0->B0->D0的顺序进行搜索;再按任意顺序搜索剩余的相邻位置块及扩展位置块,如可以继续用对角顺序搜索剩余的相邻位置块及扩展位置块。也可以按照上述的其他顺序中的任意一种搜索剩余的相邻位置块及扩展位置块。如先遵循C0->A0->B0->D0->C2->A1->A2->C3->B2->D1->D2->B1的顺序搜索相邻位置块,再遵循从近到远的顺序搜索扩展位置块,若扫描完后所有位置都不可用,则选用C1。
方案IV:以当前编码块周围的某一相邻位置块为起点,先遵循从近到远的顺序扫描相邻位置块及其对应的扩展位置块,再按顺时针或逆时针顺序扫描其他相邻位置块及其对应的扩展位置块,若扫描完后所有位置都不可用,则选用C1。当然搜索方式不限于以上几种顺序。
通过上述实施方式的实施,本申请对候选位置块进行了扩展,进而可以扩展同位块的可选位置,设总共可以有k个候选位置块,则可以在一个同位帧中找到这k个同位块,取对应的k个时域MV,进行缩放后都可以添加到当前编码块时域MV候选列表中。
在一实施方式中,可以按照现有的方法确定同位帧和参考帧,也可以按照本申请提供的方法确定同位帧和参考帧,具体请参阅相应实施方式的描述,在此不再赘述。
以上方案,本申请所提供的方法,相比现有技术扩展了同位块的选择位置,当前编码块可以在同一同位帧中获取更多的同位块的时域MV,能使时域MV选取更加准确,有利于帧间预测的准确度。参考帧选择更加多样,由于不同的参考帧对应不同的缩放比例系数(td/tb),对同一同位块时域MV用这些缩放比例系数进行缩放后能得到多个缩放后的时域MV,能使时域MV选取更加准确。同位帧选择更加多样,当前编码块可在不同的同位帧中获取更多的时域MV,同时由于一个同位帧对应一个对应缩放比例系数(td/tb),因此也有多个比例系数,对不同同位帧中的同位块时域MV进行对应缩放后能得到多个缩放后的时域MV,使帧间预测更加准确。
上述多个方案是相互独立的,可以单独选择其中一个方案进行应用,也可任选其中两个及以上进行组合应用,即可以任意选择同位帧、同位块及参考帧的选取方式来确定同位帧、同位块及参考帧,在此不做限定。
下面将通过几组具体实施例来对本申请所提供的时域运动矢量获取方法进行说明、解释,但不应用来限制本申请的范围。
实施例1
在该实施例中,使用Merge模式进行帧间预测。请参阅图9,图9是本申请实施例中时域运动矢量缩放的示意图。该实施例中,选取C0及位于C0右下角的K0为候选位置块,若这两个位置都不可用,则取C1位置,并按照C0->K0->C1的搜索顺序确认候选位置块是否可用。
从当前帧的参考帧列表list0中指定选取两个参考帧cur_ref0、cur_ref1,得到当前帧与当前帧的参考帧之间的距离td0、td1。
选择离当前帧最近的两个同位帧col_ref0、col_ref1,得到同位帧与同位帧的参考帧(col_ref0、col_ref1)之间的距离tb0、tb1。
在同位帧中获取对应C0、K0位置的同位块的时域MV,col_ref0中对应C0、K0位置的同位块的时域运动矢量为MV0和MV1,col_ref1中对应C0、K0位置的同位块的时域运动矢量为MV2和MV3,并对MV0、MV1、MV2和MV3进行缩放,获取当前编码块的时域MV。
当同位帧是col_pic0时,colMV为MV0和MV1,比例系数为(td0/tb0)和(td1/tb0),最终该同位帧会得到4个时域MV;
当同位帧是col_pic1时,colMV为MV2和MV3,比例系数为(td0/tb1)和(td1/tb1),最终该同位帧也会得到4个时域MV;所以两个同位帧最终共能获取8个时域MV模式(即curMV)。
实施例2
在该实施例中,使用Merge模式进行帧间预测。并利用方案c获取当前帧的参考帧,利用方案D选择同位帧,在同位帧中选择对应C0、A0、A1、B2、D2位置的同位块,并按照C0->A0->A1->B2->D2的搜索顺序确认候选位置块是否可用。设经过方案c统计后A0和D2的参考帧都为cur_ref1,A1和B2的参考帧都为cur_ref0,且设参考帧只取一个,那么由于A0的顺序在最前,所以参考帧取cur_ref1。设同位帧也只取一个,且经过方案D按顺序进行搜索后第一个已帧间编码块为A0,那么就取A0的同位帧作为当前编码块的同位帧,进而获取同位块的时域MV,缩放后得到当前编码块的时域MV。
请参阅图10,图10是本申请实施方式中帧间预测方法的流程示意图。在该实施方式中,帧间预测方法包括如下步骤:
S1010:至少利用时域运动矢量构建运动矢量候选列表。
其中,时域运动矢量是利用上述的任意一种方法获取的。
S1020:利用运动矢量候选列表确定当前编码块的运动矢量。
下面,分别以AMVP模式和Merge模式为例对帧间预测方法进行描述,但不限于这两种模式,还可以用在其他模式中。
用AMVP模式进行帧间预测,首先要构建MV候选列表,从候选列表中选出一个最佳候选MV作为当前编码块的MVP(MV预测值),然后进行运动估计过程,即到参考帧中搜索当前编码块的最佳匹配块,将最佳匹配块坐标和当前编码块坐标的差作为实际MV,并将实际MV与预测MV的差值进行传输,即最终传输的是实际MV减MVP得到的MVD(运动矢量差值)。
AMVP模式中MV候选列表长度为2,编码器将按照空域MV、时域MV、HMVP(历史已编码块MV)、零MV的顺序构建MV候选列表,直到候选列表中有2个MV。
请参阅图11,图11是本申请实施方式中当前编码块与空域块的位置关系示意图。该实施方式中,当前编码块左侧和上方各产生一个空域候选预测MV,左侧选择顺序为A0->A1->scaled A0->scaled A1(scaled 代表对获取到的空域MV进行缩放),上方选择循序为B0->B1->B2(->scaled B0->scaled B1->scaled B2)。其中,空域相邻块与当前编码块的参考帧为同一帧时,直接将空域相邻块的空域MV加入MV候选列表;参考帧不同时,需将空域相邻块的空域MV经缩放后再加入MV候选列表,缩放方法和时域MV缩放方法相同。上方的3个缩放MV只有在A0和A1都不可用或都是非帧间模式时才会选择。当左侧(或上方)检查到第一个可用MV时,直接将该MV加入MV候选列表,跳过左侧(或上方)检查的剩余步骤。
当前编码块的尺寸大于4x4、8x4和4x8时,需要添加时域MV,时域最多只提供1个候选MV,可利用上述任意一种方法获取时域MV,具体请参阅上述实施方式的描述,在此不再赘述。
如果候选列表还没有填满,还需填入HMVP。这里的已编码块是指当前CTU中已编码的帧间块且当前编码块和已编码块的参考帧是同一帧,然后将最近4个已编码块MV列表中MV填充到候选列表内,直到填满候选列表为止。
当MV候选列表中的MV个数仍不到2个时,使用零MV进行填补。
在其他实施方式中,MV候选列表的长度也可以大于2,此时,也可以将多个空域MV、时域MV等都放入MV候选列表中。
用merge模式进行帧间预测也要构建MV候选列表,但与AMPV不同的是,merge模式不进行运动估计过程,而是直接从MV候选列表中选出一个最佳候选MV作为当前编码块的MV。merge模式中候选列表大小为6。候选列表会用当前编码块的空域相邻块的MV、时域块的MV、HMVP(历史已编码块的MV)、平均MV、以及零MV填充。
merge模式中空域相邻块的位置和AMVP模式中是一致的,但搜索顺序和获取方式有区别。merge模式中空域最多提供4个候选MV,即最多使用图中5个候选块中的4个候选块的运动信息,列表按照A1-B1-B0-A0-(B2)的顺序建立,其中B2为替补,当A1,B1,B0,A0中至少有一个不存在且B2与A1和B1的运动信息都不相同时,需要使用B2的运动信息。
merge模式中时域最多只提供1个候选MV,同样地,可利用上述任意一种方法获取时域MV。
若候选列表还没有填满,则需要填入HMVP(基于历史的运动矢量预测),HMVP指的是之前已编码块的MV,填充时,需将已编码块HMVP列表中MV依次和空域A1和B1的MV进行比较,将不相同的MV填充到候选列表内,直到填满候选列表为止。
若merge候选列表还未填满,则接下来要利用merge列表中的前两个MV进行平均,前向和前向平均,后向和后向平均,最终将平均值填入merge候选列表。
若当前merge候选列表中候选MV数量仍不足6个,则使用零MV进行填补达到规定数量。
在其他实施方式中,MV候选列表的长度也可以大于6,此时,也可以将多个空域MV、时域MV等都放入MV候选列表中。
基于此,本申请还提供一种视频编码方法,请参阅图12,图12是本申请实施方式视频编码方法的流程示意图,该方法可由编解码器来执行。本实施方式中,视频编码方法包括以下步骤:
S1210:获取当前编码块的运动矢量。
其中,当前编码块的运动矢量是利用上述的帧间预测方法获取的。
S1220:基于当前编码块的运动矢量对当前编码块进行编码。
本实施方式所提供的视频编码方法,通过利用如上任一实施方式的帧间预测方法获取当前编码块的MV,从而可增加最佳MV选取的概率,有利于进一步去除空间冗余,提高帧间编码的压缩率。
基于此,本申请还提供一种计算机设备100,请参阅图13,图13是本申请实施方式中计算机设备的结构示意图,该实施方式中,计算机设备100包括处理器110和存储器120,处理器110耦接存储器120,存储器120用于存储程序,处理器110用于执行程序以实现上述任一实施方式的时域运动矢量获取、帧间预测、视频编码方法。
计算机设备100可以是编解码器。处理器110还可以称为CPU(Central ProcessingUnit,中央处理单元)。处理器110可以是一种集成电路芯片,具有信号的处理能力。处理器110还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现成可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器110可以是微处理器或者该处理器也可以是任何常规的处理器等。
基于此,本申请还提供一种具有存储功能的装置200,请参阅图14,图14是本申请实施方式中具有存储功能的装置的结构示意图,该实施方式中,具有存储功能的装置200存储有程序210,程序210被执行时能够实现上述任一实施方式的时域运动矢量获取、帧间预测、视频编码方法。
其中,该程序210可以以软件产品的形式存储在上述具有存储功能的装置200中,包括若干指令用以使得一个设备或处理器执行本申请各个实施方式方法的全部或部分步骤。
具有存储功能的装置200是计算机存储器中用于存储某种不连续物理量的媒体。而前述的具有存储功能的装置200包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序210代码的介质。
在本申请所提供的几个实施方式中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。
以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (15)

1.一种时域运动矢量获取方法,其特征在于,包括:
按照预设方法确定当前编码块的至少一个同位帧;
按照所述当前编码块的候选位置块的搜索顺序在所述同位帧中确定至少一个同位块,所述候选位置块为所述同位块的候选位置在当前帧中对应位置的块;
获取所述同位块的运动矢量;
利用当前帧和所述当前帧的参考帧之间的距离,以及所述同位帧和所述同位帧的参考帧之间的距离,对所述同位块的运动矢量进行缩放,得到所述当前编码块的时域运动矢量;所述当前帧的参考帧是采用以下方式中的至少一种获取得到的:
统计已帧间编码块的参考帧的出现次数,选择出现次数最多的前s个作为所述当前帧的参考帧,所述已帧间编码块为所述候选位置块中的使用帧间编码的已编码块,s为正整数;
按照所述候选位置块的搜索顺序选择前s个所述已帧间编码块的参考帧作为所述当前帧的参考帧。
2.根据权利要求1所述的时域运动矢量获取方法,其特征在于,所述按照预设方法确定当前编码块的至少一个同位帧包括:
采用以下方式中的至少一种选择所述同位帧:
选择所述当前帧的至少一个参考帧作为所述同位帧;
从与所述当前帧在图像序号上最接近的n个已编码帧中选择m个作为所述同位帧,n和m均为大于1的整数,且n大于或等于m;
统计已帧间编码块的同位帧的出现次数,选择出现次数最多的前m个作为所述同位帧,所述已帧间编码块为所述候选位置块中的使用帧间编码的已编码块;
按照所述候选位置块的搜索顺序选择前m个所述已帧间编码块的同位帧作为所述同位帧。
3.根据权利要求2所述的时域运动矢量获取方法,其特征在于,
所述候选位置块包括所述当前编码块的中心位置块、相邻位置块及所述相邻位置块的扩展位置块中的至少一个,所述扩展位置块按照与对应的所述相邻位置块之间的距离由近到远排列,同一所述相邻位置块的第q个所述扩展位置块相对于第q-1个所述扩展位置块的位置关系与所述相邻位置块相对于所述当前编码块的位置关系相同,q为正整数,第0个所述扩展位置块为所述相邻位置块。
4.根据权利要求3所述的时域运动矢量获取方法,其特征在于,
所述相邻位置块包括第一右下相邻位置块、第二右下相邻位置块、第三右下相邻位置块、第一左下相邻位置块、第二左下相邻位置块、第三左下相邻位置块、第一左上相邻位置块、第二左上相邻位置块、第三左上相邻位置块、第一右上相邻位置块、第二右上相邻位置块、第三右上相邻位置块中的至少一个;
其中所述第一右下相邻位置块为所述当前编码块的右下角像素的右下方相邻像素所在的块;所述第二右下相邻位置块为所述当前编码块的右下角像素的下方相邻像素所在的块;所述第三右下相邻位置块为所述当前编码块的右下角像素的右方相邻像素所在的块;
所述第一左下相邻位置块为所述当前编码块的左下角像素的左下方相邻像素所在的块;所述第二左下相邻位置块为所述当前编码块的左下角像素的下方相邻像素所在的块;所述第三左下相邻位置块为所述当前编码块的左下角像素的左方相邻像素所在的块;
所述第一左上相邻位置块为所述当前编码块的左上角像素的左上方相邻像素所在的块;所述第二左上相邻位置块为所述当前编码块的左上角像素的上方相邻像素所在的块;所述第三左上相邻位置块为所述当前编码块的左上角像素的左方相邻像素所在的块;
所述第一右上相邻位置块为所述当前编码块的右上角像素的右上方相邻像素所在的块;所述第二右上相邻位置块为所述当前编码块的右上角像素的上方相邻像素所在的块;所述第三右上相邻位置块为所述当前编码块的右上角像素的右方相邻像素所在的块。
5.根据权利要求3所述的时域运动矢量获取方法,其特征在于,所述候选位置块的搜索顺序包括:
先在所有所述相邻位置块中按照第一顺序进行搜索,再按照由近到远的顺序依次在每组扩展位置块中按照所述第一顺序进行搜索,直至所有所述相邻位置块及扩展位置块搜索完成,其中第q组扩展位置块包括所有所述相邻位置块的第q个扩展位置块;或
先按照由近到远的顺序搜索一所述相邻位置块及其扩展位置块,再按照所述第一顺序选择下一所述相邻位置块并按照由近到远的顺序搜索下一所述相邻位置块及其扩展位置块,直至所有所述相邻位置块及扩展位置块搜索完成。
6.根据权利要求5所述的时域运动矢量获取方法,其特征在于,
所述第一顺序包括顺时针、逆时针、先按顺时针或逆时针搜索角落位置再按顺时针或逆时针搜索非角落位置、先按对角顺序搜索第一相邻位置块再按任意顺序搜索剩余的相邻位置块及扩展位置块,所述第一相邻位置块包括第一右下相邻位置块、第一左下相邻位置块、第一左上相邻位置块和第一右上相邻位置块,所述角落位置包括所述第一右下相邻位置块及其扩展位置块、所述第一左下相邻位置块及其扩展位置块、所述第一左上相邻位置块及其扩展位置块、所述第一右上相邻位置块及其扩展位置块中的至少一个,所述非角落位置包括除所述第一右下相邻位置块及其扩展位置块、所述第一左下相邻位置块及其扩展位置块、所述第一左上相邻位置块及其扩展位置块、所述第一右上相邻位置块及其扩展位置块之外的其他相邻位置块及扩展位置块中的至少一个,所述对角顺序中相邻的三个搜索对象中至少两个呈对角分布。
7.一种时域运动矢量获取方法,其特征在于,包括:
按照当前编码块的候选位置块的搜索顺序在当前帧的同位帧中确定至少一个同位块,所述候选位置块为所述同位块的候选位置在当前帧中对应位置的块;
获取所述同位块的运动矢量;
利用当前帧和所述当前帧的至少一个参考帧之间的距离,以及所述同位帧和所述同位帧的参考帧之间的距离,对所述同位块的运动矢量进行缩放,得到所述当前编码块的时域运动矢量,其中所述当前帧的至少一个参考帧是按照以下方式中的至少一种获取的:
统计已帧间编码块的参考帧的出现次数,选择出现次数最多的前s个作为所述当前帧的参考帧,所述已帧间编码块为所述候选位置块中的使用帧间编码的已编码块,s为正整数;
按照所述候选位置块的搜索顺序选择前s个所述已帧间编码块的参考帧作为所述当前帧的参考帧。
8.根据权利要求7所述的时域运动矢量获取方法,其特征在于,
所述候选位置块包括所述当前编码块的中心位置块、相邻位置块及所述相邻位置块的扩展位置块中的至少一个,所述扩展位置块按照与对应的所述相邻位置块之间的距离由近到远排列,同一所述相邻位置块的第q个所述扩展位置块相对于第q-1个所述扩展位置块的位置关系与所述相邻位置块相对于所述当前编码块的位置关系相同,q为正整数,第0个所述扩展位置块为所述相邻位置块。
9.根据权利要求8所述的时域运动矢量获取方法,其特征在于,
所述相邻位置块包括第一右下相邻位置块、第二右下相邻位置块、第三右下相邻位置块、第一左下相邻位置块、第二左下相邻位置块、第三左下相邻位置块、第一左上相邻位置块、第二左上相邻位置块、第三左上相邻位置块、第一右上相邻位置块、第二右上相邻位置块、第三右上相邻位置块中的至少一个;
其中所述第一右下相邻位置块为所述当前编码块的右下角像素的右下方相邻像素所在的块;所述第二右下相邻位置块为所述当前编码块的右下角像素的下方相邻像素所在的块;所述第三右下相邻位置块为所述当前编码块的右下角像素的右方相邻像素所在的块;
所述第一左下相邻位置块为所述当前编码块的左下角像素的左下方相邻像素所在的块;所述第二左下相邻位置块为所述当前编码块的左下角像素的下方相邻像素所在的块;所述第三左下相邻位置块为所述当前编码块的左下角像素的左方相邻像素所在的块;
所述第一左上相邻位置块为所述当前编码块的左上角像素的左上方相邻像素所在的块;所述第二左上相邻位置块为所述当前编码块的左上角像素的上方相邻像素所在的块;所述第三左上相邻位置块为所述当前编码块的左上角像素的左方相邻像素所在的块;
所述第一右上相邻位置块为所述当前编码块的右上角像素的右上方相邻像素所在的块;所述第二右上相邻位置块为所述当前编码块的右上角像素的上方相邻像素所在的块;所述第三右上相邻位置块为所述当前编码块的右上角像素的右方相邻像素所在的块。
10.根据权利要求8所述的时域运动矢量获取方法,其特征在于,所述候选位置块的搜索顺序包括:
先在所有所述相邻位置块中按照第一顺序进行搜索,再按照由近到远的顺序依次在每组扩展位置块中按照所述第一顺序进行搜索,直至所有所述相邻位置块及扩展位置块搜索完成,其中第q组扩展位置块包括所有所述相邻位置块的第q个扩展位置块;或
先按照由近到远的顺序搜索一所述相邻位置块及其扩展位置块,再按照所述第一顺序选择下一所述相邻位置块并按照由近到远的顺序搜索下一所述相邻位置块及其扩展位置块,直至所有所述相邻位置块及扩展位置块搜索完成。
11.根据权利要求10所述的时域运动矢量获取方法,其特征在于,
所述第一顺序包括顺时针、逆时针、先按顺时针或逆时针搜索角落位置再按顺时针或逆时针搜索非角落位置、先按对角顺序搜索第一相邻位置块再按任意顺序搜索剩余的相邻位置块及扩展位置块,所述第一相邻位置块包括第一右下相邻位置块、第一左下相邻位置块、第一左上相邻位置块和第一右上相邻位置块,所述角落位置包括所述第一右下相邻位置块及其扩展位置块、所述第一左下相邻位置块及其扩展位置块、所述第一左上相邻位置块及其扩展位置块、所述第一右上相邻位置块及其扩展位置块中的至少一个,所述非角落位置包括除所述第一右下相邻位置块及其扩展位置块、所述第一左下相邻位置块及其扩展位置块、所述第一左上相邻位置块及其扩展位置块、所述第一右上相邻位置块及其扩展位置块之外的其他相邻位置块及扩展位置块中的至少一个,所述对角顺序中相邻的三个搜索对象中至少两个呈对角分布。
12.一种帧间预测方法,其特征在于,包括:
至少利用时域运动矢量构建运动矢量候选列表,所述时域运动矢量是利用权利要求1-11中任一项所述的方法获取的;
利用所述运动矢量候选列表确定所述当前编码块的运动矢量。
13.一种视频编码方法,其特征在于,包括:
获取当前编码块的运动矢量,其中,所述当前编码块的运动矢量是利用权利要求12所述的帧间预测方法获取的;
基于所述当前编码块的运动矢量对所述当前编码块进行编码。
14.一种计算机设备,其特征在于,所述计算机设备包括处理器和存储器,所述处理器耦接所述存储器,所述存储器用于存储程序,所述处理器用于执行所述程序以实现如权利要求1-13任一项所述的方法。
15.一种具有存储功能的装置,其特征在于,所述装置存储有程序,所述程序被执行时能够实现如权利要求1-13任一项所述的方法。
CN201910555587.5A 2019-06-25 2019-06-25 时域运动矢量获取、帧间预测、视频编码的方法及设备 Active CN110213590B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910555587.5A CN110213590B (zh) 2019-06-25 2019-06-25 时域运动矢量获取、帧间预测、视频编码的方法及设备
PCT/CN2020/098125 WO2020259589A1 (en) 2019-06-25 2020-06-24 Systems and methods for inter-frame prediction
EP20830559.9A EP3973708A4 (en) 2019-06-25 2020-06-24 INTRA-FRAME PREDICTION SYSTEMS AND METHODS
US17/645,968 US20220124321A1 (en) 2019-06-25 2021-12-24 Systems and methods for inter-frame prediction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910555587.5A CN110213590B (zh) 2019-06-25 2019-06-25 时域运动矢量获取、帧间预测、视频编码的方法及设备

Publications (2)

Publication Number Publication Date
CN110213590A CN110213590A (zh) 2019-09-06
CN110213590B true CN110213590B (zh) 2022-07-12

Family

ID=67794664

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910555587.5A Active CN110213590B (zh) 2019-06-25 2019-06-25 时域运动矢量获取、帧间预测、视频编码的方法及设备

Country Status (1)

Country Link
CN (1) CN110213590B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110944190B (zh) * 2018-09-22 2023-01-10 上海天荷电子信息有限公司 图像压缩的编码方法及装置、解码方法及装置
WO2020259589A1 (en) * 2019-06-25 2020-12-30 Zhejiang Dahua Technology Co., Ltd. Systems and methods for inter-frame prediction
CN110636311B (zh) * 2019-09-18 2021-10-15 浙江大华技术股份有限公司 运动矢量的获取方法及相关预测方法、装置
KR20220064950A (ko) * 2019-09-24 2022-05-19 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 프레임 간 예측 방법 및 장치, 기기, 저장 매체
CN112770113A (zh) * 2019-11-05 2021-05-07 杭州海康威视数字技术股份有限公司 一种编解码方法、装置及其设备
WO2021196238A1 (zh) * 2020-04-03 2021-10-07 深圳市大疆创新科技有限公司 一种视频处理方法、视频处理设备及计算机可读存储介质
CN113747172A (zh) * 2020-05-29 2021-12-03 Oppo广东移动通信有限公司 帧间预测方法、编码器、解码器以及计算机存储介质
CN112055201A (zh) * 2020-08-06 2020-12-08 浙江大华技术股份有限公司 视频编码方法及其相关装置
WO2022117369A1 (en) * 2020-12-01 2022-06-09 Nokia Technologies Oy Content adaptive collocated reference picture selection
CN113382249B (zh) * 2021-04-21 2022-09-06 浙江大华技术股份有限公司 图像/视频编码方法、装置、系统及计算机可读存储介质
WO2023130285A1 (zh) * 2022-01-05 2023-07-13 Oppo广东移动通信有限公司 时域运动信息预测和构建候选列表的方法、装置和系统
WO2024008011A1 (en) * 2022-07-05 2024-01-11 Beijing Bytedance Network Technology Co., Ltd. Method, apparatus, and medium for video processing
CN115802039B (zh) * 2023-02-10 2023-06-23 天翼云科技有限公司 一种帧间编码方法、装置、电子设备及计算机可读介质
CN116456100B (zh) * 2023-06-16 2023-08-29 深流微智能科技(深圳)有限公司 一种帧间编码树单元划分方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107534778A (zh) * 2015-04-14 2018-01-02 联发科技(新加坡)私人有限公司 获取时间运动矢量预测的方法及装置
CN104272743B (zh) * 2012-05-09 2019-01-01 太阳专利托管公司 执行运动矢量预测的方法、编码和解码方法及其装置
CN109804627A (zh) * 2016-08-11 2019-05-24 韩国电子通信研究院 图像编码/解码方法和设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101484171B1 (ko) * 2011-01-21 2015-01-23 에스케이 텔레콤주식회사 예측 움직임벡터 색인부호화에 기반한 움직임정보 생성/복원 장치 및 방법, 및 그것을 이용한 영상 부호화/복호화 장치 및 방법
GB2488815C (en) * 2011-03-09 2018-03-28 Canon Kk Video decoding
PL2690870T3 (pl) * 2011-03-21 2020-07-27 Lg Electronics Inc. Sposób wyboru predyktora wektora ruchu i urządzenie go stosujące
MX2014000159A (es) * 2011-07-02 2014-02-19 Samsung Electronics Co Ltd Metodo y aparato para la codificacion de video, y metodo y aparato para la decodificacion de video acompañada por inter prediccion utilizando imagen co-localizada.
US10785501B2 (en) * 2012-11-27 2020-09-22 Squid Design Systems Pvt Ltd System and method of performing motion estimation in multiple reference frame
CA2942336A1 (en) * 2014-03-10 2015-09-17 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
CN109089119B (zh) * 2017-06-13 2021-08-13 浙江大学 一种运动矢量预测的方法及设备
CN109587479B (zh) * 2017-09-29 2023-11-10 华为技术有限公司 视频图像的帧间预测方法、装置及编解码器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104272743B (zh) * 2012-05-09 2019-01-01 太阳专利托管公司 执行运动矢量预测的方法、编码和解码方法及其装置
CN107534778A (zh) * 2015-04-14 2018-01-02 联发科技(新加坡)私人有限公司 获取时间运动矢量预测的方法及装置
CN109804627A (zh) * 2016-08-11 2019-05-24 韩国电子通信研究院 图像编码/解码方法和设备

Also Published As

Publication number Publication date
CN110213590A (zh) 2019-09-06

Similar Documents

Publication Publication Date Title
CN110213590B (zh) 时域运动矢量获取、帧间预测、视频编码的方法及设备
US9729895B2 (en) Moving picture decoding device, moving picture decoding method, and moving picture decoding program
US9661343B2 (en) Moving picture coding device, moving picture coding method, moving picture coding program, transmitting device, transmission method and transmission program, and moving picture decoding device, moving picture decoding method, moving picture decoding program, receiving device, reception method and reception program
US10631003B2 (en) Moving picture coding device, moving picture coding method, and moving picture coding program, and moving picture decoding device, moving picture decoding method, and moving picture decoding program
CN103238319B (zh) 推导运动向量预测项或运动向量预测项候选项的方法及装置
TW202013967A (zh) 改進的模式匹配的運動向量推導
CN110636311B (zh) 运动矢量的获取方法及相关预测方法、装置
US9743104B2 (en) Moving picture encoding device, moving picture encoding method and moving picture encoding program, and moving picture decoding device, moving picture decoding method and moving picture decoding program
CN110740317B (zh) 子块运动预测、编码方法、编码器及存储装置
TW201251470A (en) Video decoding apparatus, video coding apparatus, video decoding method, video coding method, and storage medium
CN110312130B (zh) 基于三角模式的帧间预测、视频编码方法及设备
US20150036751A1 (en) Method for storing movement prediction-related information in an interscreen prediction method, and method for calculating the movement prediction-related information in the inter-screen prediction method
CN114339261A (zh) 帧间预测方法、视频编码方法、视频解码方法及装置
CN113678455A (zh) 用于导出双预测的权重索引信息的视频或图像编码
CN112714312A (zh) 编码模式选择方法、装置以及可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant