CN114501001B - 视频编码方法、装置及电子设备 - Google Patents

视频编码方法、装置及电子设备 Download PDF

Info

Publication number
CN114501001B
CN114501001B CN202011156113.2A CN202011156113A CN114501001B CN 114501001 B CN114501001 B CN 114501001B CN 202011156113 A CN202011156113 A CN 202011156113A CN 114501001 B CN114501001 B CN 114501001B
Authority
CN
China
Prior art keywords
frame image
feature
image
processing
processing result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011156113.2A
Other languages
English (en)
Other versions
CN114501001A (zh
Inventor
郑蕤荻
郭沛宇
王磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Research Institute Of Radio And Television Science State Administration Of Radio And Television
Original Assignee
Research Institute Of Radio And Television Science State Administration Of Radio And Television
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Research Institute Of Radio And Television Science State Administration Of Radio And Television filed Critical Research Institute Of Radio And Television Science State Administration Of Radio And Television
Priority to CN202011156113.2A priority Critical patent/CN114501001B/zh
Publication of CN114501001A publication Critical patent/CN114501001A/zh
Application granted granted Critical
Publication of CN114501001B publication Critical patent/CN114501001B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/91Entropy coding, e.g. variable length coding [VLC] or arithmetic coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种视频编码方法、装置及电子设备,该方法包括:获取所述视频的当前组帧图像;判断所述当前组帧图像中是否存在关键帧图像;在存在关键帧图像的情况下,对所述第一关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果;对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流。

Description

视频编码方法、装置及电子设备
技术领域
本发明涉及一种视频处理技术领域,更具体的,涉及视频编码方法、视频编码装置、电子设备及计算机可读存储介质。
背景技术
由于4K/8K超高清、虚拟现实(Virtual Reality,VR)等高新视频内容的发展,视频数据量爆发式增长,在传输过程中会受到网络传输带宽等外界条件的限制,因此,需要高效的视频编码技术,在节省带宽的同时保障解码端的重建质量或智能分析任务。
随着人工智能技术在图像增强、自编解码器、物体识别、物体分割、人脸识别等任务的广泛探索、研究和应用,对于视频内容场景切换不频繁的应用场景,使用编码后特征流全部或者部分替代视频码流的编码方式可以有效降低传输带宽,并且在解码端重建图像之前,借助特征流解析结果实施相关智能任务。综合考虑标清、高清、超高清视频内容和显示终端并存的市场现状,如何设计出一种新的视频编码方法,以在节省带宽的同时,灵活适配相关应用场景中的图像重建和智能分析需求,成为一个关键问题。
发明内容
本发明实施例的一个目的是提供一种视频编码的新的技术方案。
根据本发明的第一方面,提供一种视频编码方法,其包括:
获取所述视频的当前组帧图像;
判断所述当前组帧图像中是否存在关键帧图像;
在存在关键帧图像的情况下,对所述关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像组中的每一所述帧图像进行第二处理获得第二处理结果;
对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流。
可选地,所述判断所述当前组帧图像中是否存在关键帧图像,包括:
判断所述当前组帧图像是否为所述视频的第一组帧图像;
在为所述视频的第一组帧图像的情况下,确定所述当前组帧图像组中存在关键帧图像。
可选地,所述方法还包括:
在为所述视频的第一组帧图像的情况下,所述当前组帧图像中的第一帧图像为所述关键帧图像。
可选地,所述判断所述当前组帧图像中是否存在关键帧图像,还包括:
在不为所述视频的第一组帧图像的情况下,接续判断所述当前组帧图像是否存在场景切换;
在存在场景切换的情况下,确定所述当前组帧图像中存在关键帧图像。
可选地,所述方法还包括:
在存在场景切换的情况下,获取所述当前组帧图像中进行所述场景切换的帧图像;
确定进行所述场景切换的帧图像为所述关键帧图像。
可选地,所述对所述关键帧图像进行第一处理获得第一处理结果,包括:
对所述关键帧图像进行编码获得第一处理结果。
可选地,所述对所述当前组帧图像中的每一所述帧图像进行第二处理获得第一处理结果,包括:
对所述帧图像进行特征提取,生成对应于所述帧图像的第一特征流;
对所述特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果。
可选地,所述方法还包括:
对所述第一特征流进行特征去冗余处理,并将进行所述特征去冗余处理后得到的第一特征流进行所述特征编码;或,
对所述第二特征流进行所述特征去冗余处理,并将进行所述特征去冗余处理后得到的第二特征流作为所述第二处理结果。
根据本发明的第二方面,还提供一种视频编码装置,其包括:
获取模块,用于获取所述视频的当前组帧图像;
判断模块,用于判断所述当前组帧图像中是否存在关键帧图像;
处理模块,用于在存在关键帧图像的情况下,对所述关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果;
编码模块,用于对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流。
根据本发明的第三方面,还提供一种电子设备,其包括本发明第二方面所述的视频编码装置;或者,包括存储器和处理器,所述存储器用于存储可执行的指令;所述处理器用于根据所述指令的控制进行操作以执行如本发明第一方面中所述的方法。
本发明的一个有益效果在于,根据本实施例的方法、装置和电子设备,其在当前组帧图像中存在关键帧图像的情况下,会对关键帧图像和当前组帧图像中的每一帧图像进行编码,即,其提出了一种关键帧叠加特征流的混合编码方式,对于视频内容场景切换不频繁的应用场景,该种关键帧叠加特征流的混合编码方式,可显著提高编码码流的表达效率,节省带宽。同时,特征流解码后可独立重建图像获得视频内容或结合关键帧重建图像获得视频内容,能够自适应的提升终端侧的视频显示质量,而且,特征流解码后也可直接用于其他智能分析任务,无需重建图像。
附图说明
被结合在说明书中并构成说明书的一部分的附图示出了本发明的实施例,并且连同其说明一起用于解释本发明的原理。
图1是根据本发明实施例的视频编码系统的硬件结构示意图;
图2是根据本发明实施例的视频编码方法的流程示意图;
图3是根据本发明另一实施例的视频编码方法的流程示意图;
图4a-4c是根据本发明实施例的一个例子的视频编码方法的流程示意图;
图5是根据本发明实施例的视频编码装置的原理框图;
图6是根据本发明另一例子的视频编码方法的流程示意图;
图7是根据本发明实施例的电子设备的原理框图;
图8是根据本发明实施例的电子设备的硬件结构示意图。
具体实施方式
现在将参照附图来详细描述本发明的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本发明的范围。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
在这里示出和讨论的所有例子中,任何具体值应被解释为仅仅是示例性的,而不是作为限制。因此,示例性实施例的其它例子可以具有不同的值。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
<硬件配置>
图1是本发明实施例提供的可用于实现视频编码方法的视频编码系统的硬件配置的原理框图。
如图1所示,视频编码系统1000包括服务器1100、终端设备1200以及网络1300。
服务器1100例如可以是刀片服务器、机架式服务器等,服务器1100也可以是部署在云端的服务器集群,在此不做限定。
如图1所示,服务器1100可以包括处理器1110、存储器1120、接口装置1130、通信装置1140、显示装置1150和输入装置1160。处理器1110例如可以是中央处理器CPU等。存储器1120例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1130例如包括USB接口、串行接口等。通信装置1140例如能够进行有线或无线通信。显示装置1150例如是液晶显示屏。输入装置1160例如可以包括触摸屏、键盘等。
本实施例中,服务器1100可用于参与实现根据本公开任意实施例的方法。
应用于本公开实施例中,服务器1100的存储器1120用于存储指令,所述指令用于控制所述处理器1110进行操作以支持实现根据本发明任意实施例的方法。技术人员可以根据本发明所公开方案设计指令。指令如何控制处理器进行操作,这是本领域公知,故在此不再详细描述。
本领域技术人员应当理解,尽管在图1中示出了服务器1100的多个装置,但是,本公开实施例的服务器1100可以仅涉及其中的部分装置,例如,只涉及处理器1110和存储器1120。
如图1所示,终端设备1200可以包括处理器1210、存储器1220、接口装置1230、通信装置1240、显示装置1250、输入装置1260、音频输出装置1270、音频输入装置1280,等等。其中,处理器1210可以是中央处理器CPU、微处理器MCU等。存储器1220例如包括ROM(只读存储器)、RAM(随机存取存储器)、诸如硬盘的非易失性存储器等。接口装置1230例如包括USB接口、耳机接口等。通信装置1240例如能够进行有线或无线通信。显示装置1250例如是液晶显示屏、触摸显示屏等。输入装置1260例如可以包括触摸屏、键盘等。终端设备1200可以通过音频输出装置1270输出音频信息,该音频输出装置1270例如包括扬声器。终端设备1200可以通过音频拾取装置1280拾取用户输入的语音信息,该音频拾取装置1280例如包括麦克风。
终端设备1200可以是智能手机、便携式电脑、台式计算机、平板电脑等,此处不做特殊限定。
本领域技术人员应当理解,尽管在图1中示出了终端设备1200的多个装置,但是,本公开实施例的终端设备1200可以仅涉及其中的部分装置,例如,只涉及处理器1210、存储器1220等。
通信网络1300可以是无线网络也可以是有线网络,可以是局域网也可以是广域网。终端设备1200可以通过通信网络1300与服务器1100进行通信。
需要说明的是,图1所示的视频编码系统1000仅是解释性的,并且决不是为了要限制本公开、其应用或用途。例如,尽管图1仅示出一个服务器1100和一个终端设备1200,但不意味着限制各自的数量,该系统1000中可以包含多个服务器1100和/或多个终端设备1200。
<方法实施例>
图2为根据一个实施例的视频编码方法的示意性流程图。
根据图2所示,本实施例的视频编码方法由视频编码装置5000实施。
步骤S2100,获取视频的当前组帧图像。
视频可以为通过显示终端中的任意视频类应用进行播放的视频,也可以为通过监控终端播放的监控视频。
本实施例中,视频编码是以组为单位进行的,其中,N+1帧图像可以为一组帧图像,N可以是根据实际应用场景和实际应用需求设置的常量,N可以是16,也可以是32,当然,还可以是其他数值,本实施例在此不做限定。在此,视频中的第i组帧图像Xi可以表示为{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N},其中,xt表示视频的第t帧图像,i和t均为大于0的整数。
示例性地,N为16,则视频中的每17帧图像可以为一组帧图像,例如{x1,x2,x3,x4,x5,x6,x7,x8,x9,x10,x11,x12,x13,x14,x15,x16,x17}为第一组帧图像,{x18,x19,x20,x21,x22,x23,x24,x25,x26,x27,x28,x29,x30,x31,x32,x33,x34}为第二组帧图像,在此,第i组帧图像组Xi可以表示为{xt,xt+1,xt+2,xt+3,xt+4,...,xt+16},其中,第i组帧图像组Xi中包括17帧图像。
步骤S2200,判断当前组帧图像中是否存在关键帧图像。
关键帧图像可以是视频中的初始帧图像,也可以是视频中进行场景切换的帧图像,可以理解的是,对于视频内容场景切换不频繁的应用场景,其关键帧图像是比较少的。
本实施例中,本步骤S2200判断当前组帧图像中是否存在关键帧图像可以进一步包括如下步骤S2210~S2220:
步骤S2210,判断当前组帧图像是否为视频的第一组帧图像。
本步骤S2210中,在获得视频的当前组帧图像后,可以先判断当前组帧图像是否为视频的第一组帧图像,在为视频的第一组帧图像的情况下,执行步骤S2220,反之,执行步骤S2230。
以当前组帧图像X1={x1,x2,x3,x4,x5,x6,x7,x8,x9,x10,x11,x12,x13,x14,x15,x16,x17}为例(其中,N=16),即,当前组帧图像为视频的第一组帧图像,其包括17帧图像。
以当前组帧图像X2={x18,x19,x20,x21,x22,x23,x24,x25,x26,x27,x28,x29,x30,x31,x32,x33,x34}为例(其中,N=16),即,当前组帧图像为视频的第二组帧图像,其包括17帧图像。
以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,即,当前组帧图像为视频的第i组帧图像,其包括N+1帧图像。
步骤S2220,在为视频的第一组帧图像的情况下,确定当前组帧图像中存在关键帧图像。
本步骤S2220中,在根据步骤S2210判断出当前组帧图像为视频的第一组帧图像的情况下,可以直接确定该当前组图像帧存在关键帧图像。
本步骤S2220中,在根据步骤S2210判断出当前组帧图像为视频的第一组帧图像的情况下,也可以直接确定该当前组帧图像中的第一帧图像为关键帧图像。
以当前组帧图像X1={x1,x2,x3,x4,x5,x6,x7,x8,x9,x10,x11,x12,x13,x14,x15,x16,x17}为例,由于其为视频的第一组帧图像X1,在此,可以直接确定该第一组帧图像X1存在关键帧图像,并且,该第一组帧图像X1中的第一个帧图像x1为关键帧图像。
步骤S2230,在不为视频的第一组帧图像的情况下,接续判断当前组帧图像是否存在场景切换。
本步骤S2230中,其在当前组帧图像不为视频的第一组帧图像的情况下,会继续判断当前组帧图像是否存在场景切换,并在存在场景切换的情况下,执行步骤S2240,反之,执行步骤S2250。
以当前组帧图像X2={x18,x19,x20,x21,x22,x23,x24,x25,x26,x27,x28,x29,x30,x31,x32,x33,x34}为例,由于其为视频的第二组帧图像X2,在此,继续判断该第二组帧图像X2中是否存在场景切换。
以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,由于其为视频的第i组帧图像Xi,在此,继续判断该第i组帧图像Xi中是否存在场景切换。
步骤S2240,在存在场景切换的情况下,确定当前组帧图像中存在关键帧图像。
本步骤S2240中,在根据步骤S2230判断出当前组帧图像存在场景切换的情况下,可以直接确定该当前组图像帧存在关键帧图像。
本步骤S2240中,在根据步骤S2230判断出当前组帧图像存在场景切换的情况下,也可以直接确定该当前组帧图像中进行场景切换的帧图像为关键帧图像,在此,可以是先获取进行场景切换的帧图像,并确定进行场景切换的帧图像为关键帧图像。
继续上述步骤S2230中的示例,如果根据以上步骤S2230判断出当前组帧图像X2存在场景切换,在此,可以直接确定该第二组帧图像X2存在关键帧图像,并且,获取到的进行场景切换的帧图像为视频中的第20帧图像x20和第28帧图像x28,则可以确定帧图像x20和帧图像x28为关键帧图像。
继续上述步骤S2230中的示例,如果根据以上步骤S2230判断出当前组帧图像Xi存在场景切换,在此,可以直接确定该第i组帧图像Xi存在关键帧图像,并且,获取到的进行场景切换的帧图像为视频中的第t帧图像xt,则可以确定帧图像xt为关键帧图像。
根据以上步骤S2210~S2240可知,在存在关键帧图像的情况下,可以结合后续步骤关键帧图像叠加特征流的混合编码方式,不仅显著提高编码码流的表达效率,同时节省带宽。
步骤S2250,在不存在场景切换的情况下,确定当前组帧图像中不存在关键帧图像。
本步骤S2250中,在当前组帧图像不存在场景切换的情况下,可以直接确定当前组帧图像中不存在关键帧图像。
步骤S2300,在存在关键帧图像的情况下,对关键帧图像进行第一处理获得第一处理结果,以及,对当前组帧图像中的每一帧图像进行第二处理获得第二处理结果。
在一个例子中,在根据以上步骤S2200判断出当前组帧图像中存在关键帧图像的情况下,可以根据本步骤S2300对关键帧图像进行第一处理获得第一处理结果,以及,对当前组帧图像中的每一帧图像进行第二处理获得第二处理结果,进而结合后续步骤对第一处理结果和第二处理结果进行编码,获得编码后的编码码流,即,在存在关键帧图像的情况下,可以结合后续步骤关键帧图像叠加特征流的混合编码方式,不仅显著提高编码码流的表达效率,同时节省带宽。
在一个例子中,在根据以上步骤S2200判断出当前组帧图像中不存在关键帧图像的情况下,可以根据仅对当前组帧图像中的每一帧图像进行第二处理获得第二处理结果,进而结合后续步骤对第二处理结果进行编码,获得编码后的编码码流,即,在不存在关键帧图像的情况下,仅对特征流进行编码。
本实施例中,本步骤S2300中对关键帧图像进行第一处理获得第一处理结果可以进一步包括如下步骤S2310:
步骤S2310,在存在关键帧图像的情况下,对关键帧图像进行编码获得第一处理结果。
如图4a所示,以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,由于其关键帧图像为帧图像xt,在此,可以对帧图像xt进行编码获得Encoder{xt}作为第一处理结果。
本实施例中,本步骤S2300中对当前组帧图像中的每一帧图像进行第二处理获得第二处理结果可以进一步包括如下步骤S2320~S2330:
步骤S2320,对每一帧图像进行特征提取,分别生成对应于每一帧图像的第一特征流。
如图4a所示,以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,可以根据本步骤S2320从第i组帧图像Xi中的每一帧图像提取有效信息分别生成对应于每一帧图像的特征流,例如生成的帧图像xt的第一特征流为Ft,生成的帧图像xt+1的第一特征流为Ft+1,生成的帧图像xt+2的第一特征流为Ft+2,以及,生成的帧图像xt+N的第一特征流为Ft+N,为将这里的对帧图像直接进行特征提取得到的特征流和后面的对该特征流继续进行特征编码得到的特征流进行区分,将这里的特征流称之为第一特征流。
步骤S2330,对每一第一特征流进行特征编码,生成对应于每一第一特征流的第二特征流作为第二处理结果。
在一个例子中,本步骤S2330中可以直接对第一特征流进行特征编码,生成对应于每一第一特征流的第二特征流作为第二处理结果。
如图4a所示,以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,可以直接对当前组帧图像Xi中的每一帧图像对应的第一特征流进行特征编码,例如对第一特征流Ft进行特征编码,得到第二特征流C(Ft),对第一特征流Ft+1进行特征编码,得到第二特征流C(Ft+1),对第一特征流Ft+2进行特征编码,得到第二特征流C(Ft+2),对第一特征流Ft+N进行特征编码,得到第二特征流C(Ft+N)等。
在一个例子中,在执行步骤S2330之前,还可以是对对应于每一帧图像的第一特征流进行特征去冗余处理,去除相邻两帧图像间的冗余信息,再根据本步骤S2330对进行特征去冗余处理后得到的第一特征流进行特征编码。
本例子中,对于当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N},可以利用如下公式对帧图像xt+j的第一特征流Ft+j进行特征去冗余处理:
ΔFt+j=f(Ft+j,Ft+j-1) (1)
其中,ΔFt+j表示去除第一特征流Ft+j和与其相邻的前一帧图像xt+j-1的第一特征流Ft+j-1之间的冗余信息后的第一特征流Ft+j,f函数表示能够去除两帧图像间的冗余信息的任意函数,本实施例在此不做限定。
如图4b所示,以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,其中,Ft为帧图像xt的第一特征流(由于其为当前组帧图像Xi的第一帧图像,所以不存在进行特征去冗余处理的步骤),ΔFt+1为对帧图像xt+1的第一特征流Ft+1进行特征去冗余处理后的特征流,ΔFt+2为对帧图像xt+2的第一特征流Ft+2进行特征去冗余处理后的特征流,ΔFt+3为对帧图像xt+3的第一特征流Ft+3进行特征去冗余处理后的特征流,ΔFt+N为对帧图像xt+N的第一特征流Ft+N进行特征区域冗余处理后的特征流,在经过特征去冗余处理后,对经过特征去冗余处理的第一特征流进行特征编码,从而分别生成对应于每一帧图像的第二特征流,图4b中,C(Ft)为对第一特征流Ft进行特征编码后的第二特征流,C(ΔFt+1)为对进行特征去冗余处理后的第一特征流ΔFt+1进行特征编码后的第二特征流,C(ΔFt+2)为对进行特征去冗余处理后的第一特征流ΔFt+2进行特征编码后的第二特征流,C(ΔFt+N)为对进行特征去冗余处理后的第一特征流ΔFt+N进行特征编码后的第二特征流。
在一个例子中,也可以是在执行步骤S2330之后,先对对应于每一第一特征流的第二特征流进行特征去冗余处理,去除相邻两帧图像间的冗余信息,并将进行特征去冗余处理后得到的第二特征流作为第二处理结果。
本例子中,对于当前帧图像组Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N},可以利用如下公式对帧图像xt+j的第二特征流C(Ft+i)进行特征去冗余处理:
ΔC(Ft+j)=g(C(Ft+j),C(Ft+j-1)) (2)
其中,ΔC(Ft+j)表示去除第二特征流C(Ft+j)和与其相邻的前一第二特征流C(Ft+j-1)之间的冗余信息后的第二特征流C(Ft+j),g函数表示能够去除两帧图像间的冗余信息的任意函数,本实施例在此不做限定。
如图4c所示,以当前组帧图像Xi={xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为例,其中,C(Ft)为对第一特征流Ft进行特征编码后的第二特征流,C(Ft+1)为对第一特征流Ft+1进行特征编码后的第二特征流,C(Ft+2)为对第一特征流Ft+2进行特征编码后的第二特征流,C(Ft+3)为对第一特征流Ft+N进行特征编码后的第二特征流,ΔC(Ft+1)为对第二特征流C(Ft+1)进行特征去冗余处理后的特征流,ΔC(Ft+2)为对第二特征流C(Ft+2)进行特征去冗余处理后的特征流,ΔC(Ft+N)为对第二特征流C(Ft+N)进行特征去冗余处理后的特征流,并将进行特征去冗余处理后的各个特征流作为第二处理结果。
步骤S2400,对第一处理结果和第二处理结果进行编码,获得编码后的编码码流。
本实施例中,在根据以上步骤S2300对第一处理结果和第二处理结果之后,可以根据本步骤S2400对第一处理结果和第二处理结果进行熵编码,进而获得编码后的编码码流。
如图4a所示,其可以对第一处理结果Encoder{xt}和第二处理结果C(Ft)、C(Ft+1)、C(Ft+2)…C(Ft+N)进行熵编码,进而获得编码后的编码码流。
如图4b所示,其也可以对第一处理结果Encoder{xt}和第二处理结果C(Ft)、C(ΔFt+1)、C(ΔFt+2)…C(ΔFt+N)进行熵编码,进而获得编码后的编码码流。
如图4c所示,其还可以对第一处理结果Encoder{xt}和第二处理结果C(Ft)、ΔC(Ft+1)、ΔC(Ft+2)…ΔC(Ft+N)进行熵编码,进而获得编码后的编码码流。
可以理解的是,在当前组帧图像中不存在关键帧图像的情况下,其是仅对当前组帧图像中的每一帧图像进行第二处理获得第二处理结果,在此,可以仅对第二处理结果仅熵编码,获得编码后的编码码流。
例如,其可以仅对图4a所示的第二处理结果C(Ft)、C(Ft+1)、C(Ft+2)…C(Ft+N)进行熵编码,进而获得编码后的编码码流。
又例如,其也可以仅对图4b所示的第二处理结果C(Ft)、C(ΔFt+1)、C(ΔFt+2)…C(ΔFt+N)进行熵编码,进而获得编码后的编码码流。
再例如,其还可以仅对图4c所示的第二处理结果C(Ft)、ΔC(Ft+1)、ΔC(Ft+2)…ΔC(Ft+N)进行熵编码,进而获得编码后的编码码流。
根据本实施例的方法,其在当前组帧图像中存在关键帧图像的情况下,会对关键帧图像和当前组帧图像中的每一帧图像进行编码,即,其提出了一种关键帧叠加特征流的混合编码方式,对于视频内容场景切换不频繁的应用场景,该种关键帧叠加特征流的混合编码方式,可显著提高编码码流的表达效率,节省带宽。同时,特征流解码后可独立重建图像获得视频内容或结合关键帧重建图像获得视频内容,能够自适应的提升终端侧的视频显示质量,而且,特征流解码后也可直接用于其他智能分析任务,无需重建图像。
<装置实施例>
在本实施例中,还提供一种视频编码装置5000,如图5所示,视频编码装置5000包括获取模块5100、判断模块5200、处理模块5300和编码模块5400,用于实施本实施例中提供的视频编码方法,该视频编码装置5000的各模块可以由软件实现,也可以由硬件实现,在此不做限定。
获取模块5100,用于获取所述视频的当前组帧图像。
判断模块5200,用于判断所述当前组帧图像中是否存在关键帧图像。
处理模块5300,用于在存在关键帧图像的情况下,对所述关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果。
编码模块5400,用于对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流。
在一个实施例中,该判断模块5200,还用于判断所述当前组帧图像是否为所述视频的第一组帧图像;在为所述视频的第一组帧图像的情况下,确定所述当前组帧图像中存在关键帧图像。
在一个实施例中,该判断模块5200,还用于在为所述视频的第一组帧图像的情况下,所述当前组帧图像中的第一帧图像为所述关键帧图像。
在一个实施例中,该判断模块5200,还用于在不为所述视频的第一组帧图像的情况下,接续判断所述当前组帧图像是否存在场景切换;在存在场景切换的情况下,确定所述当前组帧图像中存在关键帧图像。。
在一个实施例中,该判断模块5200,还用于在存在场景切换的情况下,获取所述当前组帧图像中进行所述场景切换的帧图像;确定进行所述场景切换的帧图像为所述关键帧图像。
在一个实施例中,该处理模块5300,还用于对所述关键帧图像进行编码获得第一处理结果。
在一个实施例中,该处理模块5300,还用于对所述帧图像进行特征提取,生成对应于所述帧图像的第一特征流;对所述第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果。
在一个实施例中,该处理模块5300,还用于对所述第一特征流进行特征去冗余处理,并将进行所述特征去冗余处理后得到的第一特征流进行所述特征编码;或,对所述第二特征流进行所述特征去冗余处理,并将进行所述特征去冗余处理后得到的第二特征流作为第二处理结果。
<例子>
图6以图4b为例,示出了一个例子的视频编码方法的示意图。
在本例中,可以通过图4b所示的关键帧判断模块实现视频编码装置5000中的获取模块5100和判断模块5200对应的功能,通过编码器、特征提取模块、帧间特征去冗余模块和特征编码模块实现视频编码装置5000中的处理模块5300对应的功能,通过熵编码模块实现视频编码装置5000中的编码模块5400对应的功能,参照图4b和图6所示,该视频编码方法可以如下步骤:
步骤S6010,{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}为一组帧图像,输入至关键帧判断模块。
本步骤S6010中,该组帧图像中包括N+1帧图像。
步骤S6020,关键帧判断模块判断{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}是否为视频的第一组帧图像,如是,执行步骤S6030,反之,执行步骤S6040。
步骤S6030,在为视频的第一组帧图像的情况下,确定第一组帧图像中的第一帧图像为关键帧图像,并将关键帧图像输入至编码器,即,执行步骤S6070;以及,将当前组帧图像{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中的帧图像输入至特征提取模块,即,执行步骤S6080。
步骤S6040,在不为视频的第一组帧图像的情况下,判断{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}是否存在场景切换,在存在场景切换的情况下,执行步骤S6050,反之,执行步骤S6060。
步骤S6050,在存在场景切换的情况下,确定{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中进行场景切换的帧图像xt为关键帧图像,并将关键帧图像xt输入至编码器,即,执行步骤S6070;以及,将当前组帧图像{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中的帧图像输入至特征提取模块,即,执行步骤S6080。
本步骤S6050中,当前组帧图像{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}不为视频的第一组帧图像,但是存在场景切换,且当前组帧图像{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中进行场景切换的帧图像为xt,则xt为关键帧图像。
步骤S6060,在不存在场景切换的情况下,确定当前组帧图像中不存在关键帧图像,则直接将当前组帧图像{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中的帧图像输入至特征提取模块,即,执行步骤S6080。
步骤S6070,编码器对关键帧图像进行编码获得第一处理结果,并输入至熵编码模块,即,执行步骤S6200。
如图4b所示,编码器对关键帧图像xt进行编码,获得编码结果Encoder(xt)。
步骤S6080,特征提取模块提取{xt,xt+1,xt+2,xt+3,xt+4,...,xt+N}中每一帧图像的有效信息,生成对应于每一帧图像的第一特征流,并输入至帧间特征去冗余模块。
步骤S6090,帧间特征去冗余模块去除相邻帧之间的冗余信息,去冗余后的特征流输出到特征编码模块。
步骤S6100,特征编码模块对经过冗余处理后的特征流进行编码获得第二处理结果输入至熵编码模块,即,执行步骤S6200或步骤S6300。
步骤S6200,熵编码模块对第一处理结果和第二处理结果进行熵编码,获得编码后的编码码流,流程结束。
步骤S6300,熵编码模块对第二处理结果进行熵编码,获得编码后的编码码流,流程结束。
可以理解的是,在当前组帧图像中存在关键帧图像的情况下,会对关键帧图像和当前组帧图像中的每一帧图像进行编码,即,其提出了一种关键帧叠加特征流的混合编码方式,对于视频内容场景切换不频繁的应用场景,该种关键帧叠加特征流的混合编码方式,可显著提高编码码流的表达效率,节省带宽。同时,特征流解码后可独立重建图像获得视频内容或结合关键帧重建图像获得视频内容,能够自适应的提升终端侧的视频显示质量,而且,特征流解码后也可直接用于其他智能分析任务,无需重建图像。
<设备实施例>
与上述方法实施例相对应,在本实施例中,还提供一种电子设备,如图7所示,其可以包括根据本发明任意实施例的视频编码装置5000,用于实施本发明任意实施例的视频编码方法。
如图8所示,该电子设备8000还可以包括处理器8200和存储器8000,该存储器8100用于存储可执行的指令;该处理器8200用于根据指令的控制运行电子设备以执行根据本公开任意实施例的视频编码方法。
以上装置5000的各个模块可以由处理器8200运行该指令以执行根据本公开任意实施例的方法来实现。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是――但不限于――电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序指令可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本发明操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及常规的过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本发明的各个方面。
这里参照根据本发明实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本发明的各个方面。应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合,都可以由计算机可读程序指令实现。
这些计算机可读程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,使得这些指令在通过计算机或其它可编程数据处理装置的处理器执行时,产生了实现流程图和/或框图中的一个或多个方框中规定的功能/动作的装置。也可以把这些计算机可读程序指令存储在计算机可读存储介质中,这些指令使得计算机、可编程数据处理装置和/或其他设备以特定方式工作,从而,存储有指令的计算机可读介质则包括一个制造品,其包括实现流程图和/或框图中的一个或多个方框中规定的功能/动作的各个方面的指令。
也可以把计算机可读程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机、其它可编程数据处理装置、或其它设备上执行的指令实现流程图和/或框图中的一个或多个方框中规定的功能/动作。
附图中的流程图和框图显示了根据本发明的多个实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或指令的一部分,所述模块、程序段或指令的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。对于本领域技术人员来说公知的是,通过硬件方式实现、通过软件方式实现以及通过软件和硬件结合的方式实现都是等价的。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。本发明的范围由所附权利要求来限定。

Claims (3)

1.一种视频编码方法,其特征在于,包括:
获取所述视频的当前组帧图像;
判断所述当前组帧图像中是否存在关键帧图像;其中,所述判断所述当前组帧图像中是否存在关键帧图像包括:判断所述当前组帧图像是否为所述视频的第一组帧图像;在为所述视频的第一组帧图像的情况下,确定所述当前组帧图像中存在关键帧图像,且所述当前组帧图像中的第一帧图像为所述关键帧图像;在不为所述视频的第一组帧图像的情况下,若所述当前组帧图像存在场景切换,确定所述当前组帧图像中存在关键帧图像,且获取所述当前组帧图像中进行所述场景切换的帧图像,确定进行所述场景切换的帧图像为所述关键帧图像;
在存在关键帧图像的情况下,对所述关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果;
对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流;
其中,所述对所述关键帧图像进行第一处理获得第一处理结果包括:对所述关键帧图像进行编码获得第一处理结果;
所述对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果包括:对所述帧图像进行特征提取,生成对应于所述帧图像的第一特征流;
对所述第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果;或者,
对所述第一特征流进行特征去冗余处理,并将进行所述特征去冗余处理后得到的第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果;或者,
对所述第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流,对所述第二特征流进行所述特征去冗余处理,并将进行所述特征去冗余处理后得到的第二特征流作为所述第二处理结果。
2.一种视频编码装置,其特征在于,包括:
获取模块,用于获取所述视频的当前组帧图像;
判断模块,用于判断所述当前组帧图像中是否存在关键帧图像;其中,所述判断模块,具体用于判断所述当前组帧图像是否为所述视频的第一组帧图像;在为所述视频的第一组帧图像的情况下,确定所述当前组帧图像中存在关键帧图像,且所述当前组帧图像中的第一帧图像为所述关键帧图像;在不为所述视频的第一组帧图像的情况下,若所述当前组帧图像存在场景切换,确定所述当前组帧图像中存在关键帧图像,且获取所述当前组帧图像中进行所述场景切换的帧图像,确定进行所述场景切换的帧图像为所述关键帧图像;
处理模块,用于在存在关键帧图像的情况下,对所述关键帧图像进行第一处理获得第一处理结果,以及,对所述当前组帧图像中的每一所述帧图像进行第二处理获得第二处理结果;
编码模块,用于对所述第一处理结果和所述第二处理结果进行编码,获得编码后的编码码流;
其中,所述处理模块,具体用于对所述关键帧图像进行编码获得第一处理结果;以及,
对所述帧图像进行特征提取,生成对应于所述帧图像的第一特征流;
对所述第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果;或者,
对所述第一特征流进行特征去冗余处理,并将进行所述特征去冗余处理后得到的第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流作为第二处理结果;或者,
对所述第一特征流进行特征编码,生成对应于所述第一特征流的第二特征流,对所述第二特征流进行所述特征去冗余处理,并将进行所述特征去冗余处理后得到的第二特征流作为所述第二处理结果。
3.一种电子设备,其特征在于,包括:
如权利要求2所述的视频编码装置;或者,
处理器和存储器,所述存储器用于存储指令,所述指令用于控制所述处理器执行根据权利要求1所述的方法。
CN202011156113.2A 2020-10-26 2020-10-26 视频编码方法、装置及电子设备 Active CN114501001B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011156113.2A CN114501001B (zh) 2020-10-26 2020-10-26 视频编码方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011156113.2A CN114501001B (zh) 2020-10-26 2020-10-26 视频编码方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN114501001A CN114501001A (zh) 2022-05-13
CN114501001B true CN114501001B (zh) 2024-08-30

Family

ID=81470104

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011156113.2A Active CN114501001B (zh) 2020-10-26 2020-10-26 视频编码方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN114501001B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078099A (ko) * 2004-01-30 2005-08-04 삼성전자주식회사 적응적으로 키 프레임을 삽입하는 비디오 코딩 장치 및 방법
CN110636332A (zh) * 2019-10-21 2019-12-31 山东小桨启航科技有限公司 一种视频处理方法、装置及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112805990A (zh) * 2018-11-15 2021-05-14 深圳市欢太科技有限公司 视频处理方法、装置、电子设备及计算机可读存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050078099A (ko) * 2004-01-30 2005-08-04 삼성전자주식회사 적응적으로 키 프레임을 삽입하는 비디오 코딩 장치 및 방법
CN110636332A (zh) * 2019-10-21 2019-12-31 山东小桨启航科技有限公司 一种视频处理方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN114501001A (zh) 2022-05-13

Similar Documents

Publication Publication Date Title
EP2517470B1 (en) Systems and methods for video-aware screen capture and compression
CN113454691A (zh) 自适应点云属性编解码的方法和装置
EP3410302B1 (en) Graphic instruction data processing method, apparatus
JP2024520151A (ja) 特徴データ符号化および復号方法および装置
CN116233445B (zh) 视频的编解码处理方法、装置、计算机设备和存储介质
WO2018213176A1 (en) Systems and methods for reducing memory bandwidth via multiview compression/decompression
KR101984825B1 (ko) Api 정보를 이용한 클라우드 디스플레이 화면의 부호화 방법 및 그 장치
CN111343503A (zh) 视频的转码方法、装置、电子设备及存储介质
US20130223525A1 (en) Pixel patch collection for prediction in video coding system
US20220377342A1 (en) Video encoding and video decoding
CN114501001B (zh) 视频编码方法、装置及电子设备
JP2017192080A (ja) 画像圧縮装置、画像復号装置、画像圧縮方法及び画像圧縮プログラム
CN112188199B (zh) 自适应点云属性编码的方法、装置、电子设备和存储介质
CN110809158B (zh) 图像环路滤波处理方法、装置
KR101581131B1 (ko) 영상 정보를 전달하는 방법, 영상 부호기 및 영상 복호기
KR20240126443A (ko) Isobmff의 cmaf 스위칭 세트를 시그널링하는 방법 및 장치
US20230334713A1 (en) On coding of boundary uv2xyz index for mesh compression
CN116866403A (zh) 一种xr信息传输控制方法、装置、系统及存储介质
KR20230150382A (ko) 신경망 기반 디블로킹 필터
CN118235402A (zh) 针对vcm的感兴趣区域编码
JP2016105528A (ja) 画像符号化装置および画像符号化方法
KR20240090884A (ko) 대칭 메시를 위한 연결성 코딩
CN118803354A (zh) 编码方法、解码方法、装置、设备及存储介质
KR20230054434A (ko) 비디오 기반의 포인트 클라우드 코딩을 위한 픽처들의 그룹 기반 패치 팩킹
JP2024515208A (ja) メッシュ圧縮のための境界uv2xyzインデックスの予測コーディング

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant