CN112672164A - 视频压缩系统及方法、视频解压缩系统及方法 - Google Patents

视频压缩系统及方法、视频解压缩系统及方法 Download PDF

Info

Publication number
CN112672164A
CN112672164A CN202011431964.3A CN202011431964A CN112672164A CN 112672164 A CN112672164 A CN 112672164A CN 202011431964 A CN202011431964 A CN 202011431964A CN 112672164 A CN112672164 A CN 112672164A
Authority
CN
China
Prior art keywords
video frame
block
compression
frame
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011431964.3A
Other languages
English (en)
Other versions
CN112672164B (zh
Inventor
李韦磬
萧名群
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bouffalo Lab Nanjing Co ltd
Original Assignee
Bouffalo Lab Nanjing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bouffalo Lab Nanjing Co ltd filed Critical Bouffalo Lab Nanjing Co ltd
Priority to CN202011431964.3A priority Critical patent/CN112672164B/zh
Publication of CN112672164A publication Critical patent/CN112672164A/zh
Application granted granted Critical
Publication of CN112672164B publication Critical patent/CN112672164B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明揭示了一种视频压缩系统及方法、视频解压缩系统及方法,所述视频压缩系统包括场景识别模块及帧压缩模块;场景识别模块用以识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;帧压缩模块用以在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。本发明提出的视频压缩系统及方法、视频解压缩系统及方法,可提升整体视频流的压缩率。

Description

视频压缩系统及方法、视频解压缩系统及方法
技术领域
本发明属于数据压缩技术领域,涉及一种数据压缩系统,尤其涉及一种视频压缩系统及方法、视频解压缩系统及方法。
背景技术
MJPEG(Motion Joint Photographic Experts Group)是一种视频压缩格式,其中每一帧图像都分别使用JPEG编码,不使用帧间编码,压缩率通常在20:1-50:1范围内。
MJPEG每帧是独立压缩,利用该帧(来源影像)与固定预测值相减得到残差后,再以8x8pixel为压缩单位(block),经过离散余弦转换(DCT),量化(Quantization),Run-Length可变长度编码后产生block的码流。当画面所有8x8 block都压缩完后即完成该帧的压缩;所有帧都压缩完后即完成一个视频码流。
通过MJPEG压缩方式压缩效率低,大量冗余信息被重复存储;存储占用的空间大到每帧8~15K字节,最好也只能做到每帧3K字节,但如果因此而采用高压缩比则视频质量会严重降低。
有鉴于此,如今迫切需要设计一种新的视频压缩方式,以便克服现有MJPEG视频压缩方式存在的上述至少部分缺陷。
发明内容
本发明提供一种视频压缩系统及方法、视频解压缩系统及方法,可提升整体视频流的压缩率。
为解决上述技术问题,根据本发明的一个方面,采用如下技术方案:
一种视频压缩系统,所述视频压缩系统包括:
场景识别模块,用以识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;
帧压缩模块,用以在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
作为本发明的一种实施方式,所述帧压缩模块包括:
视频帧分区单元,用以将视频帧分为若干区块;
预测值选择单元,用以选择预测值;
残差计算单元,用以计算当前视频帧各区块像素值相对设定预测值之间的差值;
离散余弦转换单元,用以对所述差值进行离散余弦转换;
量化单元,用以对所述离散余弦转换单元转换得到的数据进行量化;
区块属性识别单元,用以判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为视频帧内的该区块为全零区块,否则为非零区块;
熵编码单元,用以将非零区块内的非零区块系数进行可变长度编码。
作为本发明的一种实施方式,所述视频帧分区单元用以将视频帧分为亮度区块及彩度区块。
作为本发明的一种实施方式,所述帧压缩模块进一步包括:
反量化单元,用以对量化后的数据进行反量化处理;
反离散余弦转换单元,用以对经过所述反量化单元处理的数据进行反离散余弦转换处理;
下一视频帧预测值生成单元,用以将所述反离散余弦转换单元输出的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值。
作为本发明的一种实施方式,所述场景识别模块通过AI物体运动检测系统获取设定物体的状态,从而得到视频帧所处的场景。
作为本发明的一种实施方式,所述视频压缩系统还包括:标记模块,用以标记各视频帧是否依赖前一视频帧。
根据本发明的另一个方面,采用如下技术方案:一种视频压缩方法,所述视频压缩方法包括:
场景识别步骤:识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;
帧压缩步骤:在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
作为本发明的一种实施方式,所述帧压缩步骤包括:
视频帧分区步骤,将视频帧分为若干区块;
预测值选择步骤,选择预测值;
残差计算步骤,计算当前视频帧各区块相对设定预测值之间的差值;
离散余弦转换步骤,对所述差值进行离散余弦转换;
量化步骤,对经过离散余弦转换得到的数据进行量化;
区块属性识别步骤,判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为视频帧内的该区块为全零区块,否则为非零区块;
熵编码步骤,将非零区块内的非零区块系数进行可变长度编码。
作为本发明的一种实施方式,所述帧压缩步骤进一步包括:
反量化步骤,对量化后的数据进行反量化处理;
反离散余弦转换步骤,对经过反量化处理的数据进行反离散余弦转换处理;
下一视频帧预测值生成步骤,将经过反离散余弦转换处理的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值。
作为本发明的一种实施方式,所述视频压缩方法还包括:标记步骤:标记各视频帧是否依赖前一视频帧。
根据本发明的另一个方面,采用如下技术方案:一种视频解压缩系统,所述视频解压缩系统包括:
压缩模式获取模块,用以获取各视频帧的压缩模式;
解压缩模块,用以根据所述压缩模式获取模块获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
作为本发明的一种实施方式,在所述第一压缩模式下,通过当前视频帧的前一视频帧作为预测值进行压缩;在所述第二压缩模式下,通过设定预设的预测值进行压缩。
作为本发明的一种实施方式,所述压缩模式获取模块通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式。
作为本发明的一种实施方式,所述解压缩模块包括:
区块属性侦测单元,用以判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值;
区块系数获取单元,用以获取区块系数和熵解码;
反量化单元,用以将所述区块系数获取单元获取的区块系数进行反量化处理;
反离散余弦转换单元,用以将所述反量化单元输出的数据进行反离散余弦转换处理,得到残差值;
区块画面获取单元,用以将残差值加预测值得到对应区块的输出画素。
作为本发明的一种实施方式,所述解压缩模块进一步包括:
视频帧获取单元,用以将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
根据本发明的又一个方面,采用如下技术方案:一种视频解压缩方法,其特征在于,所述视频解压缩方法包括:
压缩模式获取步骤:获取各视频帧的压缩模式;
解压缩步骤:根据所述压缩模式获取步骤获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
作为本发明的一种实施方式,在所述第一压缩模式下,通过当前视频帧的前一视频帧作为预测值进行压缩;在所述第二压缩模式下,通过设定预设的预测值进行压缩;
所述压缩模式获取步骤中,通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式。
作为本发明的一种实施方式,所述解压缩步骤包括:
区块属性侦测步骤,判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值;
区块系数获取步骤,获取区块系数和熵解码;
反量化步骤,将所述区块系数获取步骤获取的区块系数进行反量化处理;
反离散余弦转换步骤,将所述反量化步骤输出的数据进行反离散余弦转换处理,得到残差值;
区块画面获取步骤,将残差值加预测值得到对应区块的输出画素。
作为本发明的一种实施方式,所述解压缩步骤进一步包括:
视频帧获取步骤,将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
本发明的有益效果在于:本发明提出的视频压缩系统及方法、视频解压缩系统及方法,可提升整体视频流的压缩率,成本低。在本发明的一种使用场景中,利用NeuralNetwork(神经网络)得到的信息来判断场景特征,使本发明的压缩方式得以发挥。
附图说明
图1为本发明一实施例中视频压缩系统的组成示意图。
图2为本发明一实施例中视频压缩系统的组成示意图。
图3为本发明一实施例中视频压缩方法的流程图。
图4为本发明一实施例中视频解压缩系统的组成示意图。
图5为本发明一实施例中视频解压缩方法的流程图。
图6为单张MJPEG影像编码方式示意图。
图7为单张MJPEG影像编码方式示意图。
图8为利用参考帧及全零区块的改进编码方式示意图。
图9为利用参考帧及全零区块的改进译码方式示意图。
图10为场景侦测方法流程图。
具体实施方式
下面结合附图详细说明本发明的优选实施例。
为了进一步理解本发明,下面结合实施例对本发明优选实施方案进行描述,但是应当理解,这些描述只是为进一步说明本发明的特征和优点,而不是对本发明权利要求的限制。
该部分的描述只针对几个典型的实施例,本发明并不仅局限于实施例描述的范围。相同或相近的现有技术手段与实施例中的一些技术特征进行相互替换也在本发明描述和保护的范围内。
说明书中各个实施例中的步骤的表述只是为了方便说明,本申请的实现方式不受步骤实现的顺序限制。说明书中的“连接”既包含直接连接,也包含间接连接。
本发明揭示了一种视频压缩系统,图1为本发明一实施例中视频压缩系统的组成示意图;请参阅图1,所述视频压缩系统包括:场景识别模块100、帧压缩模块200。
场景识别模块100用以识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧。在一实施例中,可通过神经网络(Neural Network)得到的信息来判断场景特征,得到相关数据。在一实施例中,可以利用AI平台的对象运动侦测功能来确定是否为静态场景。
帧压缩模块200用以在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
在本发明的一实施例中,所述帧压缩模块200包括:视频帧分区单元、预测值选择单元、残差计算单元、离散余弦转换单元、量化单元、区块属性识别单元及熵编码单元。
视频帧分区单元用以将视频帧分为若干区块;在一实施例中,所述视频帧分区单元用以将视频帧分为亮度区块及彩度区块。
预测值选择单元用以选择预测值;残差计算单元用以计算当前视频帧各区块像素值相对设定预测值之间的差值;离散余弦转换单元用以对所述差值进行离散余弦转换;量化单元用以对所述离散余弦转换单元转换得到的数据进行量化。区块属性识别单元用以判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为设定视频帧内的该区块为全零区块,否则为非零区块。熵编码单元用以将非零区块内的非零区块系数进行可变长度编码。
在本发明的一实施例中,所述帧压缩模块进一步包括:反量化单元、反离散余弦转换单元及下一视频帧预测值生成单元。
反量化单元用以对量化后的数据进行反量化处理;反离散余弦转换单元用以对经过所述反量化单元处理的数据进行反离散余弦转换处理;下一视频帧预测值生成单元用以将所述反离散余弦转换单元输出的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值。
图2为本发明一实施例中视频压缩系统的组成示意图;请参阅图2,在本发明的一实施例中,所述视频压缩系统还包括标记模块300,用以标记各视频帧是否依赖前一视频帧。
本发明还揭示一种视频压缩方法,图3为本发明一实施例中视频压缩方法的流程图;请参阅图3,所述视频压缩方法包括:
场景识别步骤:识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;
帧压缩步骤:在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
在本发明的一实施例中,所述帧压缩步骤包括:
视频帧分区步骤,将视频帧分为若干区块;
预测值选择步骤,选择预测值;
残差计算步骤,计算当前视频帧各区块相对设定预测值之间的差值;
离散余弦转换步骤,对所述差值进行离散余弦转换;
量化步骤,对经过离散余弦转换得到的数据进行量化;
区块属性识别步骤,判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为设定视频帧内的该区块为全零区块,否则为非零区块;
熵编码步骤,将非零区块内的非零区块系数进行可变长度编码。
在一实施例中,所述帧压缩步骤进一步包括:
反量化步骤,对量化后的数据进行反量化处理;
反离散余弦转换步骤,对经过反量化处理的数据进行反离散余弦转换处理;
下一视频帧预测值生成步骤,将经过反离散余弦转换处理的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值。
在本发明的一实施例中,所述视频压缩方法还可以包括:标记步骤:标记各视频帧是否依赖前一视频帧。
本发明进一步揭示一种视频解压缩系统,图4为本发明一实施例中视频解压缩系统的组成示意图;请参阅图4,所述视频解压缩系统包括:压缩模式获取模块600、解压缩模块700。
压缩模式获取模块600用以获取各视频帧的压缩模式。在本发明的一实施例中,所述压缩模式获取模块通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式。
解压缩模块700用以根据所述压缩模式获取模块获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
在本发明的一实施例中,在所述第一压缩模式下,通过当前视频帧的前一视频帧作为预测值进行压缩;在所述第二压缩模式下,通过设定预设的预测值进行压缩。
在本发明的一实施例中,所述解压缩模块包括:区块属性侦测单元、区块系数获取单元、反量化单元、反离散余弦转换单元及区块画面获取单元。
区块属性侦测单元用以判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值。区块系数获取单元用以获取区块系数和熵解码;反量化单元用以将所述区块系数获取单元获取的区块系数进行反量化处理;反离散余弦转换单元用以将所述反量化单元输出的数据进行反离散余弦转换处理,得到残差值;区块画面获取单元用以将残差值加预测值得到对应区块的输出画素。
在一实施例中,所述解压缩模块进一步包括:区块图像获取单元及视频帧获取单元(也可以不设置区块图像获取单元)。区块图像获取单元用以解码区块中所有画面,根据区块的各画面得到对应区块的输出图像;视频帧获取单元用以将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
本发明还揭示一种视频解压缩方法,图5为本发明一实施例中视频解压缩方法的流程图;请参阅图5,所述视频解压缩方法包括:
压缩模式获取步骤:获取各视频帧的压缩模式;
解压缩步骤:根据所述压缩模式获取步骤获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
在本发明的一实施例中,在所述第一压缩模式下,通过当前视频帧的前一视频帧作为预测值进行压缩;在所述第二压缩模式下,通过设定预设的预测值进行压缩。所述压缩模式获取步骤中,通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式。
在本发明的一实施例中,所述解压缩步骤包括:
区块属性侦测步骤,判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值;
区块系数获取步骤,获取区块系数和熵解码;
反量化步骤,将所述区块系数获取步骤获取的区块系数进行反量化处理;
反离散余弦转换步骤,将所述反量化步骤输出的数据进行反离散余弦转换处理,得到残差值;
区块画面获取步骤,将残差值加预测值得到对应区块的输出画素。
在一实施例中,所述解压缩步骤进一步包括:
区块图像获取步骤,解码区块中所有画面,根据区块的各画面得到对应区块的输出图像(当然也可以不设置该步骤);
视频帧获取步骤,将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
在视频压缩时,大多数情况下前后两帧数据相近,因此利用前一帧当预测值会比固定预测值产生较少和较小的残差,经过量化后非0系数的大小与个数减少,因此提升了压缩率。当残差愈小,经过转换和量化后产生非0系数的个数变少,因此block内出现系数皆为0的机会比固定预测值大很多,此时用1个位表示此block是否皆为0且此block就不经过Run-Length可变长度编码,而MJPEG对于系数0的ACblock需要耗6个位,因此提升All-Zeroblock发生概率并用1位取代6位可提升压缩率。分辨率愈大,压缩率提升愈多(以1080p30fps规格来说,即使每帧只有一半的block是All-Zeroblock,也可以节省3.5Mbps)。
本发明方法在静态场景(对象移动范围小及频率低)下压缩率会比传统MJPEG高,可以利用AI平台的对象运动侦测功能来决定是否为静态场景。而在动态场景(移动对象占画面比例高,移动范围大),就以固定预测值来压缩,使每帧独立压缩以减少拖影效应。此外在每一帧加上1位的旗标(image type)来表示该帧是否依赖前一帧。在译码端即可依此信息判断否需参考前一帧来译码。
Neural Network可以提供侦测对象的位置,利用前后两帧的位置差即可得知对象的位移,本方法采用以下原则判断画面为静态场景:所有侦测对象的X位移绝对值<阈值X且Y位移绝对值<阈值Y;阈值X/Y可以根据画面分辨率设适当值。另外也可以经过数帧的观察再判断以提升准确率,观察帧数也视系统设定,最后如为静态场景则可以使用改善的方式进行编码以提升整个视讯流的压缩率。
在本发明的一实施例中,在计算残差时由sourceimage减去previous image同位置的pixel value或是fixed value;若是使用fixed value则image type为type1(原始MJPEG压缩方式),使用previous imagetype为type2;image type2的image内以block为单位将残差计算出来后进行DCT/Quantization,Quantization输出block系数皆为0则标记为All-Zero block(全零区块),否则为Non-Zero block(非零区块),再将非零区块内的非0系数则进行Run-Level可变长度编码。编码器启动时第一帧一定为image type1(因为无前一帧当参考)。利用NeuralNetwork对象侦测得到对象在画面中的位置,位移计算则是用对象bounding box的同样位置(例如中心点或是左上角点)来计算,当位移小于阈值则判断为静态场景。阈值可以透过统计对象的位移及分辨率得到。
图6揭示了单张影像编码流程,首先分别将YUV画面切割成MxN个区块(block),Y画面的M,N与UV画面的M,N根据取样格式决定。每个区块会减去固定预测值后,经过离散余弦转换得到频率域的系数,将系数量化后依照特定扫描方式得到一维系数,再将一维系数选出非0的部份经过熵编码得到该block的码流;每个block的Y,U,V成份皆运算完后,再继续下一个block编码,最后影像输出码流由标头(header)和画面所有的block码流组成。
图7揭示了译码流程,译码端收到码流后则先经过熵译码得到系数,再经过反向量化和反向离散余弦转换得到残差值,将残差值加回固定预测值得到输出画素区块。每个block的Y,U,V皆运算完后再继续解下一个block,当所有block解完后即得到输出影像。
图8揭示了本发明的改善编码方式。图8是在编码流程中也加上反向量化和反向离散余弦转换以得到跟解码端相同的值,然后缓存起来当做下一帧的预测值参考。开始压缩的第一帧因为无前一帧,所以预测值为固定值(此帧属于image type1);之后每帧都有前一帧可以当预测值(这些帧属于image type2),因此残差值的大小会比固定值减少很多,因此经过转换和量化后,系数为0的情况大幅增加,需要经过熵编码的系数减少相当于block的压缩率提升。同时在量化后检查该block是否所有系数皆为0,用1位表示此条件成立与否即可。
图9揭示了对应改进的译码流程。每个待解码的区块(block)都先判断是否为All-Zero block,若为真则最后画素值等于预测值,若为伪则将系数解出后送给反向量化和反向离散余弦转换得到残差值,将残差值加回预测值得到输出画素区块。每个block的Y,U,V皆运算完后再继续解下一个block,当所有block解完后即得到输出影像。将得到的输出影像存起来当作下一帧的参考预测帧,因此编译码端是以相同的参考帧进行运算。
图10为图8的AI对象统计流程的运算方式。图像I/J/K在时间轴上具有先后顺序的三帧画面,每帧都以侦测到的对象位移来跟阈值做比较,如果对象1的位移1和对象2的位移1都小于阈值,则有相当程度信心认为此画面的对象不属于移动频繁的情况;经过I/J/K的观察,如果对象1和对象2都不属于移动频繁的对象,则静态场景的机会相当高,因此就可以启用图3的编码流程的image type2提升整体压缩率。因为image type2对于运动频繁和位移大的物体容易有拖影效应所以在非静态场景下则使用image type1以兼顾图像质量。
综上所述,本发明提出的视频压缩系统及方法、视频解压缩系统及方法,可提升整体视频流的压缩率,成本低。在本发明的一种使用场景中,利用Neural Network(神经网络)得到的信息来判断场景特征,使本发明的压缩方式得以发挥。
需要注意的是,本申请可在软件和/或软件与硬件的组合体中被实施;例如,可采用专用集成电路(ASIC)、通用目的计算机或任何其他类似硬件设备来实现。在一些实施例中,本申请的软件程序可以通过处理器执行以实现上文步骤或功能。同样地,本申请的软件程序(包括相关的数据结构)可以被存储到计算机可读记录介质中;例如,RAM存储器,磁或光驱动器或软磁盘及类似设备。另外,本申请的一些步骤或功能可采用硬件来实现;例如,作为与处理器配合从而执行各个步骤或功能的电路。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
这里本发明的描述和应用是说明性的,并非想将本发明的范围限制在上述实施例中。实施例中所涉及的效果或优点可因多种因素干扰而可能不能在实施例中体现,对于效果或优点的描述不用于对实施例进行限制。这里所披露的实施例的变形和改变是可能的,对于那些本领域的普通技术人员来说实施例的替换和等效的各种部件是公知的。本领域技术人员应该清楚的是,在不脱离本发明的精神或本质特征的情况下,本发明可以以其它形式、结构、布置、比例,以及用其它组件、材料和部件来实现。在不脱离本发明范围和精神的情况下,可以对这里所披露的实施例进行其它变形和改变。

Claims (10)

1.一种视频压缩系统,其特征在于,所述视频压缩系统包括:
场景识别模块,用以识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;
帧压缩模块,用以在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
2.根据权利要求1所述的视频压缩系统,其特征在于:
所述帧压缩模块包括:
视频帧分区单元,用以将视频帧分为若干区块;
预测值选择单元,用以选择预测值;
残差计算单元,用以计算当前视频帧各区块像素值相对设定预测值之间的差值;
离散余弦转换单元,用以对所述差值进行离散余弦转换;
量化单元,用以对所述离散余弦转换单元转换得到的数据进行量化;
区块属性识别单元,用以判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为视频帧内的该区块为全零区块,否则为非零区块;
熵编码单元,用以将非零区块内的非零区块系数进行可变长度编码。
3.根据权利要求2所述的视频压缩系统,其特征在于:
所述视频帧分区单元用以将视频帧分为亮度区块及彩度区块;
所述帧压缩模块进一步包括:
反量化单元,用以对量化后的数据进行反量化处理;
反离散余弦转换单元,用以对经过所述反量化单元处理的数据进行反离散余弦转换处理;
下一视频帧预测值生成单元,用以将所述反离散余弦转换单元输出的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值;
所述场景识别模块通过AI物体运动检测系统获取设定物体的状态,从而得到视频帧所处的场景;
所述视频压缩系统还包括:标记模块,用以标记各视频帧是否依赖前一视频帧。
4.一种视频压缩方法,其特征在于,所述视频压缩方法包括:
场景识别步骤:识别视频帧所处场景为静态场景还是动态场景;在静态场景下,当前视频帧依赖前一视频帧;在动态场景下,当前视频帧不依赖前一视频帧;
帧压缩步骤:在视频帧处于静态场景时,通过当前视频帧的前一视频帧作为预测值进行压缩;在视频帧处于动态场景时,通过设定预设的预测值进行压缩。
5.根据权利要求4所述的视频压缩方法,其特征在于:
所述帧压缩步骤包括:
视频帧分区步骤,将视频帧分为若干区块;
预测值选择步骤,选择预测值;
残差计算步骤,计算当前视频帧各区块相对设定预测值之间的差值;
离散余弦转换步骤,对所述差值进行离散余弦转换;
量化步骤,对经过离散余弦转换得到的数据进行量化;
区块属性识别步骤,判断设定区块是否为非零区块,若区块的所有画面的量化输出区块系数均为0,则认为视频帧内的该区块为全零区块,否则为非零区块;
熵编码步骤,将非零区块内的非零区块系数进行可变长度编码;
将视频帧分为亮度区块及彩度区块;
所述帧压缩步骤进一步包括:
反量化步骤,对量化后的数据进行反量化处理;
反离散余弦转换步骤,对经过反量化处理的数据进行反离散余弦转换处理;
下一视频帧预测值生成步骤,将经过反离散余弦转换处理的数据加上对应预测值,将得到的新的预测值作为下一视频帧的预测值;
所述场景识别步骤通过AI物体运动检测系统获取设定物体的状态,从而得到视频帧所处的场景;所述视频压缩方法还包括:标记步骤:标记各视频帧是否依赖前一视频帧;在第一压缩模式下,通过当前视频帧的前一视频帧作为预测值进行压缩;在第二压缩模式下,通过设定预设的预测值进行压缩;
6.一种视频解压缩系统,其特征在于,所述视频解压缩系统包括:
压缩模式获取模块,用以获取各视频帧的压缩模式;
解压缩模块,用以根据所述压缩模式获取模块获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
7.根据权利要求6所述的视频解压缩系统,其特征在于:
所述压缩模式获取模块通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式;
所述解压缩模块包括:
区块属性侦测单元,用以判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值;
区块系数获取单元,用以获取区块系数和熵解码;
反量化单元,用以将所述区块系数获取单元获取的区块系数进行反量化处理;
反离散余弦转换单元,用以将所述反量化单元输出的数据进行反离散余弦转换处理,得到残差值;
区块画面获取单元,用以将残差值加预测值得到对应区块的输出画素;
所述解压缩模块进一步包括:
视频帧获取单元,用以将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
8.一种视频解压缩方法,其特征在于,所述视频解压缩方法包括:
压缩模式获取步骤:获取各视频帧的压缩模式;
解压缩步骤:根据所述压缩模式获取步骤获取的各视频帧的压缩模式对各视频帧进行解码;在当前视频帧采用第一压缩模式下,利用当前视频帧的前一视频帧作为预测值对当前视频帧进行解码;在当前视频帧采用第二压缩模式下,利用预设的预测值对当前视频帧进行解码。
9.根据权利要求8所述的视频解压缩方法,其特征在于:
所述压缩模式获取步骤中,通过获取各视频帧的设定标记,从而判断各视频帧是否依赖前一视频帧,获取各视频帧的压缩模式。
10.根据权利要求8所述的视频解压缩方法,其特征在于:
所述解压缩步骤包括:
区块属性侦测步骤,判断待解码的区块的属性,判断对应区块为全零区块还是非零区块;对于全零区块,像素值等于预测值;
区块系数获取步骤,获取区块系数和熵解码;
反量化步骤,将所述区块系数获取步骤获取的区块系数进行反量化处理;
反离散余弦转换步骤,将所述反量化步骤输出的数据进行反离散余弦转换处理,得到残差值;
区块画面获取步骤,将残差值加预测值得到对应区块的输出画素;
所述解压缩步骤进一步包括:
视频帧获取步骤,将视频帧的各区块的图像合成视频帧,得到输出影像;将得到的输出影像存储至设定位置,当作下一视频帧的参考预测帧。
CN202011431964.3A 2020-12-10 2020-12-10 视频压缩系统及方法、视频解压缩系统及方法 Active CN112672164B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011431964.3A CN112672164B (zh) 2020-12-10 2020-12-10 视频压缩系统及方法、视频解压缩系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011431964.3A CN112672164B (zh) 2020-12-10 2020-12-10 视频压缩系统及方法、视频解压缩系统及方法

Publications (2)

Publication Number Publication Date
CN112672164A true CN112672164A (zh) 2021-04-16
CN112672164B CN112672164B (zh) 2023-03-17

Family

ID=75401688

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011431964.3A Active CN112672164B (zh) 2020-12-10 2020-12-10 视频压缩系统及方法、视频解压缩系统及方法

Country Status (1)

Country Link
CN (1) CN112672164B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113784108A (zh) * 2021-08-25 2021-12-10 盐城香农智能科技有限公司 一种基于5g传输技术的vr旅游观光方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104967848A (zh) * 2015-06-16 2015-10-07 谢维波 一种应用于网络视频监控系统中的场景分析算法
CN105208394A (zh) * 2015-09-21 2015-12-30 北京集创北方科技有限公司 一种实时数字图像压缩预测方法与系统
CN105657429A (zh) * 2016-03-09 2016-06-08 成都爆米花信息技术有限公司 视频压缩方法
CN105681791A (zh) * 2016-01-18 2016-06-15 武汉理工大学 自适应远程桌面传输方法与系统
US20200145692A1 (en) * 2017-06-30 2020-05-07 Huawei Technologies Co., Ltd. Video processing method and apparatus
CN111586418A (zh) * 2020-05-09 2020-08-25 北京电信易通信息技术股份有限公司 一种视频压缩方法及装置
CN111757126A (zh) * 2019-03-27 2020-10-09 北京传送科技有限公司 面向vr的实时图像压缩方法、系统和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104967848A (zh) * 2015-06-16 2015-10-07 谢维波 一种应用于网络视频监控系统中的场景分析算法
CN105208394A (zh) * 2015-09-21 2015-12-30 北京集创北方科技有限公司 一种实时数字图像压缩预测方法与系统
CN105681791A (zh) * 2016-01-18 2016-06-15 武汉理工大学 自适应远程桌面传输方法与系统
CN105657429A (zh) * 2016-03-09 2016-06-08 成都爆米花信息技术有限公司 视频压缩方法
US20200145692A1 (en) * 2017-06-30 2020-05-07 Huawei Technologies Co., Ltd. Video processing method and apparatus
CN111757126A (zh) * 2019-03-27 2020-10-09 北京传送科技有限公司 面向vr的实时图像压缩方法、系统和存储介质
CN111586418A (zh) * 2020-05-09 2020-08-25 北京电信易通信息技术股份有限公司 一种视频压缩方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113784108A (zh) * 2021-08-25 2021-12-10 盐城香农智能科技有限公司 一种基于5g传输技术的vr旅游观光方法及系统

Also Published As

Publication number Publication date
CN112672164B (zh) 2023-03-17

Similar Documents

Publication Publication Date Title
US6721359B1 (en) Method and apparatus for motion compensated video coding
US6798977B2 (en) Image data encoding and decoding using plural different encoding circuits
US6246719B1 (en) Temporal tile staggering for block based video compression
US6058210A (en) Using encoding cost data for segmentation of compressed image sequences
US8170097B2 (en) Extension to the AVC standard to support the encoding and storage of high resolution digital still pictures in series with video
US6771826B2 (en) Digital image encoding and decoding method and digital image encoding and decoding device using the same
RU2694442C1 (ru) Устройство декодирования изображения и способ декодирования изображения
US8873625B2 (en) Enhanced compression in representing non-frame-edge blocks of image frames
US7277486B2 (en) Parameterization for fading compensation
EP1359770B1 (en) Signaling for fading compensation in video encoding
US7463684B2 (en) Fading estimation/compensation
KR20050032113A (ko) 역방향 적응을 사용하는 비디오 코딩을 위한 속도-왜곡최적화된 데이터 분할 시스템 및 방법
JPH0775105A (ja) 画像データの符号化方法及び復元方法並びに装置
US6990146B2 (en) Method and system for detecting intra-coded pictures and for extracting intra DCT precision and macroblock-level coding parameters from uncompressed digital video
WO2023040600A1 (zh) 图像编码方法、图像解码方法、装置、电子设备及介质
US20070064275A1 (en) Apparatus and method for compressing images
JPH1118087A (ja) 画像データの変換装置および変換方法
CN112672164B (zh) 视频压缩系统及方法、视频解压缩系统及方法
JP2004032698A (ja) 差動映像圧縮方法及びその装置
KR20160109617A (ko) 디지털 비디오의 디코딩 장치
JPH0487460A (ja) 画像処理装置
JP4126044B2 (ja) 動画像符号化装置及び方法
KR100584422B1 (ko) 영상데이터의 압축 장치 및 방법
JPH07152779A (ja) 動画インデックス検出処理方法及び動画インデックス検出処理機能を持つ動画処理装置
CN113596575A (zh) 一种视频指纹数据的生成方法、比对方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant