CN106303524B - 基于预测残差异常模式的视频双重压缩检测方法 - Google Patents

基于预测残差异常模式的视频双重压缩检测方法 Download PDF

Info

Publication number
CN106303524B
CN106303524B CN201610652449.5A CN201610652449A CN106303524B CN 106303524 B CN106303524 B CN 106303524B CN 201610652449 A CN201610652449 A CN 201610652449A CN 106303524 B CN106303524 B CN 106303524B
Authority
CN
China
Prior art keywords
video
frame
sequence
formula
prediction residual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610652449.5A
Other languages
English (en)
Other versions
CN106303524A (zh
Inventor
蒋兴浩
孙锬锋
陈晟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201610652449.5A priority Critical patent/CN106303524B/zh
Publication of CN106303524A publication Critical patent/CN106303524A/zh
Application granted granted Critical
Publication of CN106303524B publication Critical patent/CN106303524B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/114Adapting the group of pictures [GOP] structure, e.g. number of B-frames between two anchor frames
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明提供了一种基于预测残差异常模式的视频双重压缩检测方法,包括如下步骤:步骤1:提取视频每一帧的预测残差;步骤2:计算每一帧的预测残差分布;步骤3:利用Jensen‑Shannon散度,计算相邻两帧预测残差分布的差异,并由此计算出Jensen‑Shannon散度序列;步骤4:通过中值滤波的方法,对Jensen‑Shannon散度序列进行去噪,得到最终的特征序列;步骤5:对特征序列进行时域分析,判断对应视频是否遭受到视频双重压缩,若遭受双重压缩,则进一步推测其第一次压缩时的GOP长度。本发明方法区别于现有技术中任何一种对视频进行双重压缩检测的方法,是一种新的有效检测方法。

Description

基于预测残差异常模式的视频双重压缩检测方法
技术领域
本发明涉及视频的双重压缩检测领域,具体地,涉及一种基于预测残差异常模式的视频双重压缩检测方法。
背景技术
随着电子产业与多媒体技术的不断发展,数字视频采集设备也在不断普及。与此同时,市面上出现了许多功能强大的视频编辑软件,借助于这些软件可以轻松地实现对原始视频的篡改,从而对视频司法取证带来困难。因此,视频篡改取证技术成为一项非常重要的研究课题。
数字视频篡改取证的目的是为了分析鉴定视频内容的原始性与真实性,相关研究包括视频帧间篡改取证,视频帧内篡改取证等等。其中,大部分篡改方式都需要经历视频双重压缩的过程,因此视频双重压缩检测是视频篡改取证领域中的有效方法之一。近年来许多学者都在视频篡改检测领域取得了很多有价值的研究成果。
经过对现有的视频双重压缩检测技术的检索发现,中国专利文献号CN104837028A,公开日2015-08-12,记载了一种“视频同比特率双重压缩检测方法”,该技术对训练视频提取各帧的首位数字概率分布函数,并与Benford近似对数定律拟合后得到12维特征,利用分类器进行特征学习,进而对测试视频各帧进行分类,并判断测试视频是否经过双重压缩。
上述专利提出的视频双重压缩检测方法利用的是视频各帧的首位数字概率分布特征,本发明提出一种新的视频双重压缩检测方法,使用的是视频每帧的预测残差异常模式特征。所采用的特征与上述专利存在本质上的区别,是一种对视频双重压缩检测新的有效检测方法。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于预测残差异常模式的视频双重压缩检测方法。
根据本发明提供的基于预测残差异常模式的视频双重压缩检测方法,包括如下步骤:
步骤1:提取视频每一帧的预测残差;
步骤2:计算每一帧的预测残差分布;
步骤3:利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,获得Jensen-Shannon散度序列;
步骤4:通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列;
步骤5:对特征序列进行时域分析,判断对应视频是否遭受到视频双重压缩,若遭受双重压缩,则推测该视频第一次压缩时的GOP长度;若未遭受双重压缩,则结束流程。
优选地,所述步骤1中提取每一帧视频预测残差的步骤如下:
步骤A1:将每一视频帧划分为相互不重叠的4x4块;
步骤A2:计算每一个4x4块的视频预测残差均值,计算公式如下:
Figure GDA0002192685820000021
式中:
Figure GDA0002192685820000022
表示第t帧中第(i,j)个4x4块的预测残差均值;rm,n表示在对应4x4块中,位于(m,n)位置的像素点的预测残差值,(m,n)位置是指第m行第n列位置。
优选地,所述步骤2中计算每一帧的预测残差分布的步骤如下:
步骤B1:将每一个4x4块的预测残差均值进行取整计算,计算公式如下:
式中:
Figure GDA0002192685820000024
表示对取整后的值;
步骤B2:利用帧内每个4x4块的平均预测残差取整值,计算该帧的预测残差分布,计算公式如下:
Figure GDA0002192685820000026
式中:表示第t帧的预测残差分布;Ct(n)表示在第t帧内,4x4块值等于n的块的个数;
Figure GDA0002192685820000028
表示在t帧内不重叠4x4块的个数。
优选地,所述步骤3中,利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,并获得Jensen-Shannon散度序列,具体计算公式如下:
式中:SJSD(t)表示得到的Jensen-Shannon散度序列,t为函数的自变量表示第t帧;JSD(·)代表Jensen-Shannon散度算子;
Figure GDA0002192685820000031
表示第t帧的预测残差分布;
Figure GDA0002192685820000032
表示第t-1帧的预测残差分布;
Figure GDA0002192685820000033
表示第t+1帧的预测残差分布。
优选地,所述步骤4中,通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列,包括如下步骤:
步骤C1:在Jensen-Shannon散度序列的基础上,计算出中值序列SMF(t),计算公式如下:
SMF(t)=median{SJSD(t-1),SJSD(t),SJSD(t+1)}
式中:SMF(t)为得到的中值序列,SJSD(t-1)表示第t-1帧所对应的JSD散度序列值,SJSD(t)表示第t帧所对应的JSD散度序列值,SJSD(t+1)表示第t+1帧所对应的JSD散度序列值,median{.}表示取中值运算;
步骤C2:对Jensen-Shannon散度序列进行中值滤波,计算公式如下:
SPRED(t)=max(SJSD(t)-SMF(t),0)
式中:SPRED(t)为最终得到的特征序列,max(·)算子用于取括号内输入参数的最大值。
优选地,所述步骤5中,对特征序列进行时域分析,包括如下步骤:
步骤D1:获取特征序列中,值大于0的点的序号集合
Figure GDA0002192685820000034
定义如下:
Figure GDA0002192685820000035
其中T为视频帧数;
步骤D2:计算潜在单次压缩GOP长度集合
Figure GDA0002192685820000036
定义为:
Figure GDA0002192685820000037
式中:GCD(·)表示最大公约数算子,
Figure GDA0002192685820000038
为步骤D1中定义的集合,T为视频帧数,L为设定的系数参数;
步骤D3:对集合
Figure GDA0002192685820000039
中的每一个元素c,计算时域特征值,计算公式如下:
Figure GDA00021926858200000310
式中:为对应于元素c的时域特征值,的计算公式如下:
Figure GDA00021926858200000313
式中:为步骤D1中定义的集合,T为视频帧数,kc表示自变量c的整数k倍,且k的取值范围为
Figure GDA0002192685820000041
的计算公式为:
Figure GDA0002192685820000042
其中,
Figure GDA0002192685820000043
为步骤D1中定义的集合,T为视频帧数,β=α×max{SPRED(t)},式中α能够设定为任意系数参数,×表示乘法运算;max{·}为取最大值算子;
Figure GDA0002192685820000044
的计算公式为:
Figure GDA0002192685820000045
式中:kz表示z的整数k倍,其中
Figure GDA0002192685820000046
z∈[1,c一1]。
优选地,所述步骤5中判断对应视频是否遭受到视频双重压缩的步骤如下:
步骤E1:对于单次压缩GOP长度集合
Figure GDA0002192685820000047
中的所有元素c,计算出
Figure GDA0002192685820000048
的最大值
Figure GDA0002192685820000049
步骤E2:对视频进行双压缩判定,具体地:设定一个阈值参数Tdouble,若
Figure GDA00021926858200000410
Figure GDA00021926858200000411
则认为视频为双重压缩视频,反之,则视频为单词压缩视频;
步骤E3:若视频遭受双重压缩,则推测该视频第一次压缩时的GOP长度,计算公式如下:
Figure GDA00021926858200000412
其中,
Figure GDA00021926858200000413
为第一次压缩时的GOP长度预测值。
与现有技术相比,本发明具有如下的有益效果:
本发明能够针对于H.264视频编码标准,而现有技术则只能针对于MPEG视频编码标准;本发明除了可对视频是否遭受二次压缩进行判定之外,还可对疑似遭受二次压缩的视频,估计起首次压缩时的GOP长度。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的整体框架图;
图2为视频预测残差提取流程图;
图3为预测残差分布计算流程图;
图4为中值滤波流程图;
图5为特征序列时域分析流程图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
如图1所示,根据本发明提供的基于预测残差异常模式的视频双重压缩检测方法,
包括如下步骤:
步骤1:提取视频每一帧的预测残差;
步骤2:计算每一帧的预测残差分布;
步骤3:利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,获得Jensen-Shannon散度序列;
步骤4:通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列;
步骤5:对特征序列进行时域分析,判断对应视频是否遭受到视频双重压缩,若遭受双重压缩,则推测该视频第一次压缩时的GOP长度;若未遭受双重压缩,则结束流程。
所述步骤1中提取每一帧视频预测残差的步骤如下:
步骤A1:将每一视频帧划分为相互不重叠的4x4块;
步骤A2:计算每一个4x4块的视频预测残差均值,计算公式如下:
Figure GDA0002192685820000051
式中:表示第t帧中第(i,j)个4x4块的预测残差均值;rm,n表示在对应4x4块中,位于(m,n)位置的像素点的预测残差值。
所述步骤2中计算每一帧的预测残差分布的步骤如下:
步骤B1:将每一个4x4块的预测残差均值进行取整计算,计算公式如下:
Figure GDA0002192685820000053
式中:
Figure GDA0002192685820000054
表示对
Figure GDA0002192685820000055
取整后的值;
步骤B2:利用帧内每个4x4块的平均预测残差取整值,计算该帧的预测残差分布,计算公式如下:
式中:
Figure GDA0002192685820000061
表示第t帧的预测残差分布;Ct(n)表示在第t帧内,4x4块值等于n的块的个数;
Figure GDA0002192685820000062
表示在t帧内不重叠4x4块的个数。
所述步骤3中,利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,并获得Jensen-Shannon散度序列,具体计算公式如下:
式中:SJSD(t)表示得到的Jensen-Shannon散度序列;其中t为函数的自变量,代表第t帧;JSD(·)代表Jensen-Shannon散度算子,其计算公式展开后为:
Figure GDA0002192685820000064
其中,
Figure GDA0002192685820000065
输入的P和Q各为一概率密度函数,
Figure GDA0002192685820000066
另外,
Figure GDA0002192685820000067
表示第t帧的预测残差分布;
Figure GDA0002192685820000068
表示第t-1帧的预测残差分布;
Figure GDA0002192685820000069
表示第t+1帧的预测残差分布。
所述步骤4中,通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列,包括如下步骤:
步骤C1:在Jensen-Shannon散度序列的基础上,计算出中值序列SMF(t),计算公式如下:
SMF(t)=median{SJSD(t-1),SJSD(t),SJSD(t+1)}
式中:SMF(t)为得到的中值序列,其中:SJSD(t-1)表示第t-1帧所对应的JSD散度序列值,SJSD(t)表示第t帧所对应的JSD散度序列值,SJSD(t+1)表示第t+1帧所对应的JSD散度序列值,median{.}表示取中值运算。
步骤C2:对Jensen-Shannon散度序列进行中值滤波,计算公式如下:
SPRED(t)=max(SJSD(t)-SMF(t),0)
式中:SPRED(t)为最终得到的特征序列,max(·)算子用于取括号内输入参数的最大值。
所述步骤5中,对特征序列进行时域分析,包括如下步骤:
步骤D1:获取特征序列中,值大于0的点的序号集合
Figure GDA00021926858200000610
定义如下:
Figure GDA00021926858200000611
其中T为视频帧数;
步骤D2:计算潜在单次压缩GOP长度集合定义为:
式中:GCD(·)表示最大公约数算子,
Figure GDA0002192685820000071
为步骤D1中定义的集合,T为视频帧数,L为设定的系数参数;
步骤D3:对集合中的每一个元素c,计算时域特征值,计算公式如下:
Figure GDA0002192685820000073
式中:为对应于元素c的时域特征值,的计算公式如下:
Figure GDA0002192685820000076
式中:
Figure GDA0002192685820000077
为步骤D1中定义的集合,T为视频帧数,表示自变量c的整数k倍,且k的取值范围为
Figure GDA0002192685820000079
的计算公式为:
其中,
Figure GDA00021926858200000711
为步骤D1中定义的集合,T为视频帧数,β=α×max{SPRED(t)},式中α能够设定为任意系数参数,×表示乘法运算;max{·}为取最大值算子;
Figure GDA00021926858200000712
的计算公式为:
Figure GDA00021926858200000713
式中:kz表示z的整数k倍,其中
Figure GDA00021926858200000714
z∈[1,c-1]。
所述步骤5判断对应视频是否遭受到视频双重压缩的步骤如下:
步骤E1:对于单次压缩GOP长度集合
Figure GDA00021926858200000715
中的所有元素c,计算出
Figure GDA00021926858200000716
的最大值
Figure GDA00021926858200000717
步骤E2:对视频进行双压缩判定,具体地:设定一个阈值参数Tdouble,若
Figure GDA00021926858200000718
Figure GDA00021926858200000719
则认为视频为双重压缩视频,反之,则视频为单词压缩视频;
步骤E3:若视频遭受双重压缩,则推测该视频第一次压缩时的GOP长度,计算公式如下:
Figure GDA00021926858200000720
其中,为第一次压缩时的GOP长度预测值。
下面结合附图对本发明中的技术方案做更详细的说明。
本发明提供的基于预测残差异常模式的视频双重压缩检测方法包括如下步骤:首先,提取视频每一帧的预测残差,再计算每一帧的预测残差分布,之后利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,并由此计算出Jensen-Shannon散度序列,再通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到最终的特征序列,最后对特征序列进行时域分析,判断对应视频是否遭受到视频双重压缩,若遭受双重压缩,则进一步推测其第一次压缩时的GOP长度。
如图2所示,提取视频每一帧的预测残差的步骤如下:
第一步划分预测残差块;对每一视频帧划分出相互不重叠的4x4块;
第二步计算预测残差均值;对每一个4x4块,计算其视频预测残差均值,其公式如下:
Figure GDA0002192685820000081
式中,表示第t帧中第(i,j)个4x4块的预测残差均值;rm,n表示在对应4x4块中,位于(m,n)位置的像素点的预测残差值。
如图3所示,计算每一帧的预测残差分布的步骤如下:
第一步数值取整;将每一个4x4块的预测残差均值进行取整计算,其公式如下:
Figure GDA0002192685820000083
式中,
Figure GDA0002192685820000084
表示对取整后的值;
第二步计算预测残差分布;利用帧内每个4x4块的平均预测残差取整值,计算该帧的预测残差分布,其公式如下:
式中,表示第t帧的预测残差分布;Ct(n)代表在第t帧内,4x4块值等于n的块的个数;代表在t帧内不重叠4x4块的个数。
Jensen-Shannon散度序列的计算,利用的公式如下:
Figure GDA0002192685820000089
式中,SJSD(t)表示得到的Jensen-Shannon散度序列;JSD(·)表示Jensen-Shannon散度算子;
Figure GDA00021926858200000810
表示第t帧的预测残差分布。
如图4所示,通过中值滤波法,对Jensen-Shannon散度序列进行去噪的步骤如下:
第一步:计算中值序列;在Jensen-Shannon散度序列的基础上,计算出中值序列,其计算公式如下:
SMF(t)=median{SJSD(t-1),SJSD(t),SJSD(t+1)}
式中,SMF(t)为得到的中值序列。
第二步:中值滤波;对Jensen-Shannon散度序列进行中值滤波,其计算公式如下:
SPRED(t)=max(5JSD(t)-SMF(t),0)
式中:SPRED(t)为最终得到的特征序列,max(·)算子用于取括号内输入参数的最大值。
如图5所示,对特征序列进行时域分析的步骤如下:
第一步:获取正数值索引集合;获取特征序列中,值大于0的点的序号集合
Figure GDA0002192685820000091
其定义如下:
Figure GDA0002192685820000092
其中T为视频帧数。
第二步:计算GOP长度集合;计算潜在单次压缩GOP长度集合
Figure GDA0002192685820000093
其定义为:
Figure GDA0002192685820000094
式中,GCD(·)为最大公约数算子,为步骤D1中定义的集合,T为视频帧数,L为设定的系数参数。
第三步:计算时域特征值;对集合中的每一个元素c,计算其时域特征值,其计算公式如下:
Figure GDA0002192685820000097
式中,为对应于元素c的时域特征值,的计算公式为:
Figure GDA00021926858200000910
式中,
Figure GDA00021926858200000911
为步骤D1中定义的集合,T为视频帧数,的计算公式为:
Figure GDA00021926858200000913
式中,
Figure GDA00021926858200000914
为步骤D1中定义的集合,T为视频帧数,β=α×max{SPRED(t)},式中α可设定为任意系数参数,
Figure GDA00021926858200000915
的计算公式为:
Figure GDA00021926858200000916
其中,max{·}为取最大值算子。
第四步:获取时域特征最大值;对于
Figure GDA00021926858200000917
中的所有元素c,计算出
Figure GDA00021926858200000918
的最大值
Figure GDA00021926858200000919
第五步:双压缩判定;对视频进行双压缩判定,其方法为:设定一个阈值参数Tdouble,若则视频为双重压缩视频,反之,则视频为单词压缩视频。
第六步:估计第一次压缩GOP长度;若视频遭受双重压缩,则进一步推测其第一次压缩时的GOP长度,其公式如下:
Figure GDA0002192685820000102
其中,
Figure GDA0002192685820000103
为第一次压缩时的GOP长度预测值。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (7)

1.一种基于预测残差异常模式的视频双重压缩检测方法,其特征在于,包括如下步骤:
步骤1:提取视频每一帧的预测残差;
步骤2:计算每一帧的预测残差分布;
步骤3:利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,获得Jensen-Shannon散度序列;
步骤4:通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列;
步骤5:对特征序列进行时域分析,判断对应视频是否遭受到视频双重压缩,若遭受双重压缩,则推测该视频第一次压缩时的GOP长度;若未遭受双重压缩,则结束流程。
2.根据权利要求1所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤1中提取每一帧视频预测残差的步骤如下:
步骤A1:将每一视频帧划分为相互不重叠的4x4块;
步骤A2:计算每一个4x4块的视频预测残差均值,计算公式如下:
Figure FDA0002213248170000011
式中:
Figure FDA0002213248170000012
表示第t帧中第(i,j)个4x4块的预测残差均值;rm,n表示在对应4x4块中,位于(m,n)位置的像素点的预测残差值,(m,n)位置是指第m行第n列位置。
3.根据权利要求2所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤2中计算每一帧的预测残差分布的步骤如下:
步骤B1:将每一个4x4块的预测残差均值进行取整计算,计算公式如下:
式中:
Figure FDA0002213248170000014
表示对
Figure FDA0002213248170000015
取整后的值;
步骤B2:利用帧内每个4x4块的平均预测残差取整值,计算该帧的预测残差分布,计算公式如下:
Figure FDA0002213248170000016
式中:
Figure FDA0002213248170000017
表示第t帧的预测残差分布;Ct(a)表示在第t帧内,4x4块值等于a的块的个数;
Figure FDA0002213248170000021
表示在t帧内不重叠4x4块的个数。
4.根据权利要求3所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤3中,利用Jensen-Shannon散度,计算相邻两帧预测残差分布的差异,并获得Jensen-Shannon散度序列,具体计算公式如下:
Figure FDA0002213248170000022
式中:SJSD(t)表示得到的Jensen-Shannon散度序列,t为函数的自变量表示第t帧;JSD(·)代表Jensen-Shannon散度算子;
Figure FDA0002213248170000023
表示第t帧的预测残差分布;
Figure FDA0002213248170000024
表示第t-1帧的预测残差分布;
Figure FDA0002213248170000025
表示第t+1帧的预测残差分布。
5.根据权利要求1所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤4中,通过中值滤波法,对Jensen-Shannon散度序列进行去噪,得到特征序列,包括如下步骤:
步骤C1:在Jensen-Shannon散度序列的基础上,计算出中值序列SMF(t),计算公式如下:
SMF(t)=median{SJSD(t-1),SJSD(t),SJSD(t+1)}
式中:SMF(t)为得到的中值序列,SJSD(t-1)表示第t-1帧所对应的JSD散度序列值,SJSD(t)表示第t帧所对应的JSD散度序列值,SJSD(t+1)表示第t+1帧所对应的JSD散度序列值,median{.}表示取中值运算;
步骤C2:对Jensen-Shannon散度序列进行中值滤波,计算公式如下:
SPRED(t)=max(SJSD(t)-SMF(t),0)
式中:SPRED(t)为最终得到的特征序列,max(·)算子用于取括号内输入参数的最大值。
6.根据权利要求5所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤5中,对特征序列进行时域分析,包括如下步骤:
步骤D1:获取特征序列中,值大于0的点的序号集合
Figure FDA0002213248170000026
定义如下:
其中T为视频帧数;
步骤D2:计算潜在单次压缩GOP长度集合定义为:
Figure FDA0002213248170000029
式中:GCD(·)表示最大公约数算子,
Figure FDA00022132481700000210
为步骤D1中定义的集合,T为视频帧数,L为设定的系数参数;
步骤D3:对集合
Figure FDA0002213248170000031
中的每一个元素c,计算时域特征值,计算公式如下:
Figure FDA0002213248170000032
式中:
Figure FDA0002213248170000033
为对应于元素c的时域特征值,
Figure FDA0002213248170000034
的计算公式如下:
Figure FDA0002213248170000035
式中:
Figure FDA0002213248170000036
为步骤D1中定义的集合,T为视频帧数,kc表示自变量c的整数k倍,且k的取值范围为
Figure FDA0002213248170000037
Figure FDA0002213248170000038
的计算公式为:
Figure FDA0002213248170000039
其中,
Figure FDA00022132481700000310
为步骤D1中定义的集合,T为视频帧数,β=α×max{SPRED(t)},式中α能够设定为任意系数参数,×表示乘法运算;max{·}为取最大值算子;
Figure FDA00022132481700000311
的计算公式为:
Figure FDA00022132481700000319
式中:kz表示z的整数k倍,SPRED(kz)为第kz帧的特征序列,其中
Figure FDA00022132481700000320
z∈[1,c-1]。
7.根据权利要求6所述的基于预测残差异常模式的视频双重压缩检测方法,其特征在于,所述步骤5中判断对应视频是否遭受到视频双重压缩的步骤如下:
步骤E1:对于单次压缩GOP长度集合
Figure FDA00022132481700000321
中的所有元素c,计算出
Figure FDA00022132481700000313
的最大值
Figure FDA00022132481700000314
步骤E2:对视频进行双压缩判定,具体地:设定一个阈值参数Tdouble,若 则认为视频为双重压缩视频,反之,则视频为单次压缩视频;
步骤E3:若视频遭受双重压缩,则推测该视频第一次压缩时的GOP长度,计算公式如下:
其中,
Figure FDA00022132481700000318
为第一次压缩时的GOP长度预测值。
CN201610652449.5A 2016-08-10 2016-08-10 基于预测残差异常模式的视频双重压缩检测方法 Active CN106303524B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610652449.5A CN106303524B (zh) 2016-08-10 2016-08-10 基于预测残差异常模式的视频双重压缩检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610652449.5A CN106303524B (zh) 2016-08-10 2016-08-10 基于预测残差异常模式的视频双重压缩检测方法

Publications (2)

Publication Number Publication Date
CN106303524A CN106303524A (zh) 2017-01-04
CN106303524B true CN106303524B (zh) 2020-01-07

Family

ID=57668160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610652449.5A Active CN106303524B (zh) 2016-08-10 2016-08-10 基于预测残差异常模式的视频双重压缩检测方法

Country Status (1)

Country Link
CN (1) CN106303524B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107682017B (zh) * 2017-09-29 2020-04-14 中国科学院地质与地球物理研究所 一种星载磁强计磁场数据压缩处理方法及装置
CN109982071B (zh) * 2019-03-16 2020-08-11 四川大学 基于时空复杂性度量及局部预测残差分布的hevc双压缩视频检测方法
CN110516575A (zh) * 2019-08-19 2019-11-29 上海交通大学 基于残差域富模型的gan生成图片检测方法及系统
CN113630124B (zh) * 2021-08-10 2023-08-08 优刻得科技股份有限公司 时序性整数数据的处理方法、系统、设备和介质
CN113965744B (zh) * 2021-10-18 2023-02-07 上海交通大学 基于运动矢量残差的hevc视频双压缩取证方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413328A (zh) * 2011-11-11 2012-04-11 中国科学院深圳先进技术研究院 Jpeg图像双重压缩检测方法及系统
CN102521606A (zh) * 2011-11-29 2012-06-27 中南大学 一种对jpeg图像的像素块分类方法及基于此的图像篡改检测和被篡改区域定位方法
CN102957915A (zh) * 2012-11-15 2013-03-06 西安理工大学 针对双重jpeg压缩图像的篡改检测及篡改定位方法
CN103544692A (zh) * 2012-07-13 2014-01-29 深圳市智信达软件有限公司 基于统计学判断的双重压缩jpeg图象篡改盲检测方法
CN104093033A (zh) * 2014-06-12 2014-10-08 中山大学 一种h264/avc视频的删帧鉴定及删帧数目估计的方法
CN104837028A (zh) * 2015-04-29 2015-08-12 上海交通大学 视频同比特率双重压缩检测方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8200034B2 (en) * 2008-04-14 2012-06-12 New Jersey Institute Of Technology Detecting double JPEG compression in images
US8537892B2 (en) * 2008-04-14 2013-09-17 New Jersey Institute Of Technology Detection of double video compression using first digit based statistics

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102413328A (zh) * 2011-11-11 2012-04-11 中国科学院深圳先进技术研究院 Jpeg图像双重压缩检测方法及系统
CN102521606A (zh) * 2011-11-29 2012-06-27 中南大学 一种对jpeg图像的像素块分类方法及基于此的图像篡改检测和被篡改区域定位方法
CN103544692A (zh) * 2012-07-13 2014-01-29 深圳市智信达软件有限公司 基于统计学判断的双重压缩jpeg图象篡改盲检测方法
CN102957915A (zh) * 2012-11-15 2013-03-06 西安理工大学 针对双重jpeg压缩图像的篡改检测及篡改定位方法
CN104093033A (zh) * 2014-06-12 2014-10-08 中山大学 一种h264/avc视频的删帧鉴定及删帧数目估计的方法
CN104837028A (zh) * 2015-04-29 2015-08-12 上海交通大学 视频同比特率双重压缩检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Detection of video double encoding;Vázquez-Padín, D.等;《IEEE International Workshop on》;20121205;151-156 *
Exposing Digital Forgeries in Video by Detecting;Wang W等;《The Workshop on Multimedia and Security ACM》;20060927;37-47 *
相同比特率的 MPEG 视频双压缩检测;陈洁远等;《信息安全与通信保密》;20160229(第2期);113-122 *

Also Published As

Publication number Publication date
CN106303524A (zh) 2017-01-04

Similar Documents

Publication Publication Date Title
CN106303524B (zh) 基于预测残差异常模式的视频双重压缩检测方法
CN109522855B (zh) 结合ResNet和SENet的低分辨率行人检测方法、系统及存储介质
Cooper Improved photo response non-uniformity (PRNU) based source camera identification
CN110020658B (zh) 一种基于多任务深度学习的显著目标检测方法
CN110415260B (zh) 基于字典与bp神经网络的烟雾图像分割与识别方法
Kryjak et al. Real-time implementation of the ViBe foreground object segmentation algorithm
CN103037212A (zh) 基于视觉感知的自适应块压缩传感图像编码方法
CN103559697A (zh) 基于fft的碎纸片纵切拼接复原算法
CN107437258A (zh) 特征提取方法、运动状态估计方法以及运动状态估计装置
CN110610123A (zh) 一种多目标车辆检测方法、装置、电子设备及存储介质
CN110121109A (zh) 面向监控系统数字视频实时溯源方法、城市视频监控系统
Bagiwa et al. Digital video inpainting detection using correlation of hessian matrix
CN117292338B (zh) 基于视频流解析的车辆事故识别和分析方法
CN111008570A (zh) 一种基于压缩-激励伪三维网络的视频理解方法
CN102595186A (zh) 一种视频原始帧率的鉴定方法
CN112562727B (zh) 应用于音频监控的音频场景分类方法、装置以及设备
CN107180419B (zh) 一种基于pca网络的中值滤波检测方法
Mehrish et al. Sensor pattern noise estimation using probabilistically estimated RAW values
CN108122233B (zh) 基于局部像素综合特征的彩色图像分割方法
CN106375773B (zh) 基于动态阈值的帧复制粘贴篡改检测方法
Peng et al. Multi-Purpose Forensics of Image Manipulations Using Residual-Based Feature.
Ke et al. An efficient blind detection algorithm of median filtered image
Bachir et al. Weighted samples based background modeling for the task of motion detection in video sequences
CN111429465B (zh) 基于视差净化的二型残差双目显着物体图像分割方法
CN113766250B (zh) 一种基于采样重构和特征增强的压缩图像质量提升方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant