CN107977964A - 基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 - Google Patents
基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 Download PDFInfo
- Publication number
- CN107977964A CN107977964A CN201711249829.5A CN201711249829A CN107977964A CN 107977964 A CN107977964 A CN 107977964A CN 201711249829 A CN201711249829 A CN 201711249829A CN 107977964 A CN107977964 A CN 107977964A
- Authority
- CN
- China
- Prior art keywords
- matrix
- lbp
- image
- markov
- transition probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/457—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Quality & Reliability (AREA)
- Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
Abstract
本发明属于图像处理、数字图像取证技术领域,为提出一种更有效的检测细缝裁剪篡改的算法,解决在使用传统马尔科夫特征检测细缝裁剪篡改比例较大时不敏感的情况,本发明,基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,分别计算在LBP域中水平方向、垂直方向、主对角线方向、次对角线方向4个方向上差分2维JPEG矩阵步长q=1和步长q=4的马尔科夫转移概率矩阵,将q=1得到的特征与q=4得到的特征进行融合,提取324×2=648维特征,将得到的转移概率矩阵当中的所述648维特征数学建模,用作特征向量利用支持向量机SVM加以训练、进行检测,以此来检测图像是否经过细缝裁剪篡改。本发明主要应用于图像处理场合。
Description
技术领域
本发明属于图像处理、数字图像取证技术领域,具体讲,涉及基于LBP和扩展马尔科夫特征的细缝裁剪取证方法。
背景技术
随着数字科技的迅猛发展和移动互联网的快速传播,数字图像已融入人们的工作、学习和生活中,社交网络上显示的图像、浏览新闻时出现的图像、公交地铁上显示屏里的画面......数字图像与人类的关系越来越密切。然而,随之应运而生的各类简单易得的数字图像编辑软件在给人们带来方便娱乐的同时损害了数字图像的真实性和完整性,“眼见为实”这一传统观念逐渐被打破,恶意的数字图像篡改妨碍了司法鉴定,损害了新闻的真实性,更引发了公众对于社会的信任危机。
数字图像篡改的泛滥威胁了社会的和谐稳定。可以设想,如果上交到法院作为证据的数字图像被恶意篡改,那么司法的公正性将会受到质疑,因此数字图像篡改的取证方法研究对于维护社会公平正义、保证社会和谐具有十分重要的理论价值和现实意义。数字图像取证主要检测图像的真实性和完整性,分为主动取证和被动取证两类。主动取证需要事先利用数字图像中的冗余特征将所需信息嵌入其中,而后鉴定人员通过提取这些信息进行版权认证或者判断图像是否经过篡改,该技术甚至可以精确提取篡改区域;被动取证技术,又名盲取证技术,其研究主要集中于数字图像来源鉴定和伪造检测两方面,其并不需要事先将先验信息嵌入图像,对于给定的数字图像,利用数字信息处理技术对图像的来源或真实性进行判别,该技术作为近年来新兴的取证技术因其事先无需向图像中嵌入信息而引起了国内外研究学者的极大兴趣。本文则是利用被动取证方法对图像的真实性进行判别。
近年来各种移动设备快速发展,同一幅图像可能会在不同的设备上进行显示,为了适应移动设备大小的多样化,基于内容感知的图像缩放技术随之兴起,细缝裁剪(seamcarving)算法,该算法以细缝(seam)的形式通过删除图像中“不重要”的像素实现重定向而尽量避免图像细节的扭曲变形,如图1为细缝裁剪缩放和传统均匀缩放缩放的效果对比图,结果表明基于内容感知的细缝裁剪算法能达到更加令人满意的视觉效果。但也可被用于图像的恶意篡改,例如移除图像中的某个目标,如图2所示,左边图像显示一对行走的男女,划定所要移除的区域后,细缝裁剪缩小图像时细缝的选择会优先考虑所划定的待删除区域里的像素,最终缩小后的效果如右图所示,可以看到细缝裁剪篡改了原图像的语义内容,而视觉上又无法判断图像是否经过篡改,因此有必要对此类篡改进行检测。
发明内容
为克服现有技术的不足,本发明旨在提出一种更有效的检测细缝裁剪篡改的算法,解决在使用传统马尔科夫特征检测细缝裁剪篡改比例较大时不敏感的情况。为此,本发明采用的技术方案是,基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,分别计算在LBP域中水平方向、垂直方向、主对角线方向、次对角线方向4个方向上差分2维JPEG矩阵步长q=1和步长q=4的马尔科夫转移概率矩阵,将q=1得到的特征与q=4得到的特征进行融合,提取324×2=648维特征,将得到的转移概率矩阵当中的所述648维特征数学建模,用作特征向量利用支持向量机SVM加以训练、进行检测,以此来检测图像是否经过细缝裁剪篡改。
分别计算在LBP域中水平方向、垂直方向、主对角线方向、次对角线方向4个方向上差分2维JPEG矩阵步长q=1和步长q=4的马尔科夫转移概率矩阵,具体步骤如下:
①将图像从空域变换到LBP域;
②计算JPEG压缩后的2维JPEG矩阵;
③计算步长为q的一阶差分矩阵:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵具体计算公式如式(19)-(22)所示,其中,下标h表示水平方向horizontal、下标v代表垂直方向vertical、下标d代表主对角线方向diagonal、下标m代表次对角线方向minor-diagonal,(u,v)表示坐标:
其中,u∈[0,Su-(q+1)],v∈[0,Sv-(q+1)],Su代表二维离散余弦变换DCT系数矩阵F(u,v)的行数,Sv代表二维DCT系数矩阵F(u,v)的列数。
计算转移概率矩阵具体步骤如下:
应用中设定一个阈值T,T>0,DCT系数矩阵中大于T的设定为T,小于-T的设定为-T,这样差分系数矩阵的值就在[-T,T]这个范围内,因此整个转移概率矩阵的维度为(2T+1)×(2T+1);所述四个方向上的转移概率矩阵计算过程如式(23)-(26)所示:
其中,m,n∈{-T,-T+1,...,0,...,T-1,T},并且有:
最终将转移概率矩阵当中的所有元素数学建模,用作特征向量进行检测。
一个实例中的具体步骤如下:
①将图像从空域变换到LBP域:对源图像的每个像素进行LBP运算,LBP算子在3×3的窗口中进行,二值化及编码操作后将会得到中心像素的LBP值,对图像的每个像素进行上述操作,得到每个像素的LBP值,这样图像将从空域转换到LBP域;
②计算JPEG压缩后的2维JPEG矩阵:对此LBP矩阵以质量因子QF为100进行JPEG压缩,得到2维JPEG矩阵F(u,v),为以8×8分块的量化DCT矩阵,(u,v)表示坐标;
③计算一阶差分矩阵q=1:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(28)-(31)所示:
Fh(u,v)=F(u,v)-F(u+1,v) (28)
Fv(u,v)=F(u,v)-F(u,v+1) (29)
Fd(u,v)=F(u,v)-F(u+1,v+1) (30)
Fm(u,v)=F(u+1,v)-F(u,v+1) (31)
其中u∈[0,Su-1],v∈[0,Sv-1],Su,Sv为矩阵F(u,v)的行数和列数;
设定一个阈值T,差分矩阵元素值都在[-T,T]这个范围内,差分矩阵元素大于T的置为T,小于-T的置为-T;
④计算转移概率矩阵q=1:分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(32)-(35)所示:
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(36)给出:
⑤计算一阶差分矩阵q=4:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(37)-(40)所示:
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(41)给出:
⑥计算转移概率矩阵q=4;分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(42)-(45)所示:
⑦特征融合:将阈值T设定为4,因此上述4个方向上的总共8个转移概率矩阵都有(2T+1)×(2T+1)=9×9=81个转移概率值,将所有转移概率矩阵的值作为特征送入支持向量机SVM进行细缝裁剪篡改检测,其特征维数为:81×4×2=648维。
本发明的特点及有益效果是:
使用LBP和扩展马尔科夫特征进行细缝裁剪篡改检测的改进算法优于传统马尔科夫特征算法,原因在于扩展马尔科夫特征考虑了篡改比例较大时仅仅采用一步差分的转移概率不能很好体现篡改前后相邻元素相关性的变化,将步长为4和步长为1差分的转移概率进行融合后,既能对篡改比例较小的细缝裁剪有良好的检测效果,又能相对提升检测篡改比例较大的细缝裁剪时的检测率,从而在整体上优于现有检测算法。
附图说明:
图1细缝裁剪缩放与均匀缩放效果对比图。图中:
(a)待重定向的原图像
(b)细缝裁剪重定向后的图像
(c)均匀缩放后的图像
图2细缝裁剪篡改示例。
图3五种不同缩小图像宽度的策略。图中:
(a)原始图像 (b)自动裁剪
(c)细缝裁剪 (d)列删除原则
(e)能量最小原则。
图4差分DCT系数矩阵计算过程示意图。图中:
(a)水平方向差分DCT系数矩阵形成过程。
(b)垂直方向差分DCT系数矩阵形成过程。
图5算法流程。
具体实施方式
通过结合能反映图像局部纹理特征变化的LBP算子(Local Binary Pattern,局部二值模式)和扩展马尔科夫特征,研究一种更有效的检测细缝裁剪篡改的算法,解决在使用传统马尔科夫特征检测细缝裁剪篡改比例较大时不敏感的情况,本发明将图像从空域转换到LBP域,对其进行JEPG压缩后提取2维JPEG矩阵,随后对其差分矩阵分别提取马尔科夫特征和扩展马尔科夫特征,将融合后的特征用于细缝裁剪篡改的检测。
本发明是针对数字图像篡改中的细缝裁剪篡改进行检测,因此有必要先对细缝裁剪技术作简要说明。
1细缝裁剪
如今显示设备的多样化和多功能给数字媒体带来了新的需求,例如网页上的图像需要不同的替代品、不同的显示设备上的图像亦需要不同的格式排版,虽然图像作为人们认知世界的第一要素,然而迄今为止图像的缩放仍然受到限制,在不同设备上为了显示需要而进行缩放时的效果并不理想,图像的均匀缩放(uniform scaling)没有考虑到图像的内容,显然不能满足人类需要,而且均匀缩放仅仅是等比例的缩放,无法改变图像的长宽比,应用受到一定局限。剪裁算法(Cropping)虽能按任意比例缩小图像,但只能删除图像周边的像素值,当图像中重要内容均匀分布于整幅图像时这种算法便失效。人类迫切需要一种能任意改变图像尺寸同时又能很好保留图像中重要内容的缩放算法。
综上所述,基于内容感知的图像缩放技术(content-aware image resizing)应运而生,该技术在缩放图像的同时能尽量保持图像中重要内容良好的视觉效果。实际应用中通常使用图像梯度来表示图像中每个像素的能量,能量值大的即为图像中重要像素值,因为其都是图像中的细节部分,而能量值低的像素值通常都是图像的平滑区域或者背景部分。
细缝裁剪技术是基于内容感知缩放技术之一,该技术主要细缝裁剪(seamcarving)算法,该算法以细缝(seam)的形式连续的删除或者插入图像中“不重要”的像素来达到缩放的目的。图像中像素的重要性由每个像素的能量值决定,能量高的定义为图像中重要像素,反之定义为不重要像素,细缝就是一条从上到下或者从左到右贯穿图像的8连通路径,细缝穿过的图像区域即为图像中能量值小的区域,通过连续不断的删除或者插入细缝就能任意改变图像的尺寸,且该算法没有改变图像中剩余内容的像素值,很好的保留了图像中重要内容,因此能达到良好的视觉效果。
在图像缩放中直观感受是删除图像中“不引人注目”的像素,细缝裁剪算法定义了图像中像素的重要性,由式(1)中的能量函数来表示:
对于一幅图像,本文假设需要缩小图像的宽度,给定其能量函数后,现有5种方法能达到此目的,如图3所示:第一,严格按照每个像素的能量函数值进行排序,依次删除能量排序处于末端的像素值,此算法虽然能保证图像中较为重要的内容不被删除,但破坏了图像的矩形结构;第二,先对图像中每行像素的能量值进行排序,从图像每行像素中删除等量的处于能量末端的像素值,此种算法虽然能保证图像的矩形结构,但是破坏了图像的内容且会产生zigzag效应;第三,自动裁剪算法,既能保持图像内容不被破坏又能维持图像良好的视觉效果,事先划定图像中的重要内容,即图像中能量高的像素值,然后按照缩放比例对图像的周边进行裁剪,但此种算法只针对图像中重要内容集中于某一区域,当重要内容均匀分布于整幅图像时算法便失效;第四,删除列操作:对图像中每列像素的能量值总和进行排序,然后删除处于能量值末端的列来缩小图像的宽度,然而此种算法仍然会产生一些痕迹,达不到满意的视觉效果。基于此,迫切需要一种既不像裁剪和删除列操作那样严格限制又能很好的保留图像中重要内容、同时还能达到满意视觉效果重定向技术的产生。细缝裁剪技术随之兴起。
细缝是一条从上到下(或从左到右)贯穿整幅图像的8连通路径,细缝裁剪以删除细缝的方式进行篡改,以垂直细缝为例,对于一幅n×m大小的图像,垂直细缝定义式如式(2)所示:
其中,n是图像的行数,m是图像的列数,S代表一条细缝所包含的像素集合,x代表从[1,...,n]到[1,...,m]的映射,该公式表示垂直细缝是从上到下贯穿整幅图像的8连通路径,并且细缝中每行有且只有一个像素。按照式(2-1),细缝I所包含的像素集合可表示为式(3):
为了达到视觉满意的缩放效果,细缝所包含的像素集能量应尽可能低,因此定义最优细缝如式(4)所示:
最优细缝的查找由动态程序来实现,以垂直细缝为例,从图像第二行到最后一行遍历图像,对其中的每个像素点(i,j)计算矩阵M(i,j),如式(5)所示:
M(i,j)=e(i,j)+min(M(i-1,j-1),M(i-1,j),M(i-1,j+1)) (5)
矩阵M(i,j)的最后一行即为各种垂直细缝包含的能量值,锁定其中最小值的元素,从该元素出发从下往上回溯这条细缝其它元素的位置,即可得到最优细缝。
2LBP算子
局部二值模式(Local Binary Pattern,LBP)在1994年对比研究了多种纹理算子(例如Laws纹理算子、灰度级的纹理算子)后提出的用于提取图像纹理特征的算子,它描述的是图像的局部纹理,因其操作简单、识别度高而被广泛使用。它在灰度级图像中描述局部纹理很有效,本文介绍原始的LBP算子,其定义在3×3的窗口中,整个窗口由9个像素点组成,规定gc为窗口中心像素点,与其相邻的8个像素点依次为g0,...,g7,T设定为图像的纹理,可以将其表示为:
T~(gc-g0,...,gc-g7) (6)
接下来对窗口种元素进行二值化处理(0或者1),具体过程如下:将窗口中心元素gc的值设定为阈值,将中心元素与其相邻的8个元素依次进行比较,大于或者等于中心元素的设定为1,小于中心元素的设定为0,二值化操作后的纹理T可以表示为:
T≈t(s(g0-gc),...,s(g7-gc)) (7)
经过二值化操作后窗口中以gc为中心的相邻8个像素位都是二进制数字,接着按照式(9)对各个位置上的元素进行加权求和,就可以得到该窗口中心元素的LBP值。
除了原始的LBP算子外,研究人员也提出了许多改进的LBP算子,下面将依次进行介绍:
(1)圆形LBP算子:传统的LBP算子只能在半径固定的窗口内进行二值化操作,显然这不能满足不同纹理和旋转不变性的要求,因此后来有人提出了一种圆形LBP算子,该算子将3×3领域扩展到任意大小的领域,并且将矩形窗口改为圆形窗口,这样进后的LBP算子能在半径为R的圆形窗口内有任意q个采样点。
(2)旋转不变LBP算子:上述圆形LBP算子可以生成不同的二进制模式,随着领域内采样点的增加,二进制模式也是急剧增加,这对于转换后的二进制数的存储和传输是极大的考验,因此需要对其进行降低维度的操作。因此2000年提出了一种具有旋转不变特征的LBP算子,可以大大降低其维度,具体算法流程是当图像发生旋转时圆形邻域内的采样点也随之在圆周上旋转。
3马尔科夫特征
在2007年提出了一种检测图像拼接操作的算法,该算法阐述了马尔科夫特征,原理则是基于马尔科夫过程,拼接操作会导致图像在统计特征上发生变化,马尔科夫特征又能反映相邻像素间相关性的变化,因此对图像的拼接篡改操作检测很有效果,具体马尔科夫特征的生成过程如下所述:
(1)二维差分矩阵的建立:对整幅图像进行8×8分块的离散DCT变换,再将这些DCT系数进行量化和取绝对值运算,最终得到的系数矩阵用F(u,v)来表示,其中坐标(u,v)表示的是该系数矩阵具体系数的位置。
对系数矩阵F(u,v)的水平方向、垂直方向、主对角线方向、次对角线方向分别求取一阶差分矩阵,得到Fh(u,v)、Fv(u,v)、Fd(u,v)、Fm(u,v)四个差分系数矩阵,具体计算公式如式(10)-(13)所示,中h表示水平方向(horizontal)、v代表垂直方向(vertical)、d代表主对角线方向(diagonal)、m代表次对角线方向(minor-diagonal)。
Fh(u,v)=F(u,v)-F(u+1,v) (10)
Fv(u,v)=F(u,v)-F(u,v+1) (11)
Fd(u,v)=F(u,v)-F(u+1,v+1) (12)
Fm(u,v)=F(u+1,v)-F(u,v+1) (13)
其中,u∈[0,Su-2],v∈[0,Sv-2],Su代表二维DCT系数矩阵F(u,v)的行数,Sv代表二维DCT系数矩阵F(u,v)的列数。
图4表示的是水平方向和垂直方向差分DCT系数矩阵的形成过程示意图,从图中可以看出差分矩阵是紧邻像素的差分,作差的两个矩阵只有一个元素距离。主对角线方向和次对角线方向上的差分矩阵形成过程和图4类似。
(2)计算转移概率矩阵
研究表明数字图像拼接篡改操作会改变相邻像素之间的相关性,而马尔科夫过程可以很好的表达这种相关性的变化过程,因此采用马尔科夫特征对拼接操作进行检测。该算法没有直接将马尔科夫特征运用于二维DCT系数矩阵上,而是在上述四个差分矩阵上提取马尔科夫特征。
图像的DCT系数矩阵相邻元素之间具有相关性,因此四个方向上的差分DCT系数矩阵中的元素在在0值附近波动,差分矩阵元素中接近0值元素的多少以及接近0值的集中度就能反映相邻系数之间相关性的强度。接近0值的元素越多且峰度越高,相邻系数之间的相关性就越强。通过随机过程的理论知识可以知道此马尔科夫过程可以用转移概率矩阵来描述。该检测算法选择一步转移概率矩阵才描述马尔科夫过程,而且该算法选择在差分DCT系数矩阵上而非DCT系数矩阵上描述此过程大大降低了转移概率矩阵的维度,减少了运算量,空间复杂度和时间复杂度都有相应改善。当然即使是差分矩阵也会存在很多转移状态,具体应用中将设定一个阈值T(T>0),差分DCT系数矩阵中大于T的设定为T,小于-T的设定为-T,这样差分系数矩阵的值就在[-T,T]这个范围内,因此整个转移概率矩阵的维度为(2T+1)×(2T+1)。
上述四个方向上的转移概率矩阵计算过程如式(14)-(17)所示,最终将转移概率矩阵当中的所有元素数学建模,用作特征向量进行检测,实验表明马尔科夫特征对拼接操作具有良好的检测效果。
其中,m,n∈{-T,-T+1,...,0,...,T-1,T},并且有:
4一种基于LBP和扩展马尔科夫特征的细缝裁剪取证方法
针对传统马尔科夫特征在检测细缝裁剪时所存在的缺陷,可以想在对量化DCT系数矩阵求取四个方向上的差分矩阵和转移概率矩阵时将步长由1变为q,步长的适当扩大可以有效解决上述传统马尔科夫特征在检测细缝裁剪放大比例较大时的缺陷,因为差分步长为q时可以体现跨度较大的两个元素之间相关性的变化。q的取值也值得研究,步长太小不能有效反映插入细缝数量多时的统计特征变化,步长太大也就是距离较远的两个量化DCT系数之间的差值,其本身也失去了体现元素之间相关性的意义。通过实验得出当步长q为4时检测效果更好。
本发明采用以上技术,与现有技术相比,具有如下有益效果:
实验环境如上所述,在处理器为Inter(R)2.50GHz的个人电脑上进行,软件平台为matlab2015a,并采用支持向量机(SVM)进行分类训练和测试,核函数使用径向基函数(RBF),最优参数c和g的选取由网格搜索和3倍交叉验证的方法得到,分类时采用2值分类,标记正常图像为“1”,篡改图像为“-1”。分类所用特征向量即为如前所述的628维特征。
先使用UCID数据库中的图像进行检测实验,实验从原始图像集中随机抽取1000幅图像作为正常图像的训练集,再分别从细缝裁剪缩小3%、5%、10%、20、30%的5大类图像集中随机抽取200幅图像(总共200×5=1000幅图像)作为篡改图像的训练集,然后对含有正常图像和篡改图像各1000幅图像的训练集进行训练。测试阶段实验先逐一对5大类篡改图像进行检测,再对5大类篡改图像的混合进行检测,每次检测实验逐一在原始图像集和篡改图像集内随机抽取335幅图像分别进行测试,测试结果如表1:
表1改进检测算法实验结果
通过表1得出使用LBP和扩展马尔科夫特征进行细缝裁剪篡改检测的改进算法优于传统马尔科夫特征算法,原因在于扩展马尔科夫特征考虑了篡改比例较大时仅仅采用一步差分的转移概率不能很好体现篡改前后相邻元素相关性的变化,将步长为4和步长为1差分的转移概率进行融合后,既能对篡改比例较小的细缝裁剪有良好的检测效果,又能相对提升检测篡改比例较大的细缝裁剪时的检测率,从而在整体上优于现有检测算法。
本发明将在哥伦比亚数据库中进行检测实验,实验环境如前所述,训练集中正常图像在11大类图像中每一类各选取40幅图像,构成440幅正常图像训练集,训练集中篡改图像分为缩小10%、30%、50%和放大10%、30%、50%这六种数据集图像,因此本文选择在每种篡改大小的数据集所包含的11大类图像中各选取7幅图像,这样就构成了7×11×6=462幅篡改图像训练集,总共的训练集图像数为440+462=902。测试集图像在正常图像的11大类图像中各选取20幅图像,在11大类的篡改图像中(总共6种篡改方式)分别抽取20幅图像,分别进行分类测试,检测细缝裁剪篡改的检测率。测试结果如表2所示(测试集图像总共有11×20×2=440幅图像)。
表2本发明检测结果(哥伦比亚数据库)
下面结合附图和具体实施方式,进一步详细说明本发明。
(1)二维差分矩阵的建立:对整幅图像进行8×8分块的离散DCT变换,再将这些DCT系数进行量化和取绝对值运算,最终得到的系数矩阵用F(u,v)来表示,其中坐标(u,v)表示的是该系数矩阵具体系数的位置。
对系数矩阵F(u,v)的水平方向、垂直方向、主对角线方向、次对角线方向分别求取一阶差分矩阵(步长为q),得到四个差分系数矩阵,具体计算公式如式(19)-(22)所示,中h表示水平方向(horizontal)、v代表垂直方向(vertical)、d代表主对角线方向(diagonal)、m代表次对角线方向(minor-diagonal)。
其中,u∈[0,Su-(q+1)],v∈[0,Sv-(q+1)],Su代表二维DCT系数矩阵F(u,v)的行数,Sv代表二维DCT系数矩阵F(u,v)的列数。
(2)计算转移概率矩阵
应用中设定一个阈值T(T>0),差分DCT系数矩阵中大于T的设定为T,小于-T的设定为-T,这样差分系数矩阵的值就在[-T,T]这个范围内,因此整个转移概率矩阵的维度为(2T+1)×(2T+1)。
上述四个方向上的转移概率矩阵计算过程如式(23)-(26)所示,最终将转移概率矩阵当中的所有元素数学建模,用作特征向量进行检测。
其中,m,n∈{-T,-T+1,...,0,...,T-1,T},并且有:
本发明提出了一种基于LBP和扩展马尔科夫特征的方法,通过分别计算在LBP域中4个方向上差分2维JPEG矩阵(步长q=1和步长q=4)的马尔科夫转移概率矩阵,将q=1得到的特征与q=4得到的特征进行融合,提取324×2=648维特征,用SVM加以训练,以此来检测图像是否经过细缝裁剪篡改。算法整体框架如图5。
①将图像从空域变换到LBP域:对源图像的每个像素进行LBP运算,LBP算子在3×3的窗口中进行,二值化及编码操作后将会得到中心像素的LBP值,对图像的每个像素进行上述操作,得到每个像素的LBP值,这样图像将从空域转换到LBP域;
②计算JPEG压缩后的2维JPEG矩阵:因本文算法特征是在量化DCT域内提取的,而所用UCID数据库是未经压缩的TIFF图像,所以对此LBP矩阵以质量因子QF为100进行JPEG压缩,得到2维JPEG矩阵F(u,v)(以8×8分块的量化DCT矩阵);
③计算一阶差分矩阵(q=1):对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(28)-(31)所示:
Fh(u,v)=F(u,v)-F(u+1,v) (28)
Fv(u,v)=F(u,v)-F(u,v+1) (29)
Fd(u,v)=F(u,v)-F(u+1,v+1) (30)
Fm(u,v)=F(u+1,v)-F(u,v+1) (31)
其中u∈[0,Su-1],v∈[0,Sv-1],Su,Sv为矩阵F(u,v)的行数和列数。
因为经过一次压缩的JPEG图像量化DCT系数符合拉普拉斯分布或柯西分布,上述4个差分矩阵的值因都在“0”值左右,本文设定一个阈值T,差分矩阵元素值都在[-T,T]这个范围内,差分矩阵元素大于T的置为T,小于-T的置为-T。
④计算转移概率矩阵(q=1):分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(32)-(35)所示:
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(36)给出:
⑤计算一阶差分矩阵(q=4):对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(37)-(40)所示:
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(41)给出:
⑥计算转移概率矩阵(q=4):分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(42)-(45)所示:
⑦特征融合:将阈值T设定为4效果最佳[41],因此上述4个方向上的总共8个转移概率矩阵都有(2T+1)×(2T+1)=9×9=81个转移概率值,将所有转移概率矩阵的值作为特征送入SVM进行细缝裁剪篡改检测,其特征维数为:81×4×2=648维。
Claims (4)
1.一种基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,其特征是,分别计算在LBP域中水平方向、垂直方向、主对角线方向、次对角线方向4个方向上差分2维JPEG矩阵步长q=1和步长q=4的马尔科夫转移概率矩阵,将q=1得到的特征与q=4得到的特征进行融合,提取324×2=648维特征,将得到的转移概率矩阵当中的所述648维特征数学建模,用作特征向量利用支持向量机SVM加以训练、进行检测,以此来检测图像是否经过细缝裁剪篡改。
2.如权利要求1所述的基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,其特征是,分别计算在LBP域中水平方向、垂直方向、主对角线方向、次对角线方向4个方向上差分2维JPEG矩阵步长q=1和步长q=4的马尔科夫转移概率矩阵,具体步骤如下:
①将图像从空域变换到LBP域;
②计算JPEG压缩后的2维JPEG矩阵;
③计算步长为q的一阶差分矩阵:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵具体计算公式如式(19)-(22)所示,其中,下标h表示水平方向horizontal、下标v代表垂直方向vertical、下标d代表主对角线方向diagonal、下标m代表次对角线方向minor-diagonal,(u,v)表示坐标:
<mrow>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>19</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>20</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>21</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>22</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,u∈[0,Su-(q+1)],v∈[0,Sv-(q+1)],Su代表二维离散余弦变换DCT系数矩阵F(u,v)的行数,Sv代表二维DCT系数矩阵F(u,v)的列数。
3.如权利要求1所述的基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,其特征是,计算转移概率矩阵具体步骤如下:
应用中设定一个阈值T,T>0,DCT系数矩阵中大于T的设定为T,小于-T的设定为-T,这样差分系数矩阵的值就在[-T,T]这个范围内,因此整个转移概率矩阵的维度为(2T+1)×(2T+1);所述四个方向上的转移概率矩阵计算过程如式(23)-(26)所示:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mo>{</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>n</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>v</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>v</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>h</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>h</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>23</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mo>{</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>n</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>v</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>v</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>24</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mo>{</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>n</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>v</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>v</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>25</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>P</mi>
<mo>{</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>n</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mo>}</mo>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>v</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>v</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mi>q</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mi>q</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mrow>
<msub>
<mi>S</mi>
<mi>u</mi>
</msub>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>+</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
</msubsup>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mi>q</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>26</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,m,n∈{-T,-T+1,...,0,...,T-1,T},并且有:
最终将转移概率矩阵当中的所有元素数学建模,用作特征向量进行检测。
4.如权利要求1所述的基于LBP和扩展马尔科夫特征的细缝裁剪取证方法,其特征是,一个实例中的具体步骤如下:
①将图像从空域变换到LBP域:对源图像的每个像素进行LBP运算,LBP算子在3×3的窗口中进行,二值化及编码操作后将会得到中心像素的LBP值,对图像的每个像素进行上述操作,得到每个像素的LBP值,这样图像将从空域转换到LBP域;
②计算JPEG压缩后的2维JPEG矩阵:对此LBP矩阵以质量因子QF为100进行JPEG压缩,得到2维JPEG矩阵F(u,v),为以8×8分块的量化DCT矩阵,(u,v)表示坐标;
③计算一阶差分矩阵q=1:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(28)-(31)所示:
Fh(u,v)=F(u,v)-F(u+1,v) (28)
Fv(u,v)=F(u,v)-F(u,v+1) (29)
Fd(u,v)=F(u,v)-F(u+1,v+1) (30)
Fm(u,v)=F(u+1,v)-F(u,v+1) (31)
其中u∈[0,Su-1],v∈[0,Sv-1],Su,Sv为矩阵F(u,v)的行数和列数;
设定一个阈值T,差分矩阵元素值都在[-T,T]这个范围内,差分矩阵元素大于T的置为T,小于-T的置为-T;
④计算转移概率矩阵q=1:分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(32)-(35)所示:
<mrow>
<msub>
<mi>p</mi>
<mi>h</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>h</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>h</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>h</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>32</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>p</mi>
<mi>v</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>v</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>v</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>v</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>33</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>p</mi>
<mi>d</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>d</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>d</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>d</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>34</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>p</mi>
<mi>m</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>m</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msub>
<mi>F</mi>
<mi>m</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>F</mi>
<mi>m</mi>
</msub>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>35</mn>
<mo>)</mo>
</mrow>
</mrow>
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(36)给出:
⑤计算一阶差分矩阵q=4:对矩阵F(u,v)取绝对值后计算在水平、垂直、主对角线、次对角线共4个方向上的一阶差分矩阵,如式(37)-(40)所示:
<mrow>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>37</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>38</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>39</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mi>F</mi>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>40</mn>
<mo>)</mo>
</mrow>
</mrow>
其中m,n∈{-T,…,0,…T};u∈[0,Su-2],v∈[0,Sv-2];δ函数定义由式(41)给出:
⑥计算转移概率矩阵q=4;分别计算上述4个方向上的马尔科夫转移概率矩阵,以此来表征马尔科夫过程,如式(42)-(45)所示:
<mrow>
<msubsup>
<mi>p</mi>
<mi>h</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>h</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>42</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>p</mi>
<mi>v</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>v</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>43</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>p</mi>
<mi>d</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>d</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>44</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>p</mi>
<mi>m</mi>
<mn>4</mn>
</msubsup>
<mrow>
<mo>(</mo>
<mi>m</mi>
<mo>,</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>,</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>4</mn>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>n</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>&Sigma;</mi>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
</msub>
<mi>&delta;</mi>
<mrow>
<mo>(</mo>
<msubsup>
<mi>F</mi>
<mi>m</mi>
<mn>4</mn>
</msubsup>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>4</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>=</mo>
<mi>m</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>45</mn>
<mo>)</mo>
</mrow>
</mrow>
⑦特征融合:将阈值T设定为4,因此上述4个方向上的总共8个转移概率矩阵都有(2T+1)×(2T+1)=9×9=81个转移概率值,将所有转移概率矩阵的值作为特征送入支持向量机SVM进行细缝裁剪篡改检测,其特征维数为:81×4×2=648维。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711249829.5A CN107977964A (zh) | 2017-12-01 | 2017-12-01 | 基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711249829.5A CN107977964A (zh) | 2017-12-01 | 2017-12-01 | 基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107977964A true CN107977964A (zh) | 2018-05-01 |
Family
ID=62008716
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711249829.5A Pending CN107977964A (zh) | 2017-12-01 | 2017-12-01 | 基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107977964A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160364A (zh) * | 2019-12-05 | 2020-05-15 | 湖南大学 | 一种基于不同域下残差特征的多种操作链取证检测方法 |
CN111311564A (zh) * | 2020-02-11 | 2020-06-19 | 辽宁科技大学 | 一种针对图像内容感知篡改的检测方法 |
CN111640105A (zh) * | 2020-06-01 | 2020-09-08 | 长沙理工大学 | 一种图像接缝裁剪检测方法、设备及存储介质 |
CN111932544A (zh) * | 2020-10-19 | 2020-11-13 | 鹏城实验室 | 篡改图像检测方法、装置及计算机可读存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101661610A (zh) * | 2009-09-17 | 2010-03-03 | 上海交通大学 | 具有主被动鉴别功能的数字图像防伪检测系统 |
CN104599279A (zh) * | 2015-01-30 | 2015-05-06 | 天津工业大学 | 一种基于二次缝裁剪特征的图像盲检测方法 |
CN105654089A (zh) * | 2014-08-20 | 2016-06-08 | 江南大学 | 基于Markov过程和Gabor滤波的图像重采样检测 |
CN106960435A (zh) * | 2017-03-15 | 2017-07-18 | 华中师范大学 | 一种jpeg图像双压缩自动检测方法 |
-
2017
- 2017-12-01 CN CN201711249829.5A patent/CN107977964A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101661610A (zh) * | 2009-09-17 | 2010-03-03 | 上海交通大学 | 具有主被动鉴别功能的数字图像防伪检测系统 |
CN105654089A (zh) * | 2014-08-20 | 2016-06-08 | 江南大学 | 基于Markov过程和Gabor滤波的图像重采样检测 |
CN104599279A (zh) * | 2015-01-30 | 2015-05-06 | 天津工业大学 | 一种基于二次缝裁剪特征的图像盲检测方法 |
CN106960435A (zh) * | 2017-03-15 | 2017-07-18 | 华中师范大学 | 一种jpeg图像双压缩自动检测方法 |
Non-Patent Citations (2)
Title |
---|
杨富圣等: "一种基于LBP特征的Seam-Carving图像篡改检测方法", 《南开大学学报》 * |
盛国瑞: "数字图像取证与反取证技术研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111160364A (zh) * | 2019-12-05 | 2020-05-15 | 湖南大学 | 一种基于不同域下残差特征的多种操作链取证检测方法 |
CN111311564A (zh) * | 2020-02-11 | 2020-06-19 | 辽宁科技大学 | 一种针对图像内容感知篡改的检测方法 |
CN111311564B (zh) * | 2020-02-11 | 2023-11-14 | 辽宁科技大学 | 一种针对图像内容感知篡改的检测方法 |
CN111640105A (zh) * | 2020-06-01 | 2020-09-08 | 长沙理工大学 | 一种图像接缝裁剪检测方法、设备及存储介质 |
CN111640105B (zh) * | 2020-06-01 | 2022-05-06 | 长沙理工大学 | 一种图像接缝裁剪检测方法、设备及存储介质 |
CN111932544A (zh) * | 2020-10-19 | 2020-11-13 | 鹏城实验室 | 篡改图像检测方法、装置及计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gani et al. | A robust copy-move forgery detection technique based on discrete cosine transform and cellular automata | |
Pun et al. | A two-stage localization for copy-move forgery detection | |
Lee | Copy-move image forgery detection based on Gabor magnitude | |
Liang et al. | An efficient forgery detection algorithm for object removal by exemplar-based image inpainting | |
US10032265B2 (en) | Exposing inpainting image forgery under combination attacks with hybrid large feature mining | |
Zhang et al. | Detecting image seam carving with low scaling ratio using multi-scale spatial and spectral entropies | |
Fadl et al. | Robust copy–move forgery revealing in digital images using polar coordinate system | |
JP5431362B2 (ja) | 画像識別のための特徴ベースの識別特性(signature) | |
Sridevi et al. | Comparative study of image forgery and copy-move techniques | |
CN112907598B (zh) | 一种基于注意力cnn文档证件类图像篡改检测方法 | |
CN107977964A (zh) | 基于lbp和扩展马尔科夫特征的细缝裁剪取证方法 | |
CN102194208B (zh) | 一种基于图像签名的图像篡改检测与篡改定位方法 | |
Jin et al. | Sparsity-based image inpainting detection via canonical correlation analysis with low-rank constraints | |
CN110457996B (zh) | 基于vgg-11卷积神经网络的视频运动对象篡改取证方法 | |
Su et al. | Hierarchical image resampling detection based on blind deconvolution | |
Zhao et al. | Tampered region detection of inpainting JPEG images | |
Kumar et al. | An improved reduced feature-based copy-move forgery detection technique | |
Fadl et al. | A proposed accelerated image copy-move forgery detection | |
Liu | An improved approach to exposing JPEG seam carving under recompression | |
Wang et al. | An Intelligent Forensics Approach for Detecting Patch‐Based Image Inpainting | |
Chang et al. | Detection of seam carving in JPEG images | |
Bi et al. | Multi-task wavelet corrected network for image splicing forgery detection and localization | |
CN113850284B (zh) | 一种基于多尺度特征融合和多分支预测的多操作检测方法 | |
CN104881668A (zh) | 一种基于代表性局部模式的图像指纹提取方法及系统 | |
Liu et al. | A new approach for JPEG resize and image splicing detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180501 |
|
RJ01 | Rejection of invention patent application after publication |