CN102354389B - 基于视觉显著性的图像零水印算法及图像版权认证方法 - Google Patents
基于视觉显著性的图像零水印算法及图像版权认证方法 Download PDFInfo
- Publication number
- CN102354389B CN102354389B CN 201110286452 CN201110286452A CN102354389B CN 102354389 B CN102354389 B CN 102354389B CN 201110286452 CN201110286452 CN 201110286452 CN 201110286452 A CN201110286452 A CN 201110286452A CN 102354389 B CN102354389 B CN 102354389B
- Authority
- CN
- China
- Prior art keywords
- prime
- descriptor
- phi
- image
- centerdot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于视觉显著性的图像零水印方法,属于信息隐藏技术领域,其特征在于:通过引入KochandItti视觉注意机制模型自动分析划分出图像显著性区域,再对该区域进行SIFT特征提取,提取的特征信息经过进一步的筛选处理,作为唯一标识该图像的零水印信息进行注册登记。本发明还公开了以该零水印方法为基础的图像版权认证方法。本发明对适度的图像几何失真、滤波、噪声污染等常规图像处理和同步攻击有较好的鲁棒性,为数字图像版权保护和认证提供了一新颖的途径。
Description
技术领域
本发明属于信息隐藏技术领域,具体涉及到一种基于视觉显著性的图像零水印算法,及基于该算法的对数字图像进行版权认证的方法。
背景技术
随着因特网和多媒体技术的飞速发展和广泛应用,数字多媒体信息(图像、视频、音频等)的存储、处理和传输变得越来越方便快捷,但由于数字媒体易于无损拷贝和分发的特点,其暴露出的问题也越来越明显:作品侵权更加容易,篡改更加方便。在这种背景下,能够有效地实行版权保护的数字水印(digital watermarking)技术应运而生。
一般来讲,大多数现有数字图像水印技术,是对图像的空域信息或是变换域信息作一定的修改来嵌入水印。该种水印的不可感知性和鲁棒性始终是一对相互制约的矛盾。增强不可感知性,就会削弱鲁棒性,过多地强调鲁棒性,就无法保证水印的不可感知性。而零水印很好地解决了这一问题,它不需要修改原始图像的任何信息,其主要是利用图像的重要特征来构造水印信息,如图1。
一幅图像,往往背景部分较多,特别是背景简单的图像,现有的绝大部分零水印算法对其整幅画面进行特征提取并不能很好地体现特征值基于图像内容的特性。并且滤波,噪声污染等操作,对背景部分的干扰很大程度上会影响提取的特征值的稳定性。再者面对一幅图像,人们往往只对其中的部分区域感兴趣,而该区域承载了整幅图像信息的最重要部分。因此,本发明提出的基于图像显著性区域提取的水印信息更能唯一表征图像本身。如果水印信息一开始就从图像显著区域提取,那么在检测时会有很高的相关性。
对于如何选择显著性区域,众多研究学者提出了各自的视觉注意机制模型,按照计算机视觉中视觉信息的处理方式划分,可分为自底向上(Bottom-up Attention)和自顶向下(Top-down Attention)的视觉注意。自底向上型的视觉注意由数据驱动、独立于具体任务;而自顶向下型的视觉注意受意识支配、依赖于具体任务。在这里我们采用Koch and Itti模型[1]进行显著区域的划分。
Koch and Itti模型是基于Treisman的特征融合理论和Koch神经生物学框架的首个较为完整的自底向上视觉注意计算模型。模型提供了一种自底向上、各个特征图可并行计算的机制,并且将多种特征(颜色、亮度和方向)在多尺度下进行融合,最后合成一张综合的视觉显著度图(saliency map)。该视觉显著度图描述了在无先验信息指导情况下图像自身特质对人眼的刺激程度,量化了图像中各个位置在多特征综合考虑下的显著性,并采用胜利者全取(Winner-Take-All)法则作为抑制返回(Inhibition of Return)的策略来模拟注意焦点转移过程。
参考文献:
L.Itti,C.Koch and E.Niebur,“A model of saliency-based visual-attention for rapid sceneanalysis.”IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,Vol.20(11),pp:1254-1259.
D.G.Lowe,“Distinctive Image Features from Scale-Invariant Keypoints.”IJCV,2004,60,2,pp:91-110.
S.Kevin Zhou and R.Chellappa,“From sample similarity to ensemble similarity:Probabilisticdistance measures in reproducing kernel Hilbert space.”IEEE Trans on Pattern Analysis andMachine Intelligence(PAMI),June 2006,Vol.28(6),pp:917-929.
Manjunath B.S.,Ohm J.-R.,Vasudevan V.V.and Yamada A.,“Color and texture descriptors,”IEEE Trans on CSVT,June 2001,Vol.11(6),pp:703-715.
Corel database,[Online].Available:http://wang.ist.psu.edu/docs/related/.
发明内容
本发明的目的首先在于提供一种基于视觉显著性的图像零水印算法,其特征在于通过引入Koch and Itti视觉注意机制模型自动分析划分出图像显著性区域,再对该区域进行SIFT(ScaleInvariant Feature Transform,尺度不变特征变换)特征[2]提取,提取的特征信息经过进一步的筛选处理,作为唯一标识该图像的零水印信息进行注册登记。
该算法具体包括以下步骤:
A1.利用Koch and Itti视觉注意机制模型对大小为N*N的原始图像oriMap进行显著性分析,在获得的一张综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,为了增强提取水印的鲁棒性,实验中我们选取显著性前三块显著区域,模型返回三块区域的圆心,即显著点坐标Oa1,Oa2,Oa3;
A2.为了产生的水印信息能够很好的抵抗噪声,滤波等干扰,我们对原始图像oriMap(N×N)进行一级Contourlet变换,得到低频逼近子图subMapa((N/2)×(N/2));
A3.将A1中模型返回的显著性前三个显著点坐标Oa1~3,从图片saliency Mapa(N/2mapLeel-1)×(N/2mapLevel-1)尺寸下映射到一级低频逼近子图subMapa(N/2)×(N/2)尺寸下,得到逼近子图subMapa中的显著点坐标
A4.在低频逼近子图上我们以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域;为了方便计算,我们通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapa1~3尺寸为(2R+1)×(2R+1);
A5.对显著区域子图saliencysubMapa1~3分别提取SIFT特征.为了减少截取边缘的干扰,对提取的关键点应满足如式(1)约束:
|Location(i)-Center|<radius-r (1)
|.|是求两点的距离,Center为图形中心坐标(R+1,R+1),Location(i),i=1,2,3~m,为SIFT关键点的坐标,m不固定,radius=R+1,最终可获得saliencysubMapa三组关键点描述特征向量(Descriptora1~3);
A6.将满足A5中条件一副图像的三组关键点描述特征向量集(Descriptora1~3)作为水印信息Wa提交Database注册并存储,以备版权认证。
为了解决两特征集,如Descriptora1~3和Descriptorb1~3,三组特征向量之间点点比较的缺点和不同图像间特征点因个数不同,而无法匹配统计衡量的问题,本发明又提供了一种基于特征点组合相似性的图像匹配算法,把图像间的相似性用基于图像显著区域SIFT特征的零水印算法得到的表示图像零水印信息的特征向量集间的相似性来度量,通过两两比较,获取最佳相似对,即把两者概率KL散度(Kullback-Leibler divergence)最小的,作为两水印信息间的相似度,再与设定的阀值相比,确定图像是否匹配。
组合相似性是一种新的集合相似性度量方法,一个组合是指实体或者样本点的集合,组合相似性函数决定两个组合之间的相似性,它从总体上比较两个由若干样本点构成的组合之间的相似程度,克服了样本点之间点点比较的缺点。由于一幅图像是由三组SIFT特征点集表征的,所以可以把图像间的相似用SIFT特征点集间相似来衡量,从而把组合相似性引入到图像认证中来,从总体上比较两幅图像的相似程度。
该图像匹配算法具体包括如下步骤:
设待匹配的两图片的水印信息分别为Descriptorai={dail,dai2,~,daim},Descriptorbj={dbj1,dbj2,~,dbjn},(i,j=1,2,3)其中daim为水印信息Descriptora第i组特征向量集中第m个关键点描述特征向量,对于不同的i、j值,m、n的取值也不固定;
将Descriptorai和Descriptorbj看作两个关键点特征组合,并假设Descriptorai和Descriptorbj中的关键点分别服从基本的概率分布Pai和Pbj,则有两组合相似性等同两个概率分布之间的距离,用Dp表示,因此,
D(Descriptorai,Descriptorbj)=Dp(Pai,Pbj)(2)
常用概率距离公式有Chernoff距离,Bhattacharyya距离,KL散度,Mahalanobis距离等,一般情况下计算这些概率距离不是一件易事,只有当两个概率Pai和Pbj为正态分布时,才能计算出上述距离的解析表达式,
为了解决这一问题,通过某种非线性映射ψ把关键点组合Descriptor映射到一个高维空间中,在这个高维空间中,可以假设关键点描述特征向量服从正态分布,通过核技术,高维空间的点积形式可以用Mercer核来表示,不必知道非线性映射ψ的具体形式,如下式所示:
k(di,dj)=ψ(di)Tψ(dj)(3)
其中di,dj∈Descriptor ψ(di),ψ(dj)分别为di,dj在高维空间的对应函数值,
可以看出,非线性映射,即关键点在高维空间中的分布是由核函数来决定的,事实上任一个函数只要满足Mercer条件,就可以作为Mercer核,同时可以分解为式(3)形式,目前核函数的选择依据尚没有定论,但是由于这里假设在映射后的空间中关键点服从正态分布,所以核函数的选择很重要,通过实验,选择径向基函数作为核函数,如下式所示,
这里x,y指128维关键点描述特征向量,这样,经过非线性映射ψi(i=1或者2)映射后,在高维空间中关键点组合分别为{ψ1(dai1),ψ1(dai2),~,ψ1(daim)}和{ψ2(dbj1),ψ2(dbj2),~,ψ2(dbjn)},利用这些关键点作为样本点,由最大似然估计,分别估计出两个正态密度函数的均值和协方差矩阵,
计算距离的关键是核函数的使用,由式(3),定义下式
于是,可得到Descriptorai和Descriptorbj之间的概率距离,这里采用KL散度,其公式为
则Dpk值给出了两水印特征信息Descriptorai和Descriptorbj之间某两组的相似程度,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度,另外根据参数选择的不同,Dpk值会有所变化,最后将最佳optimum[Dpk]与设定阈值λ相比较,当optimum[Dpk]≤λ时,就认为图像匹配。
本发明的再一目的在于提供一种图像版权认证方法,其特征在于该方法具体包括以下步骤:
A.对需要注册登记的图像进行零水印信息提取,并送专门机构存储登记;
B.对某未知版权图像进行零水印信息提取,并与版权库存储的注册水印信息进行匹配,
进而获得图像的版权认证信息;
步骤A进一步包括如下步骤:
A1.利用Koch and Itti视觉注意机制模型对大小为N*N的原始图像oriMap进行显著性分析,在获得的一张综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,为了增强提取水印的鲁棒性,实验中我们选取显著性前三块显著区域,模型返回三块区域的圆心,即显著点坐标Oa1,Oa2,Oa3,
A2.为了产生的水印信息能够很好的抵抗噪声,滤波等干扰,我们对原始图像oriMap(N×N)进行一级Contourlet变换,得到低频逼近子图subMapa((N/2)×(N/2)),
A3.将A1中模型返回的显著性前三个显著点坐标Oa1~3,从图片saliencyMapa(N/2mapLevel-1)×(N/2mapLevel-1)尺寸下映射到一级低频逼近子图subMapa(N/2)×(N/2)尺寸下,得到逼近子图subMapa中的显著点坐标
A4.在低频逼近子图上我们以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域,为了方便计算,我们通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapa1~3尺寸为(2R+1)×(2R+1),
A5.对显著区域子图saliencysubMapa1~3分别提取SIFT特征.为了减少截取边缘的干扰,对提取的关键点应满足如式(1)约束:
|Location(i)-Center|<radius-r (1)
|.|是求两点的距离,Center为图形中心坐标(R+1,R+1),Location(i),i=1,2,3~m,为SIFT关键点的坐标,m不固定,radius=R+1,最终可获得saliencysubMapa三组关键点描述特征向量(Descriptora1~3),
A6.将满足A5中条件一副图像的三组关键点描述特征向量集(Descriptoa1~3)作为水印信息Wa提交Database注册并存储,以备版权认证;
步骤B进一步包括如下步骤:
B1.利用Koch and Itti视觉注意机制模型对大小为N*N的版权未知图像queryMap进行显著性分析,在获得的一张综合视觉显著度图saliencyMapb((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,选取显著性前三块显著区域,模型返回三块区域的圆心,即显著点坐标Ob1,Ob2,Ob3,
B2.对未知图像queryMap(N×N)进行一级Contourlet变换,得到低频逼近子图subMapb((N/2)×(N/2)),
B3.将B1中模型返回的显著性前三个显著点坐标Ob1~3,从图片saliencyMapb(N/2mapLevel-1)×(N/2mapLevel-1)尺寸下映射到一级低频逼近子图subMapb(N/2)×(N/2)尺寸下,得到逼近子图subMapb中的显著点坐标
B4.在低频逼近子图上我们以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域,通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapb1~3尺寸为(2R+1)×(2R+1),
B5.对显著区域子图saliencysubMapb1~3分别提取SIFT特征.同样,提取的关键点也应满足上式(1)的约束,可获得saliencysubMapb三组关键点描述特征向量(Descriptorb1~3),即为水印Wb,
B6.将提取的水印信息Wb与Database中注册的水印信息Wa进行一一匹配,确定是否是已注册的图像。其中,将提取的水印信息Wb与Database中注册的水印信息Wa进行一一匹配,包括如下步骤:
设两图片的水印信息分别为Descriptorai={dai1,dai2,~,daim},Descriptorbj={dbj1,dbj2,~,dbjn},(i,j=1,2,3)其中daim为水印信息Descriptora第i组特征向量集中第m个关键点描述特征向量,对于不同的i、j值,m、n的取值也不固定;
将Descriptorai和Descriptorbj看作两个关键点特征组合,并假设Descriptorai和Descriptorbj中的关键点分别服从基本的概率分布Pai和Pbj,则有两组合相似性等同两个概率分布之间的距离,用Dp表示,因此,
D(Descriptorai,Descriptorbj)=Dp(Pai,Pbj)(2)
常用概率距离公式有Chernoff距离,Bhattacharyya距离,KL散度,Mahalanobis距离等,一般情况下计算这些概率距离不是一件易事,只有当两个概率Pai和Pbj为正态分布时,才能计算出上述距离的解析表达式,
为了解决这一问题,通过某种非线性映射ψ把关键点组合Descriptor映射到一个高维空间中,在这个高维空间中,可以假设关键点描述特征向量服从正态分布,通过核技术,高维空间的点积形式可以用Mercer核来表示,不必知道非线性映射ψ的具体形式,如下式所示:
k(di,dj)=ψ(di)Tψ(dj)(3)
其中di,dj∈Descriptor ψ(di),ψ(dj)分别为di,dj在高维空间的对应函数值,
可以看出,非线性映射,即关键点在高维空间中的分布是由核函数来决定的,事实上任一个函数只要满足Mercer条件,就可以作为Mercer核,同时可以分解为式(3)形式,目前核函数的选择依据尚没有定论,但是由于这里假设在映射后的空间中关键点服从正态分布,所以核函数的选择很重要,通过实验,选择径向基函数作为核函数,如下式所示,
这里x,y指128维关键点描述特征向量,这样,经过非线性映射ψi(i=1或者2)映射后,在高维空间中关键点组合分别为{ψ1(dai1),ψ1(dai2),~,ψ1(daim)}和{ψ2(dbj1),ψ2(dbj2),~,ψ2(dbjn)},利用这些关键点作为样本点,由最大似然估计,分别估计出两个正态密度函数的均值和协方差矩阵,
计算距离的关键是核函数的使用,由式(3),定义下式
于是,可得到Descriptorai和Descriptorbj之间的概率距离,这里采用KL散度,其公式为
则Dpk值给出了两水印特征信息Descriptorai和Descriptorbj之间某两组的相似程度,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度,另外根据参数选择的不同,Dpk值会有所变化,最后将最佳iptimum[Dpk]与设定阈值λ相比较,当optimum[Dpk]≤λ时,就认为图像匹配。
具体的认证算法如下:
由于零水印信息Descriptori可以看成由m个关键点SIFT特征组成的集合,所以两个水印信息的相似性可以由相对应的两组关键点描述特征向量集的相似性来决定。
设两组水印信息Descriptorai={dai1,dai2,~,daim},Descriptorbj={dbj1,dbj2,~,dbjn},(i,j=1,2,3)其中daim为水印信息Descriptora第i组特征向量集中第m个关键点描述特征向量,对于不同的i、j值,m、n的取值也不固定。
本发明将Descriptorai和Descriptorbj看作两个关键点特征组合,并假设Descriptorai和Descriptorbj中的关键点分别服从基本的概率分布Pai和Pbj,则有两组合相似性等同两个概率分布之间的距离,用Dp表示。因此,
D(Descriptorai,Descriptorbj)=Dp(Pai,Pbj)(2)
常用概率距离公式有Chernoff距离,Bhattacharyya距离,KL散度,Mahalanobis距离等。一般情况下计算这些概率距离不是一件易事,只有当两个概率Pai和Pbj为正态分布时,才能计算出上述距离的解析表达式。
为了解决这一问题,通过某种非线性映射ψ把关键点组合Descriptor映射到一个高维空间中。在这个高维空间中,可以假设关键点描述特征向量服从正态分布。通过核技术,高维空间的点积形式可以用Mercer核来表示,不必知道非线性映射ψ的具体形式,如下式所示:
k(di,dj)=ψ(di)Tψ(dj) (3)
其中di,dj∈Descriptor ψ(di),ψ(dj)分别为di,dj在高维空间的对应函数值。
可以看出,非线性映射,即关键点在高维空间中的分布是由核函数来决定的,事实上任一个函数只要满足Mercer条件,就可以作为Mercer核,同时可以分解为式(3)形式,目前核函数的选择依据尚没有定论,但是由于这里假设在映射后的空间中关键点服从正态分布,所以核函数的选择很重要,通过实验,选择径向基函数作为核函数,如下式所示,
这里x,y指128维关键点描述特征向量。这样,经过非线性映射ψi(i=1或者2)映射后,在高维空间中关键点组合分别为{ψ1(dai1),ψ1(dai2),~,ψ1(daim)}和{ψ2(dbj1),ψ2(dbj2),~,ψ2(dbjn)},利用这些关键点作为样本点,由最大似然估计,分别估计出两个正态密度函数的均值和协方差矩阵。
计算距离的关键是核函数的使用,由式(3),定义下式
于是,可得到Descriptorai和Descriptorbj之间的概率距离,这里采用KL散度,其公式为
则Dpk值给出了两水印特征信息Descriptorai和Descriptorbj之间某两组的相似程度,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度,如图4。另外根据参数选择的不同,Dpk值会有所变化。最后将optimum[Dpk]与设定阈值λ相比较,当optimum[Dpk]≤λ时,就认为该未知图片是已注册登记,受版权保护。
本发明针对大多数现有图像零水印算法基于整幅图像提取特征,而忽略了广大无意义背景干扰的缺点,提出了一种基于图像显著区域SIFT特征的图像零水印方案。通过引入一计算机视觉注意机制模型自动分析划分出图像显著性区域,再对该区域进行SIFT特征提取,提取的特征信息经过进一步的筛选处理,作为唯一标识该图像的零水印信息进行注册登记。为了解决不同图像间特征点匹配衡量的问题,采用了特征点组合相似性的图片认证方法。本发明对适度的图像几何失真、滤波、噪声污染等常规图像处理和同步攻击有较好的鲁棒性,为数字图像版权保护和认证提供了一新颖的途径。
附图说明
图1是一般图像零水印算法认证流程图。
图2是本发明零水印算法的提取和未知图像认证流程图。
图3(a)是试验中所选的Airplane原图像,图3(b)是原图经Koch and Itti视觉注意机制模型产生的综合视觉显著度图saliencyMap,图3(c)是机器视觉选取的显著性前几个区域,即圆圈所示区域。
图4是两水印特征信息Descriptorai和Descriptorbj之间相似程度的获取方式,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度DP。
图5是以图像Airplane为实例的零水印提取流程图。
图6是原图经过攻击后的图像,按顺序(a)是逆时针旋转2度;(b)是顺时针旋转2度;(c)是旋转180度;(d)是顺时针旋转90度;(e)是右上角剪裁1/16;(f)是左下角剪裁1/4;(g)是左侧剪裁1/2;(h)是强度为-10的亮度调节;(i)是强度为+10的亮度调节;(j)是加标准差为0.18的高斯噪声;(k)是加标准差为0.1的高斯噪声;(l)是窗口大小为6×6的均值滤波;(m)是强度为-40的对比度调节;(n)是强度为+40的对比度调节;(o)是质量因子为30的JPEG压缩。
图7是用本发明的图像版权认证方法做的一简单图像认证的结果图。
具体实施方式
在一具体实施例中,我们选取尺寸为512×512,名为Airplane的RGB图像作为测试对像。在基于特征点组合相似性的图像匹配算法中,选择径向基核函数(RBF)作为核函数,进行空间的映射,用KL散度衡量两组合间的概率距离,由式(4)、(6)可以看出,其依赖于特征对个数ra和rb(这里,取ra=rb=1)以及RBF核宽度σ(这里,取σ=0.5)。具体的实施过程如下(如图5所示):
A01.利用Koch and Itti视觉注意机制模型对大小为512×512的原始图像Airplane进行显著性分析,在获得的一张综合视觉显著度图saliencyMapa(32×32,mapLevel=5)中,按照显著性程度由强到弱的规则排列显著点,选取显著性前三块显著区域,模型返回三块区域的圆心,即显著点坐标Oa1,Oa2,Oa3。
A02.为了产生的水印信息能够很好的抵抗噪声,滤波等干扰,我们对原始图像Airplane(512×512)进行一级Contourlet变换,得到低频逼近子图subMapa(256×256)。
A03.将A1中模型返回的显著性前三个显著点坐标Oa1~3,从图片saliencyMapa32×32尺寸下映射到一级低频逼近子图subMapa256×256尺寸下,得到逼近子图subMapa中的显著点坐标
A04.在低频逼近子图上我们以显著点为圆心,半径为R=50的圆依次划出显著性区域,并截取三块圆形区域。为了方便计算,我们通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapa1~3,尺寸为(101×101)。
A05.对显著区域子图saliencysubMapa1~3分别提取SIFT特征.为了减少截取边缘的干扰,对提取的关键点应满足如下式约束:
|Location(i)-Center|<radius-15
|.|是求两点的距离,Center为图形中心坐标(51,51),Location(i),i=1,2,3~m,为SIFT关键点的坐标,m为获取的关键点个数,大小不固定,radius=51,试验中r=15,最终可获得saliencysubMapa三组关键点描述特征向量(Descriptora1~3)。
A06.将满足A05中条件一副图像的三组关键点描述特征向量集(Descriptora1~3)作为水印信息Wa。
为了测试本发明设计的零水印方案抵抗攻击的鲁棒性,对原图进行如图像旋转,添加高斯噪声,均值滤波,亮度调节,对比度调节,剪裁和JPEG压缩等攻击操作,然后对经过攻击的图像(如图6所示)进行步骤A01~A06一样的操作,得到三组关键点描述特征向量集(Descriptorb1~3)作为受攻击图像的水印信息Wb。再经过本发明的基于特征点组合相似性的图像匹配算法解析,测试其与原始图像水印信息Wa的相似程度,Dpk值越小表示两水印就越相似。同时借助于一种评价图像的客观标准峰值信噪比PSNR来衡量图像经过处理后的影像品质,即其与原图的差异性,PSNR值越大则表示图像失真越小。
1)旋转
为了不影响视图,在该实验中,将原图进行-2~2的小角度和90、180、270度旋转,通过剪裁裁正,再重新调整图像尺寸到512×512。
2)剪裁
对原图进行1/16、1/4、1/2尺寸剪裁,裁剪部分像素值用0补充,使裁剪后的图像保持原尺寸大小。
3)添加高斯噪声
对原始图像添加均值为0,标准差从0.02到0.2以0.04为间隔的高斯噪声。本发明由于一开始采用了Contourlet变换和SIFT特征本身的抗噪特点,对该操作有着不错的效果。
4)均值滤波
对原始图像进行均值滤波,窗口大小从1×1到6×6。
5)亮度调节
对原始图像进行亮度调节,强度正值越大表示图片越明亮。
6)对比度调节
对原始图像进行对比度调节,强度正值越大表示图片亮部和暗部的对比越明显,使得图片的对比更加强烈。
7)JPEG压缩
对原始图像进行JPEG压缩,质量因子值越大代表压缩的图像品质越高,反之就是压缩效果越好。
为了更好地体现本发明提出方案的性能,我们进一步做了一简单图像认证试验,同时通过与传统的基于图像颜色和边缘特征直方图算法(CEH)[4]相比,本发明的方案有更好的稳定性(L2,Intersection代表两种直方图间的距离度量算法)。我们从Corel image database[5],google图像库中随机选取150幅图片建立一图片库,图片涉及如人物、汽车、动物、油画等多种类型,另我们又组建一拥有50幅图片的测试集,其中30幅图从我们构建的图库外随机选取,即不在图库内,10幅是不经任何修改的图库图片,10幅是经滤波,JPEG压缩,亮度调节等攻击操作后图库图片。在测试中,一幅图片在图片库中匹配认证时,我们认定,不在图库中的图片返回图片信息,在图片库的图片返回的信息不唯一等情况均属于认证失败。图7是各算法在不同的阀值λ设置下测试集的认证情况。从图中可以看出,只有所提方案在阀值取0.045或0.05时测试集得到准确认证(30/10+10)。其他两种算法则由于图片间颜色的相似性使得区分度不够,或抵抗攻击的稳定性不是很好,影响了认证性能,阀值增大或减小,都难以达到理想状态。
从实验的结果来看,阀值λ取0.05时完全能容忍对图像的旋转,滤波,加噪,剪裁,JPEG压缩和亮度调节等攻击操作,也能很好的区分开不同图像。这说明本发明所提方案产生的零水印对抵抗图像攻击有一定的鲁棒性,尤其是在图像剪裁方面,由于采用了显著性区域的划分,剪去的背景部分对提取的水印影响甚微。
Claims (3)
1.一种基于视觉显著性的图像零水印方法,其特征在于通过引入KochandItti视觉注意机制模型自动分析划分出图像显著性区域,再对该区域进行SIFT特征提取,提取的特征信息经过进一步的筛选处理,作为唯一标识该图像的零水印信息进行注册登记;
该方法具体包括以下步骤:
A1.利用KochandItti视觉注意机制模型对大小为N*N的原始图像oriMap(N×N)进行显著性分析,在获得的一张综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,为了增强提取水印的鲁棒性,选取显著性前三块显著区域,模型返回三块显著区域的圆心,即显著点坐标Oa1,Oa2,Oa3;
A2.为了产生的水印信息能够很好的抵抗噪声,滤波干扰,对原始图像oriMap(N×N)进行一级Contourlet变换,得到一级低频逼近子图subMapa((N/2)×(N/2));
A3.将A1中模型返回的显著性前三个显著点坐标Oa1~3,从综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))尺寸下映射到一级低频逼近子图subMapa((N/2)×(N/2))尺寸下,得到一级低频逼近子图subMapa((N/2)×(N/2))中的显著点坐标
A4.在一级低频逼近子图上以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域;为了方便计算,通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapa1~3,尺寸为(2R+1)×(2R+1);
A5.对显著区域子图saliencysubMapa1~3分别提取SIFT特征.为了减少截取边缘的干扰,对提取的关键点应满足如式(1)约束:
|Location(i)-Center|<radius-r (1)
|.|是求两点的距离,Center为图形中心坐标(R+1,R+1),Location(i),i=1,2,3~m,为SIFT关键点的坐标,m不固定,radius=R+1,最终获得显著区域子图saliencysubMapa1~3三组关键点描述特征向量Descriptora1~3;
A6.将满足A5中条件一副图像的三组关键点描述特征向量集Descriptora1~3作为水印信息Wa提交Database注册并存储,以备版权认证。
2.一种基于特征点组合相似性的图像匹配方法,其特征在于,把图像间的相似性用权利要求1所述零水印方法得到的表示图像零水印信息的特征向量集间的相似性来度量,通过两两比较,获取最佳相似对,即把两者概率KL散度最小的,作为两水印信息间的相似度,再与设定的阀值相比,确定图像是否匹配;
该图像匹配方法具体包括如下步骤:
设待匹配的两图片的水印信息分别为Descriptorai={dai1,dai2,~,daim},Descriptorbj={dbj1,dbj2,~,dbjn},i=1,2,3,j=1,2,3,其中dai1,dai2,~,daim分别为水印信息Descriptora第i组特征向量集中第1,2,~,m个关键点描述特征向量,其中dbj1,dbj2,~,dbjn分别为水印信息Descriptorb第j组特征向量集中第1,2,~,m个关键点描述特征向量,对于不同的i、j值,m、n的取值也不固定;
将Descriptorai和Descriptorbj看作两个关键点特征组合,并假设Descriptorai和Descriptorbj中的关键点分别服从基本的概率分布Pai和Pbj,则有两组合相似性D(Descriptorai,Descriptorbj)等同两个概率分布之间的距离,用Dp(Pai,Pbj)表示,因此,
D(Descriptorai,Descriptorbj)=Dp(Pai,Pbj) (2)
常用概率距离公式有Chernoff距离,Bhattacharyya距离,KL散度,Mahalanobis距离,为了方便计算出上述距离的解析表达式,通过某种非线性映射ψ把关键点组合Descriptor映射到一个高维空间中,在这个高维空间中,假设关键点描述特征向量服从正态分布,通过核技术,高维空间的点积形式用Mercer核来表示,不必知道非线性映射ψ的具体形式,如下式所示:
k(di,dj)=ψ(di)Tψ(dj) (3)
其中di,dj∈Descriptor,ψ(di),ψ(dj)分别为di,dj在高维空间的对应函数值,
通过实验,选择径向基函数作为核函数,如下式所示,
这里x,y指128维关键点描述特征向量,这样,经过非线性映射ψi映射后,i=1,2,在高维空间中关键点组合分别为{ψ1(dai1),ψ1(dai2),~,ψ1(daim)}和{ψ2(dbj1),ψ2(dbj2),~,ψ2(dbjn)},利用这些关键点作为样本点,由最大似然估计,分别估计出两个正态密度函数的均值和协方差矩阵,σ为径向基核函数的核宽度,
计算距离的关键是核函数的使用,由式(3),定义下式
于是,得到Descriptorai和Descriptorbj之间的概率距离,这里采用KL散度,其公式为
则Dpk值给出了两水印特征信息Descriptorai和Descriptorbj之间某两组的相似程度,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度,另外根据参数选择的不同,Dpk值会有所变化,最后将最佳optimum[Dpk]与设定阀值λ相比较,当optimum[Dpk]≤λ时,就认为图像匹配。
3.一种图像版权认证方法,其特征在于该方法具体包括以下步骤:
A.对需要注册登记的图像进行零水印信息提取,并送专门机构存储登记;
B.对某未知版权图像进行零水印信息提取,并与版权库存储的注册水印信息进行匹配,进而获得图像的版权认证信息;
步骤A进一步包括如下步骤:
A1.利用KochandItti视觉注意机制模型对大小为N*N的原始图像oriMap(N×N)进行显著性分析,在获得的一张综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,为了增强提取水印的鲁棒性,选取显著性前三块显著区域,模型返回三块显著区域的圆心,即显著点坐标Oa1,Oa2,Oa3,
A2.为了产生的水印信息能够很好的抵抗噪声,滤波干扰,对原始图像oriMap(N×N)进行一级Contourlet变换,得到一级低频逼近子图subMapa((N/2)×(N/2)),
A3.将A1中模型返回的显著性前三个显著点坐标Oa1~3,从综合视觉显著度图saliencyMapa((N/2mapLevel-1)×(N/2mapLevel-1))尺寸下映射到一级低频逼近子图subMapa((N/2)×(N/2))尺寸下,得到一级低频逼近子图subMapa((N/2)×(N/2))中的显著点坐标
A4.在一级低频逼近子图上以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域,为了方便计算,通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapa1~3,尺寸为(2R+1)×(2R+1),
A5.对显著区域子图saliencysubMapa1~3分别提取SIFT特征.为了减少截取边缘的干扰,对提取的关键点应满足如式(1)约束:
|Location(i)-Center|<radius-r (1)
|.|是求两点的距离,Center为图形中心坐标(R+1,R+1),Location(i),i=1,2,3~m,为SIFT关键点的坐标,m不固定,radius=R+1,最终获得显著区域子图saliencysubMapa1~3三组关键点描述特征向量Descriptora1~3,
A6.将满足A5中条件一副图像的三组关键点描述特征向量集Descriptora1~3作为水印信息Wa提交Database注册并存储,以备版权认证;
步骤B进一步包括如下步骤:
B1.利用KochandItti视觉注意机制模型对大小为N*N的版权未知图像queryMap(N×N)进行显著性分析,在获得的一张综合视觉显著度图saliencyMapb((N/2mapLevel-1)×(N/2mapLevel-1))中,按照显著性程度由强到弱的规则排列显著点,选取显著性前三块显著区域,模型返回三块显著区域的圆心,即显著点坐标Ob1,Ob2,Ob3,
B2.对未知图像queryMap(N×N)进行一级Contourlet变换,得到一级低频逼近子图subMapb((N/2)×(N/2)),
B3.将B1中模型返回的显著性前三个显著点坐标Ob1~3,从图片saliencyMapb((N/2mapLevel-1)×(N/2mapLevel-1))尺寸下映射到一级低频逼近子图subMapb((N/2)×(N/2))尺寸下,得到一级低频逼近子图subMapb中的显著点坐标
B4.在一级低频逼近子图上以显著点为圆心,半径为R的圆依次划出显著性区域,并截取三块圆形区域,通过在边缘补零,将截取的图片转为正方形尺寸,获得的显著区域子图为saliencysubMapb1~3,尺寸为(2R+1)×(2R+1),
B5.对显著区域子图saliencysubMapb1~3分别提取SIFT特征.同样,提取的关键点也应满足式(1)的约束,获得saliencysubMapb1~3三组关键点描述特征向量Descriptorb1~3,即为水印Wb,
B6.将提取的水印信息Wb与Database中注册的水印信息Wa进行一一匹配,确定是否是已注册的图像,具体包括如下步骤:
设两图片的水印信息分别为Descriptorai={dai1,dai2,~,daim},Descriptorbj={dbj1,dbj2,~,dbjn},i=1,2,3,j=1,2,3,其中dai1,dai2,~,daim分别为水印信息Descriptora第i组特征向量集中第1,2,~,m个关键点描述特征向量,其中dbj1,dbj2,~,dbjn分别为水印信息Descriptorb第j组特征向量集中第1,2,~,m个关键点描述特征向量,对于不同的i、j值,m、n的取值也不固定;
将Descriptorai和Descriptorbj看作两个关键点特征组合,并假设Descriptorai和Descriptorbj中的关键点分别服从基本的概率分布Pai和Pbj,则有两组合相似性D(Descriptorai,Descriptorbj)等同两个概率分布之间的距离,用Dp(Pai,Pbj)表示,因此,
D(Descriptorai,Descriptorbj)=Dp(Pai,Pbj) (2)
常用概率距离公式有Chernoff距离,Bhattacharyya距离,KL散度,Mahalanobis距离,为了方便计算出上述距离的解析表达式,通过某种非线性映射ψ把关键点组合Descriptor映射到一个高维空间中,在这个高维空间中,假设关键点描述特征向量服从正态分布,通过核技术,高维空间的点积形式用Mercer核来表示,不必知道非线性映射ψ的具体形式,如下式所示:
k(di,dj)=ψ(di)Tψ(dj) (3)
其中di,dj∈Descriptor,ψ(di),ψ(dj)分别为di,dj在高维空间的对应函数值,
通过实验,选择径向基函数作为核函数,如下式所示,
这里x,y指128维关键点描述特征向量,这样,经过非线性映射ψi映射后,i=1,2,在高维空间中关键点组合分别为{ψ1(dai1),ψ1(dai2),~,ψ1(daim)}和{ψ2(dbj1),ψ2(dbj2),~,ψ2(dbjn)},利用这些关键点作为样本点,由最大似然估计,分别估计出两个正态密度函数的均值和协方差矩阵,σ为径向基核函数的核宽度,
计算距离的关键是核函数的使用,由式(3),定义下式
于是,得到Descriptorai和Descriptorbj之间的概率距离,这里采用KL散度,其公式为
则Dpk值给出了两水印特征信息Descriptorai和Descriptorbj之间某两组的相似程度,通过双方各三组关键点集合之间的两两比较,取最佳,也就是最小的Dpk值作为两水印的相似度,另外根据参数选择的不同,Dpk值会有所变化,最后将最佳optimum[Dpk]与设定阀值λ相比较,当optimum[Dpk]≤λ时,就认为图像匹配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110286452 CN102354389B (zh) | 2011-09-23 | 2011-09-23 | 基于视觉显著性的图像零水印算法及图像版权认证方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN 201110286452 CN102354389B (zh) | 2011-09-23 | 2011-09-23 | 基于视觉显著性的图像零水印算法及图像版权认证方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102354389A CN102354389A (zh) | 2012-02-15 |
CN102354389B true CN102354389B (zh) | 2013-07-31 |
Family
ID=45577950
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN 201110286452 Expired - Fee Related CN102354389B (zh) | 2011-09-23 | 2011-09-23 | 基于视觉显著性的图像零水印算法及图像版权认证方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102354389B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102646259A (zh) * | 2012-02-16 | 2012-08-22 | 南京邮电大学 | 一种抗攻击的鲁棒多倍零水印方法 |
US9311640B2 (en) | 2014-02-11 | 2016-04-12 | Digimarc Corporation | Methods and arrangements for smartphone payments and transactions |
CN103793710B (zh) * | 2013-12-12 | 2017-02-15 | 中国科学院深圳先进技术研究院 | 一种图像显著性物体检测方法和装置 |
CN104021516A (zh) * | 2014-06-09 | 2014-09-03 | 河海大学 | 基于韦布尔模型的dct直流系数上图像水印方法 |
FR3028064B1 (fr) * | 2014-11-05 | 2016-11-04 | Morpho | Procede de comparaison de donnees ameliore |
CN106204301A (zh) * | 2016-07-29 | 2016-12-07 | 苏州商信宝信息科技有限公司 | 一种针对社交网络非原创图片的管理方法 |
CN109426791B (zh) * | 2017-09-01 | 2022-09-16 | 深圳市金溢科技股份有限公司 | 一种多站点多元车辆匹配方法、服务器及系统 |
CN109211222B (zh) * | 2018-08-22 | 2022-06-07 | 扬州大学 | 基于机器视觉的高精度定位系统及方法 |
CN109284717A (zh) * | 2018-09-25 | 2019-01-29 | 华中师范大学 | 一种面向数字音频复制粘贴篡改操作的检测方法及系统 |
CN113781284A (zh) * | 2021-06-30 | 2021-12-10 | 华南农业大学 | 一种基于深度注意自编码器的零水印构造方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6327392B1 (en) * | 1999-01-28 | 2001-12-04 | Sharp Laboratories Of America, Inc. | Method of visual progressive coding |
EP1898396A1 (en) * | 2006-09-07 | 2008-03-12 | Deutsche Thomson-Brandt Gmbh | Method and apparatus for encoding/decoding symbols carrying payload data for watermarking of an audio or video signal |
CN101533506B (zh) * | 2009-04-24 | 2012-01-04 | 西安电子科技大学 | 一种鲁棒性的图像双水印方法 |
CN102024248A (zh) * | 2010-11-30 | 2011-04-20 | 辽宁师范大学 | 基于局部视觉关注的数字图像水印方法 |
-
2011
- 2011-09-23 CN CN 201110286452 patent/CN102354389B/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
CN102354389A (zh) | 2012-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102354389B (zh) | 基于视觉显著性的图像零水印算法及图像版权认证方法 | |
Zhao et al. | Passive forensics for copy-move image forgery using a method based on DCT and SVD | |
Lee | Copy-move image forgery detection based on Gabor magnitude | |
Zhou et al. | Effective and efficient global context verification for image copy detection | |
Zhao et al. | Robust hashing for image authentication using Zernike moments and local features | |
Kang et al. | Robust median filtering forensics using an autoregressive model | |
Davarzani et al. | Perceptual image hashing using center-symmetric local binary patterns | |
Al-Qershi et al. | Passive detection of copy-move forgery in digital images: State-of-the-art | |
Farid | Exposing digital forgeries in scientific images | |
Mahalakshmi et al. | Digital image forgery detection and estimation by exploring basic image manipulations | |
CN107622489B (zh) | 一种图像篡改检测方法及装置 | |
Uliyan et al. | A novel forged blurred region detection system for image forensic applications | |
Yu et al. | Perceptual hashing with complementary color wavelet transform and compressed sensing for reduced-reference image quality assessment | |
Xia et al. | Local quaternion polar harmonic Fourier moments-based multiple zero-watermarking scheme for color medical images | |
Li et al. | Keypoint-based copy-move detection scheme by adopting MSCRs and improved feature matching | |
Dua et al. | Detection and localization of forgery using statistics of DCT and Fourier components | |
Liu et al. | Improved SIFT-based copy-move detection using BFSN clustering and CFA features | |
Siddiqi et al. | Image Splicing‐Based Forgery Detection Using Discrete Wavelet Transform and Edge Weighted Local Binary Patterns | |
CN102722858A (zh) | 基于对称邻域信息的盲隐写分析方法 | |
CN110147800A (zh) | 基于sift的图像复制粘贴篡改盲检方法 | |
CN106709915B (zh) | 一种图像重采样操作检测方法 | |
Soni et al. | multiCMFD: fast and efficient system for multiple copy-move forgeries detection in image | |
Liu | Content-based image retrieval based on visual attention and the conditional probability | |
Isaac et al. | Image forgery detection using region–based Rotation Invariant Co-occurrences among adjacent LBPs | |
Isaac et al. | A key point based copy-move forgery detection using HOG features |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20130731 Termination date: 20170923 |