CN116091907B - 一种基于非互斥三元对比学习的图像篡改定位模型及方法 - Google Patents

一种基于非互斥三元对比学习的图像篡改定位模型及方法 Download PDF

Info

Publication number
CN116091907B
CN116091907B CN202310384305.6A CN202310384305A CN116091907B CN 116091907 B CN116091907 B CN 116091907B CN 202310384305 A CN202310384305 A CN 202310384305A CN 116091907 B CN116091907 B CN 116091907B
Authority
CN
China
Prior art keywords
exclusive
image
ternary
loss function
encoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310384305.6A
Other languages
English (en)
Other versions
CN116091907A (zh
Inventor
周吉喆
牛超群
冯文韬
杜博
杨欣宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202310384305.6A priority Critical patent/CN116091907B/zh
Publication of CN116091907A publication Critical patent/CN116091907A/zh
Application granted granted Critical
Publication of CN116091907B publication Critical patent/CN116091907B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于图像篡改识别技术领域,尤其涉及一种基于非互斥三元对比学习的图像篡改定位模型及方法;本发明采用编码器‑解码器结构,并提出了三种图像块之间的非互斥三元对比学习,对单个轮廓块作为枢纽,之后在编码器的浅层上构建了一个bob网络,bob网络有两个对称的分支,在正负之间来回摆动枢纽以构成对比对;使用三个成对对比损失的总和作为TCL Loss。此外,为了确保像素级空间关系被编码器的更深层捕获和保存,在解码器端,本方法设计了带有辅助分类器的枢纽一致性损失Pivot‑Consistent (PC) Loss。本发明所提出的图像篡改定位方法不需要额外的数据集即可训练得到鲁棒、准确的图像篡改定位模型。

Description

一种基于非互斥三元对比学习的图像篡改定位模型及方法
技术领域
本发明属于图像篡改识别技术领域,尤其涉及一种基于非互斥三元对比学习的图像篡改定位模型及方法。
背景技术
人们曾无比相信“眼见为实、有图有真相”,但随着数字媒体技术的快速发展,我们能够轻易的处理、修改和生成图像,修改图像所带来的图像伪造和篡改引发的信息安全隐患、版权纠纷已经成为广泛关注的社会问题;为积极解决图像篡改识别难题,研究人员提出了一系列端到端的图像篡改识别方法;然而,数据不足仍旧是最突出的问题,这是由于训练图像篡改识别所使用的数据集的注释密集且对专业知识要求过高,可利用的公共数据集数据量极小(仅有几百到几千张图像),不足以训练可使用的深度卷积神经网络。
目前现有技术中大概分为两种类型的方式来实现图像篡改定位,其一为,通过对刚过程训练判别分割模型的新框架,同事训练了四个模型:一个生成修饰模型GR,将处理后的图像转换为真实图像域,一个生成注释模型GA,用于鉴别图像块真伪的像素级概率,以及两个鉴别器DR和DA;但采用上述技术方案,对于图像篡改操作类型敏感,仅适用于拼接操作。
另外一种为通过一个具有双阶注意力模型的生成对抗网络来检测和定位复制移动伪造;在生成器中,一阶注意力旨在捕获复制移动位置信息,而二阶注意力则从块级贡献利用更多的判别特征;采用上述方式对于图像篡改操作类型敏感,仅适用于复制移动的图像。
因此,如何寻找一个可靠、准确、鲁棒性强的少样本图像篡改定位方法,从而对图像的篡改部分进行判断定位,对于信息安全行业中的防御性信息读取证来说是不可或缺的;因此本发明提出了一种基于非互斥三元对比学习的图像篡改定位模型及方法,来解决上述技术问题。
发明内容
为了解决上述现有技术中存在的技术问题,本发明提供了一种基于非互斥三元对比学习的图像篡改定位模型及方法,至少解决目前需要大量数据集进行训练模型的问题。
为解决上述技术问题,本发明采用的技术方案如下:
一种基于非互斥三元对比学习的图像篡改定位模型,包括图像篡改定位网络、bob网络以及损失函数;
所述图像篡改定位网络为采用DeepLabV3+网络作为基础的编码器-解码器结构,所述编码器的浅层包括所述bob网络;所述编码器的骨干网络包括末层设置的空洞卷积层和空洞空间金字塔池化块;
所述解码器两个上采样模块,将编码器输出的特征扩张到四倍,直到达到与输入编码器中的图像相同的大小;
所述bob网络包括两个相互对称的分支,每个分支均包括卷积层、批归一化BN层以及ReLU激活层;
所述损失函数包括枢纽一致性损失函数、非互斥三元损失函数以及总损失函数;
在所述解码器端采用所述枢纽一致性损失函数加强轮廓块像素之间的空间链接;
在所述bob网络中加入所述非互斥三元损失函数,用于非互斥三元对比学习监督与非互斥三元损失计算;
所述总损失函数基于枢纽一致性损失函数和非互斥三元损失函数得到,用于优化整个模型。
优选的,所述空洞空间金字塔池化块的扩张率分别为1,12,24,36,输出步幅为8。
优选的,所述bob网络的每个分支均包含一个1*1的卷积层、一个批归一化BN层和一个ReLU激活层。
优选的,所述枢纽一致性损失函数的表达式如下:
;
式中:表示轮廓块像素分配的权重;/>表示真实图像中的像素;/>表示轮廓块中的像素;/>表示像素的真实标签;/>表示像素的预测标签。
优选的,所述非互斥三元损失函数的表达式如下:
式中:表示图像中的篡改块;/>为正样本中不同于/>的块;/>为负样本,/>为求和参数,/>表示神经网络对某一图像块所学习的特征,/>,/>,/>表示枢纽特征正部分,表示枢纽特征负部分,/>为超参数。
优选的,所述总损失函数的表达式如下:
式中:为编码器浅层中非互斥对比学习的权重;/>表示非互斥三元损失函数;/>表示枢纽一致性损失函数。
一种非互斥三元对比学习的图像篡改定位方法,采用本发明所述的图像篡改定位模型,包括以下步骤:
将待查图像输入编码器-解码器网络中,经过编码器编码后得到尺寸为64*64的特征图,并将所述特征图送入到解码器;
解码器使用两个上采样模块将编码器输出的特征图扩张四倍,直到达到与待查图像相同的大小;
基于解码器端加入的枢纽一致性损失函数进行像素级别的图像篡改定位监督。
优选的,在所述编码器中,通过bob网络在图像块级别进行非互斥三元对比学习监督;
将一张图像的所有轮廓块特征拼接到一个大小为的枢纽特征中;其中/>为轮廓块数量,/>分别为一个轮廓块的通道数、宽度和高度;
将拼接好的枢纽特征依次通过1*1的卷积层、批归一化BN层和ReLU激活层后,分别得到大小为/>的枢纽特征正部分/>和枢纽特征负部分/>,用于非互斥三元对比学习监督与非互斥三元损失计算。
优选的,所述bob网络将正样本、负样本和枢纽之间的非互斥三元对比关系分解为三个二元的、互斥的对比关系。
优选的,采用所述图像篡改定位模型进行图像篡改定位之前,还包括对所述图像篡改定位模型进行训练,所述训练方法如下:
在每个数据集上将批处理大小设置为4,裁剪图像大小为512*512,采用随机梯度下降优化器,学习率采用poly策略,初始学习率为0.007,动量0.9,权重衰减为5e-4
本发明的有益效果包括:
1. 实验表明所提出方法即便使用低质量的训练数据进行训练,依旧可以训练出具有高鲁棒性、低过拟合的模型,在真实数据集中达到较好效果;
2.本发明所提出的非互斥三元对比学习框架将对学习方式扩展到三元集的非互斥关系,其思想可用于其他任务,如语义分割或细粒度对象检测任务。
3.本发明在通用图像篡改数据集如NIST16,CASIA,Coverage,Columbia中的与AUC等指标表现优异,定位结果准确。
附图说明
图1为非互斥三元对比学习示意图。
图2为本发明的图像篡改定位网络示意图。
图3为本发明的bob网络结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
下面结合附图1-附图3对本发明作进一步的详细说明:
参见图1所示在图像篡改定位任务中,整个图像按照篡改程度可以被划分为三种图像块,分别是:真实块、篡改块和轮廓块;其中,真实块中所有像素均为未篡改的真实像素,而篡改块中的每个像素均为进过篡改的,轮廓块则是篡改块与真实块的分界轮廓,即轮廓块中部分像素经过篡改,而部分像素未经篡改。
需要说明的是,本发明中所述的bob网络为本发明所提出的相应网络结构所对应的自定义名词,由于本发明中所述的枢纽像单摆上的球一样在正负之间来回摆动枢轴,构成对比对,因此本发明将相应的网络结构称为bob网络。
参见图2和图3所示,一种基于非互斥三元对比学习的图像篡改定位模型,包括图像篡改定位网络、bob网络以及损失函数;
所述图像篡改定位网络为采用DeepLabV3+网络作为基础的编码器-解码器结构,所述编码器的浅层包括所述bob网络;所述编码器的骨干网络包括末层设置的空洞卷积层和空洞空间金字塔池化块;所述空洞空间金字塔池化块的扩张率分别为1, 12, 24,36,输出步幅为8;
所述解码器两个上采样模块,将编码器输出的特征扩张到四倍,直到达到与输入编码器中的图像相同的大小;
所述bob网络的结构示意图参见图3所示,其中图3中包括真实块特征图、篡改块特征图以及轮廓块特征图;通过bob网络在图像块级别进行非互斥三元对比学习监督,其输入为真实篡改标注,bob网络包括两个相互对称的分支,每个分支均包括卷积层、批归一化BN层以及ReLU激活层;
所述损失函数包括枢纽一致性损失函数、非互斥三元损失函数以及总损失函数;
在所述解码器端采用所述枢纽一致性损失函数加强轮廓块像素之间的空间链接;
所述bob网络的每个分支均包含一个1*1的卷积层、一个批归一化BN层和一个ReLU激活层。
在所述bob网络中加入所述非互斥三元损失函数,用于非互斥三元对比学习监督与非互斥三元损失计算;
所述总损失函数基于枢纽一致性损失函数和非互斥三元损失函数得到,用于优化整个模型。
所述枢纽一致性损失函数的表达式如下:
;
式中:表示轮廓块像素分配的权重;/>表示真实图像中的像素;/>表示轮廓块中的像素;/>表示像素的真实标签;/>表示像素的预测标签。
所述非互斥三元损失函数的表达式如下:
式中:表示图像中的篡改块;/>为正样本中不同于/>的块;/>为负样本,/>为求和参数,/>表示神经网络对某一图像块所学习的特征,/>,/>,/>表示枢纽特征正部分,/>表示枢纽特征负部分,/>为超参数。
所述总损失函数的表达式如下:
式中:为编码器浅层中非互斥对比学习的权重;/>表示非互斥三元损失函数;/>表示枢纽一致性损失函数。
一种非互斥三元对比学习的图像篡改定位方法,采用本发明所述的图像篡改定位模型,包括以下步骤:
将待查图像输入编码器-解码器网络中,在所述编码器中,通过bob网络在图像块级别进行非互斥三元对比学习监督;所述bob网络将正样本、负样本和枢纽之间的非互斥三元对比关系分解为三个二元的、互斥的对比关系;
将一张图像的所有轮廓块特征拼接到一个大小为的枢纽特征中;其中/>为轮廓块数量,/>分别为一个轮廓块的通道数、宽度和高度;
将拼接好的枢纽特征依次通过1*1的卷积层、批归一化BN层和ReLU激活层后,分别得到大小为/>的枢纽特征正部分/>和枢纽特征负部分/>,用于非互斥三元对比学习监督与非互斥三元损失计算;
经过编码器编码后得到尺寸为64*64的特征图,并将所述特征图送入到解码器;
解码器使用两个上采样模块将编码器输出的特征图扩张四倍,直到达到与待查图像相同的大小;
基于解码器端加入的枢纽一致性损失函数进行像素级别的图像篡改定位监督。
本方法在解码器端使用枢纽一致性损失(Pivot-Consistent Loss, PC Loss)来加强轮廓块像素之间的空间链接,确保轮廓块的空间相关性在通过bob网络后仍然存在。PCLoss在基础的像素级BCE损失的基础上,引入额外为轮廓块像素分配的权重,以/>表示真实图像中的像素,/>表示轮廓块中的像素,/>为像素的真实标签,/>为像素的预测标签,则枢纽一致性损失/>为:
本方法利用bob网络将正样本、负样本和枢纽之间的非互斥三元对比关系分解为三个二元的、互斥的对比关系,即 [正样本,负样本],[正样本,枢纽],[负样本,枢纽]。其中,正样本与自身相似,与负样本不同。枢纽的正(负)部分类似于正(负)样本,但不同于负(正)样本。非互斥三元损失可表示为:
式中:表示图像中的篡改块;/>为正样本中不同于/>的块;/>为负样本,/>为求和参数,/>表示神经网络对某一图像块所学习的特征,/>,/>,/>表示枢纽特征正部分,/>表示枢纽特征负部分,/>为超参数。
总损失函数
式中:为编码器浅层中非互斥对比学习的权重;/>表示非互斥三元损失函数;/>表示枢纽一致性损失函数。
采用所述图像篡改定位模型进行图像篡改定位之前,还包括对所述图像篡改定位模型进行训练,所述训练方法如下:
在每个数据集上将批处理大小设置为4,裁剪图像大小为512 × 512,采用随机梯度下降(SGD)优化器,学习率采用 “poly”策略,初始学习率0.007,动量0.9,权重衰减5e-4。方法所提出的模型是端到端的训练,不需要对每个组件进行分阶段的预训练,总损失作为一个整体反向传播。中/>的权重/>为0.01,/>中权重/>为0.9。
本发明将三个图像块(真实块、篡改块和轮廓块)之间的非互斥关系称为非互斥三元对比,故而提出非互斥三元对比学习(Ternary Contrastive Learning, TCL)框架来应对IML中数据量不足的问题;由于本发明中所使用的IML网络为深度学习中广泛采用的编码器-解码器结构,不能直接以轮廓块带来的非互斥关系建立对比;因此,对于单个图像,本发明将其所有轮廓块作为枢纽,之后在编码器的浅层上构建一个bob网络,bob网络有两个对称的分支,在正负之间来回摆动枢纽以构成对比对,如图1所示,正样本、负样本以及枢纽之间的非互斥三元对比关系被分解为三个两元的、互斥的对比关系,即[正样本,负样本],[正样本,枢纽],[负样本,枢纽]。其中,正样本与自身相似,与负样本不同;枢纽的正(负)部分类似于正(负)样本,但不同于负(正)样本;使用三个成对对比的损失的总和作为TCL Loss;此外为了确保像素级空间关系被编码器的更深层捕获和保存,在解码器端,本发明设计了带有辅助分类器的枢纽一致性损失函数Pivot-Consistent (PC) Loss。
以上所述实施例仅表达了本申请的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请技术方案构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。

Claims (10)

1.一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,包括图像篡改定位网络、bob网络以及损失函数;
所述图像篡改定位网络为采用DeepLabV3+网络作为基础的编码器-解码器结构,所述编码器的浅层包括所述bob网络;所述编码器的骨干网络包括末层设置的空洞卷积层和空洞空间金字塔池化块;
所述解码器两个上采样模块,将编码器输出的特征扩张到四倍,直到达到与输入编码器中的图像相同的大小;
所述bob网络包括两个相互对称的分支,每个分支均包括卷积层、批归一化BN层以及ReLU激活层;
所述损失函数包括枢纽一致性损失函数、非互斥三元损失函数以及总损失函数;
在所述解码器端采用所述枢纽一致性损失函数加强轮廓块像素之间的空间链接;
在所述bob网络中加入所述非互斥三元损失函数,用于非互斥三元对比学习监督与非互斥三元损失计算;
所述总损失函数基于枢纽一致性损失函数和非互斥三元损失函数得到,用于优化整个模型。
2.根据权利要求1所述的一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,所述空洞空间金字塔池化块的扩张率分别为1, 12, 24,36,输出步幅为8 。
3.根据权利要求1所述的一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,所述bob网络的每个分支均包含一个1*1的卷积层、一个批归一化BN层和一个ReLU激活层。
4.根据权利要求1所述的一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,所述枢纽一致性损失函数的表达式如下:
;
式中:表示轮廓块像素分配的权重;/>表示真实图像中的像素;/>表示轮廓块中的像素;/>表示像素的真实标签;/>表示像素的预测标签。
5.根据权利要求1所述的一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,所述非互斥三元损失函数的表达式如下:
式中:表示图像中的篡改块;/>为正样本中不同于/>的块;/>为负样本,/>为求和参数,/>表示神经网络对某一图像块所学习的特征,/>,/>,/>表示枢纽特征正部分,表示枢纽特征负部分,/>为超参数。
6.根据权利要求1所述的一种基于非互斥三元对比学习的图像篡改定位模型,其特征在于,所述总损失函数的表达式如下:
式中:为编码器浅层中非互斥对比学习的权重;/>表示非互斥三元损失函数;/>表示枢纽一致性损失函数。
7.一种非互斥三元对比学习的图像篡改定位方法,其特征在于,采用权利要求1到6任意一项所述的图像篡改定位模型,包括以下步骤:
将待查图像输入编码器-解码器网络中,经过编码器编码后得到尺寸为64*64的特征图,并将所述特征图送入到解码器;
解码器使用两个上采样模块将编码器输出的特征图扩张四倍,直到达到与待查图像相同的大小;
基于解码器端加入的枢纽一致性损失函数进行像素级别的图像篡改定位监督。
8.根据权利要求7所述的一种非互斥三元对比学习的图像篡改定位方法,其特征在于,在所述编码器中,通过bob网络在图像块级别进行非互斥三元对比学习监督;
将一张图像的所有轮廓块特征拼接到一个大小为的枢纽特征/>中;其中/>为轮廓块数量,/>分别为一个轮廓块的通道数、宽度和高度;
将拼接好的枢纽特征依次通过1*1的卷积层、批归一化BN层和ReLU激活层后,分别得到大小为/>的枢纽特征正部分/>和枢纽特征负部分/>,用于非互斥三元对比学习监督与非互斥三元损失计算。
9.根据权利要求8所述的一种非互斥三元对比学习的图像篡改定位方法,其特征在于,所述bob网络将正样本、负样本和枢纽之间的非互斥三元对比关系分解为三个二元的、互斥的对比关系。
10.根据权利要求7所述的一种非互斥三元对比学习的图像篡改定位方法,其特征在于,采用所述图像篡改定位模型进行图像篡改定位之前,还包括对所述图像篡改定位模型进行训练,所述训练方法如下:
在每个数据集上将批处理大小设置为4,裁剪图像大小为512*512,采用随机梯度下降优化器,学习率采用poly策略,初始学习率为0.007,动量0.9,权重衰减为5e-4
CN202310384305.6A 2023-04-12 2023-04-12 一种基于非互斥三元对比学习的图像篡改定位模型及方法 Active CN116091907B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310384305.6A CN116091907B (zh) 2023-04-12 2023-04-12 一种基于非互斥三元对比学习的图像篡改定位模型及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310384305.6A CN116091907B (zh) 2023-04-12 2023-04-12 一种基于非互斥三元对比学习的图像篡改定位模型及方法

Publications (2)

Publication Number Publication Date
CN116091907A CN116091907A (zh) 2023-05-09
CN116091907B true CN116091907B (zh) 2023-08-15

Family

ID=86212452

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310384305.6A Active CN116091907B (zh) 2023-04-12 2023-04-12 一种基于非互斥三元对比学习的图像篡改定位模型及方法

Country Status (1)

Country Link
CN (1) CN116091907B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102226920A (zh) * 2011-06-03 2011-10-26 贵州大学 抗裁剪的jpeg图像压缩历史及合成篡改检测方法
WO2019221985A1 (en) * 2018-05-14 2019-11-21 Quantum-Si Incorporated Systems and methods for unifying statistical models for different data modalities
CN111080629A (zh) * 2019-12-20 2020-04-28 河北工业大学 一种图像拼接篡改的检测方法
CN113780243A (zh) * 2021-09-29 2021-12-10 平安科技(深圳)有限公司 行人图像识别模型的训练方法、装置、设备以及存储介质
CN114202529A (zh) * 2021-12-14 2022-03-18 四川大学 一种全局特征引导的多任务篡改图像检测方法
DE202022104365U1 (de) * 2022-08-01 2022-08-22 Madhumita Banerjee Ein robustes Farbbild-Hashing-System für die Bildauthentifizierung
CN115578631A (zh) * 2022-11-15 2023-01-06 山东省人工智能研究院 基于多尺度交互和跨特征对比学习的图像篡改检测方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083347B2 (en) * 2016-07-29 2018-09-25 NTech lab LLC Face identification using artificial neural network
US20180060719A1 (en) * 2016-08-29 2018-03-01 International Business Machines Corporation Scale-space label fusion using two-stage deep neural net
US11256986B2 (en) * 2019-09-24 2022-02-22 Toyota Research Institute, Inc. Systems and methods for training a neural keypoint detection network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102226920A (zh) * 2011-06-03 2011-10-26 贵州大学 抗裁剪的jpeg图像压缩历史及合成篡改检测方法
WO2019221985A1 (en) * 2018-05-14 2019-11-21 Quantum-Si Incorporated Systems and methods for unifying statistical models for different data modalities
CN111080629A (zh) * 2019-12-20 2020-04-28 河北工业大学 一种图像拼接篡改的检测方法
CN113780243A (zh) * 2021-09-29 2021-12-10 平安科技(深圳)有限公司 行人图像识别模型的训练方法、装置、设备以及存储介质
CN114202529A (zh) * 2021-12-14 2022-03-18 四川大学 一种全局特征引导的多任务篡改图像检测方法
DE202022104365U1 (de) * 2022-08-01 2022-08-22 Madhumita Banerjee Ein robustes Farbbild-Hashing-System für die Bildauthentifizierung
CN115578631A (zh) * 2022-11-15 2023-01-06 山东省人工智能研究院 基于多尺度交互和跨特征对比学习的图像篡改检测方法

Also Published As

Publication number Publication date
CN116091907A (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
Guo et al. Fake face detection via adaptive manipulation traces extraction network
CN111222434A (zh) 基于局部二值模式和深度学习的合成人脸图像取证方法
Kadam et al. Detection and localization of multiple image splicing using MobileNet V1
CN112069891B (zh) 一种基于光照特征的深度伪造人脸鉴别方法
CN111444873A (zh) 视频中人物真伪的检测方法、装置、电子设备及存储介质
CN114662497A (zh) 一种基于协同神经网络的虚假新闻检测方法
CN113361474B (zh) 基于图像块特征提取的双流网络图像伪造检测方法及系统
CN112907598A (zh) 一种基于注意力cnn文档证件类图像篡改检测方法
CN117197763A (zh) 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统
Liu et al. Overview of image inpainting and forensic technology
CN115393698A (zh) 一种基于改进dpn网络的数字图像篡改检测方法
Zhu et al. Effective image tampering localization with multi-scale convnext feature fusion
CN113537173B (zh) 一种基于面部补丁映射的人脸图像真伪识别方法
CN116091907B (zh) 一种基于非互斥三元对比学习的图像篡改定位模型及方法
CN115116108A (zh) 基于双流对比学习模型的人脸篡改视频检测方法及系统
CN116028899A (zh) 一种多重的高精度深度学习模型黑盒水印方法
CN114743148A (zh) 多尺度特征融合篡改视频检测方法、系统、介质和设备
CN114332536A (zh) 基于后验概率的伪造图像检测方法、系统及存储介质
Li et al. Prediction model of urban street public space art design indicators based on deep convolutional neural network
Aminu et al. Detection of image manipulation with convolutional neural network and local feature descriptors
CN114708593B (zh) 基于异构多模型的废旧电子产品品牌识别方法
CN117456286B (zh) 一种人参分级方法、装置及设备
CN117496583B (zh) 一种可学习局部差异的深度伪造人脸检测定位方法
KR102669679B1 (ko) 원본 이미지로부터 스케치 이미지를 생성하는 방법
CN114897901B (zh) 基于样本扩充的电池质量检测方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant