CN115100128A - 一种基于伪影噪声的深度伪造检测方法 - Google Patents
一种基于伪影噪声的深度伪造检测方法 Download PDFInfo
- Publication number
- CN115100128A CN115100128A CN202210671261.0A CN202210671261A CN115100128A CN 115100128 A CN115100128 A CN 115100128A CN 202210671261 A CN202210671261 A CN 202210671261A CN 115100128 A CN115100128 A CN 115100128A
- Authority
- CN
- China
- Prior art keywords
- image
- noise
- face
- classification
- dip
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明为一种基于伪影噪声的深度伪造检测方法。包括如下步骤:(1)人脸提取:将视频划分为帧,对每一帧图像提取人脸部分,保存为only‑face的人脸原始图像P;(2)DIP生成:将人脸原始图像P输入DIP生成模型,进行迭代拟合,获取带有特定噪声的图像P*;(3)噪声提取:将人脸原始图像P与带有特定噪声图像P*作差得到伪影噪声d;(4)分类检测:将伪影噪声d输入分类卷积神经网络进行训练,得到分类模型M;(5)模型测试推理:将测试视频按照步骤(1)‑(3)提取伪影噪声d,将伪影噪声输入到分类模型M中,得到深度伪造检测的分类结果。本方法不需要去寻找特定模型的特定差异,根据提取出差异特征判断,具有较强的泛化性。
Description
技术领域
本发明属于人工智能领域,具体涉及一种基于伪影噪声的深度伪造检测方法。
背景技术
近年来,随着人工智能的逐步发展,深度伪造(Deepfakes)技术得到迅速发展并广泛传播应用,成为了人工智能时代下不可避免的风险。深度伪造利用人工智能与生成式深度学习算法,能够逼真地模拟和伪造新闻文字、图像和音视频等多媒体内容。深度伪造因其具备高度的以假乱真性、广泛的适用性以及较低的使用门槛,能够轻易地被恶意用户利用,被用于制造和传播欺诈性极高的虚假信息等活动,其中以AI换脸(face-swap)最具代表性和危害性。AI换脸通过对人物肖像进行替换实现混淆视听,极大地侵害他人权益,甚至能够操纵社会舆论,为社会稳定和网络安全带来严峻挑战。因此,对于以AI换脸为首的相关深度伪造的检测技术受到了广泛研究。
在AI换脸深度伪造的拟真度已超越正常人类认知辨别能力且仍在不断高速发展的现状下,以及对AI换脸深度伪造的广泛恶意滥用的现实背景下,伪造检测技术有着广阔的发展前景和必要的现实需求。深度伪造检测领域的相关研究随2017年开源的AI换脸项目在互联网上的广泛传播而井喷式增长,针对伪造视频的检测一方面可以促进对生成对抗网络伪造痕迹以及合成视频伪造痕迹的进一步研究,另一方面也符合当下的大众对于鉴伪现实需求,利用该技术可以对互联网中的视频进行有针对性的检测,从而鉴别其中的虚假信息。
深度伪造检测技术主要通过特征提取、模型建立、检测分类等步骤,决定检测性能的关键就在于如何选择可以有效区分真假人脸的相关特征。目前主流的深度伪造检测技术主要是通过寻找伪造制品与真实图像或视频之间肉眼难以观察的像素分布,凭借机器学习来辨别像素级差异来实现检测,一般称这些差异为伪影(artifacts)或者噪声(noise),这些工作都是通过伪造图像与真实图像之间固有的纹理、色彩、亮度等差异有效定位噪声来检测模型的生成;这一方向上更进一步的工作发现实现深度伪造的生成模型会在其生成的内容上留下特定的噪声,这种噪声类似于指纹,不同种类的生成模型和训练生成模型时存在的微小不同都能导致图像中出现不同的指纹特征,因此可以通过对图像或视频生成模型的指纹识别判断是否为深度伪造生成的,鉴于这个特性,不少的工作会通过寻找图像中特定的噪声,以此来判断图像是否由相应的特定模型生成。但是该类方法的泛化性较差,由于无法确定伪造制品的具体生成方式,往往局限于检测特定模型生成的深度伪造;同时现有方法虽然试图寻找这些伪影、噪声和指纹,但是没有办法解释这些区分原始内容与伪造制品的关键特征。导致现有的检测方法存在通用性差,可解释性差,不能有效对各种不同类型的深度伪造图像进行检测等问题。
发明内容
本发明的目的在于提供一种基于生成式网络提取噪声替代特征并进行深度伪造识别的检测方法,本发明用一种通用方法去提取噪声,最终得出结论这些噪声本质上就是一种差异,同时通过深度学习技术去识别提取得到的差异,对差异直接进行分析特征与鉴别,实现对于深度伪造更精准的预测,并且泛化性更强;解决了针对AI换脸等视觉深度伪造检测方法对作为检测关键的伪影噪声的使用不够充分而导致的泛化性差、检测精度低的问题。
实现本发明目的的技术解决方案为:一种基于伪影噪声的深度伪造检测方法,包括如下步骤:
步骤(1):人脸提取:将读入的视频划分为帧,对每一帧图像F提取人脸部分,保存为only-face的人脸原始图像P;
步骤(2):DIP生成:将步骤(1)提取出的人脸原始图像P输入DIP生成模型,进行迭代拟合,获取新生成的带有特定噪声的图像P*;
步骤(3):噪声提取:将人脸原始图像P与步骤(2)DIP生成的特定噪声图像P*作差得到伪影噪声d;
步骤(4):分类检测:将步骤(3)提取得到的伪影噪声d输入分类卷积神经网络进行训练,得到训练好的分类模型M;
步骤(5):模型测试推理:将测试视频按照步骤(1)-(3)相同的方法提取伪影噪声d,将得到的伪影噪声输入到步骤(4)训练好的分类模型M中,得到深度伪造检测的分类结果。
进一步的,步骤(2)具体为:
将提取出的only-face的人脸原始图像P缩放为固定尺寸(x,y),缩放后的每张图像P∈Rx×y×3不经过人工加噪声直接输入DIP生成模型;
DIP网络中主干部分使用hourglass结构,生成模型将图像经过多层的下采样和skip结构提取图像本身的先验特征进行编码,并通过上采样与卷积的解码器重建生成图像,具体的公式如下:
θ*=minE(fθ(z);P)
其中θ*是基于机初始化的网络参数,通过训练得来的参数最优解,P是输入的原始图像P,z是最初输入网络的一组固定的随机编码,与图像P相同大小,通道不一致,采用GAN模型的思想,P*是最后的输出,即带有特定噪声的图像P*;
在每次迭代过程中,评估P与P*的相似度并更新参数,生成带有特定噪音的图像P*代替无法获取的真实图像P0;
按照学习率lr=0.01,使用生成的带有特定噪声的图像P*和only-face的人脸原始图像P的mse作为损失函数,在adam优化器下进行迭代拟合,获取新生成的带有特定噪声的图像,并对数据进行打包为npz文件包;
进一步的,步骤(3)具体为:
读取步骤(2)打包的npz文件包,读取时根据打包时的具体deepfake类别为每一个包分配标签,组织成类别-{原始图像,DIP生成图像,图像编号}的字典;
根据上述字典,将人脸原始图像P与DIP生成带有特定噪声的图像P*作差得到噪声d(P,P*)作为特征x,用类别为每个图像的特征打上标签y,制作训练集、验证集和测试集,使用dataset类创建数据集,并用dataloader进行封装。
进一步的,步骤(4)具体为:
将包含了提取的伪影噪声的训练集和验证集输入分类卷积神经网络进行训练,使用交叉熵损失函数,Leaky ReLU作为激活函数,经过4层卷积获得一个8维的特征向量,放入分类器中得到结果,以lr=10-3训练1000个epoch,得到训练好的分类模型。
进一步的,步骤(5)具体为:
将测试集样本特征按照步骤(4)训练集相同的处理,输入到训练好的分类模型中,得到深度伪造检测的分类结果,鉴别是否为伪造制品。
本发明与现有技术相比,其显著优点在于:
(1)本发明具体分析了伪造制品与真实内容,提出了伪造制品与真实内容的之间的差异即是一种伪影噪声的结论,为深度伪造检测任务主要应该研究分析的对象(即伪影噪声)提供了定性解释;同时,本方法也得出了这种作为差异的伪影噪声是进行分类鉴别的关键特征的结论;本方法提出的解释以及结论可推动在深度检测任务上进一步注重针对伪影噪声的研究。
(2)本发明以伪影噪声是进行深度伪造检测的关键特征为出发点,提出了通过DIP模型生成的图像作为基准图像,代替待测图像计算差异,提取伪影噪声的替代品实现精准深度伪造检测的方法,并证明了该方法的合理性;由于本发明输入分类模型的伪影噪声特征d是能够区分真伪的关键标识性特征,因此能够进一步提高分类模型的学习能力,提升深度伪造检测的精准性;同时本方法的检测模型不需要去寻找特定模型的特定差异,而是根据提取出差异特征判断,具有较强的泛化性。
附图说明
图1是本发明的DIP流程图。
图2是本发明的DIP下采样、skip连接和上采样结构图。
图3是本发明的人脸原图、掩膜、生成图像和差异展示图。
图4是本发明的分类检测模型。
图5是本发明的总体流程图。
具体实施方式
下面结合附图对本发明作进一步详细描述。
本发明的主要思路:
假定自然界中原始图像为P,那么当它转换到计算机中时就已经经过多次处理——包含RAW图像的离散化、色彩插值和JPEG压缩等,这一系列的处理统称为Δ。一张原始图像在经过处理后,呈现到用户面前时的图像已经为处理图像P′,处理图像可以视为原始图像添加处理,有P′=P+Δ。人一般无法发现原始图像与处理图像的差异,因而可以自然推导得到二者相似度很高,有P′≈P。而它们的差异d(P′,P)则被定义为噪声或者指纹。一种最简单的噪声定义方法为处理图像与原始图像之差,即:d(P′,P)=P′-P。
在深度伪造领域,任何用于生成伪造制品的生成模型G(此处为广义定义,包含生成结果的一系列操作),都是想要生成与原始图像P更接近的结果PG。但是,由于模型自身的限制(如卷积核的感受野大小受限、无法建立整体的像素间关联或者是卷积参数限制),必然会放弃一些不必要的信息,生成模型得到的PG只能无限接近P,有PG≈P,但又无法与P完全相同,于是,PG=G(ω)中也必然存在噪声,可以表示为d(PG,P)。
本发明想要基于1~3中阐述的噪声差异进行深度伪造检测,但是要提取待测图像PT与其原始图像P的差异d(PT,P)是不现实的,因为无法获得未经任何处理的原始图像P,因此本发明选择使用差异的替代表示来代替无法获取的差异进行深度伪造检测。
本发明将待测图像PT输入DIP(Deep Image Prior)生成模型,得到基准图像PD。DIP本质上也是一种类似于深度伪造模型的生成模型,相应的,PT与PD之间也有其特定的差异d(PT,PD)。
在相减的噪声定义下,待测图像PT与基准图像PD的差异可以表示为:待测图像与原始图像的差异d(PG,P)以及基准图像与原始图像的差异之差d(PD,P),即d(PT,PD)=d(PT,P)-d(PD,P)。而由于所有的PD都由我们已知的DIP模型生成,所以本发明认为待测图像与基准图像的差异和待测图像与原始图像的差异呈正相关关系,即有d(PT,PD)~d(PT,P)。因而,得出结论:可以用d(PT,PD)代替d(PT,P),即通过DIP可以提取噪声的替代表示。
提取差异后,本方法使用d(PT,PD)作为分类所需的鉴别性特征,建立分类模型区分深度伪造与真实图像。
实施例
本发明的具体实施主要包含1)伪影噪声的抽取;2)根据伪影噪声区分真伪,具体步骤如下:
步骤(1):对于一个待测的视频V,对读入的视频V划分为帧(为了提高检测效率,可以选取其中一定数量的帧图像),并使用Python人脸识别库dlib提取帧图像F中的人脸轮廓,再根据人脸轮廓对原始帧图像F进行裁剪,保留人脸部分的内容,并且将裁剪后图像仍存在的非人脸部分全部掩盖,以此消除其他非相关区域形成的干扰,最终保存为only-face的图像P;
步骤(2):将提取出的仅人脸图像原始图像P缩放为固定尺寸(x,y),如(256,256),缩放后的每张图像P∈Rx×y×3不经过人工加噪声直接输入DIP生成模型。DIP网络中主干部分使用如附图1和附图2中所示的hourglass结构,该生成模型是一个如同GAN的自编解码器,将图像经过多层的下采样和skip结构提取图像本身的先验特征进行编码,并通过上采样与卷积的解码器重建生成图像,具体的公式如下:
θ*=minE(fθ(z);P)
其中θ*是基于随机初始化的网络参数,通过训练得来的参数最优解,P是我们输入的原始图像P,z是最初输入网络的一组固定的随机编码(与图像x0相同大小,通道不一致,采用GAN模型的思想),P*是最后的输出,即我们所需要的生成图像P*。
在每次迭代过程中,评估P与P*的相似度并更新参数,进一步生成与P相似的P*。经过大量的迭代后DIP可以生成与待测图像P一致的图像,但本发明的目的是生成带有特定噪音的图像P*代替无法获取的真实图像P0,通过d(P,P*)~d(P,P0)的关系来获取噪声,因此只需要迭代一定次数即可。
按照学习率lr=0.01,使用生成图像P*和待测图像P的mse作为损失函数,在adam优化器下进行500次迭代拟合,获取新生成的带有特定噪声的图像,生成图像P*连同原图像P、人脸掩膜Mask等根据具体的deepfake类型进行打包为npz文件保存用于深度伪造检测。对于每张图片都要执行上述操作;
步骤(3):读取DIP生成打包的npz文件包,读取时根据打包时的具体deepfake类别为每一个包(图像)分配标签,标签包含:deepfakes、neuraltextures、face2face、faceswap和real,组织成类别-{原始图像,DIP生成图像,图像编号}的字典。根据上述字典,将待测图像P与DIP生成图像P*作差得到噪声d(P,P*)作为特征x,用类别为每个图像的特征打上标签y,制作训练集、验证集和测试集,使用dataset类创建数据集,并用dataloader以batch_size=200进行封装。以上步骤(1)~(3)完成了本实验的第一个主要内容,完成了本发明中伪影噪声提取的工作
步骤(4):将包含了提取的伪影噪声的训练集和验证集输入分类卷积神经网络进行训练,本发明核心思想就是想利用作为真伪图像核心差异的伪影噪声的直接分析实现高精度的深度伪造检测,使用交叉熵损失函数,Leaky ReLU作为激活函数,经过4层卷积获得一个8维的特征向量,放入分类器中得到结果,以lr=10-3训练1000个epoch。由于输入的噪声特征是能够区分真伪的关键标识性特征,因此能够进一步提高分类模型的学习能力。
步骤(5):将测试集样本特征按照训练集相同的处理,输入到训练好的分类模型中,即可得到深度伪造检测的分类结果,鉴别是否为伪造制品。
以上步骤(4)~(5)完成了本实验的第二个主要内容兼主要目标,通过对提取的伪影噪声直接进行特征工程和分类,完成了更高精度的判别。
Claims (5)
1.一种基于伪影噪声的深度伪造检测方法,其特征在于,包括如下步骤:
步骤(1):人脸提取:将读入的视频划分为帧,对每一帧图像F提取人脸部分,保存为only-face的人脸原始图像P;
步骤(2):DIP生成:将步骤(1)提取出的人脸原始图像P输入DIP生成模型,进行迭代拟合,获取新生成的带有特定噪声的图像P*;
步骤(3):噪声提取:将人脸原始图像P与步骤(2)DIP生成的特定噪声图像P*作差得到伪影噪声d;
步骤(4):分类检测:将步骤(3)提取得到的伪影噪声d输入分类卷积神经网络进行训练,得到训练好的分类模型M;
步骤(5):模型测试推理:将测试视频按照步骤(1)-(3)相同的方法提取伪影噪声d,将得到的伪影噪声输入到步骤(4)训练好的分类模型M中,得到深度伪造检测的分类结果。
2.根据权利要求1所述的方法,其特征在于,步骤(2)具体为:
将提取出的only-face的人脸原始图像P缩放为固定尺寸(x,y),缩放后的每张图像P∈Rx×y×3不经过人工加噪声直接输入DIP生成模型;
DIP网络中主干部分使用hourglass结构,生成模型将图像经过多层的下采样和skip结构提取图像本身的先验特征进行编码,并通过上采样与卷积的解码器重建生成图像,具体的公式如下:
θ*=minE(fθ(z);P)
其中θ*是基于随机初始化的网络参数,通过训练得来的参数最优解,P是输入的原始图像P,z是最初输入网络的一组固定的随机编码,与图像P相同大小,通道不一致,采用GAN模型的思想,P*是最后的输出,即带有特定噪声的图像P*;
在每次迭代过程中,评估P与P*的相似度并更新参数,生成带有特定噪音的图像P*代替无法获取的真实图像P0;
按照学习率lr=0.01,使用生成的带有特定噪声的图像P*和only-face的人脸原始图像P的mse作为损失函数,在adam优化器下进行迭代拟合,获取新生成的带有特定噪声的图像,并对数据进行打包为npz文件包。
3.根据权利要求2所述的方法,其特征在于,步骤(3)具体为:
读取步骤(2)打包的npz文件包,读取时根据打包时的具体deepfake类别为每一个包分配标签,组织成类别-{原始图像,DIP生成图像,图像编号}的字典;
根据上述字典,将人脸原始图像P与DIP生成带有特定噪声的图像P*作差得到噪声d(P,P*)作为特征x,用类别为每个图像的特征打上标签y,制作训练集、验证集和测试集,使用dataset类创建数据集,并用dataloader进行封装。
4.根据权利要求3所述的方法,其特征在于,步骤(4)具体为:
将包含了提取的伪影噪声的训练集和验证集输入分类卷积神经网络进行训练,使用交叉熵损失函数,Leaky ReLU作为激活函数,经过4层卷积获得一个8维的特征向量,放入分类器中得到结果,以lr=10-3训练1000个epoch,得到训练好的分类模型。
5.根据权利要求4所述的方法,其特征在于,步骤(5)具体为:
将测试集样本特征按照步骤(4)训练集相同的处理,输入到训练好的分类模型中,得到深度伪造检测的分类结果,鉴别是否为伪造制品。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210671261.0A CN115100128A (zh) | 2022-06-15 | 2022-06-15 | 一种基于伪影噪声的深度伪造检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210671261.0A CN115100128A (zh) | 2022-06-15 | 2022-06-15 | 一种基于伪影噪声的深度伪造检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115100128A true CN115100128A (zh) | 2022-09-23 |
Family
ID=83291677
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210671261.0A Pending CN115100128A (zh) | 2022-06-15 | 2022-06-15 | 一种基于伪影噪声的深度伪造检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100128A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309031A (zh) * | 2023-05-16 | 2023-06-23 | 中国科学技术大学 | 人脸伪造主动干扰方法、系统、设备及存储介质 |
-
2022
- 2022-06-15 CN CN202210671261.0A patent/CN115100128A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116309031A (zh) * | 2023-05-16 | 2023-06-23 | 中国科学技术大学 | 人脸伪造主动干扰方法、系统、设备及存储介质 |
CN116309031B (zh) * | 2023-05-16 | 2023-08-29 | 中国科学技术大学 | 人脸伪造主动干扰方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lee | Copy-move image forgery detection based on Gabor magnitude | |
Kong et al. | Detect and locate: Exposing face manipulation by semantic-and noise-level telltales | |
CN112150450B (zh) | 一种基于双通道U-Net模型的图像篡改检测方法及装置 | |
Yang et al. | Spatiotemporal trident networks: detection and localization of object removal tampering in video passive forensics | |
CN104298981A (zh) | 人脸微表情的识别方法 | |
CN113361474B (zh) | 基于图像块特征提取的双流网络图像伪造检测方法及系统 | |
CN116363440B (zh) | 基于深度学习的土壤中有色微塑料的识别检测方法及系统 | |
CN114694220A (zh) | 一种基于Swin Transformer的双流人脸伪造检测方法 | |
CN112836602B (zh) | 基于时空特征融合的行为识别方法、装置、设备及介质 | |
Yu et al. | Manipulation classification for jpeg images using multi-domain features | |
CN111275070B (zh) | 一种基于局部特征匹配的签名验证方法及设备 | |
Barni et al. | Iris deidentification with high visual realism for privacy protection on websites and social networks | |
CN116958637A (zh) | 图像检测模型的训练方法、装置、设备及存储介质 | |
Yu et al. | SegNet: a network for detecting deepfake facial videos | |
CN113850284B (zh) | 一种基于多尺度特征融合和多分支预测的多操作检测方法 | |
CN117496583B (zh) | 一种可学习局部差异的深度伪造人脸检测定位方法 | |
CN115100128A (zh) | 一种基于伪影噪声的深度伪造检测方法 | |
Qiao et al. | Csc-net: Cross-color spatial co-occurrence matrix network for detecting synthesized fake images | |
Han et al. | FCD-Net: Learning to detect multiple types of homologous deepfake face images | |
Prabakar et al. | Hybrid deep learning model for copy move image forgery detection | |
CN114743148A (zh) | 多尺度特征融合篡改视频检测方法、系统、介质和设备 | |
Bikku et al. | Deep Residual Learning for Unmasking DeepFake | |
Ernawati et al. | Image Splicing Forgery Approachs: A Review and Future Direction | |
Alzamil | Image Forgery Detection with Machine Learning | |
CN117558011B (zh) | 基于自一致性矩阵和多尺度损失的图像文本篡改检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |