CN111444881B - 伪造人脸视频检测方法和装置 - Google Patents
伪造人脸视频检测方法和装置 Download PDFInfo
- Publication number
- CN111444881B CN111444881B CN202010287064.XA CN202010287064A CN111444881B CN 111444881 B CN111444881 B CN 111444881B CN 202010287064 A CN202010287064 A CN 202010287064A CN 111444881 B CN111444881 B CN 111444881B
- Authority
- CN
- China
- Prior art keywords
- features
- neural network
- video
- sequence
- video frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本申请涉及一种伪造人脸视频检测方法和装置。所述方法包括:从视频数据中提取视频帧序列,将视频帧序列输入预先训练的残差神经网络,提取视频帧序列对应的残差特征,将视频帧序列输入预先训练的边缘纹理神经网络,提取视频帧序列中的边缘纹理特征,将残差特征和所述边缘纹理特征进行特征融合,得到融合特征,将融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。采用本方法能够提高伪造人脸检测的准确率。
Description
技术领域
本申请涉及深度学习技术领域,特别是涉及一种伪造人脸视频检测方法和装置。
背景技术
深度伪造人脸是利用生成对抗网络或者卷积神经网络等算法将目标对象的面部从源图像中转移到被模仿对象的视频上。随着人工智能算法的不断演进和用于深度伪造的真实数据越来越多,深度伪造产品只需要很少的训练就能实现大规模、自动化的面部交换,其逼真程度越来越高。在这些假视频中能够让人说现实中没有说过的话、做现实中没有做过的事,达到以假乱真的程度,冲击着人们“眼见为实”的传统认知。虽然深度伪造技术可以为商业发展、影视创作、医疗行业等领域提供了新的发展空间,但鉴于其以假乱真的技术本质,深度伪造人脸技术对于国家安全将带来巨大挑战,所以自动检测视频中的深度伪造人脸意义重大。然而,与传统的人工修图不同,深度伪造人脸基本上可以做到了无痕迹,视频中深度伪造人脸的智能检测仍然存在诸多需要攻克的技术难点。
现有的深度伪造人脸视频检测方法可以通过五官、眨眼频率等细微特征将伪造人脸分辨出来,加州大学伯克利分校和南加州大学的研究团队设计一种软生物识别模型对深度伪造人脸的细微变化进行识别,见文献[Agarwal S,Farid H,Gu Y,et al.‘Protectingworld leaders against deep fakes’,Proceedings of the IEEE Conference onComputer Vision and Pattern Recognition.2019,pp.38-45.]。随着深度伪造技术的不断迭代和演化,从2017年深度伪造技术刚诞生时用的卷积神经网络到现在最新的生成对抗网络,无论是实现智能“换脸”的计算能力还是逼真程度都有了很大提升,这类通过五官细节来判断伪造人脸的方法已经基本失效。
发明内容
基于此,有必要针对上述技术问题,提供一种能够解决通过五官进行伪造人脸识别准确性差问题的伪造人脸视频检测方法和装置。
一种伪造人脸视频检测方法,所述方法包括:
从视频数据中提取视频帧序列;
将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;
将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
在其中一个实施例中,还包括:设置帧提取的帧间隔以及提取的视频帧数量;以所述帧间隔,从所述视频数据中提取所述视频帧数量的视频帧,得到视频帧序列。
在其中一个实施例中,还包括:将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;所述残差特征为二维特征矩阵序列;所述二维特征矩阵序列的大小与所述视频帧序列相同。
在其中一个实施例中,还包括:将所述视频帧序列输入预先训练的边缘纹理神经网络,分别对所述视频帧序列进行卷积和下采样操作,得到深度特征;对所述深度特征分别进行卷积和上采样操作,得到人脸边缘的边缘纹理特征;其中,上采样和下采样均是通过采样窗口实现。
在其中一个实施例中,所述残差特征和所述边缘纹理特征均为二维矩阵;还包括:将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征,包括:将所述残差特征的二维矩阵和所述边缘纹理特征的二维矩阵进行融合,得到融合特征;所述融合特征为三维矩阵。
在其中一个实施例中,还包括:当所述视频帧序列中的视频帧为灰度图像时,将所述视频帧序列进行复制操作,得到RGB三通道的视频帧序列。
在其中一个实施例中,还包括:将所述残差神经网络、所述边缘纹理神经网络以及所述二分类卷积神经网络整合为统一分类框架;对所述统一分类框架中的残差神经网络在预先设置的数据集上进行预训练,以及对所述统一分类框架中的边缘纹理神经网络在预先设置的数据集上进行预训练;根据目标函数采用梯度下降方式对预训练的统一分类框架进行训练,得到训练后的统一分类框架:
其中,W={W1,W2,W3},W1表示残差网络参数,W2表示边缘纹理神经网络参数,W3表示二分类卷积神经网络参数,W*表示参数W的最优值,Ji∈{0,1}表示识别真伪结果,X={Vi,Li}表示训练数据集,Vi表示第i个视频,Li为其对应的标签。
一种伪造人脸视频检测装置,所述装置包括:
帧提取模块,用于从视频数据中提取视频帧序列;
残差特征提取模块,用于将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;
纹理特征提取模块,将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
融合模块,用于将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
分类模块,用于将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
从视频数据中提取视频帧序列;
将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;
将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
从视频数据中提取视频帧序列;
将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;
将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
上述伪造人脸视频检测方法、装置、计算机设备和存储介质,提出的方法不受深度伪造算法迭代和演化的影响,能够利用换脸后必然出现的噪声变化和边缘纹理变化准确判定视频真伪,残差特征和纹理特征均为深度神经网络自动提取,改善了传统方法利用人工设计的特征提取器不能有效提取特征的情况。另外,利用融合之后的特征进行人脸检测,可以显著的提高伪造人脸检测的准确率。
附图说明
图1为一个实施例中伪造人脸视频检测方法的流程示意图;
图2为一个实施例中残差神经网络的处理流程示意图;
图3为一个实施例中边缘纹理神经网络的处理流程示意图;
图4为一个实施例中二分类卷积神经网络的处理流程示意图;
图5为一个实施例中统一分类框架的处理流程示意图;
图6为一个实施例中伪造人脸视频检测装置的结构框图;
图7为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种伪造人脸视频检测方法,包括以下步骤:
步骤102,从视频数据中提取视频帧序列。
视频数据可以是包含人脸的视频,人脸可以是伪造人脸也可以是真实人脸。视频是由一帧帧图像组成,可以提取视频数据中的指定视频帧,然后得到视频帧序列。
步骤104,将视频帧序列输入预先训练的残差神经网络,提取视频帧序列对应的残差特征。
残差神经网络是一种卷积神经网络,通过数据集对残差神经网络进行训练,使得残差神经网络可以自动的识别视频帧序列中的参数,从而提取出视频帧序列中的残差特征。
残差特征,也称之为噪声特征,换脸后的视频帧的噪声分布必然与真实人脸的视频帧的噪声分布不同。
步骤106,将视频帧序列输入预先训练的边缘纹理神经网络,提取视频帧序列中的边缘纹理特征。
边缘纹理神经网络也是一种卷积神经网络,在换脸后,人脸与背景的交界处往往会出现细微的锯齿变化,通过训练好的边缘纹理神经网络,可以自动的识别该锯齿变化,从而提取得到边缘纹理特征。
步骤108,将残差特征和边缘纹理特征进行特征融合,得到融合特征。
融合的方式可以是拼接、叠加等,融合后的特征具备这两个特征中的信息,从而可以提高分类时的准确性。
步骤110,将融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
二分类卷积神经网络可以输出两种结果,即视频为真实人脸的结果和视频为伪造人脸的结果。
上述伪造人脸视频检测方法中,提出的方法不受深度伪造算法迭代和演化的影响,能够利用换脸后必然出现的噪声变化和边缘纹理变化准确判定视频真伪,残差特征和纹理特征均为深度神经网络自动提取,改善了传统方法利用人工设计的特征提取器不能有效提取特征的情况。另外,利用融合之后的特征进行人脸检测,可以显著的提高伪造人脸检测的准确率。
在其中一个实施例中,提取视频帧序列的步骤包括:设置帧提取的帧间隔以及提取的视频帧数量,以帧间隔,从视频数据中提取视频帧数量的视频帧,得到视频帧序列。通过设置帧提取的规则,在接收到视频数据后,可以自动的提取视频帧序列。
在具体操作时,首先读取视频的基本信息,包括:视频总时长T,帧率F,那么可以得到视频帧的总帧数为N=T×F,设置帧间隔为30帧,连续读取10帧,如果总帧数小于300帧,则将最后一帧视频帧进行复制操作,直至有10帧视频帧构成视频帧序列,如果视频帧总帧数大于300,则只考虑前300帧,最后得到的视频帧序列可以记作I={I1,I2,…I10}。
在其中一个实施例中,残差特征提取的具体步骤包括:将视频帧序列输入预先训练的残差神经网络,提取视频帧序列对应的残差特征,残差特征为二维特征矩阵序列,二维特征矩阵序列的大小与视频帧序列相同。
具体的,为了实现二维特征矩阵输出,残差神经网络的结构如图2所示,从输入到输出依次为:卷积层1、激活层1、卷积层2、批量标准化层2、激活层2、卷积层3、批量标准化层3、激活层3、卷积层4、批量标准化层4、激活层4、卷积层5、批量标准化层5、激活层5组成、卷积层6、批量标准化层6、激活层6、卷积层7、批量标准化层7、激活层7、卷积层8、批量标准化层8、激活层8、卷积层9、批量标准化层9、激活层9、卷积层10、批量标准化层10、激活层10、卷积层11组成。其中卷积层的参数按照卷积核大小、通道数目、滑动间隔和扩充大小的顺序依次为:(3,3,1,1),(3,64,1,1),(3,64,1,1),(3,128,1,1),(3,128,1,1),(3,256,1,1),(3,256,1,1),(3,128,1,1),(3,128,1,1),(3,64,1,1),(3,1,1,1)。批量标准化层的目的是调整中间结果数据的分布,没有参数。激活函数层目的是非线性化中间结果,采用ReLU(Rectified Linear Units)函数,残差网络中,激活层4的输出和激活层8的输出相加后同时作为卷积层9的输入,形成残差操作,激活层5的输出和激活层9的输出相加后同时作为卷积层10的输入,形成残差操作,激活层3的输出和激活层10的输出相加后同时作为卷积层11的输入,形成残差操作。视频帧在输入到卷积神经网络之前将其分辨率调整为227×227×3,其中227是指视频帧调整过后的长和高,3是指RGB三个通道,则残差神经网络输出的二维矩阵ri大小为227×227,ri就是输入视频帧的残差特征。最后,依次对视频帧序列中的视频帧进行特征提取,得到视频残差特征序列,表示为:R={r1,r2,…r10},其中值得说明的是,分辨率可以根据任务需求自行设置,不限制与227。另外,也不限制与RGB的三通道,也可以是YUV的三通道,具体根据实际需求确定。
在其中一个实施例中,提取边缘纹理特征的步骤包括:将视频帧序列输入预先训练的边缘纹理神经网络,分别对视频帧序列进行卷积和下采样操作,得到深度特征;对深度特征分别进行卷积和上采样操作,得到人脸边缘的边缘纹理特征;其中,上采样和下采样均是通过采样窗口实现。
具体的,边缘纹理神经网络可以是深度神经网络中的编解码卷积神经网络,将编解码卷积神经网络的输出作为特征提取的结果。编解码卷积神经网络分为两个部分:编码部分和解码部分。编码部分是通过卷积和下采样操作形成深度特征,解码部分是通过卷积和上采样操作得到人脸边缘纹理特征。
具体的,如图3所示,编码部分依次由:卷积层1、批量标准化层1、激活层1、卷积层2、批量标准化层2、激活层2、下采样层2、卷积层3、批量标准化层3、激活层3、卷积层4、批量标准化层4、激活层4、下采样层4、卷积层5、批量标准化层5、激活层5、卷积层6、批量标准化层6、激活层6、卷积层7、批量标准化层7、激活层7、下采样层7、卷积层8、批量标准化层8、激活层8、卷积层9、批量标准化层9、激活层9、卷积层10、批量标准化层10、激活层10、下采样层10组成。其中卷积层的参数按照卷积核大小、通道数目、滑动间隔和扩充大小的顺序依次为:(3,64,1,1),(3,64,1,1),(3,128,1,1),(3,128,1,1),(3,256,1,1),(3,256,1,1),(3,256,1,1),(3,512,1,1),(3,512,1,1),(3,512,1,1)。批量标准化层的目的是调整中间结果数据的分布,没有参数。激活函数层目的是非线性化中间结果,采用ReLU函数。下采样层的窗口统一为2×2,采用最大池化操作(max-pooling)。解码部分依次由:上采样层1、卷积层1、批量标准化层1、激活层1、卷积层2、批量标准化层2、激活层2、卷积层3、批量标准化层3、激活层3、上采样层4、卷积层4、批量标准化层4、激活层4、卷积层5、批量标准化层5、激活层5、卷积层6、批量标准化层6、激活层6、上采样层7、卷积层7、批量标准化层7、激活层7、卷积层8、批量标准化层8、激活层8、上采样层9、卷积层9、批量标准化层9、激活层9、卷积层10、批量标准化层10、激活层10、softmax层组成。其中卷积层的参数按照卷积核大小、通道数目、滑动间隔和扩充大小的顺序依次为:(3,512,1,1),(3,512,1,1),(3,512,1,1),(3,256,1,1),(3,256,1,1),(3,256,1,1),(3,128,1,1),(3,128,1,1),(3,64,1,1),(3,1,1,1)。其中,上采样层窗口大小为2×2,在窗口中,不为零的位置与下采样时的位置相同,且不为零位置的数值与下采样的值也相同,窗口中其余三个位置值为0。softmax层输出0和1的二维矩阵,0表示无显著边缘纹理,1表示显著边缘纹理特征。视频帧在输入到编解码卷积神经网络之前将其分辨率调整为227×227×3,则网络输出的二维矩阵ei大小为227×227,ei就是输入视频帧的人脸边缘纹理特征。最后,依次对视频帧序列中的视频帧进行特征提取,得到人脸边缘纹理特征序列,表示为:E={e1,e2,…e10},其中ei∈bool227×227。值得说明的是,分辨率可以根据任务需求自行设置,不限制与227。另外,也不限制与RGB的三通道,也可以是YUV的三通道,具体根据实际需求确定。
在其中一个实施例中,残差特征和边缘纹理特征均为二维矩阵,特征融合的具体步骤为:将残差特征的二维矩阵和边缘纹理特征的二维矩阵进行融合,得到融合特征;融合特征为三维矩阵。
具体的,将残差特征序列和人脸边缘纹理特征序列进行融合,得到融合后的特征F,融合过程可以表示为:
F=<r1,r2,…,r10,e1,e2,…e10>
在其中一个实施例中,当视频帧序列中的视频帧为灰度图像时,将视频帧序列进行复制操作,得到RGB三通道的视频帧序列。通过上述方式,可以实现对灰度图像的检测。
在其中一个实施例中,二分类卷积神经网络可以采用具有二分类功能的卷积神经网络。
应用在上述具体实施例中,如图4所示,二分类卷积神经网络从输入到输出依次由:卷积层1、批量标准化层1、激活层1、卷积层2、批量标准化层2、激活层2、卷积层3、批量标准化层3、激活层3、下采样层3、卷积层4、批量标准化层4、激活层4、卷积层5、批量标准化层5、激活层5、卷积层6、批量标准化层6、激活层6、下采样层6,卷积层7、批量标准化层7、激活层7、下采样层7、卷积层8、批量标准化层8、激活层8、下采样层8、全连接层9,全连接层10、softmax层组成。其中卷积层的参数按照卷积核大小、通道数目、滑动间隔和扩充大小的顺序依次为:(3,64,1,1),(3,64,1,1),(3,64,1,1),(3,128,1,1),(3,128,1,1),(3,128,1,1),(3,256,1,1),(3,512,1,1)。下采样层为窗口为的最大池化操作。全连接层9的神经元节点数为1024,全连接层10的神经元节点数为1。softmax层对全连接层10的输出进行分类得到0或者1,0表示视频为伪造,1表示视频是真实的。
在其中一个实施例中,网络的训练步骤如下:对统一分类框架中的残差神经网络在预先设置的数据集上进行预训练,以及对统一分类框架中的边缘纹理神经网络在预先设置的数据集上进行预训练;根据目标函数采用梯度下降方式对预训练的统一分类框架进行训练,得到训练后的统一分类框架:
其中,W={W1,W2,W3},W1表示残差网络参数,W2表示边缘纹理神经网络参数,W3表示二分类卷积神经网络参数,W*表示参数W的最优值,Ji∈{0,1}表示识别真伪结果,X={Vi,Li}表示训练数据集,Vi表示第i个视频,Li为其对应的标签。
具体的,统一分类框架如图5所示,将深度伪造人脸视频智能检测问题分为视频帧提取、残差特征提取、人脸边缘纹理特征提取、特征融合与分类四个步骤。
应该理解的是,虽然图1的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种伪造人脸视频检测装置,包括:帧提取模块602、残差特征提取模块604、纹理特征提取模块606、融合模块608和分类模块610,其中:
帧提取模块602,用于从视频数据中提取视频帧序列;
残差特征提取模块604,用于将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;
纹理特征提取模块606,将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
融合模块608,用于将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
分类模块610,用于将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
在其中一个实施例中,帧提取模块602还用于设置帧提取的帧间隔以及提取的视频帧数量;以所述帧间隔,从所述视频数据中提取所述视频帧数量的视频帧,得到视频帧序列。
在其中一个实施例中,残差特征提取模块604还用于将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;所述残差特征为二维特征矩阵序列;所述二维特征矩阵序列的大小与所述视频帧序列相同。
在其中一个实施例中,纹理特征提取模块606还用于将所述视频帧序列输入预先训练的边缘纹理神经网络,分别对所述视频帧序列进行卷积和下采样操作,得到深度特征;对所述深度特征分别进行卷积和上采样操作,得到人脸边缘的边缘纹理特征;其中,上采样和下采样均是通过采样窗口实现。
在其中一个实施例中,所述残差特征和所述边缘纹理特征均为二维矩阵;融合模块608还用于将所述残差特征的二维矩阵和所述边缘纹理特征的二维矩阵进行融合,得到融合特征;所述融合特征为三维矩阵。
在其中一个实施例中,残差特征提取模块604还用于当所述视频帧序列中的视频帧为灰度图像时,将所述视频帧序列进行复制操作,得到RGB三通道的视频帧序列。
在其中一个实施例中,还包括:训练模块,用于将所述残差神经网络、所述边缘纹理神经网络以及所述二分类卷积神经网络整合为统一分类框架;对所述统一分类框架中的残差神经网络在预先设置的数据集上进行预训练,以及对所述统一分类框架中的边缘纹理神经网络在预先设置的数据集上进行预训练;根据目标函数采用梯度下降方式对预训练的统一分类框架进行训练,得到训练后的统一分类框架:
其中,W={W1,W2,W3},W1表示残差网络参数,W2表示边缘纹理神经网络参数,W3表示二分类卷积神经网络参数,W*表示参数W的最优值,Ji∈{0,1}表示识别真伪结果,X={Vi,Li}表示训练数据集,Vi表示第i个视频,Li为其对应的标签。
关于伪造人脸视频检测装置的具体限定可以参见上文中对于伪造人脸视频检测方法的限定,在此不再赘述。上述伪造人脸视频检测装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储视频数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种伪造人脸视频检测方法。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,该存储器存储有计算机程序,该处理器执行计算机程序时实现上述实施例中方法的步骤。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述实施例中方法的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种伪造人脸视频检测方法,所述方法包括:
从视频数据中提取视频帧序列;
将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;所述残差特征表示噪声特征,所述噪声特征用于确定所述视频帧序列中的噪声分布;
将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
2.根据权利要求1所述的方法,其特征在于,所述从视频数据中提取视频帧序列,包括:
设置帧提取的帧间隔以及提取的视频帧数量;
以所述帧间隔,从所述视频数据中提取所述视频帧数量的视频帧,得到视频帧序列。
3.根据权利要求1所述的方法,其特征在于,将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征,包括:
将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;所述残差特征为二维特征矩阵序列;所述二维特征矩阵序列的大小与所述视频帧序列相同。
4.根据权利要求1所述的方法,其特征在于,将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征,包括:
将所述视频帧序列输入预先训练的边缘纹理神经网络,分别对所述视频帧序列进行卷积和下采样操作,得到深度特征;
对所述深度特征分别进行卷积和上采样操作,得到人脸边缘的边缘纹理特征;其中,上采样和下采样均是通过采样窗口实现。
5.根据权利要求1至4任一项所述的方法,其特征在于,所述残差特征和所述边缘纹理特征均为二维矩阵;
将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征,包括:
将所述残差特征的二维矩阵和所述边缘纹理特征的二维矩阵进行融合,得到融合特征;所述融合特征为三维矩阵。
6.根据权利要求1至4任一项所述的方法,其特征在于,在将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征之前,所述方法包括:
当所述视频帧序列中的视频帧为灰度图像时,将所述视频帧序列进行复制操作,得到RGB三通道的视频帧序列。
7.根据权利要求1至4任一项所述的方法,其特征在于,所述残差神经网络、所述边缘纹理神经网络以及所述二分类卷积神经网络的训练方式,包括:
将所述残差神经网络、所述边缘纹理神经网络以及所述二分类卷积神经网络整合为统一分类框架;
对所述统一分类框架中的残差神经网络在预先设置的数据集上进行预训练,以及对所述统一分类框架中的边缘纹理神经网络在预先设置的数据集上进行预训练;
根据目标函数采用梯度下降方式对预训练的统一分类框架进行训练,得到训练后的统一分类框架:
其中,W={W1,W2,W3},W1表示残差网络参数,W2表示边缘纹理神经网络参数,W3表示二分类卷积神经网络参数,W*表示参数W的最优值,Ji∈{0,1}表示识别真伪结果,X={Vi,Li}表示训练数据集,Vi表示第i个视频,Li为其对应的标签。
8.一种伪造人脸视频检测装置,其特征在于,所述装置包括:
帧提取模块,用于从视频数据中提取视频帧序列;
残差特征提取模块,用于将所述视频帧序列输入预先训练的残差神经网络,提取所述视频帧序列对应的残差特征;所述残差特征表示噪声特征,所述噪声特征用于确定所述视频帧序列中的噪声分布;
纹理特征提取模块,将所述视频帧序列输入预先训练的边缘纹理神经网络,提取所述视频帧序列中的边缘纹理特征;
融合模块,用于将所述残差特征和所述边缘纹理特征进行特征融合,得到融合特征;
分类模块,用于将所述融合特征输入预先训练的二分类卷积神经网络,输出是否为伪造人脸的检测结果。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010287064.XA CN111444881B (zh) | 2020-04-13 | 2020-04-13 | 伪造人脸视频检测方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010287064.XA CN111444881B (zh) | 2020-04-13 | 2020-04-13 | 伪造人脸视频检测方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111444881A CN111444881A (zh) | 2020-07-24 |
CN111444881B true CN111444881B (zh) | 2020-12-25 |
Family
ID=71653026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010287064.XA Active CN111444881B (zh) | 2020-04-13 | 2020-04-13 | 伪造人脸视频检测方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111444881B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111967344B (zh) * | 2020-07-28 | 2023-06-20 | 南京信息工程大学 | 一种面向人脸伪造视频检测的精细化特征融合方法 |
CN111860414B (zh) * | 2020-07-29 | 2023-10-24 | 中国科学院深圳先进技术研究院 | 一种基于多特征融合检测Deepfake视频方法 |
CN112001429B (zh) * | 2020-08-06 | 2023-07-11 | 中山大学 | 一种基于纹理特征的深度伪造视频检测方法 |
CN111967427A (zh) * | 2020-08-28 | 2020-11-20 | 广东工业大学 | 一种伪造人脸视频鉴别方法、系统和可读存储介质 |
CN112200001A (zh) * | 2020-09-11 | 2021-01-08 | 南京星耀智能科技有限公司 | 一种指定场景下深度伪造视频识别方法 |
CN112163488B (zh) * | 2020-09-21 | 2023-12-29 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112163493A (zh) * | 2020-09-21 | 2021-01-01 | 中国科学院信息工程研究所 | 一种视频虚假人脸检测方法及电子装置 |
CN112183501B (zh) * | 2020-11-27 | 2021-02-19 | 北京智源人工智能研究院 | 深度伪造图像检测方法及装置 |
CN112329730A (zh) * | 2020-11-27 | 2021-02-05 | 上海商汤智能科技有限公司 | 视频检测方法、装置、设备及计算机可读存储介质 |
CN112528969B (zh) * | 2021-02-07 | 2021-06-08 | 中国人民解放军国防科技大学 | 人脸图像的真伪检测方法、系统、计算机设备和存储介质 |
CN112927202B (zh) * | 2021-02-25 | 2022-06-03 | 华南理工大学 | 多时域多特征结合的Deepfake视频检测方法及系统 |
CN112883902B (zh) * | 2021-03-12 | 2023-01-24 | 百度在线网络技术(北京)有限公司 | 视频检测方法、装置、电子设备及存储介质 |
CN113052096B (zh) * | 2021-03-31 | 2024-01-05 | 上海商汤智能科技有限公司 | 一种视频检测方法、装置、设备及存储介质 |
CN113269071A (zh) * | 2021-05-18 | 2021-08-17 | 河北农业大学 | 一种自动实时的羊只行为识别方法 |
CN113609952B (zh) * | 2021-07-30 | 2023-08-15 | 中国人民解放军战略支援部队信息工程大学 | 基于密集卷积神经网络的深度伪造视频频域检测方法 |
CN113673465A (zh) * | 2021-08-27 | 2021-11-19 | 中国信息安全测评中心 | 图像检测方法、装置、设备及可读存储介质 |
CN113537173B (zh) * | 2021-09-16 | 2022-03-18 | 中国人民解放军国防科技大学 | 一种基于面部补丁映射的人脸图像真伪识别方法 |
RU2768797C1 (ru) * | 2021-10-19 | 2022-03-24 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Способ и система для определения синтетически измененных изображений лиц на видео |
CN114494935B (zh) * | 2021-12-15 | 2024-01-05 | 北京百度网讯科技有限公司 | 视频信息的处理方法、装置、电子设备和介质 |
CN114332733B (zh) * | 2022-01-04 | 2024-03-15 | 桂林电子科技大学 | 基于残差循环神经网络的视频监控人脸识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109376582A (zh) * | 2018-09-04 | 2019-02-22 | 电子科技大学 | 一种基于生成对抗网络的交互式人脸卡通方法 |
CN110660037A (zh) * | 2018-06-29 | 2020-01-07 | 京东方科技集团股份有限公司 | 图像间脸部交换的方法、装置、系统和计算机程序产品 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN110889370A (zh) * | 2019-11-26 | 2020-03-17 | 上海大学 | 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596141B (zh) * | 2018-05-08 | 2022-05-17 | 深圳大学 | 一种深度网络生成人脸图像的检测方法及系统 |
WO2019225799A1 (ko) * | 2018-05-23 | 2019-11-28 | 한국과학기술원 | 딥러닝 생성 모델을 이용한 사용자 정보 삭제 방법 및 장치 |
CN109344709A (zh) * | 2018-08-29 | 2019-02-15 | 中国科学院信息工程研究所 | 一种人脸生成伪造图像的检测方法 |
CN110210393A (zh) * | 2019-05-31 | 2019-09-06 | 百度在线网络技术(北京)有限公司 | 人脸图像的检测方法和装置 |
CN110516575A (zh) * | 2019-08-19 | 2019-11-29 | 上海交通大学 | 基于残差域富模型的gan生成图片检测方法及系统 |
-
2020
- 2020-04-13 CN CN202010287064.XA patent/CN111444881B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110660037A (zh) * | 2018-06-29 | 2020-01-07 | 京东方科技集团股份有限公司 | 图像间脸部交换的方法、装置、系统和计算机程序产品 |
CN109376582A (zh) * | 2018-09-04 | 2019-02-22 | 电子科技大学 | 一种基于生成对抗网络的交互式人脸卡通方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN110889370A (zh) * | 2019-11-26 | 2020-03-17 | 上海大学 | 基于条件生成对抗网络的端对端的侧面人脸合成正脸的系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111444881A (zh) | 2020-07-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111444881B (zh) | 伪造人脸视频检测方法和装置 | |
Zhang et al. | Demeshnet: Blind face inpainting for deep meshface verification | |
CN111738231B (zh) | 目标对象检测方法、装置、计算机设备和存储介质 | |
CN112800894B (zh) | 一种基于时空流间注意力机制的动态表情识别方法及系统 | |
CN112215180B (zh) | 一种活体检测方法及装置 | |
CN109492643A (zh) | 基于ocr的证件识别方法、装置、计算机设备及存储介质 | |
CN110929622A (zh) | 视频分类方法、模型训练方法、装置、设备及存储介质 | |
CN111368672A (zh) | 一种用于遗传病面部识别模型的构建方法及装置 | |
CN110516541B (zh) | 文本定位方法、装置、计算机可读存储介质和计算机设备 | |
Salman et al. | Classification of real and fake human faces using deep learning | |
CN112800903B (zh) | 一种基于时空图卷积神经网络的动态表情识别方法及系统 | |
CN112580617B (zh) | 自然场景下的表情识别方法和装置 | |
CN113205002B (zh) | 非受限视频监控的低清人脸识别方法、装置、设备及介质 | |
US20230076017A1 (en) | Method for training neural network by using de-identified image and server providing same | |
CN111325766A (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 | |
CN115050064A (zh) | 人脸活体检测方法、装置、设备及介质 | |
Bezak | Building recognition system based on deep learning | |
CN111860582B (zh) | 图像分类模型构建方法、装置、计算机设备和存储介质 | |
CN111985340A (zh) | 基于神经网络模型的人脸识别方法、装置和计算机设备 | |
Lee et al. | Face and facial expressions recognition system for blind people using ResNet50 architecture and CNN | |
Ariza et al. | Recognition system for facial expression by processing images with deep learning neural network | |
Nimbarte et al. | Biased face patching approach for age invariant face recognition using convolutional neural network | |
CN116091596A (zh) | 一种自下而上的多人2d人体姿态估计方法及装置 | |
CN113205044B (zh) | 一种基于表征对比预测学习的深度伪造视频检测方法 | |
CN111553202B (zh) | 进行活体检测的神经网络的训练方法、检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |