CN113989586A - 一种基于人脸几何运动特征的真假视频检测方法 - Google Patents

一种基于人脸几何运动特征的真假视频检测方法 Download PDF

Info

Publication number
CN113989586A
CN113989586A CN202111245372.7A CN202111245372A CN113989586A CN 113989586 A CN113989586 A CN 113989586A CN 202111245372 A CN202111245372 A CN 202111245372A CN 113989586 A CN113989586 A CN 113989586A
Authority
CN
China
Prior art keywords
video
convolutional layer
key point
frame
pictures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111245372.7A
Other languages
English (en)
Other versions
CN113989586B (zh
Inventor
舒明雷
刘明
王英龙
陈达
刘丽
刘辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Original Assignee
Qilu University of Technology
Shandong Institute of Artificial Intelligence
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qilu University of Technology, Shandong Institute of Artificial Intelligence filed Critical Qilu University of Technology
Priority to CN202111245372.7A priority Critical patent/CN113989586B/zh
Publication of CN113989586A publication Critical patent/CN113989586A/zh
Application granted granted Critical
Publication of CN113989586B publication Critical patent/CN113989586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种基于人脸几何运动特征的真假视频检测方法,通过用人脸特征关键点的几何运动来代替脸部的物理运动,然后将经过提取几何运动差异后的不同部位的运动频率特征放进LSTM中来对视频的真假做出判定。该方法是在以往只关注帧层面检测方法的基础上做出的改进,能够让网络模型关注到视频帧之间的相互关联性,更能捕捉视频内部的细节信息。可以有效增加视频真假检测方法的泛化性,提升检测的精度。

Description

一种基于人脸几何运动特征的真假视频检测方法
技术领域
本发明涉及视频真假检测技术领域,具体涉及一种基于人脸几何运动特征的真假视频检测方法。
背景技术
视频中的真假换脸方法是一种采用神经网络实现的换脸方法。该模型的总体结构是encoder-decoder模型。通过一个encoder和两个decoder的协同可以实现在任意的人脸上都可以复现出想要的人脸。
目前常见的视频真假检测方法可以分为两大类:伪影识别法和无定向法。这两类检测方法都是从视频所提取出来的帧的层面来进行检测,通过寻找单个帧内部之间的真假差异来进行检测。但是这种方法只关注片面信息,从而忽略了帧与帧之间的相互关联性和在视频中人脸的运动情况,所以普遍泛化性能偏差,难以应用普及。
发明内容
本发明为了克服以上技术的不足,提供了一种通过长短期记忆网络(LSTM)来学习幅度增强后的关键点的几何运动频率特征,最后做出真假预测的方法。
本发明克服其技术问题所采用的技术方案是:
一种基于人脸几何运动特征的真假视频检测方法,包括如下步骤:
a)对视频切帧处理,将切帧得到的M个连续的帧图片切割成连续的人脸图片,每个人脸图片上得到定位人脸的68个关键点,生成人脸关键点的特征为
Figure BDA0003320480990000011
Figure BDA0003320480990000012
为第i个视频帧的第t个关键点的信息,i∈{1,2,...,67,68},
Figure BDA0003320480990000013
Figure BDA0003320480990000014
为帧图片的红色通道的像素值,
Figure BDA0003320480990000015
为帧图片的绿色通道的像素值,
Figure BDA0003320480990000016
为帧图片的蓝色通道的像素值;
b)选取一张基准图像,获得训练集,将训练集中的图片输入到预训练后判别网络模型中;
c)判断经预训练后判别网络模型处理后各个图片的68个经过变换后的脸部朝向角度与基准图像的误差是否小于等于10°,如果小于等于10°则执行步骤e),如果大于10°则执行步骤d);
d)通过公式Xj=f(s,theta,t,Xi)将第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi对齐操作,式中s为缩放幅度参数,theta为旋转参数,t为平移矩阵,通过公式
Figure BDA0003320480990000021
计算得到第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi的欧氏距离
Figure BDA0003320480990000022
Figure BDA0003320480990000023
完成该图片与基准图片的对齐,其中d()为该角度对应的欧式距离;
e)根据关键点几何运动频率的相关性将几何运动特征F分为三类,人脸部轮廓和鼻子部位的关键点特征为F1,眼睛和眉毛部位的关键点特征为F2,嘴巴部位的关键点特征为F3
Figure BDA0003320480990000024
Figure BDA0003320480990000025
f)通过公式
Figure BDA0003320480990000026
计算得到每个关键点的特征信息
Figure BDA0003320480990000027
将整个视频的总帧数M均分为n部分,每一部分的帧数为N,对每一部分的N帧图片通过公式
Figure BDA0003320480990000028
计算得到第j部分关键点特征信息的方差
Figure BDA0003320480990000029
式中xt为该部分第t帧的所有关键点信息,t∈{1,...,N},
Figure BDA00033204809900000210
为该部分关键点特征信息的平均值;
g)将关键点特征F1表示为
Figure BDA00033204809900000211
关键点特征F2表示为
Figure BDA00033204809900000212
关键点特征F3表示为
Figure BDA00033204809900000213
h)将步骤g)中的关键点特征F1、关键点特征F2及关键点特征F3分别放进三个长短期记忆网络中,每个长短期记忆网络连接有全连接层,将三个长短期记忆网络产生的预测输出值取平均值后经过Sigmoid函数得到预测结果,如果预测结果为1表示该视频是真的视频,如果预测结果为0表示该视频是假的视频。
进一步的,步骤a)中使用opencv-python包对视频切帧,利用dlib包将连续的帧图片切割成连续的人脸图片并得到每个人脸图片上的68个关键点。
进一步的,步骤b)中通过当前最大的人脸对齐数据集LS3D-W获得训练集。
进一步的,步骤b)中预训练后判别网络模型的步骤为:
b-1)建立一个Siamese网络,该Siamese网络一端输入基准图像,另一端输入训练集中的各个图片;
b-2)将基准图像依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure BDA0003320480990000031
将训练集中的图片依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure BDA0003320480990000032
Figure BDA0003320480990000033
Conv1卷积层的卷积核大小为1×1,Conv2卷积层的卷积核大小为3×3,Conv3卷积层的卷积核大小为5×5;
b-3)分别在Conv1卷积层、Conv2卷积层、Conv3卷积层后分别连接批归一化层和激活层;
b-4)在Conv1卷积层的激活层后面连接尺寸为2×2的最大池化层,在Conv2卷积层的激活层后面连接尺寸为2×2的最大池化层;
b-5)将基准图片Image0
Figure BDA0003320480990000034
输入到经步骤
b-4)改进的Siamese网络后得到
Figure BDA00033204809900000310
将训练集中的图片的
Figure BDA0003320480990000035
Figure BDA0003320480990000036
输入到经步骤b-4)改进的Siamese网络后得到
Figure BDA0003320480990000037
b-6)通过余弦值计算
Figure BDA0003320480990000038
Figure BDA0003320480990000039
之间的夹角θ,将夹角乘以夹角缩放系数。进一步的,步骤b-2)中Conv1卷积层的stride为1,padding为0,Conv2卷积层的stride为1,padding为1,Conv3卷积层的stride为2,padding为2。
进一步的,步骤b-3)中激活层的激活函数为ReLu。
进一步的,步骤b-6)中夹角缩放系数经过Sigmoid函数后与标签0/1做比较,选择交叉熵损失函数,向前传播,更新夹角缩放系数。
本发明的有益效果是:通过用人脸特征关键点的几何运动来代替脸部的物理运动,然后将经过提取几何运动差异后的不同部位的运动频率特征放进LSTM中来对视频的真假做出判定。该方法是在以往只关注帧层面检测方法的基础上做出的改进,能够让网络模型关注到视频帧之间的相互关联性,更能捕捉视频内部的细节信息。可以有效增加视频真假检测方法的泛化性,提升检测的精度。
附图说明
图1为定位人脸的68个特征点的结构图;
图2为本发明的方法流程图;
图3为本发明的预训练模型的结构图。
具体实施方式
下面结合附图1、附图2、附图3对本发明做进一步说明。
一种基于人脸几何运动特征的真假视频检测方法,包括如下步骤:
a)对视频切帧处理,将切帧得到的M个连续的帧图片切割成连续的人脸图片,每个人脸图片上得到定位人脸的68个关键点,生成人脸关键点的特征为
Figure BDA0003320480990000041
Figure BDA0003320480990000042
为第i个视频帧的第t个关键点的信息,i∈{1,2,...,67,68},
Figure BDA0003320480990000043
Figure BDA0003320480990000044
为帧图片的红色通道的像素值,
Figure BDA0003320480990000045
为帧图片的绿色通道的像素值,
Figure BDA0003320480990000046
为帧图片的蓝色通道的像素值。
b)选取一张基准图像,获得训练集,将训练集中的图片输入到预训练后判别网络模型中。
c)判断经预训练后判别网络模型处理后各个图片的68个经过变换后的脸部朝向角度与基准图像的误差是否小于等于10°,如果小于等于10°则执行步骤e),如果大于10°则执行步骤d)。
d)通过公式Xj=f(s,theta,t,Xi)将第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi对齐操作,式中s为缩放幅度参数,theta为旋转参数,t为平移矩阵,通过公式
Figure BDA0003320480990000047
计算得到第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi的欧氏距离
Figure BDA0003320480990000048
利用欧式距离来衡量关键点的相似程度,当
Figure BDA0003320480990000051
完成该图片与基准图片的对齐,其中d()为该角度对应的欧式距离,即只需要该图片与基准图片的欧氏距离在阈值之内即可认为对齐成功,从而完成该图片与基准图片的对齐。
e)将特征点的几何运动能够相互关联的分成一块,因此根据关键点几何运动频率的相关性将几何运动特征F分为三类,人脸部轮廓和鼻子部位的关键点特征为F1,眼睛和眉毛部位的关键点特征为F2,嘴巴部位的关键点特征为F3
Figure BDA0003320480990000052
Figure BDA0003320480990000053
f)分别对步骤e)中的三个特征向量F1、F2、F3做运动差异提取操作。以对特征向量F1操作为例,具体做法是:(1)首先将F1中特征关键点的三个通道的像素值进行取平均值操作,然后用三个通道上的每个点的像素值
Figure BDA0003320480990000054
减去三个通道像素值的平均值,这样即可看作将每个通道上的几何运动差异提取出来。具体的通过公式
Figure BDA0003320480990000055
计算得到每个关键点的特征信息
Figure BDA0003320480990000056
将整个视频的总帧数M均分为n部分,每一部分的帧数为N,对每一部分的N帧图片通过公式
Figure BDA0003320480990000057
计算得到第j部分关键点特征信息的方差
Figure BDA0003320480990000058
式中xt为该部分第t帧的所有关键点信息,t∈{1,...,N},
Figure BDA0003320480990000059
为该部分关键点特征信息的平均值。
g)将关键点特征F1表示为
Figure BDA00033204809900000510
关键点特征F2表示为
Figure BDA00033204809900000511
关键点特征F3表示为
Figure BDA00033204809900000512
表示第一部分N个视频帧的关键点方差特征描述。
h)将步骤g)中的关键点特征F1、关键点特征F2及关键点特征F3分别放进三个长短期记忆网络(LSTM)中,每个长短期记忆网络连接有全连接层(Fully-connected layers),将三个长短期记忆网络产生的预测输出值取平均值后经过Sigmoid函数得到预测结果,如果预测结果为1表示该视频是真的视频,如果预测结果为0表示该视频是假的视频。
通过用人脸特征关键点的几何运动来代替脸部的物理运动,然后将经过提取几何运动差异后的不同部位的运动频率特征放进LSTM中来对视频的真假做出判定。该方法是在以往只关注帧层面检测方法的基础上做出的改进,能够让网络模型关注到视频帧之间的相互关联性,更能捕捉视频内部的细节信息。可以有效增加视频真假检测方法的泛化性,提升检测的精度。
实施例1:
优选的,步骤a)中使用opencv-python包对视频切帧,利用dlib包将连续的帧图片切割成连续的人脸图片并得到每个人脸图片上的68个关键点。
实施例2:
优选的,步骤b)中通过当前最大的人脸对齐数据集LS3D-W获得训练集。
实施例3:
步骤b)中预训练后判别网络模型的步骤为:
b-1)建立一个Siamese网络,该Siamese网络一端输入基准图像,另一端输入训练集中的各个图片。网络的子模块是在空洞卷积的基础上进行改进的模块,该子模块的步骤:
b-2)将基准图像依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure BDA0003320480990000061
将训练集中的图片依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure BDA0003320480990000062
Figure BDA0003320480990000063
Conv1卷积层的卷积核大小为1×1,Conv2卷积层的卷积核大小为3×3,Conv3卷积层的卷积核大小为5×5。此步骤输入的图片是彩色图,维度为3输出的维度设为64。经过操作后1×1和3×3卷积后特征的尺寸没有改变,而5×5卷积后的特征尺寸变为之前的一半。
b-3)分别在Conv1卷积层、Conv2卷积层、Conv3卷积层后分别连接批归一化层和激活层。
b-4)在Conv1卷积层的激活层后面连接尺寸为2×2的最大池化层,在Conv2卷积层的激活层后面连接尺寸为2×2的最大池化层。这样经过三个部分的特征的尺寸保持了一致。
b-5)将基准图片Image0
Figure BDA0003320480990000071
输入到经步骤b-4)改进的Siamese网络后得到
Figure BDA0003320480990000072
将训练集中的图片的
Figure BDA0003320480990000073
Figure BDA0003320480990000074
输入到经步骤b-4)改进的Siamese网络后得到
Figure BDA0003320480990000075
b-6)通过余弦值计算
Figure BDA0003320480990000076
Figure BDA0003320480990000077
之间的夹角θ,将夹角乘以夹角缩放系数。
实施例4:
优选的,步骤b-2)中Conv1卷积层的stride为1,padding为0,Conv2卷积层的stride为1,padding为1,Conv3卷积层的stride为2,padding为2。
实施例5:
优选的,步骤b-3)中激活层的激活函数为ReLu。
实施例6:
夹角缩放系数也由训练过程的反向传播来进行参数更新,具体的步骤b-6)中夹角缩放系数经过Sigmoid函数后与标签0/1做比较,选择交叉熵损失函数,向前传播,更新夹角缩放系数。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于人脸几何运动特征的真假视频检测方法,其特征在于,包括如下步骤:
a)对视频切帧处理,将切帧得到的M个连续的帧图片切割成连续的人脸图片,每个人脸图片上得到定位人脸的68个关键点,生成人脸关键点的特征为
Figure FDA0003320480980000011
Figure FDA0003320480980000012
为第i个视频帧的第t个关键点的信息,i∈{1,2,…,67,68},
Figure FDA0003320480980000013
Figure FDA0003320480980000014
为帧图片的红色通道的像素值,
Figure FDA0003320480980000015
为帧图片的绿色通道的像素值,
Figure FDA0003320480980000016
为帧图片的蓝色通道的像素值;
b)选取一张基准图像,获得训练集,将训练集中的图片输入到预训练后判别网络模型中;
c)判断经预训练后判别网络模型处理后各个图片的68个经过变换后的脸部朝向角度与基准图像的误差是否小于等于10°,如果小于等于10°则执行步骤e),如果大于10°则执行步骤d);
d)通过公式Xj=f(s,theta,t,Xi)将第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi对齐操作,式中s为缩放幅度参数,theta为旋转参数,t为平移矩阵,通过公式
Figure FDA0003320480980000017
计算得到第j个视频帧的关键点矩阵Xj与第i个视频帧的关键点矩阵Xi的欧氏距离
Figure FDA0003320480980000018
Figure FDA0003320480980000019
完成该图片与基准图片的对齐,其中d()为该角度对应的欧式距离;
e)根据关键点几何运动频率的相关性将几何运动特征F分为三类,人脸部轮廓和鼻子部位的关键点特征为F1,眼睛和眉毛部位的关键点特征为F2,嘴巴部位的关键点特征为F3
Figure FDA00033204809800000110
Figure FDA00033204809800000111
f)通过公式
Figure FDA00033204809800000112
计算得到每个关键点的特征信息
Figure FDA00033204809800000113
将整个视频的总帧数M均分为n部分,每一部分的帧数为N,对每一部分的N帧图片通过公式
Figure FDA0003320480980000021
计算得到第j部分关键点特征信息的方差
Figure FDA0003320480980000022
式中xt为该部分第t帧的所有关键点信息,t∈{1,…,N},
Figure FDA0003320480980000023
为该部分关键点特征信息的平均值;
g)将关键点特征F1表示为
Figure FDA0003320480980000024
关键点特征F2表示为
Figure FDA0003320480980000025
关键点特征F3表示为
Figure FDA0003320480980000026
h)将步骤g)中的关键点特征F1、关键点特征F2及关键点特征F3分别放进三个长短期记忆网络中,每个长短期记忆网络连接有全连接层,将三个长短期记忆网络产生的预测输出值取平均值后经过Sigmoid函数得到预测结果,如果预测结果为1表示该视频是真的视频,如果预测结果为0表示该视频是假的视频。
2.根据权利要求1所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤a)中使用opencv-python包对视频切帧,利用dlib包将连续的帧图片切割成连续的人脸图片并得到每个人脸图片上的68个关键点。
3.根据权利要求1所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤b)中通过当前最大的人脸对齐数据集LS3D-W获得训练集。
4.根据权利要求1所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤b)中预训练后判别网络模型的步骤为:
b-1)建立一个Siamese网络,该Siamese网络一端输入基准图像,另一端输入训练集中的各个图片;
b-2)将基准图像依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure FDA0003320480980000027
将训练集中的图片依次输入到Conv1卷积层、Conv2卷积层、Conv3卷积层分别获得输出维度为64的图片的感知野特征表示
Figure FDA0003320480980000028
Figure FDA0003320480980000029
Conv1卷积层的卷积核大小为1×1,Conv2卷积层的卷积核大小为3×3,Conv3卷积层的卷积核大小为5×5;
b-3)分别在Conv1卷积层、Conv2卷积层、Conv3卷积层后分别连接批归一化层和激活层;
b-4)在Conv1卷积层的激活层后面连接尺寸为2×2的最大池化层,在Conv2卷积层的激活层后面连接尺寸为2×2的最大池化层;
b-5)将基准图片Image0
Figure FDA0003320480980000031
输入到经步骤b-4)改进的Siamese网络后得到
Figure FDA0003320480980000032
将训练集中的图片的
Figure FDA0003320480980000033
Figure FDA0003320480980000034
输入到经步骤b-4)改进的Siamese网络后得到
Figure FDA0003320480980000035
b-6)通过余弦值计算
Figure FDA0003320480980000036
Figure FDA0003320480980000037
之间的夹角θ,将夹角乘以夹角缩放系数。
5.根据权利要求4所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤b-2)中Conv1卷积层的stride为1,padding为0,Conv2卷积层的stride为1,padding为1,Conv3卷积层的stride为2,padding为2。
6.根据权利要求4所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤b-3)中激活层的激活函数为ReLu。
7.根据权利要求4所述的基于人脸几何运动特征的真假视频检测方法,其特征在于:步骤b-6)中夹角缩放系数经过Sigmoid函数后与标签0/1做比较,选择交叉熵损失函数,向前传播,更新夹角缩放系数。
CN202111245372.7A 2021-10-26 2021-10-26 一种基于人脸几何运动特征的真假视频检测方法 Active CN113989586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111245372.7A CN113989586B (zh) 2021-10-26 2021-10-26 一种基于人脸几何运动特征的真假视频检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111245372.7A CN113989586B (zh) 2021-10-26 2021-10-26 一种基于人脸几何运动特征的真假视频检测方法

Publications (2)

Publication Number Publication Date
CN113989586A true CN113989586A (zh) 2022-01-28
CN113989586B CN113989586B (zh) 2024-07-26

Family

ID=79741348

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111245372.7A Active CN113989586B (zh) 2021-10-26 2021-10-26 一种基于人脸几何运动特征的真假视频检测方法

Country Status (1)

Country Link
CN (1) CN113989586B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842034A (zh) * 2022-04-19 2022-08-02 山东省人工智能研究院 一种基于放大模糊操作痕迹的图片真假检测方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020001082A1 (zh) * 2018-06-30 2020-01-02 东南大学 一种基于迁移学习的人脸属性分析方法
CN111353395A (zh) * 2020-02-19 2020-06-30 南京信息工程大学 一种基于长短期记忆网络的换脸视频检测方法
CN111967344A (zh) * 2020-07-28 2020-11-20 南京信息工程大学 一种面向人脸伪造视频检测的精细化特征融合方法
CN112883931A (zh) * 2021-03-29 2021-06-01 动者科技(杭州)有限责任公司 基于长短期记忆网络的实时真假运动判断方法
CN113221655A (zh) * 2021-04-12 2021-08-06 重庆邮电大学 基于特征空间约束的人脸欺骗检测方法
CN113298018A (zh) * 2021-06-10 2021-08-24 浙江工业大学 基于光流场和脸部肌肉运动的假脸视频检测方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020001082A1 (zh) * 2018-06-30 2020-01-02 东南大学 一种基于迁移学习的人脸属性分析方法
CN111353395A (zh) * 2020-02-19 2020-06-30 南京信息工程大学 一种基于长短期记忆网络的换脸视频检测方法
CN111967344A (zh) * 2020-07-28 2020-11-20 南京信息工程大学 一种面向人脸伪造视频检测的精细化特征融合方法
CN112883931A (zh) * 2021-03-29 2021-06-01 动者科技(杭州)有限责任公司 基于长短期记忆网络的实时真假运动判断方法
CN113221655A (zh) * 2021-04-12 2021-08-06 重庆邮电大学 基于特征空间约束的人脸欺骗检测方法
CN113298018A (zh) * 2021-06-10 2021-08-24 浙江工业大学 基于光流场和脸部肌肉运动的假脸视频检测方法及装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842034A (zh) * 2022-04-19 2022-08-02 山东省人工智能研究院 一种基于放大模糊操作痕迹的图片真假检测方法
CN114842034B (zh) * 2022-04-19 2022-12-02 山东省人工智能研究院 一种基于放大模糊操作痕迹的图片真假检测方法

Also Published As

Publication number Publication date
CN113989586B (zh) 2024-07-26

Similar Documents

Publication Publication Date Title
CN109615582B (zh) 一种基于属性描述生成对抗网络的人脸图像超分辨率重建方法
US11630972B2 (en) Assembly body change detection method, device and medium based on attention mechanism
CN112418095A (zh) 一种结合注意力机制的面部表情识别方法及系统
CN112150493B (zh) 一种基于语义指导的自然场景下屏幕区域检测方法
CN109359541A (zh) 一种基于深度迁移学习的素描人脸识别方法
Johnson et al. Sparse coding for alpha matting
CN110674701A (zh) 一种基于深度学习的驾驶员疲劳状态快速检测方法
US20230081982A1 (en) Image processing method and apparatus, computer device, storage medium, and computer program product
CN109948721B (zh) 一种基于视频描述的视频场景分类方法
CN111639564A (zh) 一种基于多注意力异构网络的视频行人重识别方法
CN112784929B (zh) 一种基于双元组扩充的小样本图像分类方法及装置
CN113963032A (zh) 一种融合目标重识别的孪生网络结构目标跟踪方法
CN111402237A (zh) 基于时空级联自编码器的视频图像异常检测方法及系统
CN114694089B (zh) 一种新型的多模态融合的行人重识别方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN114387641A (zh) 基于多尺度卷积网络和ViT的虚假视频检测方法及系统
CN113112416A (zh) 一种语义引导的人脸图像修复方法
CN115482595B (zh) 一种基于语义分割的特定人物视觉伪造检测与鉴别方法
CN111768354A (zh) 基于多尺度人脸部位特征字典的人脸图像复原系统
CN112418032A (zh) 一种人体行为识别方法、装置、电子设备及存储介质
CN111597978B (zh) 基于StarGAN网络模型实现行人重识别图片自动生成的方法
CN113781324A (zh) 一种老照片修复方法
CN112200096A (zh) 基于压缩视频实现实时异常行为识别的方法、装置及其存储介质
CN113989586B (zh) 一种基于人脸几何运动特征的真假视频检测方法
Liu et al. Progressive knowledge transfer based on human visual perception mechanism for perceptual quality assessment of point clouds

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: No.19 Keyuan Road, Lixia District, Jinan City, Shandong Province

Patentee after: Shandong Institute of artificial intelligence

Country or region after: China

Patentee after: Qilu University of Technology (Shandong Academy of Sciences)

Address before: No.19 Keyuan Road, Lixia District, Jinan City, Shandong Province

Patentee before: Shandong Institute of artificial intelligence

Country or region before: China

Patentee before: Qilu University of Technology