CN112200001A - 一种指定场景下深度伪造视频识别方法 - Google Patents
一种指定场景下深度伪造视频识别方法 Download PDFInfo
- Publication number
- CN112200001A CN112200001A CN202010955588.1A CN202010955588A CN112200001A CN 112200001 A CN112200001 A CN 112200001A CN 202010955588 A CN202010955588 A CN 202010955588A CN 112200001 A CN112200001 A CN 112200001A
- Authority
- CN
- China
- Prior art keywords
- target
- video
- mask
- identifying
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 28
- 230000000007 visual effect Effects 0.000 claims abstract description 17
- 239000000203 mixture Substances 0.000 claims abstract description 12
- 238000000605 extraction Methods 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims description 18
- 230000006870 function Effects 0.000 claims description 15
- 230000011218 segmentation Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 4
- 230000003321 amplification Effects 0.000 claims description 3
- 238000003708 edge detection Methods 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims description 2
- 230000005012 migration Effects 0.000 abstract description 3
- 238000013508 migration Methods 0.000 abstract description 3
- 230000006872 improvement Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005242 forging Methods 0.000 description 1
- 210000000003 hoof Anatomy 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种指定场景下深度伪造视频识别方法,具体的步骤:为对场景深度伪造视频中的目标与非目标利掩膜区域卷积神经网络方法进行检测分割并进行识别;基于视觉特征提取的算法对装备目标和背景分别进行视觉特征提取;采用基于场景中目标尺度的不一致性对伪造视频进行识别;采用高斯混合模型–通用背景模型对不同装备进行声音识别,通过音频信息的匹配情况判断视频真伪。本发明中这一识别方法是解决特定业务场景下伪造视频的高准确率识别,以及对不同业务场景的迁移。
Description
技术领域
本发明属于人工智能、视频伪造技术领域,特别涉及一种指定场景下深度伪造视频识别方法。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。用摄像机或摄像头采集含有人脸的图像或视频流,并自动在图像中检测和跟踪人脸,进而对检测到的人脸进行识别的一系列相关技术,通常也叫做人像识别、面部识别。
通常在进行识别过程中,当对视频中目标与非目标进行分割处理时,仍存在这样的问题,一方面,目前目标分割的许多方法都是基于segment proposals,例如Fast R-CNN、DeepMask等,其中DeepMask是通过学习提出分割候选,然后使用Fast R-CNN分类。在这些方法中,分割先于识别,如此既慢又不太准确。
另一方面,人脸真伪识别技术对于特定场景深度伪造视频在进行识别与针对人脸伪造识别具有不同的特点,特定场景中的目标可能具有更大的尺寸,在图像纹理等特征上面就与人脸不同,不同装备的尺寸变化不一,并且装备的声音差异明显,容易造成现在的使得人脸识别与目标识别之间的迁移效果不好。
发明内容
为了解决上述如何在特定业务场景下伪造视频的高准确率识别,以及对不同业务场景的迁移上述的技术难题,本发明提供了一种指定场景下深度伪造视频识别方法,技术方案具体步骤为:
步骤1对场景深度伪造视频中的目标与非目标利用Mask R-CNN方法进行检测分割并进行识别;
步骤2基于视觉特征提取的算法对装备目标和背景分别进行视觉特征提取;
步骤3采用基于场景中目标尺度的不一致性对伪造视频进行识别;
步骤4采用高斯混合模型–通用背景模型对不同装备进行声音识别,通过音频信息的匹配情况判断视频真伪。
作为改进,步骤1中,是基于卷积神经网络对目标物体的特征进行学习,得到特征表达,采用Mask R-CNN方法对场景中的目标进行检测分割并进行识别的,依次进行采用ResNet-FPN(残差网络-特征金字塔网络)的架构特征提取、加一个Mask(掩码)预测分支进行分割预测,其中预测时设置为掩码和类标签的预测方式。
作为改进,采用掩膜区域卷积神经网络方法具体步骤为:
(1)通过区域推荐网络区域推荐网络生成候选区域;
(2)目标区域对齐使用双线性插值来获得每个块对应的特征;
(3)利用目标区域对齐之后的头部分,扩大目标区域对齐的输出维度;
(4)按照每一个类都输出一张输出预测图,进行输出K个掩码预测图,并采用平均二元交叉熵损失训练,K为正整数;
(5)对于目标框的坐标和目标类别,使用和快速区域卷积神经网络相同的损失函数进行训练,其中掩码区域卷积神经网络的训练损失函数:
Lfinal=Lcls+Lbox+Lmask
其中,Lcls为分类损失函数,Lbox为回归损失函数,Lmask为分割损失函数。
(6)通过最后的三个分支的输出,在掩码区域卷积神经网络预测目标的类别、目标的边界框和目标的掩码;
(7)根据目标类别,将目标与背景物体区分开来。
作为改进,步骤2中采用视觉特征提取算法进行装备目标和背景的视觉特征提取,其中采用深度可分离卷积代替原始算法里的卷积操作,并且设置残差学习的结构来加快收敛速度。
作为改进,步骤2中,提取视觉特征后,接着对抽取出来的特征进行双线性变换后,使用二分类方法判断装备和图像背景之间纹理是否一致,进行伪造视频识别。
作为改进,步骤2中,还包括将人脸检测场景应用到场景中,模型先通过运动放大来增强目标微动作,然后提取方向光流直方图和动态纹理特征来捕获目标帧间差异,基于目标帧间不一致性来判断视频是否伪造。
作为改进,步骤3中基于通过掩码区域卷积神经网络方法获取到目标的类别和边框,对不同目标之间的比例进行对比,具体为:
(1)构建多组指定场景中目标和非指定场景中目标的尺寸数据库;
(2)采用Canny算法进行边缘检测和基于霍夫曼变换的直线识别,基于识别出的直线延长线的交互点,找出透视焦点,依据透视原理,将物体的尺寸进行矫正;
(3)针对指定场景伪造视频中的目标需要通过这些标准数据进行校验比较。
作为改进,步骤4中,对不同装备进行声音识别的具体步骤为:
(1)在训练阶段,首先对发动机声音进行预处理之后,提取出发动机声音的梅尔频率倒谱系数特征;
(2)然后用部分声音训练统一背景模型,构建通用背景模型模型;
(3)再通过最大后验准则训练来得到在通用背景模型的每个高斯分量上进行自适应得到高斯混合模型-通用背景模型,其中采用自适应方法是映射自适应算法;
(4)在识别阶段,把待测试语音的特征,与训练好的高斯混合模型-通用背景模型结构模型匹配,最终的输出评分为高斯混合模型和通用背景模型的输出评分之差。
有益效果:本发明提供的指定场景下深度伪造视频识别方法,通过对场景深度伪造视频中的目标与非目标利用Mask R-CNN方法进行检测分割并进行识别;XceptionNet对装备目标和背景分别进行视觉特征提取;采用基于场景中目标尺度的不一致性对伪造视频进行识别;采用高斯混合模型–通用背景模型对不同装备进行声音识别,通过音频信息的匹配情况判断视频真伪,是解决特定业务场景下伪造视频的高准确率识别,以及对不同业务场景的迁移。
附图说明
图1为本发明的GMM-UBM结构模型图。
具体实施方式
下面对本发明附图结合实施例作出进一步说明。
一种指定场景下深度伪造视频识别方法,具体的步骤为
步骤1对场景深度伪造视频中的目标与非目标利用掩膜区域卷积神经网络方法Mask R-CNN方法进行检测分割并进行识别;
步骤2基于视觉特征提取的算法XceptionNet对装备目标和背景分别进行视觉特征提取;
步骤3采用基于场景中目标尺度的不一致性对伪造视频进行识别;
步骤4采用高斯混合模型–通用背景模型,即Gaussian mixture model-universalbackground model,GMM-UBM模型,对不同装备进行声音识别,通过音频信息的匹配情况判断视频真伪。
作为本发明的具体实施方式,步骤1中,是针对指定场景中目标检测分割与识别技术,是基于卷积神经网络对目标物体的特征进行学习,得到特征表达,采用掩膜区域卷积神经网络方法Mask R-CNN方法对场景中的目标进行检测分割并进行识别的,依次进行采用ResNet-FPN(残差网络-特征金字塔网络)的架构特征提取、加一个Mask(掩码)预测分支进行分割预测,其中预测时设置为掩码和类标签的预测方式。
采用Mask R-CNN方法具体步骤为:
(1)通过区域推荐网络(RPN)(区域推荐网络)生成候选区域;
(2)ROI Align(目标区域对齐)使用双线性插值来获得每个块对应的特征;
(3)利用ROI Align之后的head部分,扩大ROI Align的输出维度;
(4)按照每一个类都输出一张输出预测图,进行输出K个Mask预测图,并采用average binary cross-entropy loss(平均二元交叉熵损失)训练,K为正整数;
(5)对于目标框的坐标和目标类别,使用和Faster-RCNN相同的损失函数进行训练,其中Mask R-CNN的训练损失函数:
Lfinal=Lcls+Lbox+Lmask
其中,Lcls为分类损失函数,Lbox为回归损失函数,Lmask为分割损失函数。
(6)通过最后的三个分支的输出,在Mask R-CNN预测目标的类别、目标的边界框和目标的掩码;
(7)根据目标类别,将目标与背景物体区分开来。
步骤2中,采用XceptionNet进行装备目标和背景的视觉特征提取,其中采用深度可分离卷积代替原始Inception v3(一种GoogleNet)里的卷积操作,并且设置Residuallearning(残差学习)的结构来加快收敛速度。
步骤2中,提取视觉特征后,接着对抽取出来的特征进行双线性变换后,使用二分类方法判断装备和图像背景之间纹理是否一致,进行伪造视频识别。
还包括将人脸检测场景应用到场景中,模型先通过运动放大来增强目标微动作,然后提取方向光流直方图HOOF和动态纹理LBP-TOP特征来捕获目标帧间差异,基于目标帧间不一致性来判断视频是否伪造。
步骤3中基于通过Mask R-CNN方法获取到目标的类别和边框,对不同目标之间的比例进行对比,具体为:
(1)构建多组指定场景中目标和非指定场景中目标的尺寸数据库;
(2)采用Canny算法进行边缘检测和基于霍夫曼变换的直线识别,基于识别出的直线延长线的交互点,找出透视焦点,依据透视原理,将物体的尺寸进行矫正;
(3)针对指定场景伪造视频中的目标需要通过这些标准数据进行校验比较。
步骤4中,对不同装备进行声音识别的具体步骤为:
(1)在训练阶段,首先对发动机声音进行预处理之后,提取出发动机声音的MFCC(梅尔频率倒谱系数)特征;
(2)然后用部分声音训练统一背景模型,构建UBM模型;
(3)再通过最大后验准则训练来得到在通用背景模型的每个高斯分量上进行自适应得到GMM-BUM模型,其中采用自适应方法是MAP自适应算法;
(4)在识别阶段,把待测试语音的特征,与训练好的GMM-UBM结构模型匹配,最终的输出评分为GMM和UBM的输出评分之差。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (8)
1.一种指定场景下深度伪造视频识别方法,其特征在于:具体的步骤为
步骤1对场景深度伪造视频中的目标与非目标利用掩膜区域卷积神经网络方法进行检测分割并进行识别;
步骤2基于视觉特征提取的算法对装备目标和背景分别进行视觉特征提取;
步骤3采用基于场景中目标尺度的不一致性对伪造视频进行识别;
步骤4采用高斯混合模型–通用背景模型对不同装备进行声音识别,通过音频信息的匹配情况判断视频真伪。
2.根据权利要求1所述指定场景下深度伪造视频识别方法,其特征在于:步骤1中,是基于卷积神经网络对目标物体的特征进行学习,得到特征表达,采用掩膜区域卷积神经网络方法对场景中的目标进行检测分割并进行识别的,依次进行采用残差网络-特征金字塔网络的架构特征提取、加一个掩膜预测分支进行分割预测,其中预测时设置为掩码和类标签的预测方式。
3.根据权利要求2所述指定场景下深度伪造视频识别方法,其特征在于:采用掩膜区域卷积神经网络方法具体步骤为:
(1)通过区域推荐网络区域推荐网络生成候选区域;
(2)目标区域对齐使用双线性插值来获得每个块对应的特征;
(3)利用目标区域对齐之后的头部分,扩大目标区域对齐的输出维度;
(4)按照每一个类都输出一张输出预测图,进行输出K个掩码预测图,并采用平均二元交叉熵损失训练,K为正整数;
(5)对于目标框的坐标和目标类别,使用和快速区域卷积神经网络相同的损失函数进行训练,其中掩码区域卷积神经网络的训练损失函数:
Lfinal=Lcls+Lbox+Lmask
其中,Lcls为分类损失函数,Lbox为回归损失函数,Lmask为分割损失函数。
(6)通过最后的三个分支的输出,在掩码区域卷积神经网络预测目标的类别、目标的边界框和目标的掩码;
(7)根据目标类别,将目标与背景物体区分开来。
4.根据权利要求1所述指定场景下深度伪造视频识别方法,其特征在于:步骤2中采用视觉特征提取算法进行装备目标和背景的视觉特征提取,其中采用深度可分离卷积代替原始算法里的卷积操作,并且设置残差学习的结构来加快收敛速度。
5.根据权利要求4所述指定场景下深度伪造视频识别方法,其特征在于:步骤2中,提取视觉特征后,接着对抽取出来的特征进行双线性变换后,使用二分类方法判断装备和图像背景之间纹理是否一致,进行伪造视频识别。
6.根据权利要求5所述指定场景下深度伪造视频识别方法,其特征在于:步骤2中,还包括将人脸检测场景应用到场景中,模型先通过运动放大来增强目标微动作,然后提取方向光流直方图和动态纹理特征来捕获目标帧间差异,基于目标帧间不一致性来判断视频是否伪造。
7.根据权利要求1所述指定场景下深度伪造视频识别方法,其特征在于:步骤3中基于通过掩码区域卷积神经网络方法获取到目标的类别和边框,对不同目标之间的比例进行对比,具体为:
(1)构建多组指定场景中目标和非指定场景中目标的尺寸数据库;
(2)采用Canny算法进行边缘检测和基于霍夫曼变换的直线识别,基于识别出的直线延长线的交互点,找出透视焦点,依据透视原理,将物体的尺寸进行矫正;
(3)针对指定场景伪造视频中的目标需要通过这些标准数据进行校验比较。
8.根据权利要求1所述指定场景下深度伪造视频识别方法,其特征在于:步骤4中,对不同装备进行声音识别的具体步骤为:
(1)在训练阶段,首先对发动机声音进行预处理之后,提取出发动机声音的梅尔频率倒谱系数特征;
(2)然后用部分声音训练统一背景模型,构建通用背景模型模型;
(3)再通过最大后验准则训练来得到在通用背景模型的每个高斯分量上进行自适应得到高斯混合模型-通用背景模型,其中采用自适应方法是映射自适应算法;
(4)在识别阶段,把待测试语音的特征,与训练好的高斯混合模型-通用背景模型结构模型匹配,最终的输出评分为高斯混合模型和通用背景模型的输出评分之差。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010955588.1A CN112200001A (zh) | 2020-09-11 | 2020-09-11 | 一种指定场景下深度伪造视频识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010955588.1A CN112200001A (zh) | 2020-09-11 | 2020-09-11 | 一种指定场景下深度伪造视频识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112200001A true CN112200001A (zh) | 2021-01-08 |
Family
ID=74016299
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010955588.1A Pending CN112200001A (zh) | 2020-09-11 | 2020-09-11 | 一种指定场景下深度伪造视频识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112200001A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326400A (zh) * | 2021-06-29 | 2021-08-31 | 合肥高维数据技术有限公司 | 基于深度伪造视频检测的模型的评价方法及系统 |
CN113449727A (zh) * | 2021-07-19 | 2021-09-28 | 中国电子科技集团公司第二十八研究所 | 一种基于深度神经网络的伪装目标检测识别方法 |
CN115311525A (zh) * | 2022-10-08 | 2022-11-08 | 阿里巴巴(中国)有限公司 | 深度伪造检测方法及对应装置 |
Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2480487A1 (en) * | 2003-09-08 | 2005-03-08 | Deluxe Laboratories, Inc. | Program encoding and counterfeit tracking system and method |
CN101051344A (zh) * | 2006-04-04 | 2007-10-10 | 上海阿帝凡思信息技术有限公司 | 基于光流方向直方图和肤色流形变分的敏感视频识别方法 |
KR20110090731A (ko) * | 2010-02-04 | 2011-08-10 | 한국전자통신연구원 | 위조 영상 판별 장치 및 그 방법 |
CN109492551A (zh) * | 2018-10-25 | 2019-03-19 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及应用活体检测方法的相关系统 |
CN109740546A (zh) * | 2019-01-07 | 2019-05-10 | 福州大学 | 一种篡改区域经过几何变换的伪造视频检测方法 |
CN110674675A (zh) * | 2019-08-02 | 2020-01-10 | 杭州电子科技大学 | 一种行人面部反欺诈方法 |
CN111008567A (zh) * | 2019-11-07 | 2020-04-14 | 郑州大学 | 一种驾驶员行为识别方法 |
CN111160286A (zh) * | 2019-12-31 | 2020-05-15 | 中国电子科技集团公司信息科学研究院 | 一种视频真伪鉴别方法 |
CN111222457A (zh) * | 2020-01-06 | 2020-06-02 | 电子科技大学 | 一种基于深度可分离卷积的鉴别视频真伪性的检测方法 |
CN111242155A (zh) * | 2019-10-08 | 2020-06-05 | 台州学院 | 一种基于多模深度学习的双模态情感识别方法 |
CN111353395A (zh) * | 2020-02-19 | 2020-06-30 | 南京信息工程大学 | 一种基于长短期记忆网络的换脸视频检测方法 |
CN111368764A (zh) * | 2020-03-09 | 2020-07-03 | 零秩科技(深圳)有限公司 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
CN111444873A (zh) * | 2020-04-02 | 2020-07-24 | 北京迈格威科技有限公司 | 视频中人物真伪的检测方法、装置、电子设备及存储介质 |
CN111444881A (zh) * | 2020-04-13 | 2020-07-24 | 中国人民解放军国防科技大学 | 伪造人脸视频检测方法和装置 |
KR20200091799A (ko) * | 2019-01-23 | 2020-07-31 | 건국대학교 산학협력단 | 딥 러닝을 통해 생성된 가짜 동영상의 무결성 검증 방법 및 시스템 |
CN111539942A (zh) * | 2020-04-28 | 2020-08-14 | 中国科学院自动化研究所 | 基于多尺度深度特征融合的人脸深度篡改图像的检测方法 |
CN111581568A (zh) * | 2020-03-25 | 2020-08-25 | 中山大学 | 一种网页端人物换背景的方法 |
-
2020
- 2020-09-11 CN CN202010955588.1A patent/CN112200001A/zh active Pending
Patent Citations (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2480487A1 (en) * | 2003-09-08 | 2005-03-08 | Deluxe Laboratories, Inc. | Program encoding and counterfeit tracking system and method |
CN101051344A (zh) * | 2006-04-04 | 2007-10-10 | 上海阿帝凡思信息技术有限公司 | 基于光流方向直方图和肤色流形变分的敏感视频识别方法 |
KR20110090731A (ko) * | 2010-02-04 | 2011-08-10 | 한국전자통신연구원 | 위조 영상 판별 장치 및 그 방법 |
CN109492551A (zh) * | 2018-10-25 | 2019-03-19 | 腾讯科技(深圳)有限公司 | 活体检测方法、装置及应用活体检测方法的相关系统 |
CN109740546A (zh) * | 2019-01-07 | 2019-05-10 | 福州大学 | 一种篡改区域经过几何变换的伪造视频检测方法 |
KR20200091799A (ko) * | 2019-01-23 | 2020-07-31 | 건국대학교 산학협력단 | 딥 러닝을 통해 생성된 가짜 동영상의 무결성 검증 방법 및 시스템 |
CN110674675A (zh) * | 2019-08-02 | 2020-01-10 | 杭州电子科技大学 | 一种行人面部反欺诈方法 |
CN111242155A (zh) * | 2019-10-08 | 2020-06-05 | 台州学院 | 一种基于多模深度学习的双模态情感识别方法 |
CN111008567A (zh) * | 2019-11-07 | 2020-04-14 | 郑州大学 | 一种驾驶员行为识别方法 |
CN111160286A (zh) * | 2019-12-31 | 2020-05-15 | 中国电子科技集团公司信息科学研究院 | 一种视频真伪鉴别方法 |
CN111222457A (zh) * | 2020-01-06 | 2020-06-02 | 电子科技大学 | 一种基于深度可分离卷积的鉴别视频真伪性的检测方法 |
CN111353395A (zh) * | 2020-02-19 | 2020-06-30 | 南京信息工程大学 | 一种基于长短期记忆网络的换脸视频检测方法 |
CN111368764A (zh) * | 2020-03-09 | 2020-07-03 | 零秩科技(深圳)有限公司 | 一种基于计算机视觉与深度学习算法的虚假视频检测方法 |
CN111581568A (zh) * | 2020-03-25 | 2020-08-25 | 中山大学 | 一种网页端人物换背景的方法 |
CN111444873A (zh) * | 2020-04-02 | 2020-07-24 | 北京迈格威科技有限公司 | 视频中人物真伪的检测方法、装置、电子设备及存储介质 |
CN111444881A (zh) * | 2020-04-13 | 2020-07-24 | 中国人民解放军国防科技大学 | 伪造人脸视频检测方法和装置 |
CN111539942A (zh) * | 2020-04-28 | 2020-08-14 | 中国科学院自动化研究所 | 基于多尺度深度特征融合的人脸深度篡改图像的检测方法 |
Non-Patent Citations (4)
Title |
---|
方艳梅;: "深度伪造对人脸识别支付系统安全性的挑战与应对", 金融科技时代, no. 03, 10 March 2020 (2020-03-10) * |
杨毫鸽: "飞机发动机异常声音识别方法研究", 《计算机科学及应用》, no. 8, 15 August 2018 (2018-08-15), pages 6 - 25 * |
梁瑞刚;吕培卓;赵月;陈鹏;邢豪;张颖君;韩冀中;赫然;赵险峰;李明;陈恺;: "视听觉深度伪造检测技术研究综述", 信息安全学报, no. 02, 15 March 2020 (2020-03-15), pages 1 - 12 * |
鲍薇;温正棋;: "声音伪造与防伪检测技术研究", 信息技术与标准化, no. 1, 10 March 2020 (2020-03-10), pages 54 - 58 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113326400A (zh) * | 2021-06-29 | 2021-08-31 | 合肥高维数据技术有限公司 | 基于深度伪造视频检测的模型的评价方法及系统 |
CN113326400B (zh) * | 2021-06-29 | 2024-01-12 | 合肥高维数据技术有限公司 | 基于深度伪造视频检测的模型的评价方法及系统 |
CN113449727A (zh) * | 2021-07-19 | 2021-09-28 | 中国电子科技集团公司第二十八研究所 | 一种基于深度神经网络的伪装目标检测识别方法 |
CN115311525A (zh) * | 2022-10-08 | 2022-11-08 | 阿里巴巴(中国)有限公司 | 深度伪造检测方法及对应装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
RU2738325C2 (ru) | Способ и устройство аутентификации личности | |
Youssif et al. | Automatic facial expression recognition system based on geometric and appearance features | |
Yan et al. | Biometric recognition using 3D ear shape | |
Messer et al. | Face verification competition on the XM2VTS database | |
Majhi et al. | Novel features for off-line signature verification | |
CN112200001A (zh) | 一种指定场景下深度伪造视频识别方法 | |
De Mira et al. | Image feature extraction for application of biometric identification of iris-a morphological approach | |
KR20200063292A (ko) | 얼굴 영상 기반의 감정 인식 시스템 및 방법 | |
CN110008909B (zh) | 一种基于ai的实名制业务实时稽核系统 | |
Chetty et al. | Automated lip feature extraction for liveness verification in audio-video authentication | |
CN114333070A (zh) | 一种基于深度学习的考生异常行为检测方法 | |
CN114550268A (zh) | 一种利用时空特征的深度伪造视频检测方法 | |
Hrkać et al. | Deep learning architectures for tattoo detection and de-identification | |
CN113468954B (zh) | 基于多通道下局部区域特征的人脸伪造检测方法 | |
Fritz et al. | Building detection from mobile imagery using informative SIFT descriptors | |
CN112651319B (zh) | 一种视频检测方法、装置、电子设备及存储介质 | |
Özkiper et al. | Fingerprint liveness detection using deep learning | |
CN111104892A (zh) | 基于目标检测的人脸篡改鉴定方法、模型及其鉴定方法 | |
CN114360058B (zh) | 一种基于行走视角预测的跨视角步态识别方法 | |
Karungaru et al. | Face recognition in colour images using neural networks and genetic algorithms | |
CN109886212A (zh) | 从滚动指纹合成现场指纹的方法和装置 | |
García et al. | Pollen grains contour analysis on verification approach | |
Thai et al. | An improved single shot detector for face detection using local binary patterns | |
CN114005184A (zh) | 一种基于少量样本的手写签名真伪识别方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |