CN111814543A - 深度视频对象修复篡改检测方法 - Google Patents
深度视频对象修复篡改检测方法 Download PDFInfo
- Publication number
- CN111814543A CN111814543A CN202010483128.3A CN202010483128A CN111814543A CN 111814543 A CN111814543 A CN 111814543A CN 202010483128 A CN202010483128 A CN 202010483128A CN 111814543 A CN111814543 A CN 111814543A
- Authority
- CN
- China
- Prior art keywords
- convolution
- size
- kernel
- space
- step size
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种深度视频对象修复篡改检测方法,包括如下步骤:建立网络模型,所述网络模型包括空时累积残差预处理模块、分层特征提取模块及上采样定位模块;所述空时累积残差预处理模块通过(1+2)维连续卷积层提取空时累积残差;所述分层特征提取模块接收所述空时累积残差,并经过卷积、最大池化和线性整流函数获取高级表述特征;所述上采样定位模块输出逐个像素的类别标签、标记篡改区域和原始区域。本发明提供的深度视频对象修复篡改检测方法精确度高。
Description
【技术领域】
本发明涉及视频对象修复篡改检测技术领域,具体涉及一种深度视频对象修复篡改检测方法。
【背景技术】
视频对象修复方法是根据已有视频数据信息,对缺失或破损区域进行信息填充,保证在不同的场景下修复区域与背景完美契合,即使后续视频帧中的环境发生显著变化,修复区域也应该在后续视频帧中保持外观的一致性和时域的一致性,使得修复后的视频依然自然、流畅,让观察者无法直接察觉曾经缺损和被修复的痕迹。当今社会,有不法分子利用视频对象修复方法用于恶意的对象移除,合成虚假视频,并将恶意篡改的虚假视频传播到互联网误导社会舆论和影响司法公正。因此,需要对视频对象修复篡改进行检测。
相关技术中,大多数视频对象修复篡改的被动取证都是围绕传统的视频对象修复篡改方法开展的,也就是针对基于扩散的视频对象修复和基于样本合成的视频对象修复的取证。基于扩散的视频对象修复仅能修复小或狭窄的区域,例如在旧影像上的划痕。它在扩散方向上呈现像素一致性,并且当修复较大区域的时候,会产生明显的模糊现象;基于样本合成的修复虽然能填充较大区域,但是它缺乏恢复非重复或复杂纹理区域的能力,尤其是在视频空时域无匹配样本的时候。同时,修复区域在其邻近的空时域能找到与之相似度极高的相似样本。然而,深度视频对象修复技术能缓解或弥补传统视频对象修复存在的缺陷,合成更加逼真的篡改视频,使得现有的针对传统视频对象修复的检测方法失效或性能急剧退化。
因此,实有必要提供一种新的深度视频对象修复篡改检测方法以解决上述问题。
【发明内容】
本发明的目的是克服上述技术问题,提供一种检测精度高的深度视频对象修复篡改检测方法。
为了实现上述目的,本发明提供一种深度视频对象修复篡改检测方法,包括如下步骤:
S1:建立网络模型,所述网络模型包括空时累积残差预处理模块、分层特征提取模块及上采样定位模块;
S2:所述空时累积残差预处理模块通过(1+2)维连续卷积提取空时累积残差;
S3:所述分层特征提取模块接收所述空时累积残差,并经过卷积、最大池化和线性整流函数获取高级表述特征;
S4:所述上采样定位模块输出视频中逐个像素的类别标签并标记篡改区域和原始区域。
优选的,所述空时累积残差预处理模块包括一维时域滤波器和二维空域各向异性滤波器,所述一维时域滤波器用于提取时域累积残差,所述二维空域各向异性滤波器用于提取空域累积残差,所述一维时域滤波器和二维空域各向异性滤波器均设置为自学习滤波器。
优选的,所述一维时域滤波器的中心点值为1,且所有系数和为0。
优选的,所述二维空域各向异性滤波器为3×3各向异性滤波器,其关于中心点呈中心对称和镜像对称。
优选的,所述步骤S2具体为:所述空时累积残差预处理模块将时域累积残差后的结果与空域累积残差后结果进行差值运算获得空时累积残差。
优选的,所述步骤S2中的“连续卷积”包括:
第一卷积,核尺寸为3×3,核数目为3,步长为1;
第二卷积,核尺寸为3×3,核数目为3,步长为1;
第三卷积,核尺寸为3×3,核数目为8,步长为1;
第四卷积,核尺寸为3×3,核数目为8,步长为1。
优选的,所述步骤S3具体为:
第五卷积,核尺寸为3×3,核数目为32,步长为1;
第一最大池化,核尺寸为3×3,步长为2;
第六卷积,核尺寸为3×3,核数目为64,步长为1;
第二最大池化,核尺寸为3×3,步长为2;
第七卷积,核尺寸为3×3,核数目为128,步长为1;
第三最大池化,核尺寸为3×3,步长为2;
第八卷积,核尺寸为1×1,核数目为256,步长为1;
第四最大池化,核尺寸为3×3,步长为2。
优选的,所述步骤S4具体为:应用转置卷积增大空间分辨率,以获取每个像素的类别标签,并进行进行第九卷积,实现最终篡改定位的输出。
优选的,所述“转置卷积”包括:
第一转置卷积,核尺寸为8×8,核数目为16,步长为4;
第二转置卷积,核尺寸为8×8,核数目为1,步长为4。
优选的,所述第九卷积的核尺寸为5×5,核数目为1,步长为1。
与相关技术相比,本发明提供的深度视频对象修复篡改检测方法中,空时累积残差预处理模块采用自学习的一维时域滤波器和二维空域各向异性滤波器,实现空时域的残差信息提取,有效的抑制视频帧内容;为稳定预测残差,采用两次卷积后特征图与原特征图级联,获取稳定的残差,为后续的特征提取和上采样定位提供重要的保证;分层特征提取模块采用卷积、最大池化和线性整流函数,学习了不同通道特征间的线性组合,减少了特征图维数,预防了过拟合,也避免了梯度消失,有效的提取可识别特征;上采样定位模块针对特征提取模块缩小了分辨率,为获得像素级的检测结果,应用转置卷积增大定位输出到输入视频帧等大的空间分辨率,同时也设置focal损失函数和分段上采样策略解决篡改样本和未篡改样本间的不平滑问题以及直接上采样导致的明显棋盘效应,整个检测方案在构建的测试集获得90.72%的检测精度。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图,其中:
图1为本发明提供的深度视频对象修复篡改检测方法的流程图;
图2为图1所示的流程图的结构框图。
【具体实施方式】
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请结合参阅图1及图2,本发明提供的深度视频对象修复篡改检测方法包括如下步骤:
S1:建立网络模型,所述网络模型包括空时累积残差预处理模块、分层特征提取模块及上采样定位模块。
所述空时累积残差预处理模块10包括一维时域滤波器11和二维空域各向异性滤波器12,所述一维时域滤波器11用于提取时域累积残差;所述二维空域各向异性滤波器12用于提取空域累积残差。优选的,所述一维时域滤波器11和二维空域各向异性滤波器12均设置为自学习滤波器。
进一步的,所述一维时域滤波器11的中心点值为1,且所有系数和为0,除中心点外,其他系数的初始值设置为-1/8。所述二维空域各向异性滤波器12为3×3各向异性滤波器,其关于中心点呈中心对称和镜像对称,中心点的上下左右系数具有相同值,左上、右上、左下和右下的系数具有相同值,每次迭代中,具有相同系数位置的值等于反向传播过程中随机梯度更新后这些位置权重的平均值。
S2:所述空时累积残差预处理模块通过(1+2)维连续卷积提取空时累积残差。
具体的,所述空时累积残差预处理模块10将时域累积残差后的结果与空域累积残差后结果进行差值运算获得空时累积残差。由于提取的时域累积残差和空域累积残差可能会比较脆弱,如果直接使用可能导致不稳定的训练。为获得稳定的预测残差,遵循DenseNet的特征重用思想,执行两次卷积后特征图与原特征图级联,连续执行两次,获得最终稳定的残差。该过程能抑制视频帧中的内容从而获得稳定的预测残差。
所述步骤S2中“连续卷积”包括:
第一卷积,核尺寸为3×3,核数目为3,步长为1;
第二卷积,核尺寸为3×3,核数目为3,步长为1;
第三卷积,核尺寸为3×3,核数目为8,步长为1;
第四卷积,核尺寸为3×3,核数目为8,步长为1。
S3:所述分层特征提取模块接收所述空时累积残差,并经过卷积、最大池化和线性整流函数获取高级表述特征。
所述分层特征提取模块20执行四组3×3卷积、最大池化(Maxpooling)和线性整流函数(ReLU)操作,以缩小分辨率,输出特征图中的每个空间位置对应输入视频帧某个特定的区域。
所述步骤S3具体为:
第五卷积,核尺寸为3×3,核数目为32,步长为1;
第一最大池化,核尺寸为3×3,步长为2;
第六卷积,核尺寸为3×3,核数目为64,步长为1;
第二最大池化,核尺寸为3×3,步长为2;
第七卷积,核尺寸为3×3,核数目为128,步长为1;
第三最大池化,核尺寸为3×3,步长为2;
第八卷积,核尺寸为1×1,核数目为256,步长为1;
第四最大池化,核尺寸为3×3,步长为2。
卷积层为3×3卷积核,因为它性能优于其他较大的卷积核。卷积核的数目逐渐增加,由32增加到256,考虑较小的步长,边界填充0保证具有相同的输出,最后一个卷积采用1×1卷积核学习相同位置不同通道特征间的线性结合;最大池化引入网络非线性,减少特征图维数,预防过拟合;线性整流函数的引入增加非线性能力避免梯度消失(gradientvanishing);而非线性操作(Maxpooling和ReLU)并没有引入残差预处理,避免被非线性运算破坏其学习的残差;由于输入视频的分辨率可能不一致,设置批处理标准化(BN)中batch尺寸为1。
S4:所述上采样定位模块输出逐个像素的类别标签并标记篡改区域和原始区域。
所述上采样定位模块30应用转置卷积(Transposed conv)增大空间分辨率,以获取每个像素的类别标签,并进行进行第九卷积,实现最终篡改定位的输出。具体的,所述“转置卷积”包括:
第一转置卷积,核尺寸为8×8,核数目为16,步长为4;
第二转置卷积,核尺寸为8×8,核数目为1,步长为4。
转置卷积采用可学习的双线性核,分别执行2次4倍上采样,padding为2,且保持上采样前后特征图中的元素数目一致,最后执行额外的第九卷积,其中所述第九卷积的核尺寸为5×5,核数目为1,步长为1,进一步弱化棋盘效应,同时实现最终篡改定位的输出。
具体的,请参阅表1,表1为本发明提供的网络模型参数。
表1网络模型参数
采用实验验证本发明所提供的深度视频对象修复篡改检测方法的精确性:
测试集的构建:首先,筛选大规模视频分割视频集合YouTube-VOS。该数据集涵盖了各种运动对象、相机视角和运动类型,包含了4453个视频和7822个独特的对象(包括活动多样的人、动物、车辆、配件和一些常见的物品),每个视频持续3到5秒且具有人工标注的对象分割掩模,对于视频对象移除,为获得真实的参考标准(ground truth),利用该数据集中的训练集分割合成具有目标对象和没有目标对象的视频对。由于移除的对象具有一定的尺寸,从中挑选视频中对象全标注、对象尺寸大于30像素块或占据视频分辨率2/3以下的视频,总共500个,控制其持续时间为3秒或5秒,保证在一个场景以内。其次,将经过筛选的具有对象掩膜的原始视频送入深度视频对象修复方法,例如VORNet,进行对象移除修复。最后,考虑对象篡改视频数据集的多样性,将前面剔除的具有完整对象掩膜的未篡改视频放入视频数据集,作为原始视频集合的一部分。至此,得到深度视频对象修复篡改取证的测试集(含1958个具有完整标注的真实视频,500个视频对象修复后的篡改视频)。
实验过程:350个视频对用于训练,50个视频对用于验证,余下的100个视频对用于测试。训练的过程中采用focal损失和分段上采样策略,最终本发明提供的深度视频对象修复篡改检测方法的检测精度为90.72%,而文献[1]和[2]的检测精度分别为45.36%和35.85%。其中文献[1]为Lin C S,Tsay J J.A passive approach for effectivedetection and localization of region-level video forgery with spatio-temporalcoherence analysis[J].Digital Investigation,2014,11(2):120-140;文献[2]为Saxena S,Subramanyam A V,Ravi H.Video inpainting detection and localizationusing inconsistencies in optical flow[C].IEEE Region 10 Conference(TENCON),2016:1361-1365。
为测试本发明提供的深度视频对象修复篡改检测方法中各个组成模块的检测精度,设计四种不同的配置方案:第一个方案,采用连续帧间灰度差值替代自学习时域卷积和空域高通滤波替代自学习空域各向异性卷积,分层特征提取模块和上采样定位模块不发生改变;第二个方案,采用空时累积残差预处理模块和上采样定位模块,特征提取模块采用VGG骨干网络替换;第三个方案,采用空时累积残差预处理模块和分层特征提取模块,上采样定位模块采用16倍直接上采样和互熵损失,未考虑样本间的不平衡问题和棋盘效应。第四个方案,采用本发明提供深度视频对象修复篡改检测方法中的所有模块,结果如表2所示。
表2不同配置的检测精度(%)
方案 | 第一方案 | 第二方案 | 第三方案 | 第四方案(本发明) |
检测精度 | 81.72 | 85.95 | 68.38 | 90.72 |
从表2中,可以看到本发明提供深度视频对象修复篡改检测方法中的空时累积残差预处理模块10、分层特征提取模块20及上采样定位模块30都能有效的提升检测精度,而且本发明的配置组合获得最高的检测精度。这也说明本发明可以有效的检测深度视频对象修复篡改,可以满足视频真实性和完整性的验证要求,为视频篡改的被动取证发展提供新的实现方法,对于以新闻诚信、司法公正为代表的公共信任秩序的维护,提供有效的检测手段或者重要的技术支撑,具有广泛的应用前景。
与相关技术相比,本发明提供的深度视频对象修复篡改检测方法中,空时累积残差预处理模块采用自学习的一维时域滤波器和二维空域各向异性滤波器,实现空时域的残差信息提取,有效的抑制视频帧内容;为稳定预测残差,采用两次卷积后特征图与原特征图级联,获取稳定的残差,为后续的特征提取和上采样定位提供重要的保证;分层特征提取模块采用卷积、最大池化和线性整流函数,学习了不同通道特征间的线性组合,减少了特征图维数,预防了过拟合,也避免了梯度消失,有效的提取可识别特征;上采样定位模块针对特征提取模块缩小了分辨率,为获得像素级的检测结果,应用转置卷积增大定位输出到输入视频帧等大的空间分辨率,同时也设置focal损失函数和分段上采样策略解决篡改样本和未篡改样本间的不平滑问题以及直接上采样导致的明显棋盘效应,整个检测方案在构建的测试集获得90.72%的检测精度。
以上所述的仅是本发明的实施方式,在此应当指出,对于本领域的普通技术人员来说,在不脱离本发明创造构思的前提下,还可以做出改进,但这些均属于本发明的保护范围。
Claims (10)
1.一种深度视频对象修复篡改检测方法,其特征在于,包括如下步骤:
S1:建立网络模型,所述网络模型包括空时累积残差预处理模块、分层特征提取模块及上采样定位模块;
S2:所述空时累积残差预处理模块通过(1+2)维连续卷积提取空时累积残差;
S3:所述分层特征提取模块接收所述空时累积残差,并经过卷积、最大池化和线性整流函数获取高级表述特征;
S4:所述上采样定位模块输出视频中逐个像素的类别标签并标记篡改区域和原始区域。
2.根据权利要求1所述的深度视频对象修复篡改检测方法,其特征在于,所述空时累积残差预处理模块包括一维时域滤波器和二维空域各向异性滤波器,所述一维时域滤波器用于提取时域累积残差,所述二维空域各向异性滤波器用于提取空域累积残差,所述一维时域滤波器和二维空域各向异性滤波器均设置为自学习滤波器。
3.根据权利要求2所述的深度视频对象修复篡改检测方法,其特征在于,所述一维时域滤波器的中心点值为1,且所有系数和为0。
4.根据权利要求2所述的深度视频对象修复篡改检测方法,其特征在于,所述二维空域各向异性滤波器为3×3各向异性滤波器,其关于中心点呈中心对称和镜像对称。
5.根据权利要求2所述的深度视频对象修复篡改检测方法,其特征在于,所述步骤S2具体为:所述空时累积残差预处理模块将时域累积残差后的结果与空域累积残差后结果进行差值运算获得空时累积残差。
6.根据权利要求5所述的深度视频对象修复篡改检测方法,其特征在于,所述步骤S2中的“连续卷积”包括:
第一卷积,核尺寸为3×3,核数目为3,步长为1;
第二卷积,核尺寸为3×3,核数目为3,步长为1;
第三卷积,核尺寸为3×3,核数目为8,步长为1;
第四卷积,核尺寸为3×3,核数目为8,步长为1。
7.根据权利要求1所述的深度视频对象修复篡改检测方法,其特征在于,所述步骤S3具体为:
第五卷积,核尺寸为3×3,核数目为32,步长为1;
第一最大池化,核尺寸为3×3,步长为2;
第六卷积,核尺寸为3×3,核数目为64,步长为1;
第二最大池化,核尺寸为3×3,步长为2;
第七卷积,核尺寸为3×3,核数目为128,步长为1;
第三最大池化,核尺寸为3×3,步长为2;
第八卷积,核尺寸为1×1,核数目为256,步长为1;
第四最大池化,核尺寸为3×3,步长为2。
8.根据权利要求1所述的深度视频对象修复篡改检测方法,其特征在于,所述步骤S4具体为:应用转置卷积增大空间分辨率,以获取每个像素的类别标签,并进行进行第九卷积,实现最终篡改定位的输出。
9.根据权利要求8所述的深度视频对象修复篡改检测方法,其特征在于,所述“转置卷积”包括:
第一转置卷积,核尺寸为8×8,核数目为16,步长为4;
第二转置卷积,核尺寸为8×8,核数目为1,步长为4。
10.根据权利要求8所述的深度视频对象修复篡改检测方法,其特征在于,所述第九卷积的核尺寸为5×5,核数目为1,步长为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010483128.3A CN111814543B (zh) | 2020-06-01 | 2020-06-01 | 深度视频对象修复篡改检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010483128.3A CN111814543B (zh) | 2020-06-01 | 2020-06-01 | 深度视频对象修复篡改检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111814543A true CN111814543A (zh) | 2020-10-23 |
CN111814543B CN111814543B (zh) | 2023-07-21 |
Family
ID=72848729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010483128.3A Active CN111814543B (zh) | 2020-06-01 | 2020-06-01 | 深度视频对象修复篡改检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111814543B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785480A (zh) * | 2021-03-15 | 2021-05-11 | 河北工业大学 | 基于频域变换和残差反馈模块的图像拼接篡改检测方法 |
CN114155469A (zh) * | 2021-12-07 | 2022-03-08 | 湖南科技大学 | 基于双流卷积神经网络的深度视频帧率上转换检测装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764142A (zh) * | 2018-05-25 | 2018-11-06 | 北京工业大学 | 基于3dcnn的无人机影像森林烟雾检测和分类方法 |
CN109670446A (zh) * | 2018-12-20 | 2019-04-23 | 泉州装备制造研究所 | 基于线性动态系统和深度网络的异常行为检测方法 |
CN110378288A (zh) * | 2019-07-19 | 2019-10-25 | 合肥工业大学 | 一种基于深度学习的多级时空运动目标检测方法 |
CN110852316A (zh) * | 2019-11-07 | 2020-02-28 | 中山大学 | 一种采用密集结构卷积网络的图像篡改检测和定位方法 |
CN111046821A (zh) * | 2019-12-19 | 2020-04-21 | 东北师范大学人文学院 | 一种视频行为识别方法、系统及电子设备 |
-
2020
- 2020-06-01 CN CN202010483128.3A patent/CN111814543B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108764142A (zh) * | 2018-05-25 | 2018-11-06 | 北京工业大学 | 基于3dcnn的无人机影像森林烟雾检测和分类方法 |
CN109670446A (zh) * | 2018-12-20 | 2019-04-23 | 泉州装备制造研究所 | 基于线性动态系统和深度网络的异常行为检测方法 |
CN110378288A (zh) * | 2019-07-19 | 2019-10-25 | 合肥工业大学 | 一种基于深度学习的多级时空运动目标检测方法 |
CN110852316A (zh) * | 2019-11-07 | 2020-02-28 | 中山大学 | 一种采用密集结构卷积网络的图像篡改检测和定位方法 |
CN111046821A (zh) * | 2019-12-19 | 2020-04-21 | 东北师范大学人文学院 | 一种视频行为识别方法、系统及电子设备 |
Non-Patent Citations (2)
Title |
---|
DING XIANGLING等: "Identification of frame-rate up-conversion based on spatial-temporal edge and occlusion with convolutional neural network", 《2020 IEEE INTERNATIONAL SYMPOSIUM ON CIRCUITS AND SYSTEMS ( ISCAS)》 * |
谈咏东;王永雄;陈姝意;缪银龙;: "(2+1)D多时空信息融合模型及在行为识别的应用", 信息与控制, no. 06 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112785480A (zh) * | 2021-03-15 | 2021-05-11 | 河北工业大学 | 基于频域变换和残差反馈模块的图像拼接篡改检测方法 |
CN112785480B (zh) * | 2021-03-15 | 2022-05-03 | 河北工业大学 | 基于频域变换和残差反馈模块的图像拼接篡改检测方法 |
CN114155469A (zh) * | 2021-12-07 | 2022-03-08 | 湖南科技大学 | 基于双流卷积神经网络的深度视频帧率上转换检测装置 |
CN114155469B (zh) * | 2021-12-07 | 2024-09-06 | 湖南科技大学 | 基于双流卷积神经网络的深度视频帧率上转换检测装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111814543B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Source camera identification based on content-adaptive fusion residual networks | |
Tang et al. | Median filtering detection of small-size image based on CNN | |
CN111292264B (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
Mahmoud | A new fast skin color detection technique | |
Gallagher et al. | Image authentication by detecting traces of demosaicing | |
Zhang et al. | Semantic-aware dehazing network with adaptive feature fusion | |
Peng et al. | A complete passive blind image copy-move forensics scheme based on compound statistics features | |
CN112150450B (zh) | 一种基于双通道U-Net模型的图像篡改检测方法及装置 | |
CN112907598A (zh) | 一种基于注意力cnn文档证件类图像篡改检测方法 | |
CN111814543B (zh) | 深度视频对象修复篡改检测方法 | |
CN111161158B (zh) | 一种基于生成网络结构的图像修复方法 | |
CN113159158B (zh) | 一种基于生成对抗网络的车牌矫正与重构方法及系统 | |
Liao et al. | GIFMarking: The robust watermarking for animated GIF based deep learning | |
CN111798359A (zh) | 一种基于深度学习的图像去水印方法 | |
Huang et al. | DS-UNet: a dual streams UNet for refined image forgery localization | |
CN111563462A (zh) | 图像元素的检测方法及装置 | |
CN113850284B (zh) | 一种基于多尺度特征融合和多分支预测的多操作检测方法 | |
CN111476727A (zh) | 一种面向换脸视频检测的视频运动增强方法 | |
Lu et al. | Revealing digital fakery using multiresolution decomposition and higher order statistics | |
CN113724153A (zh) | 一种基于机器学习的图像多余人物消除方法 | |
Liang et al. | Multi-scale and multi-patch transformer for sandstorm image enhancement | |
Singh et al. | Dense spatially-weighted attentive residual-haze network for image dehazing | |
Yakushev et al. | Docmarking: Real-Time Screen-Cam Robust Document Image Watermarking | |
Zhao et al. | Fast blind decontouring network | |
Hrudya et al. | Digital image forgery detection on artificially blurred images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |