CN113297899B - 一种基于深度学习的视频哈希算法 - Google Patents

一种基于深度学习的视频哈希算法 Download PDF

Info

Publication number
CN113297899B
CN113297899B CN202110306245.7A CN202110306245A CN113297899B CN 113297899 B CN113297899 B CN 113297899B CN 202110306245 A CN202110306245 A CN 202110306245A CN 113297899 B CN113297899 B CN 113297899B
Authority
CN
China
Prior art keywords
frame
video
hash
hash sequence
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110306245.7A
Other languages
English (en)
Other versions
CN113297899A (zh
Inventor
赵葛剑
周青
李欣然
秦川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202110306245.7A priority Critical patent/CN113297899B/zh
Publication of CN113297899A publication Critical patent/CN113297899A/zh
Application granted granted Critical
Publication of CN113297899B publication Critical patent/CN113297899B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的视频哈希算法,包括以下步骤:S1、将需要处理的视频输入;S2、构建一个三元组的图像数据集,其中为经过加噪等内容保留操作得到的相似帧图像;S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来训练网络,使之能将图片自动映射为固定长度的哈希序列;S4、将待处理视频的每一帧,共m帧输入至步骤S3训练好的神经网络模型;S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d;S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其余(m‑μ)帧为非关键帧;S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M,之后计算矩阵M的每一行均值。根据本发明,与传统人工提取视频特征设计哈希序列的方法相比,极大节省了人力物力。

Description

一种基于深度学习的视频哈希算法
技术领域
本发明涉及多媒体信息的技术领域,特别涉及一种基于深度学习的视频 哈希算法。
背景技术
近年来,随着数字移动设备以及互联网的普及,每天都会产生海量的视频 数据,然而如何处理庞大的视频文件成为一个迫切的问题,其中一个很重要 的方向就是基于视频内容的检索。早年,基于文本的视频检索技术进入我们 的生活,由人工对视频进行标注关键字标签,在检索时返回与关键字相同或 相似的视频,但此方法耗时耗力。然而基于视频内容的检索可以归结为一个 近似最近邻搜索问题。深度哈希算法是解决此问题的有效手段。哈希算法的 核心思想是将原始的高维数据映射为紧凑且固定长度的二进制哈希码。一段 视频或部分视频可以用一个低维的哈希序列来表示,极大地降低了存储成本, 并提高计算速度。近年来兴起的人工智能浪潮更为哈希算法的研究注入了新 的活力,深度学习有着极强的数据拟合能力,能够学习到高维数据的特征。
发明内容
针对现有技术中存在的不足之处,本发明的目的是提供一种基于深度学习 的视频哈希算法,与传统人工提取视频特征设计哈希序列的方法相比,极大 节省了人力物力。为了实现根据本发明的上述目的和其他优点,提供了一种 基于深度学习的视频哈希算法,包括以下步骤:
S1、将需要处理的视频输入,共m帧;
S2、构建一个三元组的图像数据集,其中为经过加噪等内容保留操作得 到的相似帧图像;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来 训练网络,使之能将图片自动映射为固定长度的哈希序列;
S4、将待处理视频的每一帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的 欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其 余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M, 之后计算矩阵M的每一行均值。
优选的,所述步骤S1包括将输入的视频按时间先后顺序逐帧排序,形成 视频帧集合F={f1,f2,…,fn},其中n为数据集中的样本个数。
优选的,所述步骤S2中三元组由{X,X*,Y*}三类静态图像组成,其中X 为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容保 留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n为 数据集的样本个数。
优选的,所述步骤S4包括遍历S1中的视频帧集合F,获取每一帧的哈 希序列,见公式(1)-(2):
Figure BDA0002987739480000021
Figure BDA0002987739480000022
其中,
Figure BDA0002987739480000026
为哈希生成函数,hfi(i=1,2,…,m)为每帧生成的哈希序列。
优选的,所述步骤S5中的d的计算公式为:
Figure BDA0002987739480000023
其中
Figure BDA0002987739480000024
Figure BDA0002987739480000025
为对应的当前帧的哈希序列和下一帧的哈希序列每一位 的值,L为哈希序列的长度。
优选的,所述步骤S7包括待处理视频的哈希序列G,所述G与矩阵M 的公式如下:
Figure BDA0002987739480000031
Figure BDA0002987739480000032
Figure BDA0002987739480000033
优选的,所述步骤步骤5中,通过计算每个当前帧的哈希序列hpresent与 下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1, d2,…,dm-1}。
本发明与现有技术相比,其有益效果是:基于深度学习的视频哈希算法, 针对视频文件数据量大不易处理等问题,本发明通过对视频帧基于内容差异 程度的排序,筛选出关键帧,去除视频中的非关键帧,然后将关键帧映射到 一段固定长度的哈希序列中,极大节省了存储成本。并且本发明所提出的一 种基于三元组的深度视频哈希算法,通过视频三元组的标签信息使模型学习 原始视频关键帧空间中的相似性结构,并使三元组中原始帧与非相似帧的哈 希序列间的欧氏距离大于原始帧与相似关键帧哈希序列的欧氏距离,相较于 人工提取特征,基于三元组的视频深度哈希算法极大节省了人力成本。
附图说明
图1为根据本发明的基于深度学习的视频哈希算法的算法流程图;
图2为根据本发明的基于深度学习的视频哈希算法的原视频关键帧图;
图3为根据本发明的基于深度学习的视频哈希算法的经缩放后的关键帧 图;
图4为根据本发明的基于深度学习的视频哈希算法的经灰度化后的关键 帧图;
图5为根据本发明的基于深度学习的视频哈希算法的经旋转后的关键帧 图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行 清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而 不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做 出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-5,一种基于深度学习的视频哈希算法,且该视频哈希算法可用 于相似视频的检索,包括以下步骤:S1、将需要处理的视频输入,共m帧;
S2、构建一个三元组的图像数据集,其中经过加噪等内容保留操作得到 的相似帧图像;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来 训练网络,使之能将图片自动映射为固定长度的哈希序列;
S4、将待处理视频的每一帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的 欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其 余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M, 之后计算矩阵M的每一行均值。
进一步的,所述步骤S1包括将输入的视频按时间先后顺序逐帧排序,形 成视频帧集合F={f1,f2,…,fn},其中n为数据集中的样本个数。
进一步的,所述步骤S2中三元组由{X,X*,Y*}三类静态图像组成,其中 X为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容 保留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n 为数据集中的样本个数。
进一步的,所述步骤S4包括遍历S1中的视频帧集合F,获取每一帧的 哈希序列,见公式(1)-(2):
Figure BDA0002987739480000051
Figure BDA0002987739480000052
其中,
Figure BDA0002987739480000059
为哈希生成函数,hfi(i=1,2,…,m)为每帧生成的哈希序列。
进一步的,所述步骤S5中的d的计算公式为:
Figure BDA0002987739480000053
其中
Figure BDA0002987739480000054
Figure BDA0002987739480000055
为对应的当前帧的哈希序列和下一帧的哈希序列每一位 的值,L为哈希序列的长度。
进一步的,所述步骤S7包括待处理视频的哈希序列G,所述G与矩阵 M的公式如下:
Figure BDA0002987739480000056
Figure BDA0002987739480000057
Figure BDA0002987739480000058
进一步的,所述步骤步骤5中,通过计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1, d2,…,dm-1}。
实施例1
步骤1:读取待处理的9秒视频信号,每秒包含30连续帧,即fps=30, 按时间先后对其按帧进行分解,形成视频帧集合F={f1,f2,…,fm},其中m =270为视频的总帧数;
步骤2:接下来构建用于训练神经网络的数据集,本发明提出的基于三 元组的深度哈希算法,设定样本单帧图像X,则一个训练集三元组由{X,X*, Y*}三种RGB彩色静态图像,X*为与X内容相似的图像。三元组图像均为大 小为128×128的彩色图片,以便于将其放入到神经网络中训练。三元组深度 哈希算法的目标在于,经过哈希函数映射后,使X与X*的哈希序列仍保持有 更近的欧氏距离,而X与Y*哈希序列的欧氏距离较远。即达到实际语义中X 与X*的内容更一致,X与Y*的内容相差更远。本发明采用了均方误差作为 损失函数,以此来实现上述目的,具体表达为:
Figure BDA0002987739480000061
Figure BDA0002987739480000062
Loss_global=Loss_sim-Loss_diff (9)
其中,G为哈希序列,Loss_sim为原视频与内容相似视频的损失函数, Loss_diff为原视频与内容不同视频的损失函数,Loss_global为总体损失函数,以 数据集为驱动,对总体损失函数不断迭代优化使损失函数逐渐减小。n为数 据集X*以及Y*的元素数量,n值越大,数据集的样本就越丰富,最后得到的 模型参数就越稳定。
步骤3:搭建神经网络框架,由图1所示,本框架网络的主要结构为卷 积层和池化层的叠加。卷积层的作用是学习图像特征,进行特征提取,并在 每个卷积层后添加激活函数Relu,以此增加网络的拟合能力。卷积层通过一 个大小为k×k的卷积核,在不改变输入图像大小的前提下,按照从左到右, 从上到下进行卷积操作,见公式(10):
Figure BDA0002987739480000071
其中,T为图像输入大小的单边长度,卷积核大小为k×k,步长值为b, 填充值为l。以大小为128×128的图像为例,输出特征图长宽大小仍为128× 128。
池化层对应于图像和特征图的下采样,将选取区域中所有相应的值做处 理再作为输出,最大池化层即为在相应区域内选出最大值作为输出,平均池 化层即为在相应区域内对所有值做平均再输出。池化层的主要目的是降维, 降低特征图的大小,减少后续网络的输入维度,从而减少参数数量,此外池 化层降低了特征图的尺度,便于后续卷积层学习图像的全局特征,以最大池 化层1为例,输入为128×128大小的图片。根据公式(10)可知,输出特征图 长宽大小为64×64。
在网络的最后加入一个全连接层,用于将最后一层池化层的特征展平成 一维向量后的特征降维和映射。本发明中利用一个全连接层将512维数据转 化为100维数据,最后数据经过tanh函数,将数据压缩到(-1,1)的区间。
经过多次迭代后,训练好网络,保存模型参数,再次放入图片时,此框 架可以根据已经学习到的特征自动生成固定长度的哈希码。
Figure BDA0002987739480000072
步骤4:将待处理视频的每一帧输入至步骤3中训练好的神经网络模型, 遍历步骤1中的视频帧集合F,获取每一帧的哈希序列,见公式(1)-(2):
Figure BDA0002987739480000081
Figure BDA0002987739480000082
其中,
Figure BDA0002987739480000083
为哈希生成函数,hfi(i=1,2,…,m)为每帧生成的哈希序列, 并形成矩阵HF。
步骤5:计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间 的欧氏距离d,见公式(3):
Figure BDA0002987739480000084
其中
Figure BDA0002987739480000085
Figure BDA0002987739480000086
为对应的当前帧的哈希序列和下一帧的哈希序列每一位 的值,L为哈希序列的长度,L=100。由上述得到的每个当前帧与其下一帧哈 希序列欧氏距离D={d1,d2,…,dm-1},
由于视频最后一帧的哈希序列无法与其下一帧的哈希序列进行相似性度 量,因此集合D中的元素个数为m-1;
步骤6,将D={d1,d2,…,dm-1}数值降序排列,筛选前μ帧为关键帧组 成集合F*,差值越大说明此帧与下一帧的内容越不相似,对于连续的视频帧 来说,冗余程度越小,内容就更为重要,F*中为当前帧与下一帧内容差异大 的帧,可以理解为此段视屏中更为关键的帧,其余(m-μ)帧为非关键帧;
步骤7,将集合F*中每一关键帧获取的哈希序列,将所有哈希序列组成 矩阵M,之后计算矩阵M的每一行均值,以此代表待处理视频的哈希序列G, 见公式(4)-(6):
Figure BDA0002987739480000091
Figure BDA0002987739480000092
Figure BDA0002987739480000093
根据上述的步骤进行实验。本次实验对象为一个分辨率为960× 544,fps=30,时长为9s,共270帧的视频。分别对这段视频做灰度 化,旋转,缩放(缩放之后为640×362)等操作,但并不改变视频 原内容,以及放入一个与原视频内容无关,但大小相同的视频。对视频帧的重要程度做排序后,取出其前20帧作为关键帧,即μ=20。表 1展示了在各种操作后各个视频的关键帧的序号。表2展示了不同操 作后视频与原视频哈希序列的欧氏距离。图3为原视频的关键帧。图 4为缩放之后的关键帧。图5为灰度化之后的关键帧。
表1基于深度学习的视频哈希算法中的不同视频的关键帧序号
Figure BDA0002987739480000094
Figure BDA0002987739480000101
表2基于深度学习的视频哈希算法中不同视频之间哈希序列的欧氏距离
操作类型 欧氏距离值
原视频与缩放操作视频 0.002298
原视频与灰度化操作视频 0.061523
原视频与旋转操作视频 0.028419
原视频与不同视频 0.080635
这里说明的设备数量和处理规模是用来简化本发明的说明的,对本发明 的应用、修改和变化对本领域的技术人员来说是显而易见的。
尽管本发明的实施方案已公开如上,但其并不仅限于说明书和实施方式 中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域 的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围 所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。

Claims (4)

1.一种基于深度学习的视频哈希算法,其特征在于,包括以下步骤:
S1、将需要处理的视频输入,共m帧,将输入的视频按时间先后顺序逐帧排序,形成视频帧集合F={f1,f2,…,fn},其中n为数据集中样本个数;
S2、构建一个三元组的图像数据集,其中经过加噪等内容保留操作得到的相似帧图像,三元组由{X,X*,Y*}三类静态图像组成,其中X为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容保留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n为数据集中的样本个数,三元组图像均为大小为128×128的彩色图片,以便于将其放入到神经网络中训练;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来训练网络,使之能将图片自动映射为固定长度的哈希序列,所述神经网络框架包括卷积层和池化层的叠加,卷积层用于学习图像特征,进行特征提取,并在每个卷积层后添加激活函数Relu,卷积层通过一个大小为k×k的卷积核,在不改变输入图像大小的前提下,按照从左到右,从上到下进行卷积操作,池化层对应于图像和特征图的下采样,将选取区域中所有相应的值做处理再作为输出,最大池化层即为在相应区域内选出最大值作为输出,平均池化层即为在相应区域内对所有值做平均再输出,在网络的最后加入一个全连接层,用于将最后一层池化层的特征展平成一维向量后的特征降维和映射;
S4、将待处理视频的每一帧,共m帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M,之后计算矩阵M的每一行均值,以此代表待处理视频的哈希序列G,待处理视频的哈希序列G,所述G与矩阵M的公式如下:
Figure FDA0003858533770000021
Figure FDA0003858533770000022
Figure FDA0003858533770000023
2.如权利要求1所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤S4包括遍历S1中的视频帧集合F,获取每一帧的哈希序列,见公式(1)-(2):
Figure FDA0003858533770000024
Figure FDA0003858533770000025
其中,
Figure FDA0003858533770000031
为哈希生成函数,hfi(i=1,2,…,m)为每帧生成的哈希序列。
3.如权利要求1所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤S5中的d的计算公式为:
Figure FDA0003858533770000032
其中
Figure FDA0003858533770000033
Figure FDA0003858533770000034
为对应的当前帧的哈希序列和下一帧的哈希序列每一位的值,L为哈希序列的长度。
4.如权利要求3所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤S 5中,通过计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1,d2,…,dm-1}。
CN202110306245.7A 2021-03-23 2021-03-23 一种基于深度学习的视频哈希算法 Active CN113297899B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110306245.7A CN113297899B (zh) 2021-03-23 2021-03-23 一种基于深度学习的视频哈希算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110306245.7A CN113297899B (zh) 2021-03-23 2021-03-23 一种基于深度学习的视频哈希算法

Publications (2)

Publication Number Publication Date
CN113297899A CN113297899A (zh) 2021-08-24
CN113297899B true CN113297899B (zh) 2023-02-03

Family

ID=77319145

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110306245.7A Active CN113297899B (zh) 2021-03-23 2021-03-23 一种基于深度学习的视频哈希算法

Country Status (1)

Country Link
CN (1) CN113297899B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113923313B (zh) * 2021-10-09 2023-06-27 上海理工大学 一种基于卡通图案的载体生成式信息隐藏方法及提取方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103747271A (zh) * 2014-01-27 2014-04-23 深圳大学 一种基于混合感知哈希的视频篡改检测方法和装置
CN107229757A (zh) * 2017-06-30 2017-10-03 中国科学院计算技术研究所 基于深度学习和哈希编码的视频检索方法
CN109815364A (zh) * 2019-01-18 2019-05-28 上海极链网络科技有限公司 一种海量视频特征提取、存储和检索方法及系统
CN109918537A (zh) * 2019-01-18 2019-06-21 杭州电子科技大学 一种基于HBase的船舶监控视频内容的快速检索方法
CN112115295A (zh) * 2020-08-27 2020-12-22 广州华多网络科技有限公司 视频图像检测方法、装置、及电子设备

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105512273A (zh) * 2015-12-03 2016-04-20 中山大学 一种基于可变长深度哈希学习的图像检索方法
CN108280233A (zh) * 2018-02-26 2018-07-13 南京邮电大学 一种基于深度学习的视频gis数据检索方法
CN110381392B (zh) * 2019-06-06 2021-08-10 五邑大学 一种视频摘要提取方法及其系统、装置、存储介质
CN110472484B (zh) * 2019-07-02 2021-11-09 山东师范大学 基于多视图特征的视频关键帧提取方法、系统及设备
CN110321957B (zh) * 2019-07-05 2023-03-24 重庆大学 融合三元组损失和生成对抗网络的多标签图像检索方法
CN110674673A (zh) * 2019-07-31 2020-01-10 国家计算机网络与信息安全管理中心 一种关键视频帧抽取方法、装置和存储介质
CN111274445B (zh) * 2020-01-20 2021-04-23 山东建筑大学 基于三元组深度学习的相似视频内容检索方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103747271A (zh) * 2014-01-27 2014-04-23 深圳大学 一种基于混合感知哈希的视频篡改检测方法和装置
CN107229757A (zh) * 2017-06-30 2017-10-03 中国科学院计算技术研究所 基于深度学习和哈希编码的视频检索方法
CN109815364A (zh) * 2019-01-18 2019-05-28 上海极链网络科技有限公司 一种海量视频特征提取、存储和检索方法及系统
CN109918537A (zh) * 2019-01-18 2019-06-21 杭州电子科技大学 一种基于HBase的船舶监控视频内容的快速检索方法
CN112115295A (zh) * 2020-08-27 2020-12-22 广州华多网络科技有限公司 视频图像检测方法、装置、及电子设备

Also Published As

Publication number Publication date
CN113297899A (zh) 2021-08-24

Similar Documents

Publication Publication Date Title
CN108427738B (zh) 一种基于深度学习的快速图像检索方法
CN111914085B (zh) 文本细粒度情感分类方法、系统、装置及存储介质
Xiao et al. Example‐Based Colourization Via Dense Encoding Pyramids
CN111091130A (zh) 基于轻量级卷积神经网络的实时图像语义分割方法及系统
CN110569814B (zh) 视频类别识别方法、装置、计算机设备及计算机存储介质
CN111488932B (zh) 一种基于帧率感知的自监督视频时-空表征学习方法
CN109783691B (zh) 一种深度学习和哈希编码的视频检索方法
CN111401373B (zh) 基于分组非对称卷积的高效语义分割方法
CN111709516A (zh) 神经网络模型的压缩方法及压缩装置、存储介质、设备
CN113689434B (zh) 一种基于条带池化的图像语义分割方法
CN115631513B (zh) 基于Transformer的多尺度行人重识别方法
CN113971735A (zh) 一种深度图像聚类方法、系统、设备、介质及终端
CN113297899B (zh) 一种基于深度学习的视频哈希算法
CN112035701A (zh) 一种互联网短视频溯源的方法及系统
CN109670506B (zh) 基于克罗内克卷积的场景分割方法和系统
CN110110120B (zh) 一种基于深度学习的图像检索方法和装置
CN114168773A (zh) 一种基于伪标签和重排序的半监督草图图像检索方法
CN115457448B (zh) 一种视频关键帧智能提取系统
CN112418229A (zh) 一种基于深度学习的无人船海上场景图像实时分割方法
CN111881794B (zh) 一种视频行为识别方法及系统
US20230072445A1 (en) Self-supervised video representation learning by exploring spatiotemporal continuity
CN115082840A (zh) 基于数据组合和通道相关性的动作视频分类方法和装置
CN115272768A (zh) 内容识别方法、装置、设备、存储介质及计算机程序产品
CN114722902A (zh) 基于自监督学习的无标注视频哈希检索方法及装置
CN111178409B (zh) 基于大数据矩阵稳定性分析的图像匹配与识别系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant