CN113297899A - 一种基于深度学习的视频哈希算法 - Google Patents
一种基于深度学习的视频哈希算法 Download PDFInfo
- Publication number
- CN113297899A CN113297899A CN202110306245.7A CN202110306245A CN113297899A CN 113297899 A CN113297899 A CN 113297899A CN 202110306245 A CN202110306245 A CN 202110306245A CN 113297899 A CN113297899 A CN 113297899A
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- hash
- frames
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 101150060512 SPATA6 gene Proteins 0.000 claims abstract description 73
- 239000011159 matrix material Substances 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 7
- 230000014759 maintenance of location Effects 0.000 claims abstract description 5
- 238000003062 neural network model Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- 230000003068 static effect Effects 0.000 claims description 4
- 238000000034 method Methods 0.000 abstract description 8
- 239000000463 material Substances 0.000 abstract description 2
- 238000011176 pooling Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000630 rising effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的视频哈希算法,包括以下步骤:S1、将需要处理的视频输入;S2、构建一个三元组的图像数据集,其中为经过加噪等内容保留操作得到的相似帧图像;S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来训练网络,使之能将图片自动映射为固定长度的哈希序列;S4、将待处理视频的每一帧,共m帧输入至步骤S3训练好的神经网络模型;S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d;S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其余(m‑μ)帧为非关键帧;S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M,之后计算矩阵M的每一行均值。根据本发明,与传统人工提取视频特征设计哈希序列的方法相比,极大节省了人力物力。
Description
技术领域
本发明涉及多媒体信息的技术领域,特别涉及一种基于深度学习的视频 哈希算法。
背景技术
近年来,随着数字移动设备以及互联网的普及,每天都会产生海量的视频 数据,然而如何处理庞大的视频文件成为一个迫切的问题,其中一个很重要 的方向就是基于视频内容的检索。早年,基于文本的视频检索技术进入我们 的生活,由人工对视频进行标注关键字标签,在检索时返回与关键字相同或 相似的视频,但此方法耗时耗力。然而基于视频内容的检索可以归结为一个 近似最近邻搜索问题。深度哈希算法是解决此问题的有效手段。哈希算法的 核心思想是将原始的高维数据映射为紧凑且固定长度的二进制哈希码。一段 视频或部分视频可以用一个低维的哈希序列来表示,极大地降低了存储成本, 并提高计算速度。近年来兴起的人工智能浪潮更为哈希算法的研究注入了新 的活力,深度学习有着极强的数据拟合能力,能够学习到高维数据的特征。
发明内容
针对现有技术中存在的不足之处,本发明的目的是提供一种基于深度学习 的视频哈希算法,与传统人工提取视频特征设计哈希序列的方法相比,极大 节省了人力物力。为了实现根据本发明的上述目的和其他优点,提供了一种 基于深度学习的视频哈希算法,包括以下步骤:
S1、将需要处理的视频输入,共m帧;
S2、构建一个三元组的图像数据集,其中为经过加噪等内容保留操作得 到的相似帧图像;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来 训练网络,使之能将图片自动映射为固定长度的哈希序列;
S4、将待处理视频的每一帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的 欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其 余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M, 之后计算矩阵M的每一行均值。
优选的,所述步骤S1包括将输入的视频按时间先后顺序逐帧排序,形成 视频帧集合F={f1,f2,…,fn},其中n为数据集中的样本个数。
优选的,所述步骤S2中三元组由{X,X*,Y*}三类静态图像组成,其中X 为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容保 留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n为 数据集的样本个数。
优选的,所述步骤S4包括遍历S1中的视频帧集合F,获取每一帧的哈 希序列,见公式(1)-(2):
优选的,所述步骤S5中的d的计算公式为:
优选的,所述步骤S7包括待处理视频的哈希序列G,所述G与矩阵M 的公式如下:
优选的,所述步骤步骤5中,通过计算每个当前帧的哈希序列hpresent与 下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1, d2,…,dm-1}。
本发明与现有技术相比,其有益效果是:基于深度学习的视频哈希算法, 针对视频文件数据量大不易处理等问题,本发明通过对视频帧基于内容差异 程度的排序,筛选出关键帧,去除视频中的非关键帧,然后将关键帧映射到 一段固定长度的哈希序列中,极大节省了存储成本。并且本发明所提出的一 种基于三元组的深度视频哈希算法,通过视频三元组的标签信息使模型学习 原始视频关键帧空间中的相似性结构,并使三元组中原始帧与非相似帧的哈 希序列间的欧氏距离大于原始帧与相似关键帧哈希序列的欧氏距离,相较于 人工提取特征,基于三元组的视频深度哈希算法极大节省了人力成本。
附图说明
图1为根据本发明的基于深度学习的视频哈希算法的算法流程图;
图2为根据本发明的基于深度学习的视频哈希算法的原视频关键帧图;
图3为根据本发明的基于深度学习的视频哈希算法的经缩放后的关键帧 图;
图4为根据本发明的基于深度学习的视频哈希算法的经灰度化后的关键 帧图;
图5为根据本发明的基于深度学习的视频哈希算法的经旋转后的关键帧 图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行 清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而 不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做 出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1-5,一种基于深度学习的视频哈希算法,且该视频哈希算法可用 于相似视频的检索,包括以下步骤:S1、将需要处理的视频输入,共m帧;
S2、构建一个三元组的图像数据集,其中经过加噪等内容保留操作得到 的相似帧图像;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来 训练网络,使之能将图片自动映射为固定长度的哈希序列;
S4、将待处理视频的每一帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的 欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其 余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M, 之后计算矩阵M的每一行均值。
进一步的,所述步骤S1包括将输入的视频按时间先后顺序逐帧排序,形 成视频帧集合F={f1,f2,…,fn},其中n为数据集中的样本个数。
进一步的,所述步骤S2中三元组由{X,X*,Y*}三类静态图像组成,其中 X为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容 保留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n 为数据集中的样本个数。
进一步的,所述步骤S4包括遍历S1中的视频帧集合F,获取每一帧的 哈希序列,见公式(1)-(2):
进一步的,所述步骤S5中的d的计算公式为:
进一步的,所述步骤S7包括待处理视频的哈希序列G,所述G与矩阵 M的公式如下:
进一步的,所述步骤步骤5中,通过计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1, d2,…,dm-1}。
实施例1
步骤1:读取待处理的9秒视频信号,每秒包含30连续帧,即fps=30, 按时间先后对其按帧进行分解,形成视频帧集合F={f1,f2,…,fm},其中m =270为视频的总帧数;
步骤2:接下来构建用于训练神经网络的数据集,本发明提出的基于三 元组的深度哈希算法,设定样本单帧图像X,则一个训练集三元组由{X,X*, Y*}三种RGB彩色静态图像,X*为与X内容相似的图像。三元组图像均为大 小为128×128的彩色图片,以便于将其放入到神经网络中训练。三元组深度 哈希算法的目标在于,经过哈希函数映射后,使X与X*的哈希序列仍保持有 更近的欧氏距离,而X与Y*哈希序列的欧氏距离较远。即达到实际语义中X 与X*的内容更一致,X与Y*的内容相差更远。本发明采用了均方误差作为 损失函数,以此来实现上述目的,具体表达为:
Loss_global=Loss_sim-Loss_diff (9)
其中,G为哈希序列,Loss_sim为原视频与内容相似视频的损失函数, Loss_diff为原视频与内容不同视频的损失函数,Loss_global为总体损失函数,以 数据集为驱动,对总体损失函数不断迭代优化使损失函数逐渐减小。n为数 据集X*以及Y*的元素数量,n值越大,数据集的样本就越丰富,最后得到的 模型参数就越稳定。
步骤3:搭建神经网络框架,由图1所示,本框架网络的主要结构为卷 积层和池化层的叠加。卷积层的作用是学习图像特征,进行特征提取,并在 每个卷积层后添加激活函数Relu,以此增加网络的拟合能力。卷积层通过一 个大小为k×k的卷积核,在不改变输入图像大小的前提下,按照从左到右, 从上到下进行卷积操作,见公式(10):
其中,T为图像输入大小的单边长度,卷积核大小为k×k,步长值为b, 填充值为l。以大小为128×128的图像为例,输出特征图长宽大小仍为128× 128。
池化层对应于图像和特征图的下采样,将选取区域中所有相应的值做处 理再作为输出,最大池化层即为在相应区域内选出最大值作为输出,平均池 化层即为在相应区域内对所有值做平均再输出。池化层的主要目的是降维, 降低特征图的大小,减少后续网络的输入维度,从而减少参数数量,此外池 化层降低了特征图的尺度,便于后续卷积层学习图像的全局特征,以最大池 化层1为例,输入为128×128大小的图片。根据公式(10)可知,输出特征图 长宽大小为64×64。
在网络的最后加入一个全连接层,用于将最后一层池化层的特征展平成 一维向量后的特征降维和映射。本发明中利用一个全连接层将512维数据转 化为100维数据,最后数据经过tanh函数,将数据压缩到(-1,1)的区间。
经过多次迭代后,训练好网络,保存模型参数,再次放入图片时,此框 架可以根据已经学习到的特征自动生成固定长度的哈希码。
步骤4:将待处理视频的每一帧输入至步骤3中训练好的神经网络模型, 遍历步骤1中的视频帧集合F,获取每一帧的哈希序列,见公式(1)-(2):
步骤5:计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间 的欧氏距离d,见公式(3):
由于视频最后一帧的哈希序列无法与其下一帧的哈希序列进行相似性度 量,因此集合D中的元素个数为m-1;
步骤6,将D={d1,d2,…,dm-1}数值降序排列,筛选前μ帧为关键帧组 成集合F*,差值越大说明此帧与下一帧的内容越不相似,对于连续的视频帧 来说,冗余程度越小,内容就更为重要,F*中为当前帧与下一帧内容差异大 的帧,可以理解为此段视屏中更为关键的帧,其余(m-μ)帧为非关键帧;
步骤7,将集合F*中每一关键帧获取的哈希序列,将所有哈希序列组成 矩阵M,之后计算矩阵M的每一行均值,以此代表待处理视频的哈希序列G, 见公式(4)-(6):
根据上述的步骤进行实验。本次实验对象为一个分辨率为960× 544,fps=30,时长为9s,共270帧的视频。分别对这段视频做灰度 化,旋转,缩放(缩放之后为640×362)等操作,但并不改变视频 原内容,以及放入一个与原视频内容无关,但大小相同的视频。对视频帧的重要程度做排序后,取出其前20帧作为关键帧,即μ=20。表 1展示了在各种操作后各个视频的关键帧的序号。表2展示了不同操 作后视频与原视频哈希序列的欧氏距离。图3为原视频的关键帧。图 4为缩放之后的关键帧。图5为灰度化之后的关键帧。
表1基于深度学习的视频哈希算法中的不同视频的关键帧序号
表2基于深度学习的视频哈希算法中不同视频之间哈希序列的欧氏距离
操作类型 | 欧氏距离值 |
原视频与缩放操作视频 | 0.002298 |
原视频与灰度化操作视频 | 0.061523 |
原视频与旋转操作视频 | 0.028419 |
原视频与不同视频 | 0.080635 |
这里说明的设备数量和处理规模是用来简化本发明的说明的,对本发明 的应用、修改和变化对本领域的技术人员来说是显而易见的。
尽管本发明的实施方案已公开如上,但其并不仅限于说明书和实施方式 中所列运用,它完全可以被适用于各种适合本发明的领域,对于熟悉本领域 的人员而言,可容易地实现另外的修改,因此在不背离权利要求及等同范围 所限定的一般概念下,本发明并不限于特定的细节和这里示出与描述的图例。
Claims (7)
1.一种基于深度学习的视频哈希算法,其特征在于,包括以下步骤:
S1、将需要处理的视频输入,共m帧;
S2、构建一个三元组的图像数据集,其中经过加噪等内容保留操作得到的相似帧图像;
S3、搭建神经网络框架并且用所述步骤S2构建的三元组的图像数据集来训练网络,使之能将图片自动映射为固定长度的哈希序列;
S4、将待处理视频的每一帧,共m帧输入至步骤S3训练好的神经网络模型;
S5、计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d;
S6、将步骤S5中的d数值降序排列筛选前μ帧为关键帧组成集合F*,其余(m-μ)帧为非关键帧;
S7、将集合F*中每一关键帧获取哈希序列,将所有哈希序列组成矩阵M,之后计算矩阵M的每一行均值。
2.如权利要求1所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤S1包括将输入的视频按时间先后顺序逐帧排序,形成视频帧集合F={f1,f2,…,fn},其中n为数据集中样本个数。
3.如权利要求1所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤S2中三元组由{X,X*,Y*}三类静态图像组成,其中X为样本单帧图像,X*={X1,X2,…,Xn}为样本单帧图像X经过加噪等内容保留操作得到的相似帧图像,Y*={Y1,Y2,…,Yn}为不同帧图像的集合,n为数据集中的样本个数。
7.如权利要求1所述的一种基于深度学习的视频哈希算法,其特征在于,所述步骤步骤5中,通过计算每个当前帧的哈希序列hpresent与下一帧的哈希序列hnext之间的欧氏距离d,见公式(3),并生成集合D={d1,d2,…,dm-1}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110306245.7A CN113297899B (zh) | 2021-03-23 | 2021-03-23 | 一种基于深度学习的视频哈希算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110306245.7A CN113297899B (zh) | 2021-03-23 | 2021-03-23 | 一种基于深度学习的视频哈希算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113297899A true CN113297899A (zh) | 2021-08-24 |
CN113297899B CN113297899B (zh) | 2023-02-03 |
Family
ID=77319145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110306245.7A Active CN113297899B (zh) | 2021-03-23 | 2021-03-23 | 一种基于深度学习的视频哈希算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113297899B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113923313A (zh) * | 2021-10-09 | 2022-01-11 | 上海理工大学 | 一种基于卡通图案的载体生成式信息隐藏方法及提取方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747271A (zh) * | 2014-01-27 | 2014-04-23 | 深圳大学 | 一种基于混合感知哈希的视频篡改检测方法和装置 |
CN107229757A (zh) * | 2017-06-30 | 2017-10-03 | 中国科学院计算技术研究所 | 基于深度学习和哈希编码的视频检索方法 |
CN108280233A (zh) * | 2018-02-26 | 2018-07-13 | 南京邮电大学 | 一种基于深度学习的视频gis数据检索方法 |
US20180276528A1 (en) * | 2015-12-03 | 2018-09-27 | Sun Yat-Sen University | Image Retrieval Method Based on Variable-Length Deep Hash Learning |
CN109815364A (zh) * | 2019-01-18 | 2019-05-28 | 上海极链网络科技有限公司 | 一种海量视频特征提取、存储和检索方法及系统 |
CN109918537A (zh) * | 2019-01-18 | 2019-06-21 | 杭州电子科技大学 | 一种基于HBase的船舶监控视频内容的快速检索方法 |
CN110321957A (zh) * | 2019-07-05 | 2019-10-11 | 重庆大学 | 融合三元组损失和生成对抗网络的多标签图像检索方法 |
CN110381392A (zh) * | 2019-06-06 | 2019-10-25 | 五邑大学 | 一种视频摘要提取方法及其系统、装置、存储介质 |
CN110472484A (zh) * | 2019-07-02 | 2019-11-19 | 山东师范大学 | 基于多视图特征的视频关键帧提取方法、系统及设备 |
CN110674673A (zh) * | 2019-07-31 | 2020-01-10 | 国家计算机网络与信息安全管理中心 | 一种关键视频帧抽取方法、装置和存储介质 |
CN111274445A (zh) * | 2020-01-20 | 2020-06-12 | 山东建筑大学 | 基于三元组深度学习的相似视频内容检索方法及系统 |
CN112115295A (zh) * | 2020-08-27 | 2020-12-22 | 广州华多网络科技有限公司 | 视频图像检测方法、装置、及电子设备 |
-
2021
- 2021-03-23 CN CN202110306245.7A patent/CN113297899B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103747271A (zh) * | 2014-01-27 | 2014-04-23 | 深圳大学 | 一种基于混合感知哈希的视频篡改检测方法和装置 |
US20180276528A1 (en) * | 2015-12-03 | 2018-09-27 | Sun Yat-Sen University | Image Retrieval Method Based on Variable-Length Deep Hash Learning |
CN107229757A (zh) * | 2017-06-30 | 2017-10-03 | 中国科学院计算技术研究所 | 基于深度学习和哈希编码的视频检索方法 |
CN108280233A (zh) * | 2018-02-26 | 2018-07-13 | 南京邮电大学 | 一种基于深度学习的视频gis数据检索方法 |
CN109815364A (zh) * | 2019-01-18 | 2019-05-28 | 上海极链网络科技有限公司 | 一种海量视频特征提取、存储和检索方法及系统 |
CN109918537A (zh) * | 2019-01-18 | 2019-06-21 | 杭州电子科技大学 | 一种基于HBase的船舶监控视频内容的快速检索方法 |
CN110381392A (zh) * | 2019-06-06 | 2019-10-25 | 五邑大学 | 一种视频摘要提取方法及其系统、装置、存储介质 |
CN110472484A (zh) * | 2019-07-02 | 2019-11-19 | 山东师范大学 | 基于多视图特征的视频关键帧提取方法、系统及设备 |
CN110321957A (zh) * | 2019-07-05 | 2019-10-11 | 重庆大学 | 融合三元组损失和生成对抗网络的多标签图像检索方法 |
CN110674673A (zh) * | 2019-07-31 | 2020-01-10 | 国家计算机网络与信息安全管理中心 | 一种关键视频帧抽取方法、装置和存储介质 |
CN111274445A (zh) * | 2020-01-20 | 2020-06-12 | 山东建筑大学 | 基于三元组深度学习的相似视频内容检索方法及系统 |
CN112115295A (zh) * | 2020-08-27 | 2020-12-22 | 广州华多网络科技有限公司 | 视频图像检测方法、装置、及电子设备 |
Non-Patent Citations (1)
Title |
---|
王俊玲 等: "基于语义相关的视频关键帧提取算法", 《计算机工程与应用》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113923313A (zh) * | 2021-10-09 | 2022-01-11 | 上海理工大学 | 一种基于卡通图案的载体生成式信息隐藏方法及提取方法 |
CN113923313B (zh) * | 2021-10-09 | 2023-06-27 | 上海理工大学 | 一种基于卡通图案的载体生成式信息隐藏方法及提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113297899B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103336795B (zh) | 基于多特征的视频索引方法 | |
CN108984642B (zh) | 一种基于哈希编码的印花织物图像检索方法 | |
CN111506773A (zh) | 一种基于无监督深度孪生网络的视频去重方法 | |
CN113689434B (zh) | 一种基于条带池化的图像语义分割方法 | |
CN113971735A (zh) | 一种深度图像聚类方法、系统、设备、介质及终端 | |
CN112579822A (zh) | 一种视频数据的推送方法、装置、计算机设备和存储介质 | |
CN110347853B (zh) | 一种基于循环神经网络的图像哈希码生成方法 | |
CN113297899B (zh) | 一种基于深度学习的视频哈希算法 | |
CN114092819B (zh) | 一种图像分类方法及装置 | |
CN112035701A (zh) | 一种互联网短视频溯源的方法及系统 | |
CN111935487A (zh) | 一种基于视频流检测的图像压缩方法及系统 | |
CN109670506B (zh) | 基于克罗内克卷积的场景分割方法和系统 | |
CN110110120B (zh) | 一种基于深度学习的图像检索方法和装置 | |
US20230072445A1 (en) | Self-supervised video representation learning by exploring spatiotemporal continuity | |
CN114494890A (zh) | 一种模型训练方法、商品图像管理方法及装置 | |
CN114168773A (zh) | 一种基于伪标签和重排序的半监督草图图像检索方法 | |
CN111737461B (zh) | 文本的处理方法、装置、电子设备及计算机可读存储介质 | |
CN117370650A (zh) | 基于服务组合超图卷积网络的云计算数据推荐方法 | |
CN115082840B (zh) | 基于数据组合和通道相关性的动作视频分类方法和装置 | |
CN115375922A (zh) | 一种基于多尺度空间注意力的轻量化显著性检测方法 | |
CN112597329B (zh) | 一种基于改进的语义分割网络的实时图像检索方法 | |
CN115376022A (zh) | 基于神经网络的小目标检测算法在无人机航拍中的应用 | |
CN111881794B (zh) | 一种视频行为识别方法及系统 | |
CN114722902A (zh) | 基于自监督学习的无标注视频哈希检索方法及装置 | |
CN111178409B (zh) | 基于大数据矩阵稳定性分析的图像匹配与识别系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |