CN112395457A - 一种应用于视频版权保护的视频待检索定位方法 - Google Patents

一种应用于视频版权保护的视频待检索定位方法 Download PDF

Info

Publication number
CN112395457A
CN112395457A CN202011437602.5A CN202011437602A CN112395457A CN 112395457 A CN112395457 A CN 112395457A CN 202011437602 A CN202011437602 A CN 202011437602A CN 112395457 A CN112395457 A CN 112395457A
Authority
CN
China
Prior art keywords
video
data
key frame
retrieved
frame images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011437602.5A
Other languages
English (en)
Other versions
CN112395457B (zh
Inventor
张季玮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chinaso Information Technology Co ltd
Original Assignee
Chinaso Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chinaso Information Technology Co ltd filed Critical Chinaso Information Technology Co ltd
Priority to CN202011437602.5A priority Critical patent/CN112395457B/zh
Publication of CN112395457A publication Critical patent/CN112395457A/zh
Application granted granted Critical
Publication of CN112395457B publication Critical patent/CN112395457B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Library & Information Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及视频版权保护领域,公开了一种应用于视频版权保护的视频待检索定位方法,包括获取视频版权数据集中每个视频版权数据的若干个关键帧图像及待检索视频数据的若干个关键帧图像;利用深度卷积神经网络模型提取关键帧图像的特征向量;计算待检索视频数据的若干个关键帧图像的感知哈希值及每个视频版权数据的若干个关键帧图像的感知哈希值;构建加入聚类算法以及倒排索引的待检索系统;对待检索视频数据进行快速检索定位。本发明能够准确定位到侵权片段或侵权画面,加强了对侵权视频可能出现的对抗攻击手段的识别,增强了模型的鲁棒性,提高了在海量数据下的检索效率,保证了视频侵权检索高的准确率和召回率。

Description

一种应用于视频版权保护的视频待检索定位方法
技术领域
本发明涉及视频版权保护领域,具体地涉及一种应用于视频版权保护的视频待检索定位方法。
背景技术
随着多媒体和互联网技术的快速发展,海量的视频数据已经广泛应用于社会的各个领域中,视频版权保护的问题日益严峻。通常利用视频待检索技术实现查找比对侵权视频和原始视频,其主要分为两个步骤:如何表达视频的特征信息以及高效的待检索方法。比如,国家专利公开文献CN111639228A,公开了“视频待检索方法、系统、设备及存储介质”,该发明包括接收视频待检索请求,视频待检索请求包括待检索信息;将待检索信息与视频索引信息进行匹配,得到视频待检索结果,视频索引信息是根据预设知识图谱对视频进行语义理解得到的,该视频索引信息用于表示视频与待检索信息之间的关系;输出视频待检索结果。该发明基于文本的视频待检索方法主要利用文本标注堆视频中的内容进行描述,但随着数据量级的快速增长,人工标注文本消耗成本高,已经不足以支撑现实中庞大的数据量,大数据下计算复杂度高。另外,现有的利用视频内容进行侵权检索方法在进行视频整体比对时难以从视频内容进行侵权定位,也无法获取侵权视频对于一些片段甚至一个画面的侵权。
因此,亟需一种应用于视频版权保护的视频待检索定位方法能够利用高维视频特征以及更高效的待检索方法满足大规模数据下视频的比对识别以及侵权结果的快速查找排序。
发明内容
本发明提供一种应用于视频版权保护的视频待检索定位方法,从而解决现有技术的上述问题。
第一方面,本发明提供了一种应用于视频版权保护的视频待检索定位方法,包括以下步骤:
S1)采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像;
S2)建立深度卷积神经网络模型,利用深度卷积神经网络模型提取关键帧图像的特征向量,将待检索视频数据的若干个关键帧图像的特征向量进行拼接,将每个视频版权数据的若干个关键帧图像的特征向量进行拼接,分别获得待检索视频数据的N×M维的特征向量以及视频版权数据集中每个视频版权数据的N×M维的特征向量;
S3)分别计算待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值;
S4)利用视频版权数据集中每个视频版权数据的N×M维的特征向量和视频版权数据集中每个视频版权数据的若干个关键帧图像的感知哈希值构建加入聚类算法以及倒排索引的待检索系统;
S5)利用加入聚类算法以及倒排索引的待检索系统对待检索视频数据进行快速检索定位,获得待检索视频数据的侵权检索结果。
进一步的,在步骤S1)中,采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括利用视频镜头分割方法分别对待检索视频数据以及视频版权数据集中每个视频版权数据进行视频镜头分割、并获取每个视频镜头中的代表帧,将代表帧作为关键帧,获得待检索视频数据的若干个关键帧图像以及视频版权数据集中每个视频版权数据的若干个关键帧图像;视频分割方法包括基于时域的视频对象分割方法、基于运动的视频对象分割方法或交互式视频对象分割方法。
进一步的,在步骤S1)中,采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括根据视频帧率对待检索视频数据以及视频版权数据集中每个视频版权数据分别进行图像采样,获得待检索视频数据的若干个采样帧以及视频版权数据集中每个视频版权数据的若干个采样帧,将采样帧作为关键帧,获得待检索视频数据的若干个关键帧图像以及视频版权数据集中每个视频版权数据的若干个关键帧图像。
进一步的,在获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像之前,还包括将每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像中为无效帧的关键帧图像进行删除,无效帧的关键帧图像为纯白图像或纯黑图像。
进一步的,步骤S2)中,建立深度卷积神经网络模型,利用深度卷积神经网络模型提取关键帧图像的特征向量,将待检索视频数据的若干个关键帧图像的特征向量进行拼接,将每个视频版权数据的若干个关键帧图像的特征向量进行拼接,分别获得待检索视频数据的N×M维的特征向量以及视频版权数据集中每个视频版权数据的N×M维的特征向量,包括以下步骤:
S21)将待检索视频数据的若干个关键帧图像以及每个视频版权数据的若干个关键帧图像分别缩放到第一预设尺寸大小;
S22)建立深度卷积神经网络模型,将缩放后的每个关键帧图像分别输入所述深度卷积神经网络模型,将深度卷积神经网络模型的最后一个卷积层的特征图作为输出;
S23)采用R-MAC方法对每个特征图提取若干不同尺度的区域,获得若干个区域R-MAC特征,对所述若干个区域R-MAC特征进行求和池化、并进行拼接,获得与每个关键帧图像对应的特征向量;
S24)分别获得待检索视频数据的若干个关键帧图像的特征向量以及所述视频版权数据集中每个视频版权数据的若干个关键帧图像的特征向量。
深度卷积神经网络模型在预训练时可以对反转、镜像、旋转等侵权对抗手段通过数据增强的方式在模型中进行微调。
进一步的,步骤S3)中,分别计算待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值,包括以下步骤:
S31)将待检索视频数据的若干个关键帧图像以及每个版权视频数据的若干个关键帧图像分别缩放到第二预设尺寸大小;
S32)将缩放到第二预设尺寸大小的每个关键帧图像分别转化为灰度图像;
S33)计算转化为灰度图像后每个关键帧图像的离散余弦变换,获得离散余弦变换系数矩阵;
S34)提取离散余弦变换系数矩阵的左上角预设大小的低频矩阵,计算低频矩阵的元素平均值,将低频矩阵中大于等于元素平均值的元素置1,将低频矩阵中小于元素平均值的元素置0,获得元素置1或置0的低频矩阵;
S35)将元素置1或置0的低频矩阵压平为一维向量,获得待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值。
进一步的,步骤S4)中,利用视频版权数据集中每个视频版权数据的N×M维的特征向量和视频版权数据集中每个视频版权数据的若干个关键帧图像的感知哈希值构建加入聚类算法以及倒排索引的待检索系统,N为若干个关键帧图像的总数,M为每个关键帧图像的特征向量的维度,包括以下步骤:
S41)初始化待检索索引文件数据结构,所述待检索索引文件数据结构包括倒排列表、码表、倒排向量ID表和/或倒排向量编码表;
S42)获取训练数据,利用训练数据训练聚类算法;训练数据包括若干个数据点,若干个数据点分别为视频版权数据集中每个视频版权数据的N个M维的特征向量;建立倒排向量ID表,倒排向量ID表用于存储若干个数据点以及若干个数据点的ID;
S43)根据训练数据的数据量确定聚类的中心数以及每个聚类中心内的元素数量范围;
S44)随机初始化所有聚类中心,对所有聚类中心及码表进行更新,包括以下步骤:
S441)初始化所有聚类中心;
S442)计算任意一个聚类中心Cq到其他聚类中心的最短距离d(Cq,Cw),d(Cq,Cw)表示聚类中心Cq与距离所述聚类中心Cq最近的聚类中心Cw的距离;
S443)获取聚类中心Cq所在簇中的数据点x到所述聚类中心Cq的距离d(Cq,x),判断2d(Cq,x)≤d(Cq,Cw)是否成立,若否,则所述数据点x的归类位置不变;若否,则进入步骤S3034);
S444)计算数据点x到其他聚类中心的距离,将数据点x归类到与其他聚类中心的距离最近的聚类中心的所在簇中;
S445)重复步骤S442)至步骤S444),依次获得聚类中心Cq所在簇中的每个数据点的归类位置;
S446)重复步骤S442)至步骤S445),依次获得每个聚类中心所在簇中的每个数据点的归类位置;
S447)更新所有聚类中心,判断所有聚类中心是否发生变动,若是,则返回步骤S442);若否,则结束聚类更新,获得更新完成后的所有聚类中心以及每个聚类中心所在簇中的所有数据点,每一个数据点对应有一个ID,将更新完成后的所有聚类中心加入码表,将每个聚类中心所在簇中的所有数据点以及数据点的ID存储进对应的倒排列表中,每个聚类中心对应有一个倒排列表,倒排列表中储存着倒排ID和倒排编码表,所述倒排ID用于存储数据点的ID,所述倒排编码表用于存储聚类中心所在簇中的所有数据点。
进一步的,在步骤S5)中,利用加入聚类算法以及倒排索引的待检索系统对待检索视频数据进行快速检索定位,获得待检索视频数据的侵权检索结果,包括以下步骤:
S51)获取构造的待检索索引文件,计算待检索视频数据的每一个M维的特征向量与更新完成后的所有聚类中心之间的向量距离,获取距离所述待检索视频数据的第j个M维的特征向量最近的K个聚类中心点,j=1、2、…、N;
S52)获取K个聚类中心点的倒排列表,通过OpenMP并列遍历K个聚类中心点的倒排编码表,计算待检索视频数据的第j个M维的特征向量与每个聚类中心点的倒排编码表中特征向量之间的距离;获得距离所述待检索视频数据的第j个M维的特征向量最近的若干个特征向量,若干个特征向量分别对应于不同视频版权数据的一个关键帧图像;
S53)分别计算若干个特征向量与待检索视频数据的第j个M维的特征向量之间的欧式距离;
S54)获取若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值,分别计算待检索视频数据的第j个M维的特征向量对应的感知哈希值与若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;
S55)建立评分函数fi=w1d1i+w2d2i,i=1、2、...、m,m为若干个特征向量的总数;w1为特征向量距离权重,w2为感知哈希值距离权重,d1i为所述若干个特征向量中的第i个特征向量与所述待检索视频数据的第j个M维的特征向量之间的欧式距离,d2i为所述待检索视频数据的第j个M维的特征向量对应的感知哈希值与第i个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;fi为与第i个特征向量相对应的视频版权数据的关键帧图像的评分值;
S56)分别计算与所述若干个特征向量对应的不同视频版权数据的关键帧图像的评分值、并对评分值进行排序,设定评分阈值,筛选出前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像;
S57)根据筛选出的前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像对所述待检索视频数据的第j个M维的特征向量对应的关键帧图像进行侵权定位统计;
S58)重复步骤S51)至步骤S57),依次获得所述待检索视频数据的N个M维的特征向量对应的关键帧图像的侵权定位统计结果,所述待检索视频数据的每一帧关键帧图像分别对应于不同视频版权数据的不同帧关键帧图像;
S59)根据侵权定位统计结果对待检索视频数据进行标记,获得待检索视频数据的侵权检索结果,待检索视频数据的侵权检索结果包括疑似全局相似、疑似部分相似或疑似画面相似;疑似全局相似、疑似部分相似或疑似画面相似分别对应于不同视频版权数据。
进一步的,在步骤S5)中,还包括当待检索视频数据的侵权检索结果为疑似全局相似或疑似部分相似时对待检索视频数据进行侵权片段定位;进行侵权片段定位包括以下步骤:
S61)当待检索视频数据的若干个关键帧图像为关键帧时,获取与待检索视频数据的侵权检索结果相对应的视频版权数据y1,获取待检索视频数据的若干个关键帧图像在视频版权数据y1中对应的关键帧图像的时间,根据关键帧图像的时间设置时间范围,根据时间范围获取待检索视频数据在所述视频版权数据y1中的侵权片段;
S62)当待检索视频数据的若干个关键帧图像为采样帧时,获取与待检索视频数据的侵权检索结果相对应的视频版权数据y2,获取待检索视频数据的若干个关键帧图像在视频版权数据y2中对应的关键帧图像的时间,采用滑动窗口的方式进行双向扫描所述视频版权数据y2中对应的关键帧图像获取待检索视频数据在视频版权数据y2中的侵权片段。
本发明的有益效果是:本发明首先通过深度卷积神经网络与R-MAC方法结合提取视频的关键帧图像的高维特征向量,同时计算视频的关键帧图像的感知哈希值,两层尺度对视频进行识别比对,尤其是加强了对侵权视频可能出现的对抗攻击手段的识别,大大加强了模型的鲁棒性;本发明不仅能对待检索视频数据进行侵权检索,而且还能准确地定位到侵权视频片段或画面,定位准确率高。另外,本发明充分利用计算资源进行高效的聚类算法和倒排表计算,在单机效果小可实现千万视频数据秒级查询,提高了在海量数据下的检索效率;同时针对视频版权保护的特点,通过多种特征指标融合增加对侵权对抗方法的识别,最大程度保证了检索的准确率和召回率。另外,本发明通过提取视频的代表帧或采样帧的方法能够在一定程度下节约大量的储存和计算资源。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本实施例一提供的应用于视频版权保护的视频待检索定位方法流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施方式仅仅用以解释本发明,并不用于限定本发明。需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用来区别类似的对象,而不必用于描述特定的顺序或先后次序,应该理解这样使用的术语在适当情况下可以互换,这仅仅是描述本发明的实施例中对相同属性的对象在描述时所采用的区分方式。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,以便一系列单元的过程、方法、系统、产品或设备不必限于那些单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其他单元。
实施例一,S1)采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像。
在步骤S1)中,采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括利用视频镜头分割方法分别对待检索视频数据以及视频版权数据集中每个视频版权数据进行视频镜头分割、并获取每个视频镜头中的代表帧,将代表帧作为关键帧,获得待检索视频数据的若干个关键帧图像以及视频版权数据集中每个视频版权数据的若干个关键帧图像;视频分割方法包括基于时域的视频对象分割方法、基于运动的视频对象分割方法或交互式视频对象分割方法。
在步骤S1)中,采集视频版权数据集和待检索视频数据,获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括根据视频帧率对待检索视频数据以及视频版权数据集中每个视频版权数据分别进行图像采样,获得待检索视频数据的若干个采样帧以及视频版权数据集中每个视频版权数据的若干个采样帧,将采样帧作为关键帧,获得待检索视频数据的若干个关键帧图像以及视频版权数据集中每个视频版权数据的若干个关键帧图像。
在获取视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像之前,还包括将每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像中为无效帧的关键帧图像进行删除,无效帧的关键帧图像为纯白图像或纯黑图像。
在进行待检索时,可以利用视频镜头分割方法对视频版权数据集中每个视频版权数据分别进行视频镜头分割,获得每个视频版权数据的若干个关键帧图像。也可以根据视频帧率对视频版权数据集中每个视频版权数据分别进行关键帧图像采样(比如视频帧率为25fps的视频每隔50帧采样一次),本实施例通过视频镜头分割的代表帧进行检索,同时也能够利用采样帧进行最后的视频侵权片段的准确时间点定位。
S2)建立深度卷积神经网络模型,利用深度卷积神经网络模型提取关键帧图像的特征向量,将待检索视频数据的若干个关键帧图像的特征向量进行拼接,将每个视频版权数据的若干个关键帧图像的特征向量进行拼接,分别获得待检索视频数据的N×M维的特征向量以及视频版权数据集中每个视频版权数据的N×M维的特征向量,包括以下步骤:
S21)将待检索视频数据的若干个关键帧图像以及每个视频版权数据的若干个关键帧图像分别缩放到第一预设尺寸大小;
S22)建立深度卷积神经网络模型,将缩放后的每个关键帧图像分别输入所述深度卷积神经网络模型,将深度卷积神经网络模型的最后一个卷积层的特征图作为输出;
S23)采用R-MAC方法对每个特征图提取若干不同尺度的区域,获得若干个区域R-MAC特征,对所述若干个区域R-MAC特征进行求和池化、并进行拼接,获得与每个关键帧图像对应的特征向量;
S24)分别获得待检索视频数据的若干个关键帧图像的特征向量以及所述视频版权数据集中每个视频版权数据的若干个关键帧图像的特征向量。
深度卷积神经网络模型在预训练时可以对反转、镜像、旋转等侵权对抗手段通过数据增强的方式在模型中进行微调。步骤S2)中将深度卷积神经网络模型最后一个卷积层计算得到的特征图通过R-MAC方法进行区域特征提取,使用R-MAC方法对图像中央指定的局部区域生成一系列的区域向量,之后进行求和池化进行向量聚合,输出为512维特征向量,将所有向量结果保存在数据库中待检索过程使用。深度卷积神经网络模型使用ImageNet预训练模型参数,可选择在特定数据上进行微调,满足不同数量级数据的需要。深度卷积神经网络模型为选取在ImageNet上预训练的VGG16或AlexNet卷积神经网络。
S3)分别计算待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值,包括以下步骤:
S31)将待检索视频数据的若干个关键帧图像以及每个版权视频数据的若干个关键帧图像分别缩放到第二预设尺寸大小;
S32)将缩放到第二预设尺寸大小的每个关键帧图像分别转化为灰度图像;
S33)计算转化为灰度图像后每个关键帧图像的离散余弦变换,获得离散余弦变换系数矩阵;
S34)提取离散余弦变换系数矩阵的左上角预设大小的低频矩阵,计算低频矩阵的元素平均值,将低频矩阵中大于等于元素平均值的元素置1,将低频矩阵中小于元素平均值的元素置0,获得元素置1或置0的低频矩阵;
S35)将元素置1或置0的低频矩阵压平为一维向量,获得待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值。
为了加强模型对于侵权图像的对抗攻击能力,在深度学习特征的基础上,选用感知哈希作为后验衡量指标,首先将关键帧图像缩放到32x32的尺寸,减少图像冗余信息同时加快离散余弦变换的计算,将关键帧图像转化为64度灰度图像,进一步简化计算量,计算图像的离散余弦变换,本实施例中得到32x32的离散余弦变换系数矩阵,保留离散余弦变换系数矩阵的左上角8x8的低频矩阵,计算元素平均值,将8x8的低频矩阵中大于等于元素平均值的元素设为1,小于元素平均值的元素设为0,压平为64位的一维向量。
S4)利用视频版权数据集中每个视频版权数据的N×M维的特征向量和视频版权数据集中每个视频版权数据的若干个关键帧图像的感知哈希值构建加入聚类算法以及倒排索引的待检索系统,N为若干个关键帧图像的总数,M为每个关键帧图像的特征向量的维度,包括以下步骤:
S41)初始化待检索索引文件数据结构,所述待检索索引文件数据结构包括倒排列表、码表、倒排向量ID表和/或倒排向量编码表;
S42)获取训练数据,利用训练数据训练聚类算法;训练数据包括若干个数据点,若干个数据点分别为视频版权数据集中每个视频版权数据的N个M维的特征向量;建立倒排向量ID表,倒排向量ID表用于存储若干个数据点以及若干个数据点的ID;
S43)根据训练数据的数据量确定聚类的中心数以及每个聚类中心内的元素数量范围;
S44)随机初始化所有聚类中心,对所有聚类中心及码表进行更新,包括以下步骤:
S441)初始化所有聚类中心;
S442)计算任意一个聚类中心Cq到其他聚类中心的最短距离d(Cq,Cw),d(Cq,Cw)表示聚类中心Cq与距离所述聚类中心Cq最近的聚类中心Cw的距离;
S443)获取聚类中心Cq所在簇中的数据点x到所述聚类中心Cq的距离d(Cq,x),判断2d(Cq,x)≤d(Cq,Cw)是否成立,若否,则所述数据点x的归类位置不变;若否,则进入步骤S3034);
S444)计算数据点x到其他聚类中心的距离,将数据点x归类到与其他聚类中心的距离最近的聚类中心的所在簇中;
S445)重复步骤S442)至步骤S444),依次获得聚类中心Cq所在簇中的每个数据点的归类位置;
S446)重复步骤S442)至步骤S445),依次获得每个聚类中心所在簇中的每个数据点的归类位置;
S447)更新所有聚类中心,判断所有聚类中心是否发生变动,若是,则返回步骤S442);若否,则结束聚类更新,获得更新完成后的所有聚类中心以及每个聚类中心所在簇中的所有数据点,每一个数据点对应有一个ID,将更新完成后的所有聚类中心加入码表,将每个聚类中心所在簇中的所有数据点以及数据点的ID存储进对应的倒排列表中,每个聚类中心对应有一个倒排列表,倒排列表中储存着倒排ID和倒排编码表,所述倒排ID用于存储数据点的ID,所述倒排编码表用于存储聚类中心所在簇中的所有数据点。
本发明通过运用三角不等式减少了不必要的距离计算,加速了聚类算法。训练聚类算法时固定每个聚类中心的元素数量范围可避免出现元素过少导致聚类中心无代表性,同时防止过多数据元素训练模型,徒增训练时间。
S5)利用加入聚类算法以及倒排索引的待检索系统对待检索视频数据进行快速检索定位,获得待检索视频数据的侵权检索结果;包括以下步骤:
S51)获取构造的待检索索引文件,计算待检索视频数据的每一个M维的特征向量与更新完成后的所有聚类中心之间的向量距离,获取距离所述待检索视频数据的第j个M维的特征向量最近的K个聚类中心点,j=1、2、…、N;
S52)获取K个聚类中心点的倒排列表,通过OpenMP并列遍历K个聚类中心点的倒排编码表,计算待检索视频数据的第j个M维的特征向量与每个聚类中心点的倒排编码表中特征向量之间的距离;获得距离所述待检索视频数据的第j个M维的特征向量最近的若干个特征向量,若干个特征向量分别对应于不同视频版权数据的一个关键帧图像;
S53)分别计算若干个特征向量与待检索视频数据的第j个M维的特征向量之间的欧式距离;
S54)获取若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值,分别计算待检索视频数据的第j个M维的特征向量对应的感知哈希值与若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;
S55)建立评分函数fi=w1d1i+w2d2i,i=1、2、...、m,m为若干个特征向量的总数;w1为特征向量距离权重,w2为感知哈希值距离权重,d1i为所述若干个特征向量中的第i个特征向量与所述待检索视频数据的第j个M维的特征向量之间的欧式距离,d2i为所述待检索视频数据的第j个M维的特征向量对应的感知哈希值与第i个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;fi为与第i个特征向量相对应的视频版权数据的关键帧图像的评分值;
S56)分别计算与若干个特征向量对应的不同视频版权数据的关键帧图像的评分值、并对评分值进行排序,设定评分阈值,筛选出前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像;
S57)根据筛选出的前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像对待检索视频数据的第j个M维的特征向量对应的关键帧图像进行侵权定位统计;
S58)重复步骤S51)至步骤S57),依次获得所述待检索视频数据的N个M维的特征向量对应的关键帧图像的侵权定位统计结果,所述待检索视频数据的每一帧关键帧图像分别对应于不同视频版权数据的不同帧关键帧图像;
S59)根据侵权定位统计结果对待检索视频数据进行标记,获得所述待检索视频数据的侵权检索结果,待检索视频数据的侵权检索结果包括疑似全局相似、疑似部分相似或疑似画面相似;疑似全局相似、疑似部分相似或疑似画面相似分别对应于不同视频版权数据。
在步骤S5)中,还包括当待检索视频数据的侵权检索结果为疑似全局相似或疑似部分相似时对待检索视频数据进行侵权片段定位;进行侵权片段定位包括以下步骤:
S61)当待检索视频数据的若干个关键帧图像为关键帧时,获取与待检索视频数据的侵权检索结果相对应的视频版权数据y1,获取待检索视频数据的若干个关键帧图像在视频版权数据y1中对应的关键帧图像的时间,根据关键帧图像的时间设置时间范围,根据时间范围获取待检索视频数据在所述视频版权数据y1中的侵权片段;
S62)当待检索视频数据的若干个关键帧图像为采样帧时,获取与待检索视频数据的侵权检索结果相对应的视频版权数据y2,获取待检索视频数据的若干个关键帧图像在视频版权数据y2中对应的关键帧图像的时间,采用滑动窗口的方式进行双向扫描视频版权数据y2中对应的关键帧图像获取待检索视频数据在视频版权数据y2中的侵权片段。
采样帧的作用和关键帧的作用相互独立,本实施例可以用关键帧检索关键帧,也可以用关键帧检索采样帧,或者采样帧检索采样帧,因为采样帧密度更大,检索准确率也会相对提高。另外,在需要进行侵权片段定位时,关键帧给的范围就是记录的连续相似匹配到的关键帧片段所对应的时间,此时如果需要更精细的时间就可以采用采样帧,通过一个滑动窗口来进行双向扫描,获取在预设的时间窗口大小范围内满足顺序匹配约束条件的最大权重的匹配对。
本发明实施例中,待检索视频数据的NxM维的特征向量进行检索时,每个特征向量在筛选后得到一个相似向量列表,但是对于待检索视频数据的每一个M维的特征向量得到结果视频并不一定是对应的,比如,待检索视频数据有三帧关键帧图像,分别为关键帧f1、关键帧f2和关键帧f3,对三帧关键帧图像分别检索并筛选打分后得到的结果为:关键帧f1分别对应于视频版权数据集中视频1的第1帧关键帧图像、视频版权数据集中视频2的第1帧关键帧图像、视频版权数据集中视频3的第1帧关键帧图像以及视频版权数据集中视频3的第4帧关键帧图像;关键帧f2对应于视频版权数据集中视频1的第二帧关键帧图像、视频版权数据集中视频3的第二帧关键帧图像;关键帧f3对应于视频版权数据集中视频2的第3帧关键帧图像、视频版权数据集中视频3的第三帧关键帧图像,如表1所示。
表1待检索视频数据的三帧关键帧图像与结果视频关键帧图像匹配表
关键帧f1 关键帧f2 关键帧f3
视频1 第1帧 第2帧
视频2 第1帧 第3帧
视频3 第1帧、第4帧 第2帧 第3帧
表1
检索并筛选打分后得到的结果有出现一对多的情况(比如关键帧f1对应于视频版权数据集中视频3的第1帧关键帧图像以及视频版权数据集中视频3的第4帧关键帧图像),此时需要将两个结果同时保留。根据侵权定位统计结果对待检索视频数据进行标记,如果得到的侵权定位统计结果是在一个视频中能够统计到与待检索视频数据大部分帧相似,会将该视频标记为疑似全局相似;如果得到的侵权定位统计结果是一个视频中小段连续帧相似,则会将该视频标记为疑似部分相似,如果得到的侵权定位统计结果是一个视频中非常零散的帧(存在些许几帧连续或者大量帧都是离散分开的),则会将该视频被标记为疑似画面相似。
通过采用本发明公开的上述技术方案,得到了如下有益的效果:
本发明首先通过深度卷积神经网络与R-MAC方法结合提取视频的关键帧图像的高维特征向量,同时计算视频的关键帧图像的感知哈希值,两层尺度对视频进行识别比对,尤其是加强了对侵权视频可能出现的对抗攻击手段的识别,大大加强了模型的鲁棒性;另外,本发明充分利用计算资源进行高效的聚类算法和倒排表计算,在单机效果小可实现千万视频数据秒级查询,大大提高了在海量数据下的检索效率;同时针对视频版权保护的特点,通过多种特征指标融合增加对侵权对抗方法的识别,最大程度保证了检索的准确率和召回率。另外,本发明通过提取视频的代表帧或采样帧的方法能够在一定程度下节约大量的储存和计算资源。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视本发明的保护范围。

Claims (9)

1.一种应用于视频版权保护的视频检索定位方法,其特征在于,包括以下步骤:
S1)采集视频版权数据集和待检索视频数据,获取所述视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像;
S2)建立深度卷积神经网络模型,利用所述深度卷积神经网络模型提取关键帧图像的特征向量,将待检索视频数据的若干个关键帧图像的特征向量进行拼接,将每个视频版权数据的若干个关键帧图像的特征向量进行拼接,分别获得待检索视频数据的N×M维的特征向量以及视频版权数据集中每个视频版权数据的N×M维的特征向量;
S3)分别计算待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值;
S4)利用视频版权数据集中每个视频版权数据的N×M维的特征向量和视频版权数据集中每个视频版权数据的若干个关键帧图像的感知哈希值构建加入聚类算法以及倒排索引的待检索系统;
S5)利用所述加入聚类算法以及倒排索引的待检索系统对所述待检索视频数据进行快速检索定位,获得所述待检索视频数据的侵权检索结果。
2.根据权利要求1所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,在步骤S1)中,采集视频版权数据集和待检索视频数据,获取所述视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括利用视频镜头分割方法分别对所述待检索视频数据以及所述视频版权数据集中每个视频版权数据进行视频镜头分割、并获取每个视频镜头中的代表帧,将代表帧作为关键帧,获得所述待检索视频数据的若干个关键帧图像以及所述视频版权数据集中每个视频版权数据的若干个关键帧图像;所述视频分割方法包括基于时域的视频对象分割方法、基于运动的视频对象分割方法或交互式视频对象分割方法。
3.根据权利要求2所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,在步骤S1)中,采集视频版权数据集和待检索视频数据,获取所述视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像,包括根据视频帧率对所述待检索视频数据以及所述视频版权数据集中每个视频版权数据分别进行图像采样,获得所述待检索视频数据的若干个采样帧以及所述视频版权数据集中每个视频版权数据的若干个采样帧,将采样帧作为关键帧,获得所述待检索视频数据的若干个关键帧图像以及所述视频版权数据集中每个视频版权数据的若干个关键帧图像。
4.根据权利要求2或3所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,在获取所述视频版权数据集中每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像之前,还包括将每个视频版权数据的若干个关键帧图像以及待检索视频数据的若干个关键帧图像中为无效帧的关键帧图像进行删除,所述无效帧的关键帧图像为纯白图像或纯黑图像。
5.根据权利要求4所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,步骤S2)中,建立深度卷积神经网络模型,利用所述深度卷积神经网络模型提取关键帧图像的特征向量,将待检索视频数据的若干个关键帧图像的特征向量进行拼接,将每个视频版权数据的若干个关键帧图像的特征向量进行拼接,分别获得待检索视频数据的N×M维的特征向量以及视频版权数据集中每个视频版权数据的N×M维的特征向量,包括以下步骤:
S21)将待检索视频数据的若干个关键帧图像以及每个视频版权数据的若干个关键帧图像分别缩放到第一预设尺寸大小;
S22)建立深度卷积神经网络模型,将缩放后的每个关键帧图像分别输入所述深度卷积神经网络模型,将所述深度卷积神经网络模型的最后一个卷积层的特征图作为输出;
S23)采用R-MAC方法对每个特征图提取若干不同尺度的区域,获得若干个区域R-MAC特征,对所述若干个区域R-MAC特征进行求和池化、并进行拼接,获得与每个关键帧图像对应的特征向量;
S24)分别获得待检索视频数据的若干个关键帧图像的特征向量以及所述视频版权数据集中每个视频版权数据的若干个关键帧图像的特征向量。
6.根据权利要求5所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,步骤S3)中,分别计算待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值,包括以下步骤:
S31)将待检索视频数据的若干个关键帧图像以及每个版权视频数据的若干个关键帧图像分别缩放到第二预设尺寸大小;
S32)将缩放到第二预设尺寸大小的每个关键帧图像分别转化为灰度图像;
S33)计算转化为灰度图像后每个关键帧图像的离散余弦变换,获得离散余弦变换系数矩阵;
S34)提取所述离散余弦变换系数矩阵的左上角预设大小的低频矩阵,计算所述低频矩阵的元素平均值,将所述低频矩阵中大于等于元素平均值的元素置1,将所述低频矩阵中小于元素平均值的元素置0,获得元素置1或置0的低频矩阵;
S35)将所述元素置1或置0的低频矩阵压平为一维向量,获得待检索视频数据的若干个关键帧图像的感知哈希值以及每个视频版权数据的若干个关键帧图像的感知哈希值。
7.根据权利要求6所述的应用于视频版权保护的快速定位侵权视频的方法,其特征在于,步骤S4)中,利用视频版权数据集中每个视频版权数据的N×M维的特征向量和视频版权数据集中每个视频版权数据的若干个关键帧图像的感知哈希值构建加入聚类算法以及倒排索引的待检索系统,N为若干个关键帧图像的总数,M为每个关键帧图像的特征向量的维度,包括以下步骤:
S41)初始化待检索索引文件数据结构,所述待检索索引文件数据结构包括倒排列表、码表、倒排向量ID表和/或倒排向量编码表;
S42)获取训练数据,利用所述训练数据训练聚类算法;所述训练数据包括若干个数据点,所述若干个数据点分别为所述视频版权数据集中每个视频版权数据的N个M维的特征向量;建立倒排向量ID表,所述倒排向量ID表用于存储若干个数据点以及若干个数据点的ID;
S43)根据训练数据的数据量确定聚类的中心数以及每个聚类中心内的元素数量范围;
S44)随机初始化所有聚类中心,对所有聚类中心及码表进行更新,包括以下步骤:
S441)初始化所有聚类中心;
S442)计算任意一个聚类中心Cq到其他聚类中心的最短距离d(Cq,Cw),d(Cq,Cw)表示聚类中心Cq与距离所述聚类中心Cq最近的聚类中心Cw的距离;
S443)获取聚类中心Cq所在簇中的数据点x到所述聚类中心Cq的距离d(Cq,x),判断2d(Cq,x)≤d(Cq,Cw)是否成立,若否,则所述数据点x的归类位置不变;若否,则进入步骤S3034);
S444)计算数据点x到其他聚类中心的距离,将数据点x归类到与其他聚类中心的距离最近的聚类中心的所在簇中;
S445)重复步骤S442)至步骤S444),依次获得聚类中心Cq所在簇中的每个数据点的归类位置;
S446)重复步骤S442)至步骤S445),依次获得每个聚类中心所在簇中的每个数据点的归类位置;
S447)更新所有聚类中心,判断所有聚类中心是否发生变动,若是,则返回步骤S442);若否,则结束聚类更新,获得更新完成后的所有聚类中心以及每个聚类中心所在簇中的所有数据点,每一个数据点对应有一个ID,将更新完成后的所有聚类中心加入码表,将每个聚类中心所在簇中的所有数据点以及数据点的ID存储进对应的倒排列表中,每个聚类中心对应有一个倒排列表,倒排列表中储存着倒排ID和倒排编码表,所述倒排ID用于存储数据点的ID,所述倒排编码表用于存储聚类中心所在簇中的所有数据点。
8.根据权利要求7所述的应用于图像版权保护的快速定位侵权图像的方法,其特征在于,在步骤S5)中,利用所述加入聚类算法以及倒排索引的待检索系统对所述待检索视频数据进行快速检索定位,获得所述待检索视频数据的侵权检索结果,包括以下步骤:
S51)获取构造的待检索索引文件,计算所述待检索视频数据的每一个M维的特征向量与更新完成后的所有聚类中心之间的向量距离,获取距离所述待检索视频数据的第j个M维的特征向量最近的K个聚类中心点,j=1、2、…、N;
S52)获取所述K个聚类中心点的倒排列表,通过OpenMP并列遍历K个聚类中心点的倒排编码表,计算所述待检索视频数据的第j个M维的特征向量与每个聚类中心点的倒排编码表中特征向量之间的距离;获得距离所述待检索视频数据的第j个M维的特征向量最近的若干个特征向量,所述若干个特征向量分别对应于不同视频版权数据的一个关键帧图像;
S53)分别计算所述若干个特征向量与所述待检索视频数据的第j个M维的特征向量之间的欧式距离;
S54)获取所述若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值,分别计算所述待检索视频数据的第j个M维的特征向量对应的感知哈希值与所述若干个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;
S55)建立评分函数fi=w1d1i+w2d2i,i=1、2、...、m,m为若干个特征向量的总数;w1为特征向量距离权重,w2为感知哈希值距离权重,d1i为所述若干个特征向量中的第i个特征向量与所述待检索视频数据的第j个M维的特征向量之间的欧式距离,d2i为所述待检索视频数据的第j个M维的特征向量对应的感知哈希值与第i个特征向量对应的不同视频版权数据的关键帧图像的感知哈希值之间的汉明距离;fi为与第i个特征向量相对应的视频版权数据的关键帧图像的评分值;
S56)分别计算与所述若干个特征向量对应的不同视频版权数据的关键帧图像的评分值、并对评分值进行排序,设定评分阈值,筛选出前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像;
S57)根据筛选出的前z个评分值大于所述评分阈值的特征向量对应的不同视频版权数据的关键帧图像对所述待检索视频数据的第j个M维的特征向量对应的关键帧图像进行侵权定位统计;
S58)重复步骤S51)至步骤S57),依次获得所述待检索视频数据的N个M维的特征向量对应的关键帧图像的侵权定位统计结果,所述待检索视频数据的每一帧关键帧图像分别对应于不同视频版权数据的不同帧关键帧图像;
S59)根据所述侵权定位统计结果对所述待检索视频数据进行标记,获得所述待检索视频数据的侵权检索结果,所述待检索视频数据的侵权检索结果包括疑似全局相似、疑似部分相似或疑似画面相似;所述疑似全局相似、疑似部分相似或疑似画面相似分别对应于不同视频版权数据。
9.根据权利要求8所述的应用于图像版权保护的快速定位侵权图像的方法,其特征在于,在步骤S5)中,还包括当所述待检索视频数据的侵权检索结果为疑似全局相似或疑似部分相似时对所述待检索视频数据进行侵权片段定位;所述进行侵权片段定位包括以下步骤:
S61)当所述待检索视频数据的若干个关键帧图像为关键帧时,获取与所述待检索视频数据的侵权检索结果相对应的视频版权数据y1,获取所述待检索视频数据的若干个关键帧图像在所述视频版权数据y1中对应的关键帧图像的时间,根据所述关键帧图像的时间设置时间范围,根据所述时间范围获取待检索视频数据在所述视频版权数据y1中的侵权片段;
S62)当所述待检索视频数据的若干个关键帧图像为采样帧时,获取与所述待检索视频数据的侵权检索结果相对应的视频版权数据y2,获取所述待检索视频数据的若干个关键帧图像在所述视频版权数据y2中对应的关键帧图像的时间,采用滑动窗口的方式进行双向扫描所述视频版权数据y2中对应的关键帧图像获取待检索视频数据在所述视频版权数据y2中的侵权片段。
CN202011437602.5A 2020-12-11 2020-12-11 一种应用于视频版权保护的视频待检索定位方法 Active CN112395457B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011437602.5A CN112395457B (zh) 2020-12-11 2020-12-11 一种应用于视频版权保护的视频待检索定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011437602.5A CN112395457B (zh) 2020-12-11 2020-12-11 一种应用于视频版权保护的视频待检索定位方法

Publications (2)

Publication Number Publication Date
CN112395457A true CN112395457A (zh) 2021-02-23
CN112395457B CN112395457B (zh) 2021-06-22

Family

ID=74625220

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011437602.5A Active CN112395457B (zh) 2020-12-11 2020-12-11 一种应用于视频版权保护的视频待检索定位方法

Country Status (1)

Country Link
CN (1) CN112395457B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011342A (zh) * 2021-03-22 2021-06-22 支付宝(杭州)信息技术有限公司 用于版权侵权检索的特征提取、处理方法和系统
CN113343025A (zh) * 2021-08-05 2021-09-03 中南大学 基于加权梯度哈希激活热力图的稀疏对抗攻击方法
CN113435391A (zh) * 2021-07-09 2021-09-24 支付宝(杭州)信息技术有限公司 一种侵权视频的识别方法和装置
CN113886632A (zh) * 2021-12-03 2022-01-04 杭州并坚科技有限公司 一种基于动态规划的视频检索匹配方法
CN114267001A (zh) * 2022-03-01 2022-04-01 北京华育启智科技有限公司 视觉识别系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN108734106A (zh) * 2018-04-23 2018-11-02 中国科学院自动化研究所 基于对比的快速暴恐视频识别方法
CN109783691A (zh) * 2018-12-29 2019-05-21 四川远鉴科技有限公司 一种深度学习和哈希编码的视频检索方法
CN111198959A (zh) * 2019-12-30 2020-05-26 郑州轻工业大学 一种基于卷积神经网络的两阶段图像检索方法
CN111444390A (zh) * 2020-04-02 2020-07-24 徐州工程学院 一种基于Spark和深度哈希的视频并行检索方法
CN111753735A (zh) * 2020-06-24 2020-10-09 北京奇艺世纪科技有限公司 视频片段检测方法、装置、电子设备及存储介质
US20200394416A1 (en) * 2018-07-27 2020-12-17 Tencent Technology (Shenzhen) Company Limited Method and apparatus for training feature extraction model, computer device, and computer-readable storage medium

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180204111A1 (en) * 2013-02-28 2018-07-19 Z Advanced Computing, Inc. System and Method for Extremely Efficient Image and Pattern Recognition and Artificial Intelligence Platform
CN108734106A (zh) * 2018-04-23 2018-11-02 中国科学院自动化研究所 基于对比的快速暴恐视频识别方法
US20200394416A1 (en) * 2018-07-27 2020-12-17 Tencent Technology (Shenzhen) Company Limited Method and apparatus for training feature extraction model, computer device, and computer-readable storage medium
CN109783691A (zh) * 2018-12-29 2019-05-21 四川远鉴科技有限公司 一种深度学习和哈希编码的视频检索方法
CN111198959A (zh) * 2019-12-30 2020-05-26 郑州轻工业大学 一种基于卷积神经网络的两阶段图像检索方法
CN111444390A (zh) * 2020-04-02 2020-07-24 徐州工程学院 一种基于Spark和深度哈希的视频并行检索方法
CN111753735A (zh) * 2020-06-24 2020-10-09 北京奇艺世纪科技有限公司 视频片段检测方法、装置、电子设备及存储介质

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113011342A (zh) * 2021-03-22 2021-06-22 支付宝(杭州)信息技术有限公司 用于版权侵权检索的特征提取、处理方法和系统
CN113011342B (zh) * 2021-03-22 2022-06-14 支付宝(杭州)信息技术有限公司 用于版权侵权检索的特征提取、处理方法和系统
CN113435391A (zh) * 2021-07-09 2021-09-24 支付宝(杭州)信息技术有限公司 一种侵权视频的识别方法和装置
CN113343025A (zh) * 2021-08-05 2021-09-03 中南大学 基于加权梯度哈希激活热力图的稀疏对抗攻击方法
CN113343025B (zh) * 2021-08-05 2021-11-02 中南大学 基于加权梯度哈希激活热力图的稀疏对抗攻击方法
CN113886632A (zh) * 2021-12-03 2022-01-04 杭州并坚科技有限公司 一种基于动态规划的视频检索匹配方法
CN114267001A (zh) * 2022-03-01 2022-04-01 北京华育启智科技有限公司 视觉识别系统

Also Published As

Publication number Publication date
CN112395457B (zh) 2021-06-22

Similar Documents

Publication Publication Date Title
CN112395457B (zh) 一种应用于视频版权保护的视频待检索定位方法
CN107679250B (zh) 一种基于深度自编码卷积神经网络的多任务分层图像检索方法
US11816888B2 (en) Accurate tag relevance prediction for image search
US10235623B2 (en) Accurate tag relevance prediction for image search
US11709883B2 (en) Image based content search and recommendations
CN112417381B (zh) 应用于图像版权保护的快速定位侵权图像的方法及装置
US8892542B2 (en) Contextual weighting and efficient re-ranking for vocabulary tree based image retrieval
EP2657884B1 (en) Identifying multimedia objects based on multimedia fingerprint
CN110717411A (zh) 一种基于深层特征融合的行人重识别方法
US20090274364A1 (en) Apparatus and methods for detecting adult videos
CN109871464B (zh) 一种基于ucl语义标引的视频推荐方法与装置
EP1650683A1 (en) Search of similar features representing objects in a large reference database
US20140029801A1 (en) In-Video Product Annotation with Web Information Mining
CN110427517B (zh) 一种基于场景词典树的图搜视频方法,装置及计算机可读存储介质
US10387731B2 (en) Systems and methods for extracting and matching descriptors from data structures describing an image sequence
Myers et al. Evaluating multimedia features and fusion for example-based event detection
CN111666434A (zh) 基于深度全局特征的街景图片检索方法
CN114972506B (zh) 一种基于深度学习和街景图像的图像定位方法
Yang et al. Fast and robust key frame extraction method for gesture video based on high-level feature representation
CN111353055A (zh) 基于智能标签扩展元数据的编目方法及系统
Papapetros et al. Visual loop-closure detection via prominent feature tracking
Kamde et al. A survey on web multimedia mining
Guo Research on sports video retrieval algorithm based on semantic feature extraction
CN112560711B (zh) 非机动车交通违法判定方法、系统、装置及存储介质
Min et al. Near-duplicate video clip detection using model-free semantic concept detection and adaptive semantic distance measurement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant