CN101201822A - 基于内容的视频镜头检索方法 - Google Patents

基于内容的视频镜头检索方法 Download PDF

Info

Publication number
CN101201822A
CN101201822A CNA200610098298XA CN200610098298A CN101201822A CN 101201822 A CN101201822 A CN 101201822A CN A200610098298X A CNA200610098298X A CN A200610098298XA CN 200610098298 A CN200610098298 A CN 200610098298A CN 101201822 A CN101201822 A CN 101201822A
Authority
CN
China
Prior art keywords
content
camera lens
video
marking area
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA200610098298XA
Other languages
English (en)
Other versions
CN101201822B (zh
Inventor
许满武
杨献春
朱光蔚
杨群
柏文阳
陈红兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN200610098298XA priority Critical patent/CN101201822B/zh
Publication of CN101201822A publication Critical patent/CN101201822A/zh
Application granted granted Critical
Publication of CN101201822B publication Critical patent/CN101201822B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种基于内容的镜头检索方法。其首先对视频数据库进行镜头分割,以镜头作为视频内容的基本结构单元和检索单元;用关键帧数的关键帧策略及时空注意力选择模型选取关注区域对视频镜头内容进行表征;设有两个镜头A和B为显著区域,计算两者对应关键帧匹配度;计算镜头时空内容的匹配度。本发明的镜头内容表征方式保持时间线上前后关联的语义语境变换信息。然后在这种内容表征之上进行视频内容检索,获得了良好的检索效果,可以取得更高的准确率。

Description

基于内容的视频镜头检索方法
一技术领域
本发明属于视频检索技术领域,特别是一种基于内容的视频检索方法。
二背景技术
随着计算机技术不断发展,计算机处理能力得到显著提高。先进的集成制造工艺使得硬件性能不断提升,网络技术、通讯技术的革新有力地推动了信息化发展进程。人们应用处理的媒体信息量每天都呈几何级数增长,信息技术发展带来了海量的视频数据。视频点播、数字交互电视、视频会议等新的媒体信息交换和应用形式已经完全融入人们日常学习、工作、生活和娱乐之中。数字化后的媒体信息,尤其是数字化后的视频和音频信息具有数据海量性,它给信息的管理、存储和传输造成极大的困难,成为阻碍人类有效获取和使用信息的主要瓶颈。按照传统的文本数据分析、管理、检索方法来管理视频信息既要耗费大量的人力,又不能充分利用视频中包含的丰富信息内容。因此,传统的文本信息内容描述、分析、管理、检索等相关技术已不适合处理大量视频数据。基于视频内容的数据分析、过滤、概要、检索等相关技术研究已受到广泛关注。为了对含有丰富时空信息的视频数据进行高效快捷地过滤、浏览和检索,人们提出了视频内容分析和基于内容的视频检索技术。视频内容分析技术已取得了一定的进展,正成为多媒体领域一个活跃的研究方向。多媒体内容描述接口MPEG-7标准的建立和完善推动了基于内容的视频检索技术的发展。
对于基于内容的视频检索一般先进行镜头分割和镜头边界检测,然后以镜头为单位提取静态视觉特征以及时空特性,进行这些特征相似度衡量,以此进行检索。北京大学计算机科学技术研究所和北京北大方正技术研究院有限公司开发的一种基于内容的检索方法(公开号为CN1477600),该专利建立镜头相似度的带权二分图模型G={X,Y,E}。其中,X表示镜头X有n帧,Y表示镜头Y有m帧,边集E。该方法中构造带权二分图的方法有两种:一种是子镜头构造带权二分图的方法,即以子镜头的关键帧作为节点,构造带权二分图。另一种是等间隔采样构造二分图的方法,在每个镜头内部等间隔地提取关键帧作为节点,构造带权二分图,这样两个镜头的关键帧数目是一样的,可以构成多节点的完全二分图。
基于例子的视频查询应该是高效的、简便的和正确的:所谓高效性指检索系统能够快速地找到用户所需要的视频;简便性指检索系统应该让用户操作简单、便捷,不需要掌握复杂的专业领域知识;正确性指检索系统返回的视频应当尽可能接近用户的检索要求。但是要设计一个满足上述要求的视频检索系统,必须先定义两个视频镜头的相似性度量。在定义视频实例的“相似度”中,要解决以下技术难点:(1)视频不是简单的帧序列集合,而是层次结构,视频间相似度衡量是在哪个层次上进行,是视频比较的前提。(2)关键帧的视觉特征是整个视觉特征的基础,但是每个视频都有相当数量的关键帧。对于大型的视频数据库而言,所有视频的各个关键帧视觉特征的存储量和相互间比较次数都是可观的。(3)两部视频是否相似是一个很复杂的问题,不同的人有不同的理解,掺杂着认为主观的因素,要设计合理的视频比较方法,必须尽量综合考虑各种因素。
三发明内容
本发明的目的在于提供一种基于内容的视频检索方法,该方法不仅能大大提高基于内容镜头检索的准确率,从而更加充分地发挥镜头检索技术在现今海量视频信息社会中的巨大社会作用,而且能使检索更加的高效,其操作也很简便,利于广大普通用户使用。
实现本发明目的的技术方案为:一种基于内容的镜头检索方法,包括以下步骤:
第一步,首先对视频数据库进行镜头分割,以镜头作为视频内容的基本结构单元和检索单元;
第二步,用关键帧数的关键帧策略及时空注意力选择模型选取关注区域对视频镜头内容进行表征;
第三步,设有两个镜头A和B为显著区域,计算两者对应关键帧匹配度;
第四步,计算镜头时空内容的匹配度。
本发明基于内容的镜头检索方法,其特征在于:在第一步中,对视频数据库进行镜头分割的方法为基于统计分布的渐变镜头分割方法。
本发明基于内容的镜头检索方法,其特征在于:在第二步中,对镜头内容进行表征,包括以下步骤:
(1)设镜头总长度为L,关键帧数目为n,则以L/(n-1)为步长选取n个关键帧;抽取的关键帧在离散的时间点上组成帧序列,用上述方式来表示视频内容,能够比较真实表达出视频流时空内容变化关系,这种镜头内容表征方式可以较好保留时间线上前后关联的语义语境变换信息,这样两个镜头的关键帧数目是一样的;
(2)用注意力模型选择的视频基本对象既包括关键帧的空间静态显著对象,也包括通过时域信息得到动态显著对象,最终的视觉显著区域由下式得到:
VSA=SAO|DAO
上式中,V.SA.、S.AO.、D.AO.分别表示最终的视觉显著区域、静态显著对象和动态显著对象,|为或运算。
本发明基于内容的镜头检索方法,其特征在于:在第三步中,对两个镜头A和B进行匹配度计算:
(1)计算镜头A和B的对应第i个关键帧匹配度D(Ai,Bi):
①选取Ai中的第k个显著区域,按“两显著区域匹配度计算方法”计算此显著区域与Bi中各个显著区域的匹配度,该“两显著区域匹配度计算方法”为 D = ω 1 D 1 + ω 2 D 2 + ω 3 D 3 ω 1 + ω 2 + ω 3 , 其中D是两显著区域总的差异,值越小表示差异越小,即越相似,反之值越大就是差异越大,而D1,D2,D3则分别是按Mpeg-7参考模型中描述子做匹配得到的差异值,ω1,ω2,ω3是权值,三个权值不可同时为零;
②在所有匹配度中选择最小值对应的Bi中显著区域为Ai中的第k个显著区域配对区域,将最小匹配度记为Di
③将两配对区域分别从Ai和Bi显著区域集合中删除;
④重复①-③至Ai和Bi显著区域集合中出现空集为止;
⑤对所有Di求均值即为D(Ai,Bi);
(2)按步骤(1)计算所用n个关键帧的D(An,Bn);
(3)对计算得到的n个D(Ai,Bi)求均值,得到两个镜头A和B的匹配度。
本发明与现有技术相比,其显著优点为:采用了保持时空变化信息的关键帧选取策略与时空注意力选择显著区域相结合进行镜头的时空内容表征方式:抽取的关键帧在离散的时间点上组成帧序列可较真实表达出视频流时空内容变化关系,这种镜头内容表征方式可以较好保留时间线上前后关联的语义语境变换信息;基于注意力机制的视频视觉内容选择模型从视频帧中提取显著区域,对视频的视觉内容进行自动选择,注意力模型将在视觉语义分析过程中模拟人视觉系统的关注能力。这种表征方式能够简洁高效地表示出镜头的视觉内容,对比实验结果证明了本发明可以取得更高的检索准确率。
四附图说明
图1是对镜头进行基于内容的视频检索的方法的流程示意图。
图2是保持时空变化信息的关键帧选取策略。
五具体实施方式
下面结合附图对本发明作进一步详细的描述。
结合图1和图2,本发明基于内容的镜头检索方法,包括以下步骤:
第一步,首先对视频数据库进行镜头分割,以镜头作为视频内容的基本结构单元和检索单元,其中对视频数据库进行镜头分割的方法为基于统计分布的渐变镜头分割方法。
第二步,用关键帧数的关键帧策略及时空注意力选择模型选取关注区域对视频镜头内容进行表征,即对镜头内容进行表征,包括以下步骤:
(1)设镜头总长度为L,关键帧数目为n,则以L/(n-1)为步长选取n个关键帧;抽取的关键帧在离散的时间点上组成帧序列,用上述方式来表示视频内容,能够比较真实表达出视频流时空内容变化关系,这种镜头内容表征方式可以较好保留时间线上前后关联的语义语境变换信息,这样两个镜头的关键帧数目是一样的;
(2)用注意力模型选择的视频基本对象既包括关键帧的空间静态显著对象,也包括通过时域信息得到动态显著对象,最终的视觉显著区域由下式得到:
VSA=SAO|DAO
上式中,V.SA.、S.AO.、D.AO.分别表示最终的视觉显著区域、静态显著对象和动态显著对象,|为或运算。
第三步,设有两个镜头A和B为显著区域,计算两者对应关键帧匹配度,即对两个镜头A和B进行匹配度计算:
(1)计算镜头A和B的对应第i个关键帧匹配度D(Ai,Bi):
①选取Ai中的第k个显著区域,按“两显著区域匹配度计算方法”计算此显著区域与Bi中各个显著区域的匹配度,该“两显著区域匹配度计算方法”为 D = ω 1 D 1 + ω 2 D 2 + ω 3 D 3 ω 1 + ω 2 + ω 3 , 其中D是两显著区域总的差异,值越小表示差异越小,即越相似,反之值越大就是差异越大,而D1,D2,D3则分别是按Mpeg-7参考模型中描述子做匹配得到的差异值,ω1,ω2,ω3是权值,三个权值不可同时为零;
②在所有匹配度中选择最小值对应的Bi中显著区域为Ai中的第k个显著区域配对区域,将最小匹配度记为Di
③将两配对区域分别从Ai和Bi显著区域集合中删除;
④重复①-③至Ai和Bi显著区域集合中出现空集为止;
⑤对所有Di求均值即为D(Ai,Bi);
(2)按步骤(1)计算所用n个关键帧的D(An,Bn);
(3)对计算得到的n个D(Ai,Bi)求均值,得到两个镜头A和B的匹配度。
第四步,计算镜头时空内容的匹配度。
下面再对上述内容作进一步说明。
1.镜头分割
首先用基于统计分布的渐变镜头分割方法对视频数据库进行镜头分割,以镜头为单位作为视频的基本结构但愿和检索单元,关于基于统计分布的渐变镜头分割方法的详细描述可以参考文献“基于内容的视频结构分析”[印晓莉,南京理工大学硕士论文,pp29-37,2005.6]
2.关键帧提取策略
视频视觉内容的表征包括两个层次:空间域的表征和时间域的表征。空间域的表征,即帧内图像内容表示方式,侧重的是帧图像空间内容的表示。本发明中采用注意力选择模型来选取显著区域进行空域内容表征。时域表征主要反映空间内容沿时间的变化信息,本发明采用自适应变间隔关键帧数的“帧切片”关键帧策略进行时域信息的表征,这样两个镜头的关键帧数目是一样的。
在大多数基于内容视频检索方法是用镜头中单帧关键帧来代表视频空域信息。然而用单一帧来表示镜头内容往往会使视频丰富的时域变化信息丢失或缺损,没有充分利用时域的内容变换信息。因为视频在相隔较短的时间间隔里中内容不会发生较大变化,所以本发明节用帧片段抽样的结构来表示视频沿时间线的内容。抽取的关键帧在离散的时间点上组成帧序列。用上述方式来表示视频内容,可较真实表达出视频流时空内容变化关系,这种镜头内容表征方式可以较好保留时间线上前后关联的语义语境变换信息。
3时空注意力选择模型
对每一关键帧用时空注意力模型选取空域中的显著区域。
人脑利用视觉系统注意力机制有选择地接受和处理外来信息。在视觉信息处理过程中,注意力机制指挥大脑将资源有选择地分配给被认为是重要的感兴趣信息。视频的视觉内容也相当丰富,视觉语义分析过程中对图像中的所有细节都进行处理和分析是不现实的。受生物视觉机制和认知心理学的启发,本发明提出用一种基于注意力机制的视频视觉内容选择模型。此模型从视频帧中提取显著区域,对视频的视觉内容进行自动选择。注意力模型将在视觉语义分析过程中模拟人视觉系统的关注能力。
基于注意机制的视觉内容选择模型由动态选择和静态选择两部分组成。此模型将对视频中动态和静态的显著区域进行综合选择。
①基于时域特征的动态选择
人类视觉系统对视野中的动态、静态部分关注程度是不同的,运动物体的关注程度一般相对静态部分要高得多。以上正是本节动态注意力选择的基本依据。本选择模型将视频中运动对象认定为显著区域,因此动态注意力选择的主要任务是对场景中运动对象进行探测和分割。视频运动对象的分割采用背景的注册与更新方法实现,关于详细的运动对象分割描述可以参考文献“Efficient moving object segmentation algorithmusing background registration technique”[Chien S.-Y.,Ma S.-Y.,Chen L.-G,IEEETransactions on Circuits and Systems for Video Technology,Vol.12,No.7,pp577-586,July,2002]。
②空域的静态选择
在视野中注意力的关注不仅局限于运动对象,还会包括少数静态区域,即非运动的显著区域。因此,需要定义一个显著性标准来衡量哪些静态信息是重要的或感兴趣的。静态显著区域的详细选取采用文献“Unsupervised extraction of visual attention objects in colorimages”[.Han J.,et al,IEEE Transactions on Circuits and Systems for Video Technology,Vol.16,No.1,pp141-145,Jan.,2006]中提出的方法进行分割提取。定义静态注意力对象:
SAO={AV,ES,HM}
其中,S.AO.表示静态注意力对象,AV示注意力值,ES是边集合,HM表示S.AO.的同质测量值。注意力AV是观众对一个对象关注程度的量化值,由显著映射(SaliencyMap,SM)计算。显著值为:
SV(i,j)=SV*(i,j)·G(i,j),0≤i≤M-1,0≤j≤N-1
其中,(i,j)是M×N像素区域SM中的点,SV*(i,j)是Itti模型的显著值,G(i,j)是中心在((M-1)/2,(N-1)/2)的正规化高斯函数。SV(i,j)是点(i,j)融入位置因素的显著值。
③时空注意力选择模型
用注意力模型选择的视频基本对象既包括关键帧的空间静态显著对象,也包括通过时域信息得到动态显著对象。最终的视觉显著区域由下式得到:
VSA=SAO|DAO
上式中,V.SA.、S.AO.、D.AO.分别表示最终的视觉显著区域、静态显著对象和动态显著对象,|为或运算。
4两显著区域匹配度计算
提取符合Mpeg-7标准的三静态视觉低层特征:相似纹理描述子,可扩展颜色描述子和基于轮廓的形状描述子。将三个匹配结果线性加权来确定最终的匹配度。
D = ω 1 D 1 + ω 2 D 2 + ω 3 D 3 ω 1 + ω 2 + ω 3
其中D是两显著区域总的差异,值越小表示差异越小,即越相似,反之值越大就是差异越大。而D1,D2,D3则分别是按Mpeg-7参考模型中描述子做匹配得到的差异值,ω1,ω2,ω3是权值,三个权值不可同时为零。
5两个镜头相似度计算
对两个镜头A和B,其匹配度计算如下:
1.计算镜头A和B的对应第i关键帧匹配度D(Ai,Bi):
①选取Ai中的第k个显著区域,按上述“两显著区域匹配度计算方法”计算此显著区域与Bi中各个显著区域的匹配度。
②在所有匹配度中选择最小值对应的Bi中显著区域为Ai中的第k个显著区域配对区域,将最小匹配度记为Di
③将两配对区域分别从Ai和Bi显著区域集合中删除。
④重复①-③至Ai和Bi显著区域集合中出现空集为止。
⑤对所有Di求均值即为D(Ai,Bi)。
2.按1步骤计算所用n个关键帧的D(An,Bn)。
3.对计算得到的n个D(Ai,Bi)求均值,得到两个镜头A和B的匹配度。
实验采用Mpeg-7标准化活动中的评价指标:平均归一化调整后的检索秩ANMRR(Average Normalized Modified Retrieval Rank)和平均查全率AR(AverageRecall)。ANMRR类似于TREC中评测指标Precision,AR类似于Recall。ANMRR值越小表示检索得到的正确镜头的排名越靠前;AR值大表示在前K个查询结果中相似镜头占所有相似镜头的比例越大,其中K为检索结果的截断值。表1是本发明方法与现有方法的的比较实验结果。
表1  本发明与现有方法的对比实验结果
Figure A20061009829800121
从上表可以看出,本发明的方法在ANMRR和AR都取得比现有方法好的效果,这证实了本发明用自适应变间隔等关键帧的“帧切片”关键帧策略和时空注意力选择模型表征镜头内容方法的有效性。

Claims (4)

1.一种基于内容的镜头检索方法,包括以下步骤:
第一步,首先对视频数据库进行镜头分割,以镜头作为视频内容的基本结构单元和检索单元;
第二步,用关键帧数的关键帧策略及时空注意力选择模型选取关注区域对视频镜头内容进行表征;
第三步,设有两个镜头A和B为显著区域,计算两者对应关键帧匹配度;
第四步,计算镜头时空内容的匹配度。
2.根据权利要求1所述的基于内容的镜头检索方法,其特征在于:在第一步中,对视频数据库进行镜头分割的方法为基于统计分布的渐变镜头分割方法。
3.根据权利要求1所述的基于内容的镜头检索方法,其特征在于:在第二步中,对镜头内容进行表征,包括以下步骤:
(1)设镜头总长度为L,关键帧数目为n,则以L/(n-1)为步长选取n个关键帧;抽取的关键帧在离散的时间点上组成帧序列,用上述方式来表示视频内容,能够比较真实表达出视频流时空内容变化关系,这种镜头内容表征方式可以较好保留时间线上前后关联的语义语境变换信息,这样两个镜头的关键帧数目是一样的;
(2)用注意力模型选择的视频基本对象既包括关键帧的空间静态显著对象,也包括通过时域信息得到动态显著对象,最终的视觉显著区域由下式得到:
VSA=SAO|DAO
上式中,VSA、SAO、DAO分别表示最终的视觉显著区域、静态显著对象和动态显著对象,|为或运算。
4.根据权利要求1所述的基于内容的镜头检索方法,其特征在于:在第三步中,对两个镜头A和B进行匹配度计算:
(1)计算镜头A和B的对应第i个关键帧匹配度D(Ai,Bi):
①选取Ai中的第k个显著区域,按“两显著区域匹配度计算方法”计算此显著区域与Bi中各个显著区域的匹配度,该“两显著区域匹配度计算方法”为
D = ω 1 D 1 + ω 2 D 2 + ω 3 D 3 ω 1 + ω 2 + ω 3 , 其中D是两显著区域总的差异,值越小表示差异越小,
即越相似,反之值越大就是差异越大,而D1,D2,D3则分别是按Mpeg-7参考模型
中描述子做匹配得到的差异值,ω1,ω2,ω3是权值,三个权值不可同时为零;
②在所有匹配度中选择最小值对应的Bi中显著区域为Ai中的第k个显著区域配对区域,将最小匹配度记为Di
③将两配对区域分别从Ai和Bi显著区域集合中删除;
④重复①-③至Ai和Bi显著区域集合中出现空集为止;
⑤对所有Di求均值即为D(Ai,Bi);
(2)按步骤(1)计算所用n个关键帧的D(An,Bn);
(3)对计算得到的n个D(Ai,Bi)求均值,得到两个镜头A和B的匹配度。
CN200610098298XA 2006-12-11 2006-12-11 基于内容的视频镜头检索方法 Expired - Fee Related CN101201822B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN200610098298XA CN101201822B (zh) 2006-12-11 2006-12-11 基于内容的视频镜头检索方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200610098298XA CN101201822B (zh) 2006-12-11 2006-12-11 基于内容的视频镜头检索方法

Publications (2)

Publication Number Publication Date
CN101201822A true CN101201822A (zh) 2008-06-18
CN101201822B CN101201822B (zh) 2010-06-23

Family

ID=39516992

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200610098298XA Expired - Fee Related CN101201822B (zh) 2006-12-11 2006-12-11 基于内容的视频镜头检索方法

Country Status (1)

Country Link
CN (1) CN101201822B (zh)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101840435A (zh) * 2010-05-14 2010-09-22 中兴通讯股份有限公司 一种实现视频预览和检索的方法及移动终端
CN102156751A (zh) * 2011-04-26 2011-08-17 深圳市迅雷网络技术有限公司 一种提取视频指纹的方法及装置
CN102187336A (zh) * 2008-08-27 2011-09-14 欧洲航空防务和航天公司 用于识别视频档案中的对象的方法
CN102222237A (zh) * 2011-07-14 2011-10-19 北京工业大学 手语视频的相似度评估模型的建立方法
CN101650722B (zh) * 2009-06-01 2011-10-26 南京理工大学 基于音视频融合的足球视频精彩事件检测方法
CN101604325B (zh) * 2009-07-17 2012-06-20 北京邮电大学 基于主场景镜头关键帧的体育视频分类方法
CN102831611A (zh) * 2012-08-21 2012-12-19 北京捷成世纪科技股份有限公司 一种电视节目中挂角广告的提取方法及装置
CN103207587A (zh) * 2012-08-10 2013-07-17 天津十彩动画科技有限公司 一种镜头数据库处理数控系统
CN103235806A (zh) * 2013-04-19 2013-08-07 北京理工大学 基于时空关系的互联网视频片段间关系识别方法
CN103279473A (zh) * 2013-04-10 2013-09-04 深圳康佳通信科技有限公司 海量视频内容检索方法、系统及移动终端
CN103914710A (zh) * 2013-01-05 2014-07-09 北京三星通信技术研究有限公司 从图像中检测对象的设备和方法
CN103703472B (zh) * 2010-07-28 2016-12-07 国际商业机器公司 用于确定视频中的对象的部位及相关属性的方法和系统
CN106339655A (zh) * 2015-07-06 2017-01-18 无锡天脉聚源传媒科技有限公司 一种视频镜头标注方法及装置
CN106777172A (zh) * 2016-12-22 2017-05-31 南京师范大学 一种视频时空检索方法
CN107169004A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种特征数据库更新方法及装置
CN107659827A (zh) * 2017-09-25 2018-02-02 北京小鱼易连科技有限公司 基于内容分析的桌面视频编码控制系统
CN110175267A (zh) * 2019-06-04 2019-08-27 黑龙江省七星农场 一种基于无人机遥感技术的农业物联网控制处理方法
US10424342B2 (en) 2010-07-28 2019-09-24 International Business Machines Corporation Facilitating people search in video surveillance
CN117612215A (zh) * 2024-01-23 2024-02-27 南京中孚信息技术有限公司 基于视频检索的身份识别方法、装置、介质
CN117612215B (zh) * 2024-01-23 2024-04-26 南京中孚信息技术有限公司 基于视频检索的身份识别方法、装置、介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1240014C (zh) * 2003-07-18 2006-02-01 北京大学计算机科学技术研究所 一种对镜头进行基于内容的视频检索的方法
CN1252647C (zh) * 2003-07-18 2006-04-19 北京大学计算机科学技术研究所 一种基于内容的镜头检索方法
CN1245697C (zh) * 2003-08-04 2006-03-15 北京大学计算机科学技术研究所 一种通过视频片段进行视频检索的方法
CN100507910C (zh) * 2005-07-18 2009-07-01 北大方正集团有限公司 集成颜色和运动特征进行镜头检索的方法
CN1851710A (zh) * 2006-05-25 2006-10-25 浙江大学 嵌入式多媒体基于关键帧的视频检索的实现方法

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102187336B (zh) * 2008-08-27 2014-06-11 欧洲航空防务和航天公司 用于识别视频档案中的对象的方法
CN102187336A (zh) * 2008-08-27 2011-09-14 欧洲航空防务和航天公司 用于识别视频档案中的对象的方法
CN101650722B (zh) * 2009-06-01 2011-10-26 南京理工大学 基于音视频融合的足球视频精彩事件检测方法
CN101604325B (zh) * 2009-07-17 2012-06-20 北京邮电大学 基于主场景镜头关键帧的体育视频分类方法
WO2011140783A1 (zh) * 2010-05-14 2011-11-17 中兴通讯股份有限公司 一种实现视频预览和检索的方法及移动终端
CN101840435A (zh) * 2010-05-14 2010-09-22 中兴通讯股份有限公司 一种实现视频预览和检索的方法及移动终端
US8737808B2 (en) 2010-05-14 2014-05-27 Zte Corporation Method and mobile terminal for previewing and retrieving video
US10424342B2 (en) 2010-07-28 2019-09-24 International Business Machines Corporation Facilitating people search in video surveillance
US9679201B2 (en) 2010-07-28 2017-06-13 International Business Machines Corporation Semantic parsing of objects in video
CN103703472B (zh) * 2010-07-28 2016-12-07 国际商业机器公司 用于确定视频中的对象的部位及相关属性的方法和系统
CN102156751A (zh) * 2011-04-26 2011-08-17 深圳市迅雷网络技术有限公司 一种提取视频指纹的方法及装置
CN102222237A (zh) * 2011-07-14 2011-10-19 北京工业大学 手语视频的相似度评估模型的建立方法
CN103207587A (zh) * 2012-08-10 2013-07-17 天津十彩动画科技有限公司 一种镜头数据库处理数控系统
CN102831611B (zh) * 2012-08-21 2015-12-09 北京捷成世纪科技股份有限公司 一种电视节目中挂角广告的提取方法及装置
CN102831611A (zh) * 2012-08-21 2012-12-19 北京捷成世纪科技股份有限公司 一种电视节目中挂角广告的提取方法及装置
CN103914710A (zh) * 2013-01-05 2014-07-09 北京三星通信技术研究有限公司 从图像中检测对象的设备和方法
CN103279473A (zh) * 2013-04-10 2013-09-04 深圳康佳通信科技有限公司 海量视频内容检索方法、系统及移动终端
CN103235806B (zh) * 2013-04-19 2016-04-20 北京理工大学 基于时空关系的互联网视频片段间关系识别方法
CN103235806A (zh) * 2013-04-19 2013-08-07 北京理工大学 基于时空关系的互联网视频片段间关系识别方法
CN106339655A (zh) * 2015-07-06 2017-01-18 无锡天脉聚源传媒科技有限公司 一种视频镜头标注方法及装置
CN106777172A (zh) * 2016-12-22 2017-05-31 南京师范大学 一种视频时空检索方法
CN107169004A (zh) * 2017-03-31 2017-09-15 北京奇艺世纪科技有限公司 一种特征数据库更新方法及装置
CN107659827A (zh) * 2017-09-25 2018-02-02 北京小鱼易连科技有限公司 基于内容分析的桌面视频编码控制系统
CN110175267A (zh) * 2019-06-04 2019-08-27 黑龙江省七星农场 一种基于无人机遥感技术的农业物联网控制处理方法
CN117612215A (zh) * 2024-01-23 2024-02-27 南京中孚信息技术有限公司 基于视频检索的身份识别方法、装置、介质
CN117612215B (zh) * 2024-01-23 2024-04-26 南京中孚信息技术有限公司 基于视频检索的身份识别方法、装置、介质

Also Published As

Publication number Publication date
CN101201822B (zh) 2010-06-23

Similar Documents

Publication Publication Date Title
CN101201822B (zh) 基于内容的视频镜头检索方法
CN104239501B (zh) 一种基于Spark的海量视频语义标注方法
TWI653542B (zh) 一種基於網路媒體資料流程發現並跟蹤熱點話題的方法、系統和裝置
CN101271476B (zh) 网络图像搜索中基于聚类的相关反馈检索方法
CN110059198A (zh) 一种基于相似性保持的跨模态数据的离散哈希检索方法
CN102902826B (zh) 一种基于基准图像索引的图像快速检索方法
CN105045818A (zh) 一种图片的推荐方法、装置和系统
CN112884005B (zh) 一种基于sptag及卷积神经网的图像检索方法及装置
CN108509517B (zh) 一种面向实时新闻内容的流式话题演化跟踪方法
WO2015058500A1 (zh) 一种存储数据的方法和装置
CN100462978C (zh) 一种图像检索方法及系统
Zhang et al. Hierarchical information quadtree: efficient spatial temporal image search for multimedia stream
Davis et al. SociRank: Identifying and ranking prevalent news topics using social media factors
CN113535788A (zh) 一种面向海洋环境数据的检索方法、系统、设备及介质
CN110889036A (zh) 一种多维度信息的处理方法、装置及终端设备
Jia et al. Photo-to-Search: Using camera phones to inquire of the surrounding world
Li et al. DDLVis: Real-time visual query of spatiotemporal data distribution via density dictionary learning
Liang et al. An efficient hierarchical near-duplicate video detection algorithm based on deep semantic features
CN116595043A (zh) 一种大数据检索方法及装置
CN107291875B (zh) 一种基于元数据图的元数据组织管理方法和系统
Juan et al. Content-based video retrieval system research
CN104111947A (zh) 一种遥感图像的检索方法
Patel et al. A survey on context based similarity techniques for image retrieval
Donaldson Music recommendation mapping and interface based on structural network entropy
CN112765206B (zh) 一种流量感知与高k因子传播预测方法、系统及其存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100623

Termination date: 20111211