CN101821734B - 时基媒体之间的匹配的检测和分类 - Google Patents
时基媒体之间的匹配的检测和分类 Download PDFInfo
- Publication number
- CN101821734B CN101821734B CN2008801105573A CN200880110557A CN101821734B CN 101821734 B CN101821734 B CN 101821734B CN 2008801105573 A CN2008801105573 A CN 2008801105573A CN 200880110557 A CN200880110557 A CN 200880110557A CN 101821734 B CN101821734 B CN 101821734B
- Authority
- CN
- China
- Prior art keywords
- fingerprint
- keyword
- sub
- video
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/48—Matching video sequences
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Abstract
一种检测视频内容的部分之间的匹配的系统和方法。匹配模块接收输入视频和表示参考数据库中的参考视频的参考指纹的集合。匹配模块比较参考指纹和输入指纹,以生成来自参考视频集合的候选分段的列表。每个候选分段包括潜在地与输入视频相匹配的参考视频的时间局部化部分。对每个候选分段应用分类器以将分段分类为匹配分段或非匹配分段。然后基于分类为匹配的分段,输出标识来自参考视频集合的参考视频的匹配部分的结果。
Description
技术领域
本发明总体上涉及视频处理,更具体地涉及检测匹配的视频内容。
背景技术
电子视频库可以包含成千上万的视频文件,这使得对这些库的管理成为极具挑战性的任务。视频托管网站需要用于标识未授权视频的机制。虽然一些文件可以通过文件名或用户提供的其他信息来标识,但是这些识别信息可能是错误的或不足以正确地标识视频。使用人工来手动地标识视频内容的备选方法昂贵且耗时。
视频共享站点面临的另一个问题在于该站点可能包含相同视频内容的多个拷贝。这浪费了存储空间,并成为主机的一大开销。第三个问题在于:由于文件的数目巨大,很难按照对用户而言方便的方式来组织视频库。例如,搜索结果可能具有多个相同或非常相似的视频的拷贝,使得用户难以对结果进行导航。
鉴于上述问题,需要一种自动地比较和匹配重叠视频内容的技术。
发明内容
一种系统和方法,检测重复的视频内容。匹配模块接收表示输入视频的输入视频指纹(fingerprint)。匹配模块生成来自参考视频集合的候选分段的列表。每个候选分段包括参考视频集合中的参考视频的时间局部化部分。对每个候选分段应用分类器,以便将分段分类为匹配分段或非匹配分段。然后基于被分类为匹配的分段来产生结果,该结果标识来自参考视频集合的参考视频的匹配部分。
在一个实施方式中,通过获得表示参考视频集合中的参考视频的参考指纹以及标识输入指纹与参考指纹之间的部分匹配来确定候选分段。然后基于标识的部分匹配来确定初始候选参考视频的集合。分析初始候选参考视频,以确定输入视频的分段与参考视频的分段之间的时间上连续的匹配。然后基于该时间上连续的匹配来选择候选分段。
说明书中描述的特征和优势并非意在穷尽,特别地,根据附图、说明书和权利要求,多种附加的特征和优势对于本领域技术人员而言将是显然的。而且,应当注意,说明书中所使用的语言在原则上是为了易读和指示的目的而不是为了界定或限制发明主题而选择的。
附图说明
图1是用于检测输入视频与参考视频集合之间的匹配的系统的一个实施方式;
图2是用于将参考视频与输入视频进行匹配的参考数据库的一个实施方式;
图3是用于检测匹配视频内容的过程的一个实施方式;
图4是用于生成与输入视频潜在匹配的候选视频分段的列表的过程的一个实施方式;
图5是示出了针对输入视频生成的LSH关键词的无重复(duplicate-free)列表的表的一个实施方式;
图6示出了用于根据与输入视频的部分匹配来确定参考视频的品质因数(figure of merit)的技术的一个实施方式;
图7示出了用于对输入视频指纹进行排列的技术的一个实施方式;
图8示出了用于对视频子指纹中的LSH关键词进行排列的技术的一个实施方式;
图9示出了用于输入视频子指纹有序集合的LSH查找技术的一个实施方式;
图10示出了用于确定匹配的输入视频子指纹与参考视频子指纹之间的映射的一个实施方式;
图11是用于将参考视频分段分类为匹配分段或非匹配分段的过程的一个实施方式;以及
图12是用于跨时间将输入视频的时间局部化块与参考视频进行匹配的技术的一个实施方式。
附图仅为了示意的目的绘出了本发明的各个实施方式。本领域技术人员根据以下的描述将很容易认识到,在不脱离此处所描述的本发明的原理的情况下,可以采用此处示出的结构和方法的备选实施方式。
具体实施方式
描述了一种系统和方法,用于确定输入媒体文件(例如视频或音频或两者)是否与媒体文件的参考集合(例如,视频和/或音频片段的数据库)中的参考媒体文件匹配或部分匹配。匹配检测过程可以检测媒体文件的部分(例如,20秒的片段)之间的匹配,即使媒体文件不具有相同的开始和结束点,或者在匹配部分之前或之后出现的内容不同。另外,该过程足够鲁棒以承受由于低质量转码而出现的标准降低,并且对于一定量的时标修改(例如,较快或较慢地回放视频)是鲁棒的。该过程能够正确地分类“真阳”(数据库中具有一个或多个匹配媒体文件的情况)或“真阴”(数据库中没有相应的匹配的情况)两者。通常,该过程可以在紧迫的时间约束下(用以处理上传业务率)和/或使用有限量的存储器来检测匹配。
图1示出了用于检测时基媒体之间的匹配的系统的一个实施方式。需要注意的是,虽然具体示例是在匹配视频内容的上下文中提供的,但是所描述的系统和方法可以用于其他类型的媒体内容匹配例如音频、图像等等。摄取(ingest)服务器104从视频源接收输入视频102。例如,视频源可以是与摄取服务器104通过网络进行通信的客户端计算机。备选地,视频源可以是可通信地耦合至摄取服务器104的数据库或其他存储设备。例如,视频源可以是视频存储介质,例如DVD、CD-ROM、数字视频录像机(DVR)、硬盘驱动器、闪存或其他存储器。摄取服务器104还可以可通信地耦合至视频捕获系统(例如摄像机)以接收即时视频内容。
指纹生成模块106从摄取服务器104接收输入视频102,并生成表示输入视频102的“指纹”。指纹是表示例如压缩格式的视频文件中的某些或全部视频文件的空间、时间和/或结构特征的位向量。指纹基于视频的可视内容来标识视频,使得由压缩、解压、噪声、帧率、开始和结束时间、源分辨率等所导致的细微变化不会显著影响指纹。
在一个实施方式中,指纹生成模块106将接收到的视频分为多个重叠的分段,并且针对每个分段生成子指纹。分段的优选长度是0.5秒到5.0秒,但是也可以使用其他长度的分段。由此,每个子指纹表示媒体的时间局部化分段(例如,4秒的视频或1.5秒的音频)。分段的开始时间通常以固定频率相间隔(例如,对于视频每隔0.25秒,或对于音频每隔0.10秒)。例如,针对从0秒到4秒的分段计算第一子指纹,针对从0.25秒到4.25秒的分段计算第二子指纹,针对从0.50秒到4.50秒的分段计算第三子指纹,以此类推。每个子指纹由子指纹标识符代码来参考,该子指纹标识符代码标识该子指纹所表示的视频的特定分段。例如,子指纹标识符代码可以包括(视频、偏移)对。标识符的“视频”部分唯一地标识参考视频数据库中的视频(例如,使用32位标识符)。标识符的“偏移”部分通过例如参考分段开始时间的偏移索引来标识视频的特定分段(或相应的子指纹)。例如,如果分段的开始间隔0.25秒,则在0秒开始的分段可以具有偏移索引0,在0.25秒开始的分段具有偏移索引1,在0.5秒开始的分段可以具有偏移索引2,以此类推。分段也可以直接通过其开始时间来标识。子指纹的完整有序序列提供了视频的完全指纹。
在一个实施方式中,每个子指纹包括值的向量,每个值取自有限大小的字母表(例如,256大小的字母表,每个向量维编码为一个字节,但是没有顺序)中的无序值。例如,每个值可以基于使用熵编码的值的概率分布进行编码。通过将汉明(Hamming)距离度量替换为适合于从其中取得子指纹的空间的距离度量,来进行对度量空间的扩展。对非均匀采样的(生成了指纹的)序列的概述对于本领域技术人员而言将是易见的。为了清楚,本说明书将假设均匀采样,并将假设使用汉明距离的无序字母表以便比较。
匹配模块108将输入视频102的指纹与表示参考视频集合的某参考指纹集合进行比较。参考指纹可以用于所有可用的参考视频或其子集。在某些情况下,指纹从指纹源中提供,而不提供作为指纹基础的初始参考视频。匹配模块108输出匹配结果112,该匹配结果112标识与输入视频102的至少部分相匹配的一个或多个参考视频(或参考视频的部分)。以下参考图3对确定匹配的方法进行更加详细的描述。
参考数据库120包括一个或多个指纹库122以及一个或多个索引表124。指纹库122存储参考视频的指纹。参考指纹集合中的每个子指纹通过子指纹标识符来标识,该子指纹标识符标识特定的视频以及在对应于该子指纹所表示的视频分段的视频中的偏移。偏移可以是分段开始时间值的时间偏移,或者指示分段序列中位置的索引号。
在一个实施方式中,某些参考视频的指纹可以使用指纹库122中的附加元数据来进行标记,例如参考视频包含“优质内容”的指示。被标记为“优质内容”的视频是那些值得增加保护级别并在匹配过程期间给予特殊考虑的视频,这将在以下进行描述。优质内容指定可以根据多个不同的因素来确定。在一个实施方式中,内容所有者确定将哪些内容指定为优质内容。例如,媒体公司可以从其拥有的视频中选择一定数目的“顶级”视频作为其最关注的视频。在另一实施方式中,优质内容的指定可以基于先前的匹配历史来确定。例如,先前已被确定为具有与随后上传的输入视频相匹配内容的参考视频可以被自动地指定为优质内容。在另一个实施方式中,优质内容的指定基于参考视频在参考库中的时间长度。例如,参考在其处于数据库中的第一个月可以被视为优质的,继而可选地移除其优质内容的指定。另外,优质内容的指定可以是多级别的。例如,可以对应于分析的不同级别,指定优质内容的不同级别。
在一个实施方式中,针对参考视频的每个媒体轨道(例如音频或视频)生成独立的指纹。另外,在一些实施方式中,可以针对每个媒体轨道生成多个指纹。例如,如果指纹生成过程是左右镜像敏感的,则该过程可以选择为每个视频轨道生成两个指纹(第二个针对镜像帧来运行指纹生成过程,其中,视频中的帧在指纹生成之前进行了左/右翻转)。针对每个轨道生成的指纹数目(以及所应用的转换的类型)可以取决于与参考视频相关联的元数据,以及参考视频是否被标记为“优质内容”。作为另一个示例,视频可以具有对应于不同声道的多个音频轨道,在这种情况下,每个音频轨道都可以具有指纹,或备选地只有选定的音频轨道(例如,立体声左和立体声右)可以具有指纹。
在针对单个轨道生成多个指纹时,子指纹以相同的子指纹标识符代码与媒体类型(例如,音频或视频)标识符代码以及不同的子代码被添加到指纹库122,以便在多个指纹之间进行明确区分。为了简化下文描述,假设针对每个轨道类型(例如,音频和视频)的指纹存储在独立的指纹库122中。而且,为了简化,所描述的示例情况假设每个参考视频仅具有一个视频轨道和一个音频轨道,并且每个轨道具有一个指纹。
在一个实施方式中,基于指纹库122的内容创建反向索引表124。如果库122周期性地更新(例如,当用户上传新的视频时),反向索引表124可以按调度间隔进行更新,或者在库内容变化的任何时候更新。在反向索引表124中,子指纹值(或称“子指纹关键词”)的子集提供了一种标识库表122中的参考子指纹的手段。每个子指纹关键词与包含该子指纹关键词的参考子指纹集合相关联地存储。构造该反向索引表124是为了提供近似最近邻居功能。
图2中示出了参考指纹库122和使用位置敏感散列(LSH)的反向索引表124的一个示例。参考子指纹的集合对应于参考库122中的参考视频。每个子指纹与视频的一个分段相关联,并且使用表示法X(Y)来标识,其中X是视频的标识符,而Y是标识视频X的分段的偏移索引。子指纹集合(X(Y1)...X(Yn))形成了视频X的指纹。例如,在图2中,参考视频A的指纹包括子指纹A(0),A(1),......等等。每个子指纹对应于参考视频A的分段,该分段由偏移索引来标识。例如,A(0)标识表示视频A在偏移索引0处的分段的子指纹,A(1)标识表示视频A在偏移索引1处的分段的子指纹,以此类推。
每个子指纹包括值的序列(例如,每个值可以是一个字节)。将值的序列分为多个LSH带,每个带对应于子指纹中值的一个子集。例如,LSH带0包括子指纹的前四个值,LSH带1包括子指纹的接下来的四个值,以此类推。在一个实施方式中,子指纹具有25个LSH带,每个包括4个字节值。子指纹的LSH带中值的集合对应于如上所述的子指纹的LSH带关键词,并且与包括该关键词的子指纹标识符相关联地存储在反向索引表124中。每个子指纹带关键词在此也称为“LSH关键词”。
例如,子指纹A(0)在LSH带0中具有值(65,22,A5,B1)。该值集合在反向索引LSH表124中由LSH关键词(65 22 A5 B1+0)表示。在该表示法中,+0指示该关键词出现在LSH带0中。LSH表124将每个LSH关键词映射至库122中包含该LSH关键词的每个子指纹。例如,该表与LSH关键词234344D2+1相关联地存储子指纹A(0)和B(0)的标识符,因为每个子指纹包含LSH带1中的值(2343 44 D2)。需要注意的是,值(11 34 55 56)出现在子指纹B(0)的带2中和子指纹B(1)的带1中。然而,这些被认为是不同的LSH关键词,并且由此在反向索引表124中独立地索引,因为值序列在不同的LSH带中。
在备选的实施方式中,LSH带包括不相交(非相邻)的值子集而不是示出的连续值。将值分组为LSH带取决于具体应用的约束。另一种备选方法使用从全部子指纹中导出的LSH关键词。例如,可以通过根据到随机但记忆的(random-but-memorized)分划面的多个投影、根据子指纹的短序列或者例如短支持窗口内的子指纹条目值的频率直方图来计算有符号的位代码,从而确定子指纹的LSH关键词。频率直方图方法可以使用固定点频率计数作为关键词,或者其可以使用该时段中最频繁的签名值的值作为关键词。
在另一备选实施方式中,使用例如溢漏树(spill tree)或M树等不同于LSH的技术来提供最近邻居功能,其使用在子指纹向量级别测量的汉明距离作为其度量空间。在以下的描述中,反向索引称为LSH表,即使并不要求近似最近邻居功能由该特定数据结构来提供。
在该实施方式中,针对共同LSH关键词选择性地修改反向索引表124,以控制匹配过程中所使用的存储量和计算量。具体地,将表构造为标记有助于区别子指纹的可能性降低的LSH关键词。通过对参考指纹内的每个LSH关键词的频率和/或分布的各种测试来确定此状态。
第一测试基于LSH关键词出现的频率。如果超过总数的预定义百分比的参考视频在其指纹中包含给定的LSH关键词,则该LSH关键词在LSH表124中标识为“第一级黑名单”关键词,并且将包含该关键词的子指纹标识符从表124中删掉。代替的是,指示第一级黑名单关键词的特殊标识符代码与该关键词相关联地存储在反向索引表124中。例如,在一个实施方式中,如果超过5%的参考视频包含关键词(00 00 00 0A+1),则在反向索引表124中将该关键词标识为第一级黑名单关键词(通过与该关键词相关联地存储特殊标识符代码,如“BL1”),并且不存储与该关键词相关联的子指纹标识符。
如果不满足第一级黑名单的标准,但是包含给定LSH关键词的子指纹总数仍然在某个阈值之上,则在反向索引表124中将该LSH关键词以不同的方式标记为“第二级黑名单”关键词。例如,如果多于10,000个参考子指纹包含关键词(00 00 00 0B+2),但是这10,000个参考子指纹都包含在参考视频的仅1%内,则指示“第二级黑名单”的特殊标识符与该关键词相关联地存储。在一个实施方式中,不存储包含第二级黑名单关键词的子指纹标识符的完全列表。代替的是,LSH表124仅存储视频标识符的列表但是不存储偏移索引(即,不标识具体分段)。另外,该表可以存储包含匹配关键词的每个视频中的子指纹数目的计数。例如,在表124中,关键词(00 00 00 0B+2)被标识为第二级黑名单关键词,并且特殊标识符代码(如“BL2”)与该关键词相关联地存储。代码(G,6)也与该关键词相关联地存储,指示视频“G”的指纹具有包含匹配关键词(00 00 00 0B+2)的26个不同的子指纹。包含匹配关键词的子指纹的个体子指纹标识符不进行单独存储。
可以使用没有黑名单的附加LSH表来为杯标记为优质内容的参考视频提供附加索引。这些表仅包含在主LSH表中被列入某一级别黑名单的那些LSH关键词,并且仅包括被标记为优质内容的参考视频。另外,这些表还可以包括对参考视频分段的系数索引,否则其将由于黑名单而完全从反向索引中缺失。在一个实施方式中,稀疏索引确保:每个临界时间间隔(例如,以不超过20秒的间隔)至少存在一次所有参考视频都具有未列入黑名单的反向索引条目。将来自这些表的条目添加到以下描述的匹配过程中,如同它们来自主LSH表集合一样。
指纹匹配
当接收到输入视频102用于匹配时(例如,来自上传的内容或来自现有的视频数据库),按照与应用于参考视频相同的指纹生成过程对输入视频102进行指纹生成。然后匹配模块108确定输入视频102的哪些部分(如果有的话)与参考数据库120中的参考视频的部分相匹配。在一个实施方式中,匹配模块108根据图3中所示的三阶段过程来确定匹配。在阶段1中,匹配模块108为来自参考集合的输入视频102生成(302)候选匹配的候选列表。候选列表中的每个条目指示:(1)输入视频中潜在地与候选相匹配的部分;(2)候选参考匹配的视频标识符;以及(3)参考视频中潜在地与输入视频相匹配的部分。例如,候选列表可以包括如下表中指示的结果:
在第二阶段,进一步对候选列表中的每个候选条目进行评估(304),以提供指示匹配是正确还是虚假的本地分类。该确定的基础是来自候选列表中指示的匹配部分内的证据(evidence)。
在第三阶段,将剩余的候选匹配进行组合和截断,以确定(306)跨时间以及可选地跨通道(例如,音频和视频)的匹配,从而提供最终的结果集合。以下对三阶段匹配过程的每个阶段进行更加详细的描述。
在一个实施方式中,如果输入视频102较长(例如,长于30分钟),则可选地对输入视频进行预处理,以将输入视频分为可管理大小的“章节(chapter)”(例如,32分钟)。通常,章节的开始和结束时间这样来定义,使得章节之间具有一定的少量重叠(例如,每个结尾处的2分钟)。在后处理步骤中,将最终输出结果“缝合”回一起。为了示例目的,以下的描述假设输入视频具有可管理的持续时间(例如,小于30-32分钟)。
阶段1:候选列表生成
该阶段创建来自参考集合的参考分段的短列表以用于进一步考虑。该步骤有助于控制计算和存储使用,并且提供将匹配处理与整体数据库大小隔离开、而是具有仅与真正匹配条目的最大预期数目(例如,30-60个条目)同样快增加的计算的方法。图4中示出了阶段1的示例过程。
第一步骤是确定(402)存在于表示输入视频102的输入子指纹的整个序列中的LSH关键词的列表,以及被映射至反向索引表124中那些关键词的相应参考子指纹标识符。图5示出了该步骤402的一个示例实施方式。将每个输入视频子指纹502分为25个LSH带,每个包含4个字节值的关键词。在一个实施方式中,如图所示,移除相同LSH带内的重复关键词。需要注意的是,不同LSH带中的关键词即使包含相同的值也不认为是重复的。然后,从对应于输入子指纹集合中的每个唯一LSH关键词的LSH表124中获取参考子指纹标识符。该步骤的输出是LSH关键词的无重复列表504以及被映射至LSH表124中的LSH关键词的每个参考子指纹标识符。此处,表示法Z(X1,X2,X3...Xn)表示在视频Z中的时间偏移索引X1,X2,X3...Xn处找到关键词。如果任何关键词导致第一级黑名单或第二级黑名单,则将其在无重复列表504中进行标注。
接下来,确定(404)初始候选视频以用于进一步考虑。在一个实施方式中,通过在上述无重复列表504中标出子指纹的一般时间位置以及维护与该视频的每个部分相关联的LSH关键词数目的计数,来创建初始候选视频的列表。然后可以针对每个参考视频创建时间相关的匹配计数,其记录在每个参考视频的不同时间窗口期间参考视频子指纹关键词与输入视频子指纹关键词之间的匹配频率。例如,图6示出了参考视频D的直方图(当然,在实践中,时间相关的匹配计数仅存储在存储器中,而不需要显示或以其他方式另外呈现)。在示出的示例中,匹配计数功能是粗略量化的(例如,5秒的分辨率)。由此,匹配计数功能维护发生在参考视频的每个5秒窗口内的、参考视频与输入视频之间的匹配关键词数目的计数。例如,在0秒到5秒之间的时间窗口中,存在来自参考视频D的子指纹关键词的5个实例与来自输入视频的关键词的无重复列表504中的关键词相匹配。在参考视频的5-10秒之间的时间窗口中存在3个匹配实例,在10-15秒之间的时间窗口中存在1个匹配实例,等等。
然后基于匹配计数来获得每个参考视频的品质因数。然后该过程从按品质因数排列的列表的顶部选择多个视频,在未来的处理中将仅考虑所选的多个视频。在一个实施方式中,通过在输入视频的长度上对匹配计数求和来获得品质因数,其中开始和结束点被选择为使品质因数最大化。例如,在参考视频D中,对0秒到45秒之间的输入视频长度(45秒)的匹配的总数求和,以获得品质因数15。这可以实现为匹配分布与输入视频的长度的卷积,随后是最大值选择:其中L是输入视频的长度(例如,45秒),而h(t)是时间上的匹配计数。备选地,对计算进行修改以保证参考视频的每个量化窗口(例如,5秒窗口)在其对品质因数做出贡献具有匹配的至少具有某个阈值,以及保证至少多个区段(section)(例如,3个五分钟区段)具有非零贡献。在另一实施方式中,还针对每个参考视频的第二级黑名单对出现率进行计数。对那些具有第二级黑名单的参考,可以认为:被省略的偏移标识符的计数数目在未列入黑名单的已扫描LSH列表中出现的索引的范围内均匀分布。这将有效地降低允许这些条目提供非零贡献的阈值。在又一实施方式中,给予被标记为包括优质内容的参考视频以某个附加优先级。例如,将这些条目添加到初始候选视频列表的阈值(基于其被指定为优质)可以降低。
创建初始候选视频列表的另一备选方法是:给予被观测为在之前检查的通道(例如,另一个音频轨道)上已经匹配的参考以附加优先级。例如,如果该过程已经完成了一轮针对输入媒体文件的音频通道匹配并且现在正在检查视频通道,则由于相同的参考将被添加到视频通道候选列表,该过程可以使视频声道检查较为容易。音频和视频通道经常是成对的(或至少选自备选的小组),所以如果假设音频通道与给定参考相匹配是合理的,则该过程可以配置为更为接近地检查视频通道同样匹配的可能性。用于该跨通道促进的逻辑依赖于匹配过程的约束。如果约束不是太严格,则可以简单地将在不同通道上匹配的所有参考添加到初始候选视频列表中。如果约束不允许该简单方法,则可以使用先前的匹配来降低用于创建初始候选视频列表的阈值。这些阈值可以在先前匹配条目的完全持续时间上降低,或者仅在当前轨道的同步部分上降低。
所有的后续处理将仅考虑作为初始候选参考视频列表的一部分的参考视频。接下来,将输入视频分为(406)时间局部化的块。在一个实施方式中,块的长度至多是必须检测的最短预期真正匹配的长度的一半。例如,为了检测20秒长度的匹配,块可以是10秒或更小。可以通过将输入视频任意切分为不重叠的10秒块或通过将输入视频切分为重叠的10秒块(例如,通过跨整个输入视频长度滑动10秒窗口)来形成这些块。备选地,可以通过使用视频或音频分析而确定的边界(例如,切割边界或高运动边界,当基于分析的边界扩展太宽时,利用均匀间隔的边界填充)来形成块。为了描述简单,所给出的示例使用任意切分的无重叠10秒块。
仅考虑以上确定的初始候选视频列表这一限定可以这样来实现:利用初始候选视频列表对初始候选视频(例如,来自上述预选择过程的视频)的图(例如,散列图)进行预填,并且不允许向该图进一步添加其他参考视频。
对输入视频的每个块独立地进行如下所述的处理。在一个实施方式中,对输入视频的当前处理块的子指纹进行排序,以确定将首先对哪些子指纹进行处理。在一个实施方式中,对子指纹进行排序,使得当前块中的子指纹列表从区别最大到区别最小进行排列(408)。在该实施方式中,对来自初始候选视频列表的、具有与每个输入视频子指纹相匹配的关键词的参考子指纹的总数进行计数。首先列出具有最少匹配的子指纹。例如,图7示出了来自当前处理的输入视频块的子指纹集合。针对每个输入子指纹中的每个LSH关键词示出匹配数目。例如,LSH关键词1C865002+0与来自初始候选视频列表的4个参考子指纹具有匹配。针对每个输入子指纹对匹配数目进行求和。该和被用于将输入子指纹排列为从最少匹配(区别最大)到最多匹配(区别最小)。
如果输入子指纹中的一个或多个LSH关键词将要列入第二级黑名单,则将子指纹的匹配候选的数目的和(跨LSH关键词列表中的视频求和,或备选地,跨候选视频求和)用于子指纹的该部分。如果子指纹中的一个或多个LSH关键词将要列入第一级黑名单中,则将某个较大的值用于输入子指纹所涉及的候选参考子指纹的数目(例如,100x第二级黑名单阈值)。
一旦针对当前块进行了输入子指纹集合的排列,则对子指纹进行处理,这开始于区别最大的子指纹(最少匹配)。处理每个子指纹从为空的候选图开始,除非将初始候选视频预填充进了图的顶层。在每个子指纹内,LSH关键词也按照区别最大到最小的顺序排列(410),类似于上述对子指纹的排列。例如,如图8所示,为子指纹中的每个LSH关键词确定匹配参考子指纹候选的数目。然后按顺序从具有最少匹配(区别最大)的关键词开始处理关键词。使用LSH关键词的该排列,处理开始于第一LSH关键词,并且向候选图中添加具有匹配关键词的参考子指纹候选。例如,如图9所示,对有序的输入视频子指纹(并且在每个子指纹内按照LSH关键词的顺序)执行LSH查找。在执行每个查找时,存储得到的子指纹标识符。在一个实施方式中,根据以下限制来将候选(相应于参考子指纹)添加到候选图中:
(1)候选来自于初始候选视频列表。该检查可以通过以上提到的图预填充步骤来隐式地完成。如果视频标识符在预填充图中,则其在初始候选列表中,并且过程可以继续进行。如果该位置不在图中,则不记录候选匹配。
(2)图中不同候选的数目不超过预定义的阈值。一旦其达到该阈值,随后的LSH关键词可以增加对现有候选的支持,但是不可以添加新的候选。再一次,优质内容候选可以例外。
(3)对于将要允许的新候选,存在至少(t-1)个剩余LSH块,其中t是LSH子指纹阈值(以下进行描述)。剩余LSH块的该计数包括将被列入第二级黑名单但是不被列入第一级黑名单的LSH块。
(4)最后考虑将要列入第二级黑名单的LSH块,并为每个视频创建可见出现计数(seen-occurrence-count),但是跨越每个候选视频的列入黑名单的块来求和。
得到的候选图具有来自初始候选视频列表的参考子指纹标识符以及匹配当前输入子指纹的偏移的有限列表。下一个步骤跨输入视频子指纹来结合候选,以确定输入子指纹支持哪个参考和偏移候选。输入视频的子指纹与参考子指纹候选之间的每个匹配针对输入视频与参考视频之间匹配的具体开始位置进行“投票”。通过从参考视频中的匹配位置减去对输入视频的偏移来确定开始位置。例如,如图10所示,偏移(2)处的输入视频子指纹与参考子指纹D(3)具有匹配。这为开始位置D(2)生成了“投票”。类似地,输入视频在偏移(3)处的子指纹与参考子指纹D(4)具有一个匹配。该匹配也为开始位置D(2)生成了“投票”。一般地,如果输入视频中偏移X处的子指纹与参考视频中的偏移Y具有匹配,这支持输入视频的开始与参考视频中的Y-X+1位置相匹配这一推论。跨每个参考视频的子指纹对投票进行累加。实际上,结果是单位倾斜线的Hough变换,其给出了可能匹配的输入视频参考时间。
对于输入视频中的每个子指纹类似地处理投票。在一个实施方式中,将具有针对开始位置的至少t个投票的参考偏移转移到保持针对当前输入视频块的候选支持的新候选图中。可以针对优质内容选择性地降低该阈值。例如,包括优质内容的候选即使比非优质内容的支持级别低,也可以转移到新候选图中。对于生成过多具有t个或更多投票支持的参考候选的输入子指纹来说,该阈值将较高。在每个输入子指纹上,向上调节该阈值,直到来自将通过的子指纹的候选的数目小于预定义的数目。例如,在一个实施方式中,允许400,000个候选对,其中每个候选对对应于针对输入视频的每10秒的唯一匹配参考或开始偏移。然而,所使用的候选的具体最大数目高度依赖于系统的计算和时间约束。通过将通过候选的支持添加到先前支持(来自当前输入视频块中先前考虑的输入子指纹),将通过候选转移至当前输入视频块的新候选图中。
一旦检查了当前块的所有子指纹,则将当前块、先前块和之后块的图加到一起,这给予了来自当前块的图的证据以最高权重,但是允许其他两个块图添加候选或增加对现有候选的支持。根据该组合映射,过程对该图使用模糊峰值采集(smeared peak picking)(非最大抑制)以创建将在第二阶段考虑的候选列表(视频、偏移)。模糊峰值采集是单个候选内的开始时间的偏移上的简单卷积。一个示例实施方式包括通过三角窗进行卷积,该三角窗的三角宽度是用于对回放速度的可能改变的最大预期时间扩展的两倍。例如,在具有10秒大小的块的视频播放中,为了支持最多10%的加速或减慢,完全三角宽度将是2秒。卷积过程将增加存在针对邻近开始时间偏移的支持的峰的高度。非最大抑制是这样的过程,其强制被选作该阶段最终候选的峰属于该模糊时间信号的可区别的最大瓣(lobe)。此过程开始于在信号中定位最高的极大值并记录该位置(以及值)。然后该过程将比某个时间间隔更接近该最大值的值归零(例如,当使用10秒块时,隔开5秒)。归零过程继续在时间上向外前进或后退,直到初始(模糊)函数持续单调下降。使用模糊峰值采集/非最大抑制有效地提供了更普遍的斜率和截距Hough变换功能,而不需要此类两维变换所需要的额外存储器。阶段1的输出是候选视频分段(每个对应于参考子指纹)的有限列表,将对其进行进一步考虑以确定输入视频与参考视频之间的匹配部分。对其设置的限制还高度依赖于系统,但是通常每10秒输入块低于1000个候选匹配是恰当的。
阶段2:候选评估
第二阶段处理考虑由第一阶段找到的候选视频分段,并确定某些、全部或没有候选视频分段是否为有效的匹配。因为过程允许参考集合中有重复(全部或部分)的可能性,所以提供了较为一般的描述(而非每个探测块的单个是/否匹配)。第二阶段处理可以处理各种媒体,从与多种不同文件具有假匹配的非描述部分到时间敏感部分(即使是相同的参考材料,当其在时间上轻微偏移时,该时间敏感部分也匹配不佳)。
为了处理该任务以及该材料范围,分类过程开始于针对每个候选视频分段来创建匹配质量测量。在一个实施方式中,动态时间规整(DTW)确定(1102)当前输入视频块与参考视频之间的跨时间最佳对准。DTW的参数通过应用必须支持的匹配媒体内的时间失真量(例如,对于很多应用是大约15%时间加速或减慢)来确定。根据DTW的输出,在输入视频的个体子指纹与参考子指纹之间确定配对。对配对的集合进行评估,以生成(1104)输入视频与参考视频之间的匹配的向量描述。该匹配向量中的可能条目的示例可以是:
1)成对子指纹向量之间的累加汉明距离。
2)至少80%的成对向量相匹配的子指纹的百分比。
3)至少60%的成对向量相匹配的子指纹的百分比。
4)至少40%的成对向量相匹配的子指纹的百分比。
5)至少20%的成对向量相匹配的子指纹的百分比。
6)解码路径与最小方差(LSE)拟合直线路径之间的均方差(MSE)。
7)LSE拟合直线解码路径的斜率。
8)与有效子指纹配对并且至少10%的成对向量匹配的有效子指纹的数目,其中使用先前端的指纹生成过程期间采取的某一测量(例如,非空或非沉默)来确定有效/无效。
9)与无效子指纹配对的无效子指纹的数目。
10)与有效子指纹配对的无效子指纹的数目。
11)具有与其第一阶段候选列表中列出的相同视频以及近似相同偏移的相邻探测块的数目。
12)该配对在第一阶段证据收集期间接收到的投票的数目。
13)与先前检查的通道上的该参考的匹配的存在、置信度以及时间和偏移相似度。
14)将参考作为优质的指定。
15)生成该探测的用户的上传历史(例如,用户先前已经上传来自参考集合的内容)。
16)如果元数据关于探测和参考内容两者都可用,那些描述(例如锚文本)之间的相似度。
根据该向量描述,确定(1106)质量测量。质量测量的一个示例使用真正匹配的模型与虚假匹配的模型之间的似然率。适合的模型可以是全协方差高斯模型或对角线方差高斯混合模型,以及其他。备选地,通过将所有质量测量简单设置为0,可以跳过该质量测量步骤1106。
可选地,一旦针对当前块的所有第一阶段候选计算了质量测量,可以对该集合使用总体(population)统计,以帮助在非描述分段与时间-偏移-敏感分段之间进行区分。这可以通过假设来自第一阶段候选列表的质量测量的扩展在这两者之间是不同的来进行。例如,可以是非描述内容具有在某种(阈值以上)程度上匹配同时又有区别的多个候选配对,时间敏感内容具有仅在某个轴上(例如解码路径的线性)但不在其他轴上良好匹配的单个候选对。可以通过利用总体正则化条目扩展匹配-配对描述,来提供对该类型的区别的某种程度的支持。这些可以包括:
1)配对(未正则化)的质量测量。
2)配对的排名,其中排名使用探测块的候选匹配的质量测量。
3)探测块的候选匹配的平均质量测量。
4)探测块的候选匹配的标准差。
5)探测块的候选匹配的逆标准差。
6)通过对探测块的候选的质量测量的均值和标准差对配对的质量测量进行的标准化。
7)通过对探测块的候选的质量测量的均值和标准差来进行正则化的配对相名。
也可以通过将附加条目设置为0而省略该步骤。
然后将该扩展的匹配-配对描述作为输入提供给真/假匹配配对的分类器。使用(1108)分类器将候选分类为有效或无效的匹配,以及提供匹配的置信度得分。分类器可以是任何多样的形式,不论基于神经网络状结构还是基于线性分类器。如果分类器指示接受该配对,则该配对与置信度得分一起被包括在向第三阶段提供的列表中。否则,其被忽略。该阶段的输出是有效匹配候选的列表。
阶段3:候选组合和删减
对于一些内容,存在通过第二阶段测试的大量候选,很多包括重叠内容。一个实施方式将候选列表缩减为更加简洁和更加可信,而非独立地列出这些候选中的每一个或忽略超出最终候选列表的某一长度限定的候选,。
这如下实现:收集与不同输入视频块相匹配的参考视频部分,以及将这些分量组合为一个组合的匹配。例如,如图12所示,输入视频与参考视频之间的成分匹配(块1、块2、块3)组合成为一个组合的匹配。为了从删减阶段中去除消息,可以施加约束,例如:
1)至少2个不同的输入视频块为组合的匹配提供支持(其中输入视频块与参考视频的部分之间的任何信号配对仅可以支持一个组合匹配)。
2)组合匹配的平均匹配质量在某阈值之上。
3)跨支持组合匹配的块的输入视频与参考部分之间的差异小于某阈值。
进行该匹配分组过程的一个方法是贪心算法,其中特定时间位置界限内的所有分量匹配被放入支持列表中。如果该全长列表显示跨分量块的输入视频与参考视频之间的偏移差异太大,则将异常值(偏移中的)从该匹配中删掉,并且再次考虑该集合,直到集合长度为2或更小,或直到组合匹配通过其测试。如果组合匹配通过其测试,则将为组合匹配提供支持的所有成分匹配标志为匹配内容。另外,确定组合匹配的“阴影”中的其他匹配包括匹配内容,其中组合匹配的阴影是在输入视频与相同的参考视频之间具有相似的时间支持并且在两者之间具有相似的时间偏移的匹配部分。将出现阴影的一个示例是视频中具有长期不变的时间并且在匹配部分之间具有间隙的时候。如果组合匹配没有通过其测试,则删掉用作所提出的组合匹配的种子的成分匹配。然后在缩减的未要求的(unclaimed)列表上重复进行组合过程,直到该列表为空。
最终阶段过程的一个实施方式被配置为避免匹配相似类型的通用低运动序列。该问题的一个示例是“正在说话的头部”视频。该视频轨道是清楚的,并且通常是清晰的,但是多种传统的指纹生成方法不能将黑色背景、黑色衣服与接近中心的浅色面部的视频内容区分开。例如,第一主题的记者招待会的视频轨道,“George”可以与George举办的所有其他记者招待会相类似的出现(多个指纹生成过程使用的细节级别),并且可能很容易与第二主体“Bill”举办的记者招待会看起来非常像。由此,传统的指纹生成可能不期望地指示这些视频之间的匹配。视频通道的这些错误匹配将倾向于生成很多阴影匹配,并且将不会伴随音频通道之间的相应匹配。所以,为了避免报告这些错误匹配,在没有覆盖两个通道并且具有多于阴影-支持匹配的某个比率阈值的那些匹配上,过程可以降低该匹配中的置信度,或者,如果置信度可能太低,则将匹配全部移除。以这种方式,根据整个过程创建并返回了少量的具有多块支持的匹配。
匹配结果
最终输出提供已经确定为与输入视频(或输入视频的部分)相匹配的参考视频(或参考视频的标识部分)的列表。该确定可以用于多种目的。首先,如果匹配模块108确定上传的输入视频102是已经处于参考视频集合中的视频的副本,可以丢弃上传的输入视频102以便节省存储空间。其次,输入视频102可以用于探测例如版权保护的视频内容的参考视频。然后可以对这些视频进行标记或从参考视频集合中移除。有益地,所描述的系统和方法即使在紧迫的时间限制下和/或使用有限量的存储器,也能够有效地和精确地检测匹配。
附加备选实施方式
以上描述的一些部分按照信息操作的算法和符号表示给出了本发明的特征。这些算法描述和表示是本领域技术人员使用的方法,以便将其工作的本质最有效地传达给领域内的其他技术人员。这些操作,虽然功能性地或逻辑地进行了描述,但是理解为由计算机程序来实现。另外,已经多次证明,在不失一般性的情况下,将这些操作的排列作为模块或代码设备是适当的。
然而,应当记住,所有这些和相似术语将要与适合的物理量相关联,并且仅是应用于这些量的方便标记。除非在本说明书中另有明显的特别说明,应当理解,在说明书全文中,使用术语诸如“处理”或“运算”或“计算”或“确定”或“显示”等等的讨论,是指在计算机系统存储器或寄存器或其他这样的信息存储、传输或显示设备内,计算机系统或类似的电子计算设备操作和转换表示为物理(电子)量的数据的动作和过程。
本发明的某些方面包括此处以算法形式描述的过程步骤和指令。应当注意,本发明的过程步骤和指令可以在软件、固件或硬件中实现,并且在软件中实现时,可以进行下载以在实时网络操作系统使用的不同平台上存在并进行操作。
本发明还涉及用于执行此处的操作的装置。该装置可以为所需要的目的而特别构造,或其可以包括由存储在计算机中的计算机程序可选地激活或重配置的通用计算机。这样的计算机程序可以存储在计算机可读存储介质中,例如但不限于任何类型的盘,包括软盘、光盘、CD-ROM、磁光盘、只读存储器(ROM)、随机存取存储器(RAM)、EPROM、EEPROM、磁卡或光卡、专用集成电路(ASIC),或适于存储电子指令的任何类型的介质,并且每个都耦合至计算机系统总线。另外,本说明书中涉及的计算机可以包括单个处理器或可以是采用多处理器设计的架构以提高计算性能。
此处提出的算法和显示并不固有地涉及任何特定计算机或其他装置。各种通用系统也可以与根据此处教导的程序一起使用,或可以证明方便构造更专用的装置来执行所需要的方法步骤。多种这样的系统所需要的结构将在以上描述中出现。另外,本发明不参考任何特定程序语言进行描述。可以理解,可以使用多种程序语言来实现此处描述的本发明的教导,并且对具体语言的任何引用提供用于可实施性和本发明的最佳模式的公开。
最后,应当注意,本发明书中使用的语言原则上是为了易读和教导的目的而选择的,而不是为了界定或限制发明主题而选择的。因此,本发明的公开是示意性的,而不是对本发明的范围的限制。
Claims (32)
1.一种用于检测重复的视频内容的方法,所述方法包括:
接收表示输入视频的输入指纹;
获得表示参考视频集合中的参考视频的参考指纹;
标识所述输入指纹与所述参考指纹之间的部分匹配;
基于标识的所述部分匹配生成来自所述参考视频集合的候选分段的列表,所述候选分段的列表包括所述参考视频集合中的参考视频的时间局部化分段;
使用分类器将来自所述候选分段的列表的候选分段分类为匹配候选分段或非匹配候选分段;以及
基于对所述候选分段的分类来产生结果,所述结果标识来自所述参考视频集合的参考视频的匹配部分。
2.根据权利要求1所述的方法,其中生成来自所述参考视频集合的所述候选分段的列表包括:
基于标识的所述部分匹配,确定初始候选参考视频的集合。
3.根据权利要求2所述的方法,进一步包括:
获得所述输入指纹的输入子指纹的集合,其中每个输入子指纹包括输入子指纹关键词的序列;
获得所述参考视频的参考子指纹的集合,其中每个参考子指纹包括参考子指纹关键词的序列;以及
基于所述参考子指纹关键词与所述输入子指纹关键词之间的匹配,确定所述初始候选参考视频的集合。
4.根据权利要求2所述的方法,进一步包括:
基于所述参考视频与所述输入视频之间的时间局部化匹配,确定每个参考视频的品质因数;以及
基于所述品质因数,确定所述初始候选参考视频的集合。
5.根据权利要求2所述的方法,进一步包括:
按照从区别最大到区别最小的排序顺序,对表示所述参考视频的参考子指纹进行排序,区别最大的参考子指纹具有与所述输入指纹的每个输入子指纹最少的匹配关键词,并且区别最小的参考子指纹具有与所述输入指纹的每个输入子指纹最多的匹配关键词;以及
至少部分地基于所述参考子指纹的所述排序顺序,确定所述候选分段。
6.根据权利要求2所述的方法,进一步包括:
按照从区别最大到区别最小的排序顺序,对表示参考视频的参考子指纹的参考关键词进行排序,区别最大的参考子指纹具有与所述输入指纹的每个输入子指纹最少的匹配关键词,并且区别最小的参考子指纹具有与所述输入指纹的每个输入子指纹最多的匹配关键词;以及
至少部分地基于所述参考关键词的所述排序顺序,确定所述候选分段。
7.根据权利要求2所述的方法,进一步包括:
确定表示所述输入视频的输入视频子指纹与表示所述参考视频的参考视频子指纹之间的时间上连续的匹配;以及
基于所述时间上连续的匹配,确定所述候选分段的列表。
8.根据权利要求1所述的方法,其中分类所述候选分段包括:
基于已知的匹配模型,确定指示所述参考视频与所述候选分段之间的匹配质量的质量测量;以及
基于所述质量测量,将所述候选分段分类为匹配候选分段或非匹配候选分段。
9.根据权利要求1所述的方法,进一步包括:
接收表示来自所述输入指纹的部分值的输入关键词;以及
查询反向索引表以获得一个或多个子指纹标识符,所述一个或多个子指纹标识符标识具有与所述输入关键词相匹配的关键词的、来自所述参考视频集合的参考视频的时间局部化分段。
10.根据权利要求9所述的方法,其中所述输入关键词包括来自输入子指纹的相邻值。
11.根据权利要求9所述的方法,其中所述输入关键词包括来自输入子指纹的非相邻值。
12.根据权利要求9所述的方法,其中如果超过预定百分比的表示所述参考视频的参考子指纹包含第一参考关键词,则所述第一参考关键词在所述反向索引表中被标识为第一级黑名单关键词,并且其中指示所述第一级黑名单关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表中。
13.根据权利要求12所述的方法,其中如果所述第一参考关键词不满足所述第一级黑名单关键词的标准并且超过另一预定义数目的表示所述参考视频的所述参考子指纹包含所述第一参考关键词,则所述第一参考关键词在所述反向索引表中被标识为第二级黑名单关键词,并且其中指示所述第二级关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表中。
14.根据权利要求1所述的方法,其中生成所述候选分段的列表包括:
确定来自所述参考视频的集合的、被标注为具有优质内容的优质参考视频;以及
基于所述优质参考视频的确定,生成所述候选分段的列表。
15.一种用于检测重复视频内容的设备,包括:
用于接收表示输入视频的输入指纹的装置;
用于获得表示参考视频集合中的参考视频的参考指纹的装置;
用于标识所述输入指纹与所述参考指纹之间的部分匹配的装置;
用于基于标识的所述部分匹配生成来自所述参考视频集合的候选分段的列表的装置,所述候选分段的列表包括所述参考视频集合中的参考视频的时间局部化分段;
用于使用分类器将来自所述候选分段的列表的候选分段分类为匹配候选分段或非匹配候选分段的装置;以及
用于基于对所述候选分段的分类来产生结果的装置,所述结果指示来自所述参考视频集合的参考视频的匹配部分。
16.根据权利要求15所述的设备,其中用于生成来自所述参考视频集合的所述候选分段的列表的装置包括:
用于基于标识的所述部分匹配确定初始候选参考视频的集合的装置。
17.根据权利要求16所述的设备,进一步包括:
用于获得所述输入指纹的输入子指纹的集合的装置,其中每个输入子指纹包括输入子指纹关键词的序列;
用于获得所述参考视频的参考子指纹的集合的装置,其中每个参考子指纹包括参考子指纹关键词的序列;以及
用于基于所述参考子指纹关键词与所述输入子指纹关键词之间的匹配确定所述初始候选参考视频的集合的装置。
18.根据权利要求16所述的设备,进一步包括:
用于基于所述参考视频与所述输入视频之间的时间局部化匹配确定每个参考视频的品质因数的装置;以及
用于基于所述品质因数确定所述初始候选参考视频的集合的装置。
19.根据权利要求16所述的设备,进一步包括:
用于按照从区别最大到区别最小的排序顺序对表示所述参考视频的参考子指纹进行排序的装置,区别最大的参考子指纹具有与所述输入指纹的每个输入子指纹最少的匹配关键词,并且区别最小的参考子指纹具有与所述输入指纹的每个输入子指纹最多的匹配关键词;以及
用于至少部分地基于所述参考子指纹的所述排序顺序确定所述候选分段的装置。
20.根据权利要求16所述的设备,进一步包括:
用于按照从区别最大到区别最小的排序顺序对表示参考视频的参考子指纹的参考关键词进行排序的装置,区别最大的参考子指纹具有与所述输入指纹的每个输入子指纹最少的匹配关键词,并且区别最小的参考子指纹具有与所述输入指纹的每个输入子指纹最多的匹配关键词;以及
用于至少部分地基于所述参考关键词的所述排序顺序确定所述候选分段的装置。
21.根据权利要求16所述的设备,进一步包括:
用于确定表示所述输入视频的输入视频子指纹与表示参考视频的参考视频子指纹之间的时间上连续的匹配的装置;以及
用于基于所述时间上连续的匹配确定所述候选分段的列表的装置。
22.根据权利要求15所述的设备,其中用于分类所述候选分段的装置包括:
用于基于已知的匹配模型确定指示所述参考视频与所述候选分段之间的匹配质量的质量测量的装置;以及
用于基于所述质量测量将所述候选分段分类为匹配候选分段或非匹配候选分段的装置。
23.根据权利要求15所述的设备,进一步包括:
用于接收表示来自所述输入指纹的部分值的输入关键词的装置;以及
用于查询反向索引表以获得一个或多个子指纹标识符的装置,所述一个或多个子指纹标识符标识具有与所述输入关键词相匹配的关键词的、来自所述参考视频集合的参考视频的时间局部化分段。
24.根据权利要求23所述的设备,其中所述输入关键词包括来自输入子指纹的相邻值。
25.根据权利要求23所述的设备,其中所述输入关键词包括来自输入子指纹的非相邻值。
26.根据权利要求23所述的设备,其中如果超过预定义百分比的表示所述参考视频的所述参考子指纹包含第一参考关键词,则所述第一参考关键词在所述反向索引表中被标识为第一级黑名单关键词,并且其中指示所述第一级黑名单关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表中。
27.根据权利要求26所述的设备,其中如果所述第一参考关键词不满足所述第一级黑名单关键词的标准并且超过另一预定义数目的表示所述参考视频的所述参考子指纹包含所述第一参考关键词,则所述第一参考关键词在所述反向索引表中被标识为第二级黑名单关键词,并且其中指示所述第二级关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表中。
28.根据权利要求15所述的设备,其中用于生成所述候选分段的列表的装置包括:
用于确定来自所述参考视频集合的、被标注为具有优质内容的优质参考视频的装置;以及
用于基于所述优质参考视频的确定生成所述候选分段的列表的装置。
29.一种用于检测重复视频内容的系统,包括:
摄取服务器,用于接收输入视频;
指纹生成模块,用于生成表示所述输入视频的输入指纹;
参考数据库,存储表示参考视频的集合的参考指纹;
匹配模块,其耦合至所述指纹生成模块和所述参考数据库,所述匹配模块用于:标识所述输入指纹与所述参考指纹之间的部分匹配;基于标识的所述部分匹配生成来自所述参考视频的集合的候选分段的列表;将所述候选分段分类为匹配分段或非匹配分段;以及基于对所述候选分段的分类来产生结果,所述结果标识来自所述参考视频的集合的参考视频的匹配部分。
30.根据权利要求29所述的系统,其中所述参考数据库包括:
指纹库单元,用于存储所述参考指纹,其中每个参考指纹包括表示所述参考视频的时间局部化分段的参考子指纹的序列;以及
反向索引表单元,其存储所述参考视频的标识符与参考关键词之间的映射,其中所述参考关键词包括来自所述参考子指纹的值的局部化集合。
31.根据权利要求30所述的系统,其中如果超过预定义百分比的表示所述参考视频的所述参考子指纹包含第一参考关键词,则所述第一参考关键词在所述反向索引表单元中被标识为第一级黑名单关键词,并且其中指示所述第一级黑名单关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表单元中。
32.根据权利要求31所述的系统,其中如果所述第一参考关键词不满足所述第一级黑名单关键词的标准并且超过另一预定义阈值的表示所述参考视频的所述参考子指纹包含所述第一参考关键词,则所述第一参考关键词在所述反向索引表单元中被标识为第二级黑名单关键词,并且其中指示所述第二级关键词的标识符代码与所述第一参考关键词相关联地被存储在所述反向索引表单元中。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US95744607P | 2007-08-22 | 2007-08-22 | |
US60/957,446 | 2007-08-22 | ||
US12/174,366 | 2008-07-16 | ||
US12/174,366 US8238669B2 (en) | 2007-08-22 | 2008-07-16 | Detection and classification of matches between time-based media |
PCT/US2008/074105 WO2009026564A1 (en) | 2007-08-22 | 2008-08-22 | Detection and classification of matches between time-based media |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101821734A CN101821734A (zh) | 2010-09-01 |
CN101821734B true CN101821734B (zh) | 2013-09-25 |
Family
ID=40378706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008801105573A Active CN101821734B (zh) | 2007-08-22 | 2008-08-22 | 时基媒体之间的匹配的检测和分类 |
Country Status (7)
Country | Link |
---|---|
US (1) | US8238669B2 (zh) |
EP (1) | EP2191400B1 (zh) |
JP (1) | JP5479340B2 (zh) |
CN (1) | CN101821734B (zh) |
AU (1) | AU2008288797B2 (zh) |
CA (1) | CA2696890C (zh) |
WO (1) | WO2009026564A1 (zh) |
Families Citing this family (134)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8205237B2 (en) | 2000-09-14 | 2012-06-19 | Cox Ingemar J | Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet |
US20070162761A1 (en) | 2005-12-23 | 2007-07-12 | Davis Bruce L | Methods and Systems to Help Detect Identity Fraud |
US8707459B2 (en) | 2007-01-19 | 2014-04-22 | Digimarc Corporation | Determination of originality of content |
US8010511B2 (en) | 2006-08-29 | 2011-08-30 | Attributor Corporation | Content monitoring and compliance enforcement |
US8738749B2 (en) | 2006-08-29 | 2014-05-27 | Digimarc Corporation | Content monitoring and host compliance evaluation |
US7707224B2 (en) | 2006-11-03 | 2010-04-27 | Google Inc. | Blocking of unlicensed audio content in video files on a video hosting website |
US10242415B2 (en) * | 2006-12-20 | 2019-03-26 | Digimarc Corporation | Method and system for determining content treatment |
US9179200B2 (en) * | 2007-03-14 | 2015-11-03 | Digimarc Corporation | Method and system for determining content treatment |
US9177209B2 (en) * | 2007-12-17 | 2015-11-03 | Sinoeast Concept Limited | Temporal segment based extraction and robust matching of video fingerprints |
GB2487499B (en) * | 2008-02-21 | 2013-02-27 | Snell Ltd | Method of comparing audio data |
GB2457694B (en) | 2008-02-21 | 2012-09-26 | Snell Ltd | Method of Deriving an Audio-Visual Signature |
US8184953B1 (en) | 2008-02-22 | 2012-05-22 | Google Inc. | Selection of hash lookup keys for efficient retrieval |
US8069176B1 (en) * | 2008-09-25 | 2011-11-29 | Google Inc. | LSH-based retrieval using sub-sampling |
US9154942B2 (en) | 2008-11-26 | 2015-10-06 | Free Stream Media Corp. | Zero configuration communication between a browser and a networked media device |
US9519772B2 (en) | 2008-11-26 | 2016-12-13 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US8180891B1 (en) | 2008-11-26 | 2012-05-15 | Free Stream Media Corp. | Discovery, access control, and communication with networked services from within a security sandbox |
US9026668B2 (en) | 2012-05-26 | 2015-05-05 | Free Stream Media Corp. | Real-time and retargeted advertising on multiple screens of a user watching television |
US9961388B2 (en) | 2008-11-26 | 2018-05-01 | David Harrison | Exposure of public internet protocol addresses in an advertising exchange server to improve relevancy of advertisements |
US10334324B2 (en) | 2008-11-26 | 2019-06-25 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US9986279B2 (en) | 2008-11-26 | 2018-05-29 | Free Stream Media Corp. | Discovery, access control, and communication with networked services |
US10419541B2 (en) | 2008-11-26 | 2019-09-17 | Free Stream Media Corp. | Remotely control devices over a network without authentication or registration |
US9386356B2 (en) | 2008-11-26 | 2016-07-05 | Free Stream Media Corp. | Targeting with television audience data across multiple screens |
US10631068B2 (en) | 2008-11-26 | 2020-04-21 | Free Stream Media Corp. | Content exposure attribution based on renderings of related content across multiple devices |
US10880340B2 (en) | 2008-11-26 | 2020-12-29 | Free Stream Media Corp. | Relevancy improvement through targeting of information based on data gathered from a networked device associated with a security sandbox of a client device |
US10567823B2 (en) | 2008-11-26 | 2020-02-18 | Free Stream Media Corp. | Relevant advertisement generation based on a user operating a client device communicatively coupled with a networked media device |
US10977693B2 (en) | 2008-11-26 | 2021-04-13 | Free Stream Media Corp. | Association of content identifier of audio-visual data with additional data through capture infrastructure |
US20100165123A1 (en) * | 2008-12-29 | 2010-07-01 | Microsoft Corporation | Data-Driven Video Stabilization |
US9633014B2 (en) * | 2009-04-08 | 2017-04-25 | Google Inc. | Policy based video content syndication |
US20100262488A1 (en) * | 2009-04-08 | 2010-10-14 | Google Inc. | Policy-based media syndication and monetization |
US10116972B2 (en) | 2009-05-29 | 2018-10-30 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US10375451B2 (en) | 2009-05-29 | 2019-08-06 | Inscape Data, Inc. | Detection of common media segments |
US9094714B2 (en) | 2009-05-29 | 2015-07-28 | Cognitive Networks, Inc. | Systems and methods for on-screen graphics detection |
US8769584B2 (en) | 2009-05-29 | 2014-07-01 | TVI Interactive Systems, Inc. | Methods for displaying contextually targeted content on a connected television |
US10949458B2 (en) | 2009-05-29 | 2021-03-16 | Inscape Data, Inc. | System and method for improving work load management in ACR television monitoring system |
US9449090B2 (en) | 2009-05-29 | 2016-09-20 | Vizio Inscape Technologies, Llc | Systems and methods for addressing a media database using distance associative hashing |
US9294560B2 (en) * | 2009-06-04 | 2016-03-22 | Bae Systems Plc | System and method of analysing transfer of data over at least one network |
US8713068B2 (en) * | 2009-06-11 | 2014-04-29 | Yahoo! Inc. | Media identification system with fingerprint database balanced according to search loads |
US8229219B1 (en) * | 2009-08-06 | 2012-07-24 | Google Inc. | Full-length video fingerprinting |
US8290918B1 (en) | 2009-09-29 | 2012-10-16 | Google Inc. | Robust hashing of digital media data |
EP2541963B1 (en) | 2009-12-29 | 2021-03-17 | Inscape Data, Inc. | Method for identifying video segments and displaying contextually targeted content on a connected television |
US20110173185A1 (en) * | 2010-01-13 | 2011-07-14 | Rovi Technologies Corporation | Multi-stage lookup for rolling audio recognition |
US8886531B2 (en) * | 2010-01-13 | 2014-11-11 | Rovi Technologies Corporation | Apparatus and method for generating an audio fingerprint and using a two-stage query |
US8625033B1 (en) * | 2010-02-01 | 2014-01-07 | Google Inc. | Large-scale matching of audio and video |
US10192138B2 (en) | 2010-05-27 | 2019-01-29 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US9838753B2 (en) | 2013-12-23 | 2017-12-05 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US8374386B2 (en) * | 2011-01-27 | 2013-02-12 | Polytechnic Institute Of New York University | Sensor fingerprint matching in large image and video databases |
US10127578B2 (en) * | 2011-05-09 | 2018-11-13 | Capital One Services, Llc | Method and system for matching purchase transaction history to real-time location information |
US8917823B1 (en) | 2011-05-26 | 2014-12-23 | Google Inc. | Transcribing and navigating a response system |
US9092520B2 (en) * | 2011-06-20 | 2015-07-28 | Microsoft Technology Licensing, Llc | Near-duplicate video retrieval |
US9026540B1 (en) * | 2012-01-31 | 2015-05-05 | Google Inc. | Systems and methods for information match scoring |
US9165124B1 (en) | 2012-02-01 | 2015-10-20 | Convertro, Inc. | Systems and methods for identifying a returning web client |
US8838609B1 (en) * | 2012-10-10 | 2014-09-16 | Google Inc. | IDF weighting of LSH bands for live reference ingestion |
US9684715B1 (en) * | 2012-03-08 | 2017-06-20 | Google Inc. | Audio identification using ordinal transformation |
US8990951B1 (en) * | 2012-03-30 | 2015-03-24 | Google Inc. | Claiming delayed live reference streams |
US20140101551A1 (en) * | 2012-10-05 | 2014-04-10 | Google Inc. | Stitching videos into an aggregate video |
CN103020140B (zh) * | 2012-11-21 | 2016-01-20 | 合一网络技术(北京)有限公司 | 一种对互联网用户评论内容自动过滤的方法和装置 |
US9146990B2 (en) * | 2013-01-07 | 2015-09-29 | Gracenote, Inc. | Search and identification of video content |
US9053121B2 (en) | 2013-01-10 | 2015-06-09 | International Business Machines Corporation | Real-time identification of data candidates for classification based compression |
US9792350B2 (en) * | 2013-01-10 | 2017-10-17 | International Business Machines Corporation | Real-time classification of data into data compression domains |
US9564918B2 (en) | 2013-01-10 | 2017-02-07 | International Business Machines Corporation | Real-time reduction of CPU overhead for data compression |
KR101456926B1 (ko) * | 2013-06-14 | 2014-10-31 | (주)엔써즈 | 핑거프린트에 기반한 광고 검출 시스템 및 방법 |
US9236056B1 (en) * | 2013-08-13 | 2016-01-12 | Google Inc. | Variable length local sensitivity hash index |
US10977298B2 (en) | 2013-11-08 | 2021-04-13 | Friend for Media Limited | Identifying media components |
US9955192B2 (en) | 2013-12-23 | 2018-04-24 | Inscape Data, Inc. | Monitoring individual viewing of television events using tracking pixels and cookies |
US9529840B1 (en) * | 2014-01-14 | 2016-12-27 | Google Inc. | Real-time duplicate detection of videos in a massive video sharing system |
US9619854B1 (en) * | 2014-01-21 | 2017-04-11 | Google Inc. | Fingerprint matching for recommending media content within a viewing session |
US9471663B1 (en) | 2014-01-22 | 2016-10-18 | Google Inc. | Classification of media in a media sharing system |
GB2523311B (en) * | 2014-02-17 | 2021-07-14 | Grass Valley Ltd | Method and apparatus for managing audio visual, audio or visual content |
CA2939117C (en) * | 2014-03-04 | 2022-01-18 | Interactive Intelligence Group, Inc. | Optimization of audio fingerprint search |
US10318543B1 (en) | 2014-03-20 | 2019-06-11 | Google Llc | Obtaining and enhancing metadata for content items |
NL2012567B1 (en) * | 2014-04-04 | 2016-03-08 | Teletrax B V | Method and device for generating improved fingerprints. |
US9930375B2 (en) * | 2014-06-16 | 2018-03-27 | Nexidia Inc. | Media asset management |
WO2016024171A1 (en) | 2014-08-14 | 2016-02-18 | Yandex Europe Ag | Method of and a system for indexing audio tracks using chromaprints |
US9558272B2 (en) | 2014-08-14 | 2017-01-31 | Yandex Europe Ag | Method of and a system for matching audio tracks using chromaprints with a fast candidate selection routine |
KR20160044954A (ko) * | 2014-10-16 | 2016-04-26 | 삼성전자주식회사 | 정보 제공 방법 및 이를 구현하는 전자 장치 |
US9805099B2 (en) * | 2014-10-30 | 2017-10-31 | The Johns Hopkins University | Apparatus and method for efficient identification of code similarity |
CA2973740C (en) | 2015-01-30 | 2021-06-08 | Inscape Data, Inc. | Methods for identifying video segments and displaying option to view from an alternative source and/or on an alternative device |
US9392324B1 (en) * | 2015-03-30 | 2016-07-12 | Rovi Guides, Inc. | Systems and methods for identifying and storing a portion of a media asset |
EP3284017B1 (en) | 2015-04-17 | 2024-03-27 | Inscape Data, Inc. | Systems and methods for reducing data density in large datasets |
US10080062B2 (en) | 2015-07-16 | 2018-09-18 | Inscape Data, Inc. | Optimizing media fingerprint retention to improve system resource utilization |
CN108293140B (zh) | 2015-07-16 | 2020-10-02 | 构造数据有限责任公司 | 公共媒体段的检测 |
KR102531622B1 (ko) | 2015-07-16 | 2023-05-10 | 인스케이프 데이터, 인코포레이티드 | 시스템 자원 활용 최적화를 위한 비디오 세그먼트의 미래 시청 예측 |
BR112018000801A2 (pt) | 2015-07-16 | 2018-09-04 | Inscape Data Inc | sistema, e método |
CN105279489B (zh) * | 2015-10-13 | 2018-07-13 | 成都纽捷那科技有限公司 | 一种基于稀疏编码的视频指纹提取方法 |
US10468065B2 (en) | 2015-10-28 | 2019-11-05 | Ustudio, Inc. | Video frame difference engine |
KR102560635B1 (ko) * | 2015-12-28 | 2023-07-28 | 삼성전자주식회사 | 컨텐트 인식 장치 및 그 동작 방법 |
US9723344B1 (en) * | 2015-12-29 | 2017-08-01 | Google Inc. | Early detection of policy violating media |
US20170357654A1 (en) * | 2016-06-10 | 2017-12-14 | Google Inc. | Using audio and video matching to determine age of content |
EP3476121B1 (en) * | 2016-06-22 | 2022-03-30 | Gracenote, Inc. | Matching audio fingerprints |
US10013614B2 (en) * | 2016-06-29 | 2018-07-03 | Google Llc | Using an image matching system to improve the quality of service of a video matching system |
RU2634211C1 (ru) | 2016-07-06 | 2017-10-24 | Общество с ограниченной ответственностью "Траст" | Способ и система анализа протоколов взаимодействия вредоносных программ с центрами управления и выявления компьютерных атак |
RU2649793C2 (ru) | 2016-08-03 | 2018-04-04 | ООО "Группа АйБи" | Способ и система выявления удаленного подключения при работе на страницах веб-ресурса |
RU2634209C1 (ru) | 2016-09-19 | 2017-10-24 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Система и способ автогенерации решающих правил для систем обнаружения вторжений с обратной связью |
US10789623B1 (en) * | 2016-09-23 | 2020-09-29 | Zeta Global Corp. | Ad collision reduction |
US10061987B2 (en) * | 2016-11-11 | 2018-08-28 | Google Llc | Differential scoring: a high-precision scoring method for video matching |
RU2671991C2 (ru) | 2016-12-29 | 2018-11-08 | Общество с ограниченной ответственностью "Траст" | Система и способ сбора информации для обнаружения фишинга |
RU2637477C1 (ru) | 2016-12-29 | 2017-12-04 | Общество с ограниченной ответственностью "Траст" | Система и способ обнаружения фишинговых веб-страниц |
US10909161B2 (en) | 2016-12-29 | 2021-02-02 | Arris Enterprises Llc | System to build advertisement database from unreliable sources |
US10789291B1 (en) * | 2017-03-01 | 2020-09-29 | Matroid, Inc. | Machine learning in video classification with playback highlighting |
CN110546932B (zh) | 2017-04-06 | 2022-06-10 | 构造数据有限责任公司 | 使用媒体查看数据提高设备映射图准确度的系统和方法 |
US11074290B2 (en) * | 2017-05-03 | 2021-07-27 | Rovi Guides, Inc. | Media application for correcting names of media assets |
US9936230B1 (en) * | 2017-05-10 | 2018-04-03 | Google Llc | Methods, systems, and media for transforming fingerprints to detect unauthorized media content items |
US20180359539A1 (en) * | 2017-06-08 | 2018-12-13 | Qualcomm Incorporated | Smooth transition for content type changes in streaming content |
US10972203B2 (en) * | 2017-06-12 | 2021-04-06 | Gracenote, Inc. | Detecting and responding to rendering of interactive video content |
US10440413B2 (en) * | 2017-07-31 | 2019-10-08 | The Nielsen Company (Us), Llc | Methods and apparatus to perform media device asset qualification |
RU2689816C2 (ru) | 2017-11-21 | 2019-05-29 | ООО "Группа АйБи" | Способ для классифицирования последовательности действий пользователя (варианты) |
RU2677361C1 (ru) | 2018-01-17 | 2019-01-16 | Общество с ограниченной ответственностью "Траст" | Способ и система децентрализованной идентификации вредоносных программ |
RU2668710C1 (ru) | 2018-01-17 | 2018-10-02 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Вычислительное устройство и способ для обнаружения вредоносных доменных имен в сетевом трафике |
RU2676247C1 (ru) | 2018-01-17 | 2018-12-26 | Общество С Ограниченной Ответственностью "Группа Айби" | Способ и компьютерное устройство для кластеризации веб-ресурсов |
RU2680736C1 (ru) | 2018-01-17 | 2019-02-26 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Сервер и способ для определения вредоносных файлов в сетевом трафике |
RU2677368C1 (ru) | 2018-01-17 | 2019-01-16 | Общество С Ограниченной Ответственностью "Группа Айби" | Способ и система для автоматического определения нечетких дубликатов видеоконтента |
RU2681699C1 (ru) | 2018-02-13 | 2019-03-12 | Общество с ограниченной ответственностью "Траст" | Способ и сервер для поиска связанных сетевых ресурсов |
US10713495B2 (en) | 2018-03-13 | 2020-07-14 | Adobe Inc. | Video signatures based on image feature extraction |
CN109189991B (zh) * | 2018-08-17 | 2021-06-08 | 百度在线网络技术(北京)有限公司 | 重复视频识别方法、装置、终端及计算机可读存储介质 |
RU2708508C1 (ru) | 2018-12-17 | 2019-12-09 | Общество с ограниченной ответственностью "Траст" | Способ и вычислительное устройство для выявления подозрительных пользователей в системах обмена сообщениями |
RU2701040C1 (ru) | 2018-12-28 | 2019-09-24 | Общество с ограниченной ответственностью "Траст" | Способ и вычислительное устройство для информирования о вредоносных веб-ресурсах |
EP3842968B1 (en) | 2019-02-27 | 2024-04-24 | "Group IB" Ltd. | Method and system for identifying a user according to keystroke dynamics |
US11325044B2 (en) * | 2019-03-07 | 2022-05-10 | Sony Interactive Entertainment LLC | Video game guidance system |
CN110099302B (zh) | 2019-04-29 | 2020-11-24 | 北京达佳互联信息技术有限公司 | 视频分级方法、装置、设备及存储介质 |
US10997459B2 (en) * | 2019-05-23 | 2021-05-04 | Webkontrol, Inc. | Video content indexing and searching |
RU2728498C1 (ru) | 2019-12-05 | 2020-07-29 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Способ и система определения принадлежности программного обеспечения по его исходному коду |
RU2728497C1 (ru) | 2019-12-05 | 2020-07-29 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Способ и система определения принадлежности программного обеспечения по его машинному коду |
RU2743974C1 (ru) | 2019-12-19 | 2021-03-01 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Система и способ сканирования защищенности элементов сетевой архитектуры |
CN111339356B (zh) * | 2020-02-21 | 2023-07-18 | 北京字节跳动网络技术有限公司 | 视频检索中防误判方法、装置及电子设备 |
CN111353301B (zh) * | 2020-02-24 | 2023-07-21 | 成都网安科技发展有限公司 | 辅助定密方法及装置 |
SG10202001963TA (en) | 2020-03-04 | 2021-10-28 | Group Ib Global Private Ltd | System and method for brand protection based on the search results |
US11475090B2 (en) | 2020-07-15 | 2022-10-18 | Group-Ib Global Private Limited | Method and system for identifying clusters of affiliated web resources |
RU2743619C1 (ru) | 2020-08-06 | 2021-02-20 | Общество с ограниченной ответственностью "Группа АйБи ТДС" | Способ и система генерации списка индикаторов компрометации |
US11798577B2 (en) | 2021-03-04 | 2023-10-24 | Gracenote, Inc. | Methods and apparatus to fingerprint an audio signal |
US11947572B2 (en) | 2021-03-29 | 2024-04-02 | Group IB TDS, Ltd | Method and system for clustering executable files |
US11860977B1 (en) * | 2021-05-04 | 2024-01-02 | Amazon Technologies, Inc. | Hierarchical graph neural networks for visual clustering |
CN113421241B (zh) * | 2021-06-23 | 2023-08-18 | 平安国际智慧城市科技股份有限公司 | 异常事件上报方法、装置、计算机设备及存储介质 |
US11417099B1 (en) * | 2021-11-08 | 2022-08-16 | 9219-1568 Quebec Inc. | System and method for digital fingerprinting of media content |
US11599856B1 (en) | 2022-01-24 | 2023-03-07 | My Job Matcher, Inc. | Apparatuses and methods for parsing and comparing video resume duplications |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1758331A (zh) * | 2005-10-31 | 2006-04-12 | 浙江大学 | 基于基音频率的快速音频分割方法 |
CN1842151A (zh) * | 2005-03-30 | 2006-10-04 | 株式会社东芝 | 信息处理装置和方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03291752A (ja) * | 1990-04-10 | 1991-12-20 | Matsushita Electric Ind Co Ltd | データ検索装置 |
US5903454A (en) * | 1991-12-23 | 1999-05-11 | Hoffberg; Linda Irene | Human-factored interface corporating adaptive pattern recognition based controller apparatus |
US5973723A (en) * | 1997-12-12 | 1999-10-26 | Deluca; Michael Joseph | Selective commercial detector and eliminator apparatus and method |
US6990453B2 (en) * | 2000-07-31 | 2006-01-24 | Landmark Digital Services Llc | System and methods for recognizing sound and music signals in high noise and distortion |
US7043473B1 (en) * | 2000-11-22 | 2006-05-09 | Widevine Technologies, Inc. | Media tracking system and method |
JP4658598B2 (ja) * | 2002-07-01 | 2011-03-23 | マイクロソフト コーポレーション | ストリームに埋め込まれた反復オブジェクトに対するユーザ制御を提供するシステムおよび方法 |
EP1687806A1 (en) * | 2003-11-18 | 2006-08-09 | Koninklijke Philips Electronics N.V. | Matching data objects by matching derived fingerprints |
US7986913B2 (en) * | 2004-02-19 | 2011-07-26 | Landmark Digital Services, Llc | Method and apparatus for identificaton of broadcast source |
US20050198006A1 (en) * | 2004-02-24 | 2005-09-08 | Dna13 Inc. | System and method for real-time media searching and alerting |
EP1756693A1 (en) * | 2004-05-28 | 2007-02-28 | Koninklijke Philips Electronics N.V. | Method and apparatus for content item signature matching |
US20060271947A1 (en) * | 2005-05-23 | 2006-11-30 | Lienhart Rainer W | Creating fingerprints |
EP1955458B1 (en) * | 2005-11-29 | 2012-07-11 | Google Inc. | Social and interactive applications for mass media |
-
2008
- 2008-07-16 US US12/174,366 patent/US8238669B2/en active Active
- 2008-08-22 AU AU2008288797A patent/AU2008288797B2/en active Active
- 2008-08-22 CA CA2696890A patent/CA2696890C/en active Active
- 2008-08-22 EP EP08798558.6A patent/EP2191400B1/en active Active
- 2008-08-22 CN CN2008801105573A patent/CN101821734B/zh active Active
- 2008-08-22 JP JP2010522089A patent/JP5479340B2/ja active Active
- 2008-08-22 WO PCT/US2008/074105 patent/WO2009026564A1/en active Application Filing
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1842151A (zh) * | 2005-03-30 | 2006-10-04 | 株式会社东芝 | 信息处理装置和方法 |
CN1758331A (zh) * | 2005-10-31 | 2006-04-12 | 浙江大学 | 基于基音频率的快速音频分割方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5479340B2 (ja) | 2014-04-23 |
US8238669B2 (en) | 2012-08-07 |
EP2191400A4 (en) | 2013-01-02 |
CA2696890A1 (en) | 2009-02-26 |
CN101821734A (zh) | 2010-09-01 |
AU2008288797B2 (en) | 2013-04-18 |
US20090052784A1 (en) | 2009-02-26 |
AU2008288797A1 (en) | 2009-02-26 |
EP2191400A1 (en) | 2010-06-02 |
WO2009026564A1 (en) | 2009-02-26 |
EP2191400B1 (en) | 2018-10-03 |
JP2010537585A (ja) | 2010-12-02 |
AU2008288797A2 (en) | 2010-04-01 |
CA2696890C (en) | 2016-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101821734B (zh) | 时基媒体之间的匹配的检测和分类 | |
Wei et al. | Frame fusion for video copy detection | |
US8719884B2 (en) | Video identification and search | |
CN102799605B (zh) | 一种广告监播方法和系统 | |
Saba et al. | Analysis of vision based systems to detect real time goal events in soccer videos | |
US20100182401A1 (en) | System and method for managing digital videos using video features | |
CN103617234A (zh) | 主动式视频浓缩装置及方法 | |
CN103198293A (zh) | 用于指纹识别视频的系统和方法 | |
CN102682024B (zh) | 未残缺jpeg文件碎片重组的方法 | |
US8175392B2 (en) | Time segment representative feature vector generation device | |
Awad et al. | Content-based video copy detection benchmarking at TRECVID | |
Nandzik et al. | CONTENTUS—technologies for next generation multimedia libraries: Automatic multimedia processing for semantic search | |
Kannao et al. | Segmenting with style: detecting program and story boundaries in TV news broadcast videos | |
Manson et al. | Automatic TV broadcast structuring | |
Ibrahim et al. | Tv stream structuring | |
Li et al. | A confidence based recognition system for TV commercial extraction | |
Yang et al. | Multiscale video sequence matching for near-duplicate detection and retrieval | |
Chenot et al. | A large-scale audio and video fingerprints-generated database of tv repeated contents | |
CN116340551A (zh) | 一种相似内容确定方法和装置 | |
Herley | Accurate repeat finding and object skipping using fingerprints | |
Bailer et al. | A distance measure for repeated takes of one scene | |
Kundu et al. | A survey on video segmentation the future roadmap | |
Khoenkaw et al. | Video similarity measurement using spectrogram | |
Min et al. | Near-duplicate video detection using temporal patterns of semantic concepts | |
Weng et al. | A Multimodal Framework for Video Ads Understanding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: American California Patentee after: Google limited liability company Address before: American California Patentee before: Google Inc. |