CN106407484B - 一种基于弹幕语义关联的视频标签提取方法 - Google Patents

一种基于弹幕语义关联的视频标签提取方法 Download PDF

Info

Publication number
CN106407484B
CN106407484B CN201611132427.2A CN201611132427A CN106407484B CN 106407484 B CN106407484 B CN 106407484B CN 201611132427 A CN201611132427 A CN 201611132427A CN 106407484 B CN106407484 B CN 106407484B
Authority
CN
China
Prior art keywords
barrage
comments
video
bullet
pair
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611132427.2A
Other languages
English (en)
Other versions
CN106407484A (zh
Inventor
贾维嘉
杨文冕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Jiaotong University
Original Assignee
Shanghai Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Jiaotong University filed Critical Shanghai Jiaotong University
Priority to CN201611132427.2A priority Critical patent/CN106407484B/zh
Publication of CN106407484A publication Critical patent/CN106407484A/zh
Application granted granted Critical
Publication of CN106407484B publication Critical patent/CN106407484B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明提供了一种基于弹幕语义关联的视频标签提取方法,包括:获取弹弹幕评论的相似度,建立语义关联图;根据所述语义关联图结合原模型,获得视频的主题分布;根据所述主题分布提取视频标签。本发明根据弹幕评论的语义相似度可以定量的考察两条弹幕评论的关系,从而可以将视频内的弹幕评论划分为不同话题。根据话题的弹幕评论数量等指标,可以客观的找出弹幕评论中的关键字,同时可以有效地过滤与视频内容无关的弹幕评论,消除噪声。

Description

一种基于弹幕语义关联的视频标签提取方法
技术领域
本发明涉及视频检索技术领域,特别涉及一种基于弹幕语义关联的视频标签提取方法。
背景技术
视频标签近年来被越来越多的应用于视频检索领域。将视频通过人工添加的方式生成标签,再根据标签生成索引目录,便于视频检索,提高视频检索效率与准确率。随着视频弹幕技术的出现,视频标签可以根据弹幕自动生成、大大节约了人力,提高了检索效率。
现有技术中,利用弹幕信息提取视频标签的技术并不多见。主要从整体上抽取弹幕信息,即将一个视频划分为很多等时长的视频片段,并将视频片段内的所有弹幕视为整体。处理当前视频片段的弹幕时,将前序视频片段中的弹幕与用户的先前发言倾向作为先验知识,采用主题建模的方式利用二次高斯分布获得了每个词的主题分布,最终抽取主题最大值,获得视频标签。
但是,从整体角度抽取弹幕信息,忽略了弹幕间的语义关系。同一个视频片段内可能存在很多个话题,每个话题的重要程度不同,将所有同一片段内的弹幕视为整体易忽略弹幕话题中的关键词,而将高频的修饰词抽象为视频标签。此外,将同一视频片段的弹幕视为整体,会造成片段内弹幕过于稀疏等问题,也不能很好地消除与视频内容无关的弹幕噪声,导致提取的视频标签并不准确。
发明内容
本发明的目的在于提供一种基于弹幕语义关联的视频标签提取方法,以解决现有利用弹幕信息提取视频标签的技术提取的视频标签不准确的问题。
为解决上述技术问题,本发明提供一种基于弹幕语义关联的视频标签提取方法,包括:
获取弹弹幕评论的相似度,建立语义关联图;
根据所述语义关联图结合原模型,获得视频的主题分布;
根据所述主题分布提取视频标签。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,所述根据所述弹幕评论的相似度建立语义关联图的步骤包括:
将所述弹幕评论按在视频中出现的时间升序排列;
选取任意一对弹幕评论,获得该对弹幕评论的语义相似度;
根据所述该对弹幕评论的语义相似度获得该对弹幕评论的边权;
将所述边权从大到小排序,若边权中的一对弹幕评论都属于同一话题集合,则将该边权加入语义关联图中。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,所述选取任意一对弹幕评论,获得该对弹幕评论的语义相似度的步骤包括:
获得该对弹幕评论的长度衰减;
根据所述长度衰减获得该对弹幕评论的语义相似度。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,任意一对弹幕评论在视频中出现的时间大于等于45秒,该对弹幕评论无语义相似度。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,若边权中的一对弹幕评论不属于同一话题集合,则判断该对弹幕评论的话题集合是否可以合并;若该对弹幕评论的话题集合中均只有一条弹幕评论,则判断该边权是否大于第一阈值,若大于则将该边权加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,所述第一阈值取值为0.35。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,若该对弹幕评论的话题集合中有两条或以上弹幕评论,则获取两个话题集合的语义距离,当所述语义距离大于第二阈值,则将该边权加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,所述第二阈值取值为0.38。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,所述根据所述语义关联图结合原模型,获得视频的主题分布的步骤包括:
将每条弹幕评论作为主题模型中的一个文档,建模,生成每条弹幕评论的初始分布;
对第n条弹幕评论重新赋予主题分布;
统计所有弹幕评论的主题分布;
获取整个视频的主题分布。
优选的,在所述的基于弹幕语义关联的视频标签提取方法中,根据所述主题分布提取视频标签具体包括:根据所述整个视频的主题分布,获取每个弹幕评论的概率分布,选取最大的值作为视频标签。
在本发明提供的基于弹幕语义关联的视频标签提取方法中,根据弹幕评论的语义相似度可以定量的考察两条弹幕评论的关系,从而可以将视频内的弹幕评论划分为不同话题。根据话题的弹幕评论数量等指标,可以客观的找出弹幕评论中的关键字,同时可以有效地过滤与视频内容无关的弹幕评论,消除噪声。同时也解决了将视频划分为视频片段后,每个片段内的弹幕评论过于稀疏等问题。
附图说明
图1是本发明基于弹幕语义关联的视频标签提取方法的流程图;
图2是本发明基于弹幕语义关联的视频标签提取方法的语义关联图的一个实施例。
具体实施方式
以下结合附图和具体实施例对本发明提出的基于弹幕语义关联的视频标签提取方法作进一步详细说明。根据下面说明和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
本发明采取了与先前技术截然不同的方法,本发明分别考虑了每条弹幕的语义,并找出了弹幕评论间的语义关联。利用弹幕评论语义相似度定量的描述了弹幕评论间的语义关系,按弹幕语义关系建图,利用语义关系图找出弹幕评论的所属话题,重新分配每天弹幕评论的权重,最终结合主题建模的方法生成每条弹幕评论的主题分布,提取视频标签。
请参考图1,图1是本发明基于弹幕语义关联的视频标签提取方法的流程图。如图1所示,本发明提供一种基于弹幕语义关联的视频标签提取方法,包括如下步骤:
步骤一:获取弹弹幕评论的相似度建立语义关联图;
具体来说,包括如下步骤:
1.1:由于弹幕评论在视频播放时是按照时间顺序依次出现,因此每条弹幕评论只能影响他后面的弹幕,而不会影响其前序弹幕(忽略部分用户看到某条弹幕后,再回拖进度条评论的情况),因此采用有向图来描述弹幕评论间的语义关联。同时,时间间隔较近的弹幕评论,在语义上更有可能有很高的相似度,因此将弹幕评论的时间戳的差值也考虑到模型中。
将所述弹幕评论按在视频中出现的时间升序排列;从而得到弹幕评论的语义拓扑系列C(C1,C2,C3…Cn),其中,n为大于等于1的整数,每条弹幕评论Ci都有对应的时间ti,且t1<t2<t3<…tm,m为正数。
1.2:选取任意一对弹幕评论(Ci,Cj),获得该对弹幕评论的语义相似度;
具体来说,包括如下步骤:
1.2.1:获得该对弹幕评论的长度衰减:其中,Li是Ci的单词数,Lj是Cj的单词数。当Li=Lj时,dec最大,值为1。
1.2.1:根据所述长度衰减获得该对弹幕评论的语义相似度:sim(i,j)=sim’×dec,其中sim’为原模型的语义相似度。
同时,弹幕评论的发言间隔也会影响弹幕评论间的关系。任意一对弹幕评论在视频中出现的时间大于等于45秒,则认定该对弹幕评论无语义相似度,即sim(i,j)=0。
1.3:根据所述该对弹幕评论的语义相似度获得该对弹幕评论的边权:e(i,j).val=sim(i,j)*delay(i,j);其中时间衰减函数α为时间衰减常数。
1.4:将所述边权从大到小排序,得到新的边序列E(e1,e2,e3…ek),其中k为边的数量。
初始时,每条弹幕评论Ci单独属于一个话题集合Si,从大到小依次处理每条ek,对于第k条边的一对弹幕评论(Ci,Cj),如果Ci所在的话题集合Si与Cj所在的话题集合Sj为同一话题集合,则直接将第k条边加入语义关联图中。否则,需要判断两条弹幕评论所属的话题集合是否能够合并。
若弹幕评论Ci或者弹幕评论Cj所述的话题集合中的弹幕评论只有他自己,则判断该边权是否大于第一阈值,即ek.val>β,优选的,在本实施例中,第一阈值选取0.35;若大于则将第k条边加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
若该对弹幕评论的话题集合中有两条或以上弹幕评论,则获取两个话题集合的语义距离: 当所述语义距离大于第二阈值,即distance(Si,Sj,ek.val)>γ,优选的,在本实施例中,第一阈值选取0.38;则将第k条边加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
如图2所示,图2是本发明基于弹幕语义关联的视频标签提取方法的语义关联图的一个实施例。图中不同形状的点表弹幕评论所属的不同话题。实线链接存在语义关联且属于同一话题的两条弹幕评论,虚线链接存在语义关联但属于不同话题的两条弹幕评论。同一话题中,所含的弹幕评论越大,该话题影响力越大,对应的点也越大。而噪声通常和其他弹幕评论无语义关联,从而消除了其影响力。
综上所述,建立语义关联图是本发明的关键所在。弹幕评论间有较强的语义关联,在做信息挖掘时不能忽略。本发明提出了基于语义关联图的主题模型,该模型利用每条弹幕评论的具体语义关联建立语义关联图,并成功的将视频内的弹幕评论按照语义划分为不同的话题,继而找出评论中的关键性话题,并且有效的消除了噪声。
步骤二:根据所述语义关联图结合原模型,获得视频的主题分布;
步骤三:根据所述主题分布提取视频标签。
具体来说,包括如下步骤:
2.1:将每条弹幕评论Cn作为主题模型中的一个文档,建模,生成每条弹幕评论Cn的初始分布向量θi,其中向量θi的维度为K,表示主题数量,同时生成全局的弹幕评论主题分布距阵其中Q表示所有弹幕评论中出现的重复单词个数。
2.2:对第n条弹幕评论Cn,重新赋予主题分布:
其中,nor(x)为归一化函数,/>τi表示弹幕评论Cn的影响力,与n定点的出入度有关,出度越大,影响力越大,入度越大,影响力越小。
2.3:统计所有子图的主题分布,对于子图g,其平均主题分布向量:
其中,|g|为子图g中所含顶点数量。
2.4:获取整个视频的主题分布向量:其中,SAG为步骤一中生成的语义关联图,λ为幂常数,其效果是增加弹幕评论交多的话题的影响力,消除噪声。ng表示子图g所含顶点数量。
2.5:获取每个弹幕评论的概率分布:选取其中最大的作为视频标签。
在以上的模型中,将在语义上相似的弹幕聚类成一个子图,并且通过语义关联与话题的数量重新对传统的主题模型方法得到的主题分布做了加权。不难发现,引出一个话题的弹幕评论通过语义关联图具有更高的权值,如ci->cj->ck,因为Cj受到Ci的影响,Ck受到Cj的影响,因此Ck也受到Ci的影响,因此该模型得到的加权主题分布具有传递性。
基此,本发明根据弹幕评论的语义相似度可以定量的考察两条弹幕评论的关系,从而可以将视频内的弹幕评论划分为不同话题。根据话题的弹幕评论数量等指标,可以客观的找出弹幕评论中的关键字,同时可以有效地过滤与视频内容无关的弹幕评论,消除噪声。同时也解决了将视频划分为视频片段后,每个片段内的弹幕评论过于稀疏等问题。
上述描述仅是对本发明较佳实施例的描述,并非对本发明范围的任何限定,本发明领域的普通技术人员根据上述揭示内容做的任何变更、修饰,均属于权利要求书的保护范围。

Claims (8)

1.一种基于弹幕语义关联的视频标签提取方法,其特征在于,包括:
将弹幕评论按在视频中出现的时间升序排列;
选取任意一对弹幕评论,获得该对弹幕评论的长度衰减;
根据所述长度衰减,获得该对弹幕评论的语义相似度;
根据所述弹幕评论的语义相似度,建立语义关联图;
根据所述语义关联图结合原模型,获取整个视频的主题分布,具体步骤包括:
将每条弹幕评论作为主题模型中的一个文档,建模,生成每条弹幕评论的初始分布;
对第n条弹幕评论重新赋予主题分布;
统计所有弹幕评论的主题分布;
获取整个视频的主题分布;
根据所述视频的主题分布提取视频标签。
2.如权利要求1所述的基于弹幕语义关联的视频标签提取方法,其特征在于,所述根据所述弹幕评论的相似度建立语义关联图的步骤包括:
根据所述该对弹幕评论的语义相似度获得该对弹幕评论的边权;
将所述边权从大到小排序,若边权中的一对弹幕评论都属于同一话题集合,则将该边权加入语义关联图中。
3.如权利要求1所述的基于弹幕语义关联的视频标签提取方法,其特征在于,任意一对弹幕评论在视频中出现的时间大于等于45秒,该对弹幕评论无语义相似度。
4.如权利要求2所述的基于弹幕语义关联的视频标签提取方法,其特征在于,若边权中的一对弹幕评论不属于同一话题集合,则判断该对弹幕评论的话题集合是否可以合并;若该对弹幕评论的话题集合中均只有一条弹幕评论,则判断该边权是否大于第一阈值,若大于则将该边权加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
5.如权利要求4所述的基于弹幕语义关联的视频标签提取方法,其特征在于,所述第一阈值取值为0.35。
6.如权利要求4所述的基于弹幕语义关联的视频标签提取方法,其特征在于,若该对弹幕评论的话题集合中有两条或以上弹幕评论,则获取两个话题集合的语义距离,当所述语义距离大于第二阈值,则将该边权加入语义关联图中,并将该对弹幕评论所在的话题集合合并;反之则放弃该边权。
7.如权利要求6所述的基于弹幕语义关联的视频标签提取方法,其特征在于,所述第二阈值取值为0.38。
8.如权利要求1所述的基于弹幕语义关联的视频标签提取方法,其特征在于,根据所述主题分布提取视频标签具体包括:根据所述整个视频的主题分布,获取每个弹幕评论的概率分布,选取最大的值作为视频标签。
CN201611132427.2A 2016-12-09 2016-12-09 一种基于弹幕语义关联的视频标签提取方法 Active CN106407484B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611132427.2A CN106407484B (zh) 2016-12-09 2016-12-09 一种基于弹幕语义关联的视频标签提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611132427.2A CN106407484B (zh) 2016-12-09 2016-12-09 一种基于弹幕语义关联的视频标签提取方法

Publications (2)

Publication Number Publication Date
CN106407484A CN106407484A (zh) 2017-02-15
CN106407484B true CN106407484B (zh) 2023-09-01

Family

ID=58084670

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611132427.2A Active CN106407484B (zh) 2016-12-09 2016-12-09 一种基于弹幕语义关联的视频标签提取方法

Country Status (1)

Country Link
CN (1) CN106407484B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106993229A (zh) * 2017-03-02 2017-07-28 合网络技术(北京)有限公司 互动属性展示方法及装置
CN108694217B (zh) * 2017-04-12 2020-07-14 阿里巴巴(中国)有限公司 视频的标签确定方法及装置
CN109213841B (zh) * 2017-06-29 2021-01-01 武汉斗鱼网络科技有限公司 直播主题样本提取方法、存储介质、电子设备及系统
CN107566917A (zh) * 2017-09-15 2018-01-09 维沃移动通信有限公司 一种视频标记方法及视频播放设备
CN109819280A (zh) * 2017-11-22 2019-05-28 上海全土豆文化传播有限公司 弹幕展示方法及装置
CN108513176B (zh) * 2017-12-06 2020-04-14 北京邮电大学 一种基于话题模型的社会化视频主题提取系统的提取方法
CN108307230B (zh) * 2018-02-07 2021-01-22 北京奇艺世纪科技有限公司 一种视频精彩片段的提取方法及装置
CN108769771B (zh) * 2018-05-15 2020-09-29 北京字节跳动网络技术有限公司 弹幕显示方法、装置和计算机可读存储介质
CN109960745B (zh) * 2019-03-20 2021-03-23 网易(杭州)网络有限公司 视频分类处理方法及装置、存储介质和电子设备
CN110460899B (zh) * 2019-06-28 2021-12-07 咪咕视讯科技有限公司 弹幕内容的展示方法、终端设备及计算机可读存储介质
CN111031397B (zh) * 2019-12-05 2022-09-30 北京奇艺世纪科技有限公司 收集剪辑片段评论的方法、装置、设备及存储介质
CN111460221B (zh) * 2020-06-17 2020-09-25 腾讯科技(深圳)有限公司 评论信息处理方法、装置及电子设备
CN111708901B (zh) * 2020-06-19 2023-10-13 腾讯科技(深圳)有限公司 多媒体资源推荐方法、装置、电子设备及存储介质
CN114064975A (zh) * 2021-11-26 2022-02-18 四川长虹电器股份有限公司 视频的标签生成方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101281520A (zh) * 2007-04-05 2008-10-08 中国科学院自动化研究所 基于非监督学习和语义匹配特征交互式体育视频检索方法
CN103345536A (zh) * 2013-07-30 2013-10-09 焦点科技股份有限公司 一种语义关联索引方法
CN104469508A (zh) * 2013-09-13 2015-03-25 中国电信股份有限公司 基于弹幕信息内容进行视频定位的方法、服务器和系统
CN104834632A (zh) * 2015-05-13 2015-08-12 北京工业大学 一种基于语义扩充的微博话题检测和热度评估方法
CN104994425A (zh) * 2015-06-30 2015-10-21 北京奇艺世纪科技有限公司 一种视频标识方法和装置
CN106210902A (zh) * 2016-07-06 2016-12-07 华东师范大学 一种基于弹幕评论数据的影视片段剪辑方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101281520A (zh) * 2007-04-05 2008-10-08 中国科学院自动化研究所 基于非监督学习和语义匹配特征交互式体育视频检索方法
CN103345536A (zh) * 2013-07-30 2013-10-09 焦点科技股份有限公司 一种语义关联索引方法
CN104469508A (zh) * 2013-09-13 2015-03-25 中国电信股份有限公司 基于弹幕信息内容进行视频定位的方法、服务器和系统
CN104834632A (zh) * 2015-05-13 2015-08-12 北京工业大学 一种基于语义扩充的微博话题检测和热度评估方法
CN104994425A (zh) * 2015-06-30 2015-10-21 北京奇艺世纪科技有限公司 一种视频标识方法和装置
CN106210902A (zh) * 2016-07-06 2016-12-07 华东师范大学 一种基于弹幕评论数据的影视片段剪辑方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
情感分析及可视化方法在网络视频弹幕数据分析中的应用;郑;徐健;肖卓;;现代图书情报技术(第11期) *

Also Published As

Publication number Publication date
CN106407484A (zh) 2017-02-15

Similar Documents

Publication Publication Date Title
CN106407484B (zh) 一种基于弹幕语义关联的视频标签提取方法
CN107229668B (zh) 一种基于关键词匹配的正文抽取方法
CN102902821B (zh) 基于网络热点话题的图像高级语义标注、检索方法及装置
CN101593200B (zh) 基于关键词频度分析的中文网页分类方法
CN102508923B (zh) 基于自动分类和关键字标注的自动视频注释方法
CN104881458B (zh) 一种网页主题的标注方法和装置
CN103294778B (zh) 一种推送资讯信息的方法及系统
US20210209416A1 (en) Method and apparatus for generating event theme
CN109670039A (zh) 基于三部图和聚类分析的半监督电商评论情感分析方法
JP6428795B2 (ja) モデル生成方法、単語重み付け方法、モデル生成装置、単語重み付け装置、デバイス、コンピュータプログラム及びコンピュータ記憶媒体
CN103049435A (zh) 文本细粒度情感分析方法及装置
CN104978332B (zh) 用户生成内容标签数据生成方法、装置及相关方法和装置
CN103299324A (zh) 使用潜在子标记来学习用于视频注释的标记
CN104484343A (zh) 一种对微博进行主题发现与追踪的方法
CN104536956A (zh) 一种基于微博平台的事件可视化方法及系统
US9215479B2 (en) System and method for real-time new event detection on video streams
CN103608826A (zh) 利用网络信息挖掘的视频内产品注释
CN103020159A (zh) 一种面向事件的新闻展现方法和装置
WO2017012222A1 (zh) 时效需求识别方法、装置、设备及非易失性计算机存储介质
CN107748745B (zh) 一种企业名称关键字提取方法
CN106126605B (zh) 一种基于用户画像的短文本分类方法
CN111708909B (zh) 视频标签的添加方法及装置、电子设备、计算机可读存储介质
CN110287314A (zh) 基于无监督聚类的长文本可信度评估方法及系统
US9268861B2 (en) Method and system for recommending relevant web content to second screen application users
CN107451120B (zh) 一种公开文本情报的内容冲突检测方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant