CN116975262A - 媒体资源标签的确定方法和装置、存储介质及电子设备 - Google Patents

媒体资源标签的确定方法和装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116975262A
CN116975262A CN202211282578.1A CN202211282578A CN116975262A CN 116975262 A CN116975262 A CN 116975262A CN 202211282578 A CN202211282578 A CN 202211282578A CN 116975262 A CN116975262 A CN 116975262A
Authority
CN
China
Prior art keywords
tag
sample
candidate
ith
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211282578.1A
Other languages
English (en)
Inventor
杨皓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202211282578.1A priority Critical patent/CN116975262A/zh
Publication of CN116975262A publication Critical patent/CN116975262A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种媒体资源标签的确定方法和装置、存储介质及电子设备。其中,该方法包括:获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签。本发明解决了现有媒体资源标签的确定方法准确率低的技术问题。

Description

媒体资源标签的确定方法和装置、存储介质及电子设备
技术领域
本发明涉及计算机领域,具体而言,涉及一种媒体资源标签的确定方法和装置、存储介质及电子设备。
背景技术
现在的新闻资讯平台内有非常多的图文类新闻,如何将这些新闻进行分类归属,对于运营、推荐有非常重要的作用。对于新闻分类任务,现有的方式通常使用流行的深度学习网络均能够取得非常好的效果。但是,分类任务一般目标类别数量不多,颗粒度不够。比如:体育、娱乐、法律等类别,在体育内又可以细分更多的类别,如果仅使用非常粗的类别来刻画不同的新闻,这无疑增大了推荐模型的学习难度,对于用户画像的刻画也非常粗,难于精细地刻画用户的喜好(到底用户是喜欢体育中的篮球or足球,甚至是篮球中的NBA还是CBA)。
所以,对于新闻的更细粒度的刻画非常重要,这里我们称之为标签,实体词(娱乐明星、体育明星、机构名、体育项目)、抽象概念(中美关系、国际形势)等均认为是标签。这里的标签,同时包含了上面提到的粗粒度分类,也包含了更加细粒度的实体词等。理所当然,标签的数量也会更加庞大(数量级在十万至百万量级)。
现有方式通常是根据多个不同的模型对于同一片文章在不同维度输出多个标签,但不同模型的精准度不同,因此现有的方法无法仅仅能输出多个标签,但无法从多个模型输出的多个标签中确定出最精准的标签。也就是说,现有的媒体资源标签的确定方法存在标签准确度较低的技术问题。
针对上述的问题,目前尚未提出有效的解决方案。
发明内容
本发明实施例提供了一种媒体资源标签的确定方法和装置、存储介质及电子设备,以至少解决现有媒体资源标签的确定方法准确率低的技术问题。
根据本发明实施例的一个方面,提供了一种媒体资源标签的确定方法,包括:获取目标媒体资源以及与上述目标媒体资源匹配的M个候选标签,其中,上述M个候选标签中的每一个候选标签与上述目标媒体资源的匹配度大于目标阈值,上述M为大于或等于2的整数;提取上述目标媒体资源的目标资源特征,并提取上述M个候选标签中每个候选标签各自对应的标签特征,其中,上述标签特征包括:与上述候选标签的标签描述信息对应的标签信息特征和与上述候选标签的标签文本对应的标签语义特征,上述标签描述信息用于描述上述候选标签的上述标签文本的生成信息;基于第i个上述标签信息特征确定出与第i个上述候选标签匹配的第一置信度,并基于上述目标资源特征和第i个上述标签语义特征之间的相似度确定出与第i个上述候选标签匹配的第二置信度,其中,上述i为正整数,且i小于等于M;在根据第i个上述第一置信度和第i个上述第二置信度确定出第i个上述候选标签满足置信度条件的情况下,将第i个上述候选标签确定为上述目标媒体资源的目标媒体资源标签。
根据本发明实施例的另一方面,还提供了一种标签确定模型的训练方法,包括:从第一样本集合中获取第一样本媒体资源以及与上述第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;利用上述第一样本媒体资源及M个上述第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,上述语义特征提取网络用于提取上述第一样本媒体资源的样本标题语义特征和样本内容语义特征,及上述第一样本候选标签的样本标签文本的样本标签语义特征;在训练中的上述语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与上述第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;利用上述第二样本媒体资源及N个上述第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在上述信息特征提取网络进行训练的过程中,达到上述第一训练收敛条件的上述语义特征提取网络中的网络参数处于参数冻结状态;在训练中的上述信息特征提取网络指示达到第二训练收敛条件的情况下,将达到上述第一训练收敛条件的上述语义特征提取网络和达到上述第二训练收敛条件的上述信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
根据本发明实施例的又一方面,还提供了一种媒体资源标签的确定装置,包括:获取单元,用于获取目标媒体资源以及与上述目标媒体资源匹配的M个候选标签,其中,上述M个候选标签中的每一个候选标签与上述目标媒体资源的匹配度大于目标阈值,上述M为大于或等于2的整数;提取单元,用于提取上述目标媒体资源的目标资源特征,并提取上述M个候选标签中每个候选标签各自对应的标签特征,其中,上述标签特征包括:与上述候选标签的标签描述信息对应的标签信息特征和与上述候选标签的标签文本对应的标签语义特征,上述标签描述信息用于描述上述候选标签的上述标签文本的生成信息;第一确定单元,用于基于第i个上述标签信息特征确定出与第i个上述候选标签匹配的第一置信度,并基于上述目标资源特征和第i个上述标签语义特征之间的相似度确定出与第i个上述候选标签匹配的第二置信度,其中,上述i为正整数,且i小于等于M;第二确定单元,用于在根据第i个上述第一置信度和第i个上述第二置信度确定出第i个上述候选标签满足置信度条件的情况下,将第i个上述候选标签确定为上述目标媒体资源的目标媒体资源标签。
根据本发明实施例的又一方面,还提供了一种标签确定模型的训练装置,包括:第一获取单元,用于从第一样本集合中获取第一样本媒体资源以及与上述第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;预训练单元,用于利用上述第一样本媒体资源及M个上述第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,上述语义特征提取网络用于提取上述第一样本媒体资源的样本标题语义特征和样本内容语义特征,及上述第一样本候选标签的样本标签文本的样本标签语义特征;第二获取单元,用于在训练中的上述语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与上述第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;训练单元,用于利用上述第二样本媒体资源及N个上述第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在上述信息特征提取网络进行训练的过程中,达到上述第一训练收敛条件的上述语义特征提取网络中的网络参数处于参数冻结状态;确定单元,用于在训练中的上述信息特征提取网络指示达到第二训练收敛条件的情况下,将达到上述第一训练收敛条件的上述语义特征提取网络和达到上述第二训练收敛条件的上述信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
根据本发明实施例的又一方面,还提供了一种计算机可读的存储介质,该计算机可读的存储介质中存储有计算机程序,其中,该计算机程序被设置为运行时执行上述媒体资源标签的确定方法或上述标签确定模型的训练方法。
根据本申请实施例的又一个方面,提供一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行如以上媒体资源标签的确定方法或上述标签确定模型的训练方法。
根据本发明实施例的又一方面,还提供了一种电子设备,包括存储器和处理器,上述存储器中存储有计算机程序,上述处理器被设置为通过上述计算机程序执行上述的媒体资源标签的确定方法或上述标签确定模型的训练方法。
在本发明实施例中,采用获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签,进而在获取多个底层模型输出的多个标签的情况下,根据多个标签的文本语义特征确定出各个标签的第二置信度,并根据多个标签的标签各自的输出模型来源信息确定出各个标签的第一置信度,从而从不同维度确定出各个标签的总置信度,并基于总置信度确定出最终与目标媒体资源最接近的目标标签,进而解决了现有媒体资源标签的确定方法准确率低的技术问题。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的一种可选的媒体资源标签的确定方法的硬件环境的示意图;
图2是根据本发明实施例的一种可选的媒体资源标签的确定方法的流程图;
图3是根据本发明实施例的一种可选的媒体资源标签的确定方法的示意图;
图4是根据本发明实施例的一种可选的标签确定模型的训练方法的示意图;
图5是根据本发明实施例的另一种可选的标签确定模型的训练方法的示意图;
图6是根据本发明实施例的另一种可选的标签确定模型的训练方法的示意图;
图7是根据本发明实施例的一种可选的标签确定模型的训练方法的流程图;
图8是根据本发明实施例的一种可选的媒体资源标签的确定装置的结构示意图;
图9是根据本发明实施例的一种可选的电子设备的结构示意图;
图10是根据本发明实施例的一种可选的标签确定模型的训练装置的结构示意图;
图11是根据本发明实施例的另一种可选的电子设备的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
以下对本申请将使用的名词进行说明:深度学习:是机器学习的分支,基于神经网络架构,对数据的表征学习,分为无监督、半监督、全监督的学习,已经被广泛应用在计算机视觉、语音识别、自然语言处理等领域。
根据本发明实施例的一个方面,提供了一种媒体资源标签的确定方法,作为一种可选的实施方式,上述媒体资源标签的确定方法可以但不限于应用于如图1所示的由服务器102和终端设备104所构成的媒体资源标签的确定系统中。如图1所示,服务器102通过网络110与终端设备104进行连接,上述网络可以包括但不限于:有线网络,无线网络,其中,该有线网络包括:局域网、城域网和广域网,该无线网络包括:蓝牙、WIFI及其他实现无线通信的网络。上述终端设备可以包括但不限于以下至少之一:手机(如Android手机、iOS手机等)、笔记本电脑、平板电脑、掌上电脑、MID(Mobile Internet Devices,移动互联网设备)、PAD、台式电脑、智能电视、车载设备等。上述终端设备上可以安装有客户端,例如新闻媒体资讯客户端、搜索服务客户端等。上述终端设备上还设置有显示器、处理器和存储器,显示器可以用于显示上述新闻媒体资讯客户端、搜索服务客户端的程序界面,以及显示与目标媒体资源对应的目标媒体资源标签,处理器可以用于对待上传的目标媒体资源进行预处理,例如,将获取到的目标媒体资源进行特征预提取;存储器用于待上传的媒体文件进行存储。可以理解的是,在上述终端设备104中获取到待上传的媒体资源后,终端设备104可以通过网络110向服务器102发送上述媒体资源,服务器102接收到媒体资源的情况下,根据终端设备104上传的媒体资源先确定出与之对应的标签集合,并从标签集合中确定出与目标媒体资源最匹配的目标标签;终端设备104可以通过网络110接收服务器102返回的目标媒体资源。服务器102可以是单一服务器,也可以是由多个服务器组成的服务器集群,或者是云服务器。上述服务器包括数据库和处理引擎。其中,上述数据库中可包括用于用于输出标签集合的多个标签提取模型;上述处理引擎用于执行上述标签输出过程。
根据本发明实施例的一个方面,上述媒体资源标签的确定系统还可以执行以下步骤:服务器102执行步骤S102至S108,获取目标媒体资源以及与所述目标媒体资源匹配的M个候选标签,其中,所述M个候选标签中的每一个候选标签与所述目标媒体资源的匹配度大于目标阈值,所述M为大于或等于2的整数;提取所述目标媒体资源的目标资源特征,并提取所述M个候选标签中每个候选标签各自对应的标签特征,其中,所述标签特征包括:与所述候选标签的标签描述信息对应的标签信息特征和与所述候选标签的标签文本对应的标签语义特征,所述标签描述信息用于描述所述候选标签的所述标签文本的生成信息;基于第i个所述标签信息特征确定出与第i个所述候选标签匹配的第一置信度,并基于所述目标资源特征和第i个所述标签语义特征之间的相似度确定出与第i个所述候选标签匹配的第二置信度,其中,所述i为正整数,且i小于等于M;在根据第i个所述第一置信度和第i个所述第二置信度确定出第i个所述候选标签满足置信度条件的情况下,将第i个所述候选标签确定为所述目标媒体资源的目标媒体资源标签;接着,服务器102执行步骤S110,通过网络110向终端设备104发送目标媒体资源标签;最后,终端设备104执行步骤S112,利用目标媒体资源标签显示为目标媒体资源的标签。
在本发明的上述实施方式中,采用获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签,进而在获取多个底层模型输出的多个标签的情况下,根据多个标签的文本语义特征确定出各个标签的第二置信度,并根据多个标签的标签各自的输出模型来源信息确定出各个标签的第一置信度,从而从不同维度确定出各个标签的总置信度,并基于总置信度确定出最终与目标媒体资源最接近的目标标签,进而解决了现有媒体资源标签的确定方法准确率低的技术问题。
上述仅是一种示例,本实施例中对此不作任何限定。
作为一种可选的实施方式,如图2所示,上述媒体资源标签的确定方法包括以下步骤:
S202,获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;
其中,M个候选标签中的每一个候选标签与目标媒体资源的匹配度大于目标阈值,M为大于或等于2的整数;
S204,提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;
其中,标签特征包括:与候选标签的标签描述信息对应的标签信息特征和与候选标签的标签文本对应的标签语义特征,标签描述信息用于描述候选标签的标签文本的生成信息;
S206,基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;
其中,i为正整数,且i小于等于M;
S208,在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签。
需要进一步说明的是,在上述步骤S202中,目标媒体资源可以为视频媒体资源,新闻图文媒体资源也可以是文本媒体资源,此处不对上述媒体资源的资源类型进行限定。上述候选标签为多个底层标签确定模型输出的与上述目标媒体资源具有一定匹配程度的候选标签。例如,对应于第一媒体资源,可以通过模型1、模型2和模型3分别输出各自的标签。进一步地,假设模型1输出的标签有(a(90分),b(60分),c(50分)),模型2输出的标签有(b(80分),d(70分),e(60分)),模型3输出的标签有(a(80分),b(80分),f(50分)),进而可以将上述3个标签集合的合集(a,b,c,d,e,f)作为与第一媒体资源匹配的候选标签集合。
接着步骤S204中的标签描述信息进行说明。上述标签描述信息可以是候选标签中的各个标签各自对应的标签元信息,其中可以包含了标签的一些基础信息,比如此标签的来源(来源于各路底层模型中的哪几个底层模型,如果此标签的来源越多,证明此标签越可信)、标签的得分(底层模型预测的得分)等。继续以模型1、模型2和模型3所输出的与第一媒体资源匹配的候选标签集合(a,b,c,d,e,f)为例进行说明。假设上述模型1的置信度为90%,上述模型2的置信度为70%,上述模型3的置信度为80%,进而可以结合上述各个标签的来源模型,来源模型的置信度,以及标签得分确定出上述各个标签的元信息。比如,上述标签“a”的来源模型有:模型1、模型3,其中,模型1的置信度为“90%”,模型3的置信度为“80%”,且模型1输出的得分为90分,模型3的输出的得分为80分,进而将上述信息作为与标签a对应的元信息,即对应于标签a的标签描述信息为:来源数量:2;来源模型:模型1(“90%”),模型3(“80%”);来源得分:90分(模型1);80分(模型3)。同理,可以确定出上述标签“b,c,d,e,f”各自的标签描述信息。需要说明的是,以上标签描述信息的类型以及确定方式仅为一种示例,本实施例不对实际采用的标签描述信息的确定方法进行限制。
在上述步骤S206中,可以根据用于表征各个标签的标签描述信息的标签信息特征直接确定出各个标签各自的第一置信度,并根据用于表征各个标签的标签文本语义的标签语义特征与目标资源的资源特征的相似度确定出第二置信度。继续以模型1、模型2和模型3所输出的与第一媒体资源匹配的候选标签集合(a,b,c,d,e,f)为例对第一置信度进行说明。在确定出对应于标签a的标签描述信息为:来源数量:2;来源模型:模型1(“90%”),模型3(80%”);来源得分:90分(模型1);80分(模型3)的情况下,可以根据上述描述信息确定出标签a的置信度得分=90*90%+80*80%=145。同理可以确定出标签“b,c,d,e,f”各自的第一置信度得分。
在上述步骤S208中,作为一种可选的实施方式,上述在将第i个候选标签确定为目标媒体资源的目标媒体资源标签之前,还包括以下之一:
在第i个目标置信度大于目标置信度阈值的情况下,确定出第i个候选标签满足置信度条件;
对M个候选标签各自对应的目标置信度按照从大到小的顺序进行排序,得到排序结果;在排序结果中第i个目标置信度的排列位序小于或等于N的情况下,确定出第i个候选标签满足置信度条件,N为置信度条件所指示的预定阈值。
可以理解的是,在确定出各个标签的各自的第一置信度和第二置信度的情况下,可以根据各个标签的第一置信度和第二置信度的加权平均值确定出各个标签各自的最终得分,最后根据得分阈值确定出满足阈值条件的候选标签为目标标签;在另一种可选的方式中,还可以根据候选标签的标签得分排名确定出排名在目标名次之前的标签为目标标签。此处不对确定出目标标签的置信度条件进行限制。
在本发明的上述实施方式中,采用获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签,进而在获取多个底层模型输出的多个标签的情况下,根据多个标签的文本语义特征确定出各个标签的第二置信度,并根据多个标签的标签各自的输出模型来源信息确定出各个标签的第一置信度,从而从不同维度确定出各个标签的总置信度,并基于总置信度确定出最终与目标媒体资源最接近的目标标签,进而解决了现有媒体资源标签的确定方法准确率低的技术问题。
作为一种可选的方式,上述在将第i个候选标签确定为目标媒体资源的目标媒体资源标签之前,还包括:
S1,根据标签知识图谱和第i个标签语义特征确定与第i个候选标签匹配的标签关联语义特征,其中,标签知识图谱用于指示标签之间的关联关系;
S2,基于目标资源特征和第i个标签关联语义特征之间的相似度确定出与第i个候选标签匹配的第三置信度;
S3,对第一置信度、第二置信度和第三置信度进行加权求和,得到第i个候选标签的目标置信度。
需要说明的是,在本实施方式中,除了确定出第一置信度和第二置信度之外,还可以根据标签语义特征以及标签知识图谱确定出对应于各个标签的标签关联语义特征,并基于确定出的标签关联语义特征进一步与目标资源特征的相似度确定出第三置信度。
可以理解的是,在确定出对应于各个标签第一置信度、第二置信度、第三置信度之后,可以根据三个置信度的加权求和值确定出对应于各个标签的目标置信度,进而基于目标置信度确定出与目标媒体资源最匹配的目标标签。
通过本申请的上述实施方式,以根据标签知识图谱和第i个标签语义特征确定与第i个候选标签匹配的标签关联语义特征,其中,标签知识图谱用于指示标签之间的关联关系;基于目标资源特征和第i个标签关联语义特征之间的相似度确定出与第i个候选标签匹配的第三置信度;对第一置信度、第二置信度和第三置信度进行加权求和,得到第i个候选标签的目标Graph Attention Networks的诞生置信度的方式,根据多个维度的标签特征确定出对应于各个标签的匹配置信度,并基于匹配置信度确定出最终的目标标签,进而从多个候选标签中确定出与目标媒体资源匹配的目标标签,解决了现有方式只能确定出多个标签而无法从多个标签中确定出最匹配的若干个目标标签的技术问题。
作为一种可选方式,上述根据标签知识图谱和第i个标签语义特征确定与第i个候选标签匹配的标签关联语义特征包括:
S1,利用标签知识图谱确定M个候选标签中每个候选标签与其他候选标签之间的语义关系;
S2,根据M个候选标签中每个候选标签与其他候选标签之间的语义关系确定与多数M个候选标签对应的关系图谱;
S3,基于关系图谱将第i个标签语义特征转化为与第i个候选标签匹配的标签关联语义特征。
需要说明的是,在本实施方式中,在获取到各个标签语义特征之后,可以使用知识图谱(上、下位词)及共现关系,构建了标签与标签之间的关系图,在图中使用GAT(GraphAttention Networks,图注意力网络)进一步相互交互,进而确定出对应于各个标签的关联语义特征。需要说明的是,在GAT网络中计算各个标签的关联语义特征主要包括两个步骤:1、根据关系图计算得到各个标签各自的注意力系数;2、加权求和,即根据计算好的注意力系数,将各个特征进行加权求和计算,进而得到各个标签各自对应的关联语义特征。
通过本申请的上述实施方式,以利用标签知识图谱确定M个候选标签中每个候选标签与其他候选标签之间的语义关系;根据M个候选标签中每个候选标签与其他候选标签之间的语义关系确定与多数M个候选标签对应的关系图谱;基于关系图谱将第i个标签语义特征转化为与第i个候选标签匹配的标签关联语义特征的方式,在得到各个标签的标签语义特征之后,进一步根据各个标签之间的上下位关系和共现关系,确定出各个标签的关联语义特征,进而根据关联语义特征确定出第三置信度,提高了确定的目标标签的准确性。
作为一种可选的实施方式,上述基于目标资源特征和第i个标签关联语义特征之间的相似度确定出与第i个候选标签匹配的第三置信度包括:
S1,获取目标资源特征和第i个标签关联语义特征之间的余弦相似度;
S2,基于余弦相似度确定出与第i个候选标签匹配的第三置信度。
可以理解的是,在本实施方式中,在确定出各个标签关联语义特征之后,进一步可以根据各个标签各自的关联语义特征与目标资源的资源特征进行余弦相似度计算,以确定好粗各个候选标签匹配各自的第三置信度。
通过本申请的上述实施方式,以获取目标资源特征和第i个标签关联语义特征之间的余弦相似度;基于余弦相似度确定出与第i个候选标签匹配的第三置信度,从而快速确定出与各个候选标签匹配的置信度,提高了标签提取的效率。
作为一种可选的实施方式,上述提取M个候选标签中每个候选标签各自对应的标签特征包括:
S1,通过信息特征提取网络从第i个候选标签的标签描述信息所携带的候选标签的标签生成来源信息和候选标签对应的标签生成预测信息,提取出第i个候选标签对应的标签信息特征;
S2,通过语义特征提取网络对第i个候选标签的标签文本进行语义特征提取,得到与第i个候选标签对应的参考标签语义特征;
S3,将第i个参考标签语义特征输入第一变形网络,得到第i个候选标签对应的标签语义特征,其中,第一变形网络用于对M个候选标签各自对应的M个参考标签语义特征进行融合学习。
可以理解的是,在本实施方式中,在得到各个标签各自对应的标签语义特征之前,可以将各个候选标签输入信息特征提取网络中,以得到各个标签各自对应的标签信息特征;同时,可以根据语义特征提取网络确定出各个标签各自对应的参考语义特征,并利用变形网络对各个标签的参考语义特征进行融合学习,进而得到各个标签各自对应的标签语义特征。
通过本申请的上述实施方式,以通过信息特征提取网络从第i个候选标签的标签描述信息所携带的候选标签的标签生成来源信息和候选标签对应的标签生成预测信息,提取出第i个候选标签对应的标签信息特征;通过语义特征提取网络对第i个候选标签的标签文本进行语义特征提取,得到与第i个候选标签对应的参考标签语义特征;将第i个参考标签语义特征输入第一变形网络,得到第i个候选标签对应的标签语义特征,其中,第一变形网络用于对M个候选标签各自对应的M个参考标签语义特征进行融合学习,从而通过上述特征提取的方法得到对应于各个标签的准确的标签信息特征以及标签语义特征,提高了标签筛选的效率。
作为一种可选的实施方式,上述提取目标媒体资源的目标资源特征包括:
S1,通过语义特征提取网络对目标媒体资源的资源标题和资源内容分别进行语义特征提取,得到与目标媒体资源对应的参考标题语义特征和参考资源语义特征;
S2,将参考标题语义特征和参考资源语义特征输入第二变形网络,得到目标资源特征,其中,第二变形网络用于对参考标题语义特征和参考资源语义特征进行融合学习。
需要说明的是,在本实施方式中,在获取到目标媒体资源之后,可以先将目标媒体资源分为标题部分和资源内容部分。需要说明的是,在本实施方式中,资源内容部分可以对应于目标媒体资源的文本内容部分。接着根据语义特征提取网络获取对应于标题和各个文本内容的语义特征。在本实施方式中,进行上述语义特征提取的网络模型可以是BERT网络,还可以是GPT-2,RoBERT等文本特征提取模块。在本实施方式中,不对网络模型的具体类型进行限制。
在获取到对应于资源标题和资源内容的多个语义特征之后,将上述多个语义特征输入变形网络,以使得多个语义特征之间可以进行互相学习,进而输出各自的新特征向量。可以理解的是,在互相学习之后,新输出的特征向量中可以携带有其他媒体资源内容或者媒体标题的相关特征。
通过本申请的上述实施方式,以通过语义特征提取网络对目标媒体资源的资源标题和资源内容分别进行语义特征提取,得到与目标媒体资源对应的参考标题语义特征和参考资源语义特征;将参考标题语义特征和参考资源语义特征输入第二变形网络,得到目标资源特征,其中,第二变形网络用于对参考标题语义特征和参考资源语义特征进行融合学习,从而准确确定出对应于目标媒体资源的多个媒体资源特征,进而提升后续标签相似度计算的结果的准确性。
作为一种可选的实施方式,上述基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度包括:
S1,将第i个标签信息特征输入全连接层网络,以得到与第i个候选标签匹配的第一置信度;
S2,获取目标资源特征和第i个标签语义特征之间的余弦相似度;基于余弦相似度确定出与第i个候选标签匹配的第二置信度。
以下结合图3对本申请的上述标签确定方法进行具体说明。如图3所示,本实施方式主要针对新闻媒体资讯平台上的图文新闻打多个标签的场景,对于图文新闻中的标题及正文内容,进行内容理解,使用Bert提取标题、正文的特征向量,然后与各路底层模型输出的标签集合进行相似度计算,以确定出各路底层模型输出的标签集合中每一个标签的相似度。这里,可以理解为:对于一篇图文新闻,我们事先已经知道了一些标签集合(通过各路底层模型输出得到的),量级在20至50个不等,通过本实施方式中的方法先对这些标签进行语义理解,将与此篇新闻最相关的标签,排在前面,而将无关的标签排在后面(或者卡一定的分数阈值,将无关标签删除)。
图3是整个网络的结构图(这个网络模型,我们称为“dnn model“)。底层输入是三部分(图3最下面):
1)ITEM,即新闻内容;2)TAG,标签集合(假设有p个标签,表示为TAG1,...,TAGp)(需要说明的是:图中为了简化,只示出了3个标签);3)TAG META,标签对应的元信息,包含了标签的一些基础信息,比如此标签的来源(来源于各路底层模型中的哪几个底层模型,如果此标签的来源越多,证明此标签越可信)、标签的得分(底层模型预测的得分)等。
进一步地,在ITEM新闻内容侧,包含了新闻的标题(TITLE)、多个段落(假设有n个段落:CONTENT1,...,CONTENTn)(需要说明的是:图中为了简化,只示出了2个段落)。
由于标题、段落、标签均是由文本组成,可以通过使用BERT模型,分别提取各自的特征向量。如图中的:TITLE_EMB(标题文本经过BERT得到的特征向量)、CONT_EMB(各段落经过BERT得到的特征向量)、TAG_EMB(各标签经过BERT得到的特征向量)。考虑到标题与正文同属于ITEM新闻内容侧的特征,可以进一步使用transformer(图中“TITLE+CONTENTTRANSFORMER”)进行相互地学习,输出各自的新特征向量(如图中示出的TITLE_TC_EMB和CONT_TC_EMB)。同理,对于标签侧,也可以将这些标签使用另一个transformer(图中“TAGTRANSFORMER“)相互地学习,得到TAG_T_EMB;对于标签集合,使用知识图谱(上、下位词)及共现关系,构建了标签与标签之间的关系图,在图中使用GAT网络(图中“TAG GAT”)进一步相互交互,得到TAG_TG_EMB。
针对ITEM侧得到的标题特征向量和各段落的特征向量,进行平均模块处理以(图中“MEAN”)得到最终的内容特征向量(ITEM_EMB),接着将ITEM_EMB与TAG_T_EMB向量计算各标签的相似度打分(图中为了简化,只示出了ITEM_EMB与TAG1_T_EMB的相似度打分,计为TAG1_SCORE);同理,将ITEM_EMB与TAG1_TG_EMB向量也计算相似度打分,计为TAG1_GAT_SCORE。
上面计算的TAG_SCORE和TAG_GAT_SCORE,均是标签与新闻内容的语义得分。考虑到标签来源于各路底层模型输出,不同底层模型得到的标签集合会有差别,这会导致某个标签同时来自于多个底层模型。如果某个标签的来源越多,且底层模型预测的得分越高,证明此标签越可信。为了将这些信息加进网络中,我们称上面这些信息为标签的元信息(图3右下侧“TAG META“),使用DEEPFM网络将各元信息特征进行相互交互后,再经过各层全连接层(图中DEEPFM_FC),得到标签的元信息得分(图中TAG_META_SCORE)。最终将三个得分,求和取平均,作为此标签的最终得分(图中上方的TAG_FINAL_SCORE)。最后根据网络预测的最终得分,确定出最终得分达到一定阈值的标签为目标标签,或者确定最终得分排名在一定次序内的标签为目标标签。
通过本申请的上述实施方式,采用获取目标媒体资源以及与目标媒体资源匹配的M个候选标签;提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征;基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度;在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签,进而在获取多个底层模型输出的多个标签的情况下,根据多个标签的文本语义特征确定出各个标签的第二置信度,并根据多个标签的标签各自的输出模型来源信息确定出各个标签的第一置信度,从而从不同维度确定出各个标签的总置信度,并基于总置信度确定出最终与目标媒体资源最接近的目标标签,进而解决了现有媒体资源标签的确定方法准确率低的技术问题。
作为一种可选的实施方式,本申请还包括了一种标签确定模型的训练方法,用于训练得到图3中示出的标签确定模型,包括以下步骤:
S1,从第一样本集合中获取第一样本媒体资源以及与第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
S2,利用第一样本媒体资源及M个第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,语义特征提取网络用于提取第一样本媒体资源的样本标题语义特征和样本内容语义特征,及第一样本候选标签的样本标签文本的样本标签语义特征;
S3,在训练中的语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
S4,利用第二样本媒体资源及N个第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在信息特征提取网络进行训练的过程中,达到第一训练收敛条件的语义特征提取网络中的网络参数处于参数冻结状态;
S5,在训练中的信息特征提取网络指示达到第二训练收敛条件的情况下,将达到第一训练收敛条件的语义特征提取网络和达到第二训练收敛条件的信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
需要说明的是,在本实施方式中,由于待处理的标签规模较大,因此整个标签确定模型的结构过大、模型深度过深,直接在这么大的网络上进行训练,很可能导致各子网络学习不充分,而没有完全发挥网络的强大之处。为此可以将子网络单独训练,然后加入完整网络后“冻结”子网络后训练其它网络参数,能够进一步提升模型的表达能力。
可以理解的是,在本实施方式中,所训练的标签提取模型的模型结构如图3所示。其中,在对图3所示的标签提取模型进行训练之前,可以先对图3中的BERT模型进行预训练,在BERT模型达到收敛条件的情况下,将BERT模型的模型参数进行冻结,再将BERT模型加入图3所示的模型结构中,对模型中的其他模块进行训练。具体地,可以获取训练过程中网络预测的最终得分,与真实的Label(Label只有两个取值,0和1,0标识错误标签,1标识正确标签)进行比较,并计算MSE Loss,进而训练整个标签确定网络。
通过本申请的上述实施方式,由于用于从多个标签中确定出目标标签的标签确定模型的模型结构较大,网络参数较多,我们将这部分网络单独抽取出来,进行单独训练。因此将网络中BERT子网络单独抽取出来,进行训练,然后将此部分放到完整网络中并冻结此部分,训练完整网络,从而显著地提升模型效果。
作为一种可选的实施方式,上述利用第一样本媒体资源及M个第一样本候选标签各自对应的样本标签文1本,对初始化的语义特征提取网络进行预训练包括:
S1,在初始化的语义特征提取网络中,对第一样本媒体资源的资源标题和资源内容分别进行语义特征提取,得到与第一样本媒体资源对应的样本标题语义特征和样本内容语义特征;并对第i个第一样本候选标签的样本标签文本进行语义特征提取,得到与第i个第一样本候选标签对应的样本标签语义特征;
S2,获取与第一样本媒体资源对应的样本标题语义特征和样本内容语义特征各自与第i个样本标签语义特征之间的相似度,得到多个子置信度;
S3,对多个子置信度进行加权求和,得到第i个第一样本候选标签对应的样本置信度;
S4,在M个样本置信度各自对应的训练损失值小于或等于第一目标阈值的情况下,确定得到达到第一训练收敛条件的语义特征提取网络。
以下结合图4对上述方法进行说明,如图4所示,ITEM和TAG侧与图3一致,均输入给BERT网络,分别得到各自的特征向量,ITEM侧的各特征向量(TITLE_EMB,CONT_EMB)与某个TAG的特征向量(TAG_EMB)计算相似度得分,求和取平均得到最终的此TAG的得分(TAG_FINAL_SCORE),从而结合真实的Label计算MSE-Loss,来训练这个子BERT网络。
通过本申请的上述实施方式,以在初始化的语义特征提取网络中,对第一样本媒体资源的资源标题和资源内容分别进行语义特征提取,得到与第一样本媒体资源对应的样本标题语义特征和样本内容语义特征;并对第i个第一样本候选标签的样本标签文本进行语义特征提取,得到与第i个第一样本候选标签对应的样本标签语义特征;获取与第一样本媒体资源对应的样本标题语义特征和样本内容语义特征各自与第i个样本标签语义特征之间的相似度,得到多个子置信度;对多个子置信度进行加权求和,得到第i个第一样本候选标签对应的样本置信度;在M个样本置信度各自对应的训练损失值小于或等于第一目标阈值的情况下,确定得到达到第一训练收敛条件的语义特征提取网络,从而通过上述方法快速训练好网络中的规模较大子网络,再将训练好的子网络并入模型中对模型中的其他部分进行训练,从而提升网络的训练效率。
作为一种可选的实施方式,上述利用第二样本媒体资源及N个第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练包括:
S1,通过信息特征提取网络从第j个第二样本候选标签的样本标签描述信息所携带的第二样本候选标签的标签生成来源信息和第二样本候选标签对应的标签生成预测信息,提取出第j个第二样本候选标签对应的样本标签信息特征;
S2,在达到第一训练收敛条件的语义特征提取网络中,对第二样本媒体资源的资源标题和资源内容分别进行语义特征提取,得到与第二样本媒体资源对应的样本标题语义特征和样本内容语义特征;并对第j个第二样本候选标签的样本标签文本进行语义特征提取,得到与第j个第二样本候选标签对应的样本标签语义特征;
S3,利用与第二样本媒体资源对应的样本标题语义特征和样本内容语义特征,N个第二样本候选标签对应的样本标签语义特征和样本标签信息特征对初始化的信息特征提取网络进行训练。
需要说明的是,在本实施方式中,上述初始化的信息特征提取网络进行训练的过程中各个模型的输入和输出与图3中示出的确定出目标标签的过程接近,可以采用相似的方式并结合损失函数对模型进行训练。
作为一种可选的实施方式,上述利用与第二样本媒体资源对应的样本标题语义特征和样本内容语义特征,N个第二样本候选标签对应的样本标签语义特征和样本标签信息特征对初始化的信息特征提取网络进行训练包括:
S1,将第j个第二样本候选标签对应的样本标签语义特征输入第一变形网络,得到第j个第二样本候选标签对应的对象标签语义特征,其中,第一变形网络用于对N个第二样本候选标签各自对应的N个样本标签语义特征进行融合学习;
S2,根据标签知识图谱和第j个第二样本候选标签对应的对象标签语义特征,确定与第j个第二样本候选标签匹配的样本标签关联语义特征,其中,标签知识图谱用于指示标签之间的关联关系;
S3,将与第二样本媒体资源对应的样本标题语义特征和样本内容语义特征输入第二变形网络,得到对象资源特征,其中,第二变形网络用于对与第二样本媒体资源对应的样本标题语义特征和样本内容语义特征进行融合学习;
S4,基于第j个样本标签信息特征确定与第j个第二样本候选标签匹配的第一样本置信度;
S5,基于对象资源特征和第j个样本标签语义特征之间的相似度确定出与第j个第二样本候选标签匹配的第二样本置信度;
S6,基于对象资源特征和第j个样本标签关联语义特征之间的相似度确定出与第j个第二样本候选标签匹配的第三样本置信度;
S7,对第一样本置信度、第二样本置信度和第三样本置信度进行加权求和,得到训练结果。
需要说明的是,在本实施方式中,上述初始化的信息特征提取网络进行训练的过程中各个模型的输入和输出与图3中示出的确定出目标标签的过程接近,可以采用相似的方式并结合损失函数对模型进行训练。
以下结合图5、图6对本实施方式中的样本获取方式进行说明。
在上述方式中,由于网络结构过大(包含了BERT、transformers、GAT、DeepFM等),导致模型依赖的训练数据需要很大,但是由于人工标注成果很高,所以我们使用了用户后验的消费数据来挖掘训练样本。如图5所示,根据用户后验消费数据得到新闻与标签的“样本对”。
这些“样本对”是通过新闻客户端上的tag列表页界面(图6)获取得到。比如图6展示了“美食”这个tag(图6左上角)的列表页,将所有与“美食”标签相关的最近发布的图文新闻、视频新闻全部展示在此列表页中。那么如果用户在此列表页上点击了一些图文样本(item1),那么我们就得到了“item1-美食”这一个样本对。
接着,基于最近2个月的用户消费数据,获取得到图5左侧所示的n个样本对。由于有些item是重合的(一个item可能对应多个tag),将这些item去重后得到图5中的“itemset”。考虑到用户消费数据挖掘得到的样本对,每个item可能对应的tag数量过少(一般只有1-3个),又因为其实每个item经过多个底层模型会得到20至50个tag。仅使用1-3个tag来训练模型会有三个问题:1)只有正样本,即我们认为的这些均是正的标签,没有负标签(实验发现,仅有正标签的样本来训练模型,预测效果特别差);2)另外,标签集合太少,模型学习不够充分;3)标签分布与实际分布有差异。
考虑到上面问题,如图5右半部分,我们将item的各路底层模型输出的标签全部拿到后(注:用户点击消费的tag一定在此集合中,不然不会在新闻客户端上展示出来),使用图3所示的标签确定模型进行预测,将高得分的标签集合也认为是正样本(图中“pos”)、将低得分的标签集合认为是负样本(图中“neg”)、其余标签认为是不label的不加入训练,但实际上也需要输入给模型进行训练(在模型的“TAG TRANSFORMER”和“TAG GAT”会进行使用),只是不计算Loss。
通过本申请的上述实施方式,基于用户消费数据挖掘的训练样本,会随着时间的推移会越积越多,作为预训练数据完全够用。使用这些训练样本(由于没进行人工标注,这些训练样本的准确率只有75%左右),来预训练图3中的模型。然后,将此模型在人工标注数据(人工标注数据的准确率在90%左右)上进行微调,能够显著地提升模型的效果。
以下结合图7所示的训练流程图对本申请的一个完整训练过程进行说明。
S702,训练BERT模型;
具体地,以下结合图4对上述方法进行说明,如图4所示,ITEM和TAG侧与图3一致,均输入给BERT网络,分别得到各自的特征向量,ITEM侧的各特征向量(TITLE_EMB,CONT_EMB)与某个TAG的特征向量(TAG_EMB)计算相似度得分,求和取平均得到最终的此TAG的得分(TAG_FINAL_SCORE),从而结合真实的Label计算MSE-Loss,来训练这个子BERT网络。
S704,将训练好的BERT模型进行冻结,并加入标签确定网络中,以得到预训练模型;
S706,利用预训练模型结合后验消费数据进行训练样本挖掘;
具体地,可以采用图5示出的样本挖掘方法得到用于正式训练的样本集合。
S708,基于挖掘得到的样本集合对预训练模型进行正式训练;
S710,在达到收敛条件的情况下,将训练好的模型确定为目标标签确定模型。
以下结合图3对正式的训练过程进行说明:图3是整个网络的结构图(这个网络模型,我们称为“dnn model”)。底层输入是三部分(图3最下面):
1)ITEM,即新闻内容;2)TAG,标签集合(假设有p个标签,表示为TAG1,...,TAGp)(需要说明的是:图中为了简化,只示出了3个标签);3)TAG META,标签对应的元信息,包含了标签的一些基础信息,比如此标签的来源(来源于各路底层模型中的哪几个底层模型,如果此标签的来源越多,证明此标签越可信)、标签的得分(底层模型预测的得分)等。
进一步地,在ITEM新闻内容侧,包含了新闻的标题(TITLE)、多个段落(假设有n个段落:CONTENT1,...,CONTENTn)(需要说明的是:图中为了简化,只示出了2个段落)。
由于标题、段落、标签均是由文本组成,可以通过使用BERT模型,分别提取各自的特征向量。如图中的:TITLE_EMB(标题文本经过BERT得到的特征向量)、CONT_EMB(各段落经过BERT得到的特征向量)、TAG_EMB(各标签经过BERT得到的特征向量)。考虑到标题与正文同属于ITEM新闻内容侧的特征,可以进一步使用transformer(图中“TITLE+CONTENTTRANSFORMER”)进行相互地学习,输出各自的新特征向量(如图中示出的TITLE_TC_EMB和CONT_TC_EMB)。同理,对于标签侧,也可以将这些标签使用另一个transformer(图中“TAGTRANSFORMER”)相互地学习,得到TAG_T_EMB;对于标签集合,使用知识图谱(上、下位词)及共现关系,构建了标签与标签之间的关系图,在图中使用GAT网络(图中“TAG GAT”)进一步相互交互,得到TAG_TG_EMB。
针对ITEM侧得到的标题特征向量和各段落的特征向量,进行平均模块处理以(图中“MEAN”)得到最终的内容特征向量(ITEM_EMB),接着将ITEM_EMB与TAG_T_EMB向量计算各标签的相似度打分(图中为了简化,只示出了ITEM_EMB与TAG1_T_EMB的相似度打分,计为TAG1_SCORE);同理,将ITEM_EMB与TAG1_TG_EMB向量也计算相似度打分,计为TAG1_GAT_SCORE。
上面计算的TAG_SCORE和TAG_GAT_SCORE,均是标签与新闻内容的语义得分。考虑到标签来源于各路底层模型输出,不同底层模型得到的标签集合会有差别,这会导致某个标签同时来自于多个底层模型。如果某个标签的来源越多,且底层模型预测的得分越高,证明此标签越可信。为了将这些信息加进网络中,我们称上面这些信息为标签的元信息(图3右下侧“TAG META”),使用DEEPFM网络将各元信息特征进行相互交互后,再经过各层全连接层(图中DEEPFM_FC),得到标签的元信息得分(图中TAG_META_SCORE)。最终将三个得分,求和取平均,作为此标签的最终得分(图中上方的TAG_FINAL_SCORE)。最终将网络预测的最终得分,与真实的Label(Label只有两个取值:0和1,0表示错误标签、1表示正确标签)计算MSE-Loss,从而训练完整的网络。
通过本申请的上述实施方式,首先,考虑到模型结构过大、模型参数过多,直接在整个大的网络上进行学习,就算增加了预训练样本,数据量够多,但仍然不能保证模型学习的有效性。为此,我们将模型拆分,将大的难学习的子BERT网络抽取出来,在子网络上先训练后,再将此部分放入大网络中。简化模型的训练难度,保证模型学习的有效性。
接着,基于用户后验消费数据,来挖掘训练样本。需要说明的是,在本申请中,由于标签数量过于庞大,直接进行人工标注,相当于在非常大的选择题进行多项选择,人工标注成本非常高。为此我们基于后验消费数据来挖掘样本,这类的训练样本会随着时间推移越来越多(因为有更多的用户点击日志数据)。另外,由于用户点击消费的只能作为正的标签,并没有负标签,为此我们使用模型来预测,将低得分的作为负样本,保证了训练数据的完整性和一致性;
最后,基于后验消费数据挖掘得到的训练样本,预训练整个网络,然后再在新的人工标注数据集上进行finetune,有效地提升了模型的收敛速度和模型预测效果。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
根据本发明实施例的另一个方面,还提供了一种用于实施上述媒体资源标签的确定方法的媒体资源标签的确定装置。如图8所示,该装置包括:
获取单元802,用于获取目标媒体资源以及与目标媒体资源匹配的M个候选标签,其中,M个候选标签中的每一个候选标签与目标媒体资源的匹配度大于目标阈值,M为大于或等于2的整数;
提取单元804,用于提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征,其中,标签特征包括:与候选标签的标签描述信息对应的标签信息特征和与候选标签的标签文本对应的标签语义特征,标签描述信息用于描述候选标签的标签文本的生成信息;
第一确定单元806,用于基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度,其中,i为正整数,且i小于等于M;
第二确定单元808,用于在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签。
可选地,在本实施例中,上述各个单元模块所要实现的实施例,可以参考上述各个方法实施例,这里不再赘述。
根据本发明实施例的又一个方面,还提供了一种用于实施上述媒体资源标签的确定方法的电子设备,该电子设备可以是图9所示的终端设备或服务器。本实施例以该电子设备为终端设备为例来说明。如图9所示,该电子设备包括存储器902和处理器904,该存储器902中存储有计算机程序,该处理器904被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,获取目标媒体资源以及与目标媒体资源匹配的M个候选标签,其中,M个候选标签中的每一个候选标签与目标媒体资源的匹配度大于目标阈值,M为大于或等于2的整数;
S2,提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征,其中,标签特征包括:与候选标签的标签描述信息对应的标签信息特征和与候选标签的标签文本对应的标签语义特征,标签描述信息用于描述候选标签的标签文本的生成信息;
S3,基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度,其中,i为正整数,且i小于等于M;
S4,在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签。
可选地,本领域普通技术人员可以理解,图9所示的结构仅为示意,电子设备也可以是车载终端、智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图9其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图9中所示更多或者更少的组件(如网络接口等),或者具有与图9所示不同的配置。
其中,存储器902可用于存储软件程序以及模块,如本发明实施例中的媒体资源标签的确定方法和装置对应的程序指令/模块,处理器904通过运行存储在存储器902内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的媒体资源标签的确定方法。存储器902可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器902可进一步包括相对于处理器904远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器902具体可以但不限于用于存储观察视角画面中的各个元素、媒体资源标签的确定信息等信息。作为一种示例,如图9所示,上述存储器902中可以但不限于包括上述媒体资源标签的确定装置中的获取单元802、提取单元804、第一确定单元806以及第二确定单元808。此外,还可以包括但不限于上述媒体资源标签的确定装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置906用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置906包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置906为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器908,和连接总线910,用于连接上述电子设备中的各个模块部件。
根据本发明实施例的另一个方面,还提供了一种用于实施上述标签确定模型的训练方法的标签确定模型的训练装置。如图10所示,该装置包括:
第一获取单元1002,用于从第一样本集合中获取第一样本媒体资源以及与第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
预训练单元1004,用于利用第一样本媒体资源及M个第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,语义特征提取网络用于提取第一样本媒体资源的样本标题语义特征和样本内容语义特征,及第一样本候选标签的样本标签文本的样本标签语义特征;
第二获取单元1006,用于在训练中的语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
训练单元1008,用于利用第二样本媒体资源及N个第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在信息特征提取网络进行训练的过程中,达到第一训练收敛条件的语义特征提取网络中的网络参数处于参数冻结状态;
确定单元1010,用于在训练中的信息特征提取网络指示达到第二训练收敛条件的情况下,将达到第一训练收敛条件的语义特征提取网络和达到第二训练收敛条件的信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
可选地,在本实施例中,上述各个单元模块所要实现的实施例,可以参考上述各个方法实施例,这里不再赘述。
根据本发明实施例的又一个方面,还提供了一种用于实施上述标签确定模型的训练方法的电子设备,该电子设备可以是图11所示的终端设备或服务器。本实施例以该电子设备为终端设备为例来说明。如图11所示,该电子设备包括存储器1102和处理器1104,该存储器1102中存储有计算机程序,该处理器1104被设置为通过计算机程序执行上述任一项方法实施例中的步骤。
可选地,在本实施例中,上述电子设备可以位于计算机网络的多个网络设备中的至少一个网络设备。
可选地,在本实施例中,上述处理器可以被设置为通过计算机程序执行以下步骤:
S1,从第一样本集合中获取第一样本媒体资源以及与第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
S2,利用第一样本媒体资源及M个第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,语义特征提取网络用于提取第一样本媒体资源的样本标题语义特征和样本内容语义特征,及第一样本候选标签的样本标签文本的样本标签语义特征;
S3,在训练中的语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
S4,利用第二样本媒体资源及N个第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在信息特征提取网络进行训练的过程中,达到第一训练收敛条件的语义特征提取网络中的网络参数处于参数冻结状态;
S5,在训练中的信息特征提取网络指示达到第二训练收敛条件的情况下,将达到第一训练收敛条件的语义特征提取网络和达到第二训练收敛条件的信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
可选地,本领域普通技术人员可以理解,图11所示的结构仅为示意,电子设备也可以是车载终端、智能手机(如Android手机、iOS手机等)、平板电脑、掌上电脑以及移动互联网设备(Mobile Internet Devices,MID)、PAD等终端设备。图11其并不对上述电子设备的结构造成限定。例如,电子设备还可包括比图11中所示更多或者更少的组件(如网络接口等),或者具有与图11所示不同的配置。
其中,存储器1102可用于存储软件程序以及模块,如本发明实施例中的标签确定模型的训练方法和装置对应的程序指令/模块,处理器1104通过运行存储在存储器1102内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现上述的标签确定模型的训练方法。存储器1102可包括高速随机存储器,还可以包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。在一些实例中,存储器1102可进一步包括相对于处理器1104远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。其中,存储器1102具体可以但不限于用于存储观察视角画面中的各个元素、标签确定模型的训练信息等信息。作为一种示例,如图11所示,上述存储器1102中可以但不限于包括上述标签确定模型的训练装置中的第一获取单元1002、预训练单元1004、第二获取单元1006、训练单元1008以及确定单元1010。此外,还可以包括但不限于上述标签确定模型的训练装置中的其他模块单元,本示例中不再赘述。
可选地,上述的传输装置1106用于经由一个网络接收或者发送数据。上述的网络具体实例可包括有线网络及无线网络。在一个实例中,传输装置1106包括一个网络适配器(Network Interface Controller,NIC),其可通过网线与其他网络设备与路由器相连从而可与互联网或局域网进行通讯。在一个实例中,传输装置1106为射频(Radio Frequency,RF)模块,其用于通过无线方式与互联网进行通讯。
此外,上述电子设备还包括:显示器1108,和连接总线1110,用于连接上述电子设备中的各个模块部件。
在其他实施例中,上述终端设备或者服务器可以是一个分布式系统中的一个节点,其中,该分布式系统可以为区块链系统,该区块链系统可以是由该多个节点通过网络通信的形式连接形成的分布式系统。其中,节点之间可以组成点对点(P2P,Peer To Peer)网络,任意形式的计算设备,比如服务器、终端等电子设备都可以通过加入该点对点网络而成为该区块链系统中的一个节点。
根据本申请的一个方面,提供了一种计算机程序产品,该计算机程序产品包括计算机程序/指令,该计算机程序/指令包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分从网络上被下载和安装,和/或从可拆卸介质被安装。在该计算机程序被中央处理器执行时,执行本申请实施例提供的各种功能。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
根据本申请的一个方面,提供了一种计算机可读存储介质,计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述媒体资源标签的确定方方法。
可选地,在本实施例中,上述计算机可读存储介质可以被设置为存储用于执行以下步骤的计算机程序:
S1,获取目标媒体资源以及与目标媒体资源匹配的M个候选标签,其中,M个候选标签中的每一个候选标签与目标媒体资源的匹配度大于目标阈值,M为大于或等于2的整数;
S2,提取目标媒体资源的目标资源特征,并提取M个候选标签中每个候选标签各自对应的标签特征,其中,标签特征包括:与候选标签的标签描述信息对应的标签信息特征和与候选标签的标签文本对应的标签语义特征,标签描述信息用于描述候选标签的标签文本的生成信息;
S3,基于第i个标签信息特征确定出与第i个候选标签匹配的第一置信度,并基于目标资源特征和第i个标签语义特征之间的相似度确定出与第i个候选标签匹配的第二置信度,其中,i为正整数,且i小于等于M;
S4,在根据第i个第一置信度和第i个第二置信度确定出第i个候选标签满足置信度条件的情况下,将第i个候选标签确定为目标媒体资源的目标媒体资源标签。
可选地,在本实施例中,上述计算机可读存储介质还可以被设置为存储用于执行以下步骤的计算机程序:
S1,从第一样本集合中获取第一样本媒体资源以及与第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
S2,利用第一样本媒体资源及M个第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,语义特征提取网络用于提取第一样本媒体资源的样本标题语义特征和样本内容语义特征,及第一样本候选标签的样本标签文本的样本标签语义特征;
S3,在训练中的语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
S4,利用第二样本媒体资源及N个第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在信息特征提取网络进行训练的过程中,达到第一训练收敛条件的语义特征提取网络中的网络参数处于参数冻结状态;
S5,在训练中的信息特征提取网络指示达到第二训练收敛条件的情况下,将达到第一训练收敛条件的语义特征提取网络和达到第二训练收敛条件的信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
可选地,在本实施例中,本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令终端设备相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:闪存盘、只读存储器(Read-Only Memory,ROM)、随机存取器(Random Access Memory,RAM)、磁盘或光盘等。
上述实施例中的集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在上述计算机可读取的存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在存储介质中,包括若干指令用以使得一台或多台计算机设备(可为个人计算机、服务器或者网络设备等)执行本发明各个实施例上述方法的全部或部分步骤。
在本发明的上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
在本申请所提供的几个实施例中,应该理解到,所揭露的客户端,可通过其它的方式实现。其中,以上所描述的装置实施例仅仅是示意性的,例如上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,单元或模块的间接耦合或通信连接,可以是电性或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (17)

1.一种媒体资源标签的确定方法,其特征在于,包括:
获取目标媒体资源以及与所述目标媒体资源匹配的M个候选标签,其中,所述M个候选标签中的每一个候选标签与所述目标媒体资源的匹配度大于目标阈值,所述M为大于或等于2的整数;
提取所述目标媒体资源的目标资源特征,并提取所述M个候选标签中每个候选标签各自对应的标签特征,其中,所述标签特征包括:与所述候选标签的标签描述信息对应的标签信息特征和与所述候选标签的标签文本对应的标签语义特征,所述标签描述信息用于描述所述候选标签的所述标签文本的生成信息;
基于第i个所述标签信息特征确定出与第i个所述候选标签匹配的第一置信度,并基于所述目标资源特征和第i个所述标签语义特征之间的相似度确定出与第i个所述候选标签匹配的第二置信度,其中,所述i为正整数,且i小于等于M;
在根据第i个所述第一置信度和第i个所述第二置信度确定出第i个所述候选标签满足置信度条件的情况下,将第i个所述候选标签确定为所述目标媒体资源的目标媒体资源标签。
2.根据权利要求1所述的方法,其特征在于,在所述将第i个所述候选标签确定为所述目标媒体资源的目标媒体资源标签之前,还包括:
根据标签知识图谱和第i个所述标签语义特征确定与第i个所述候选标签匹配的标签关联语义特征,其中,所述标签知识图谱用于指示标签之间的关联关系;
基于所述目标资源特征和第i个所述标签关联语义特征之间的相似度确定出与第i个所述候选标签匹配的第三置信度;
对所述第一置信度、所述第二置信度和所述第三置信度进行加权求和,得到第i个所述候选标签的目标置信度。
3.根据权利要求2所述的方法,其特征在于,所述根据标签知识图谱和第i个所述标签语义特征确定与第i个所述候选标签匹配的标签关联语义特征包括:
利用所述标签知识图谱确定所述M个候选标签中每个候选标签与其他候选标签之间的语义关系;
根据所述M个候选标签中每个候选标签与其他候选标签之间的语义关系确定与多数M个候选标签对应的关系图谱;
基于所述关系图谱将第i个所述标签语义特征转化为与第i个所述候选标签匹配的标签关联语义特征。
4.根据权利要求3所述的方法,其特征在于,所述基于所述目标资源特征和第i个所述标签关联语义特征之间的相似度确定出与第i个所述候选标签匹配的第三置信度包括:
获取所述目标资源特征和第i个所述标签关联语义特征之间的余弦相似度;
基于所述余弦相似度确定出与所述第i个所述候选标签匹配的第三置信度。
5.根据权利要求1所述的方法,其特征在于,所述提取所述M个候选标签中每个候选标签各自对应的标签特征包括:
通过信息特征提取网络从第i个候选标签的所述标签描述信息所携带的所述候选标签的标签生成来源信息和所述候选标签对应的标签生成预测信息,提取出第i个所述候选标签对应的所述标签信息特征;
通过语义特征提取网络对第i个所述候选标签的标签文本进行语义特征提取,得到与第i个所述候选标签对应的参考标签语义特征;
将第i个所述参考标签语义特征输入第一变形网络,得到第i个所述候选标签对应的所述标签语义特征,其中,所述第一变形网络用于对所述M个候选标签各自对应的M个所述参考标签语义特征进行融合学习。
6.根据权利要求5所述的方法,其特征在于,所述提取所述目标媒体资源的目标资源特征包括:
通过所述语义特征提取网络对所述目标媒体资源的资源标题和资源内容分别进行语义特征提取,得到与所述目标媒体资源对应的参考标题语义特征和参考资源语义特征;
将所述参考标题语义特征和所述参考资源语义特征输入第二变形网络,得到所述目标资源特征,其中,所述第二变形网络用于对所述参考标题语义特征和所述参考资源语义特征进行融合学习。
7.根据权利要求1所述的方法,其特征在于,所述基于第i个所述标签信息特征确定出与第i个所述候选标签匹配的第一置信度,并基于所述目标资源特征和第i个所述标签语义特征之间的相似度确定出与第i个所述候选标签匹配的第二置信度包括:
将所述第i个所述标签信息特征输入全连接层网络,以得到与第i个所述候选标签匹配的第一置信度;
获取所述目标资源特征和第i个所述标签语义特征之间的余弦相似度;基于所述余弦相似度确定出与所述第i个所述候选标签匹配的第二置信度。
8.根据权利要求2至7中任一项所述的方法,其特征在于,在所述将第i个所述候选标签确定为所述目标媒体资源的目标媒体资源标签之前,还包括以下之一:
在第i个所述目标置信度大于目标置信度阈值的情况下,确定出第i个所述候选标签满足所述置信度条件;
对M个所述候选标签各自对应的目标置信度按照从大到小的顺序进行排序,得到排序结果;在所述排序结果中第i个所述目标置信度的排列位序小于或等于N的情况下,确定出第i个所述候选标签满足所述置信度条件,N为所述置信度条件所指示的预定阈值。
9.一种标签确定模型的训练方法,其特征在于,包括:
从第一样本集合中获取第一样本媒体资源以及与所述第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
利用所述第一样本媒体资源及M个所述第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,所述语义特征提取网络用于提取所述第一样本媒体资源的样本标题语义特征和样本内容语义特征,及所述第一样本候选标签的样本标签文本的样本标签语义特征;
在训练中的所述语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与所述第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
利用所述第二样本媒体资源及N个所述第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在所述信息特征提取网络进行训练的过程中,达到所述第一训练收敛条件的所述语义特征提取网络中的网络参数处于参数冻结状态;
在训练中的所述信息特征提取网络指示达到第二训练收敛条件的情况下,将达到所述第一训练收敛条件的所述语义特征提取网络和达到所述第二训练收敛条件的所述信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
10.根据权利要求9所述的方法,其特征在于,所述利用所述第一样本媒体资源及M个所述第一样本候选标签各自对应的样本标签文1本,对初始化的语义特征提取网络进行预训练包括:
在所述初始化的语义特征提取网络中,对所述第一样本媒体资源的资源标题和资源内容分别进行语义特征提取,得到与所述第一样本媒体资源对应的样本标题语义特征和样本内容语义特征;并对第i个所述第一样本候选标签的样本标签文本进行语义特征提取,得到与第i个所述第一样本候选标签对应的样本标签语义特征;
获取与所述第一样本媒体资源对应的样本标题语义特征和样本内容语义特征各自与第i个所述样本标签语义特征之间的相似度,得到多个子置信度;
对所述多个子置信度进行加权求和,得到第i个所述第一样本候选标签对应的样本置信度;
在M个所述样本置信度各自对应的训练损失值小于或等于第一目标阈值的情况下,确定得到达到所述第一训练收敛条件的语义特征提取网络。
11.根据权利要求10所述的方法,其特征在于,所述利用所述第二样本媒体资源及N个所述第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练包括:
通过信息特征提取网络从第j个所述第二样本候选标签的所述样本标签描述信息所携带的所述第二样本候选标签的标签生成来源信息和所述第二样本候选标签对应的标签生成预测信息,提取出第j个所述第二样本候选标签对应的样本标签信息特征;
在达到所述第一训练收敛条件的语义特征提取网络中,对所述第二样本媒体资源的资源标题和资源内容分别进行语义特征提取,得到与所述第二样本媒体资源对应的样本标题语义特征和样本内容语义特征;并对第j个所述第二样本候选标签的样本标签文本进行语义特征提取,得到与第j个所述第二样本候选标签对应的样本标签语义特征;
利用与所述第二样本媒体资源对应的样本标题语义特征和样本内容语义特征,N个所述第二样本候选标签对应的样本标签语义特征和所述样本标签信息特征对所述初始化的信息特征提取网络进行训练。
12.根据权利要求11所述的方法,其特征在于,所述利用与所述第二样本媒体资源对应的样本标题语义特征和样本内容语义特征,N个所述第二样本候选标签对应的样本标签语义特征和所述样本标签信息特征对所述初始化的信息特征提取网络进行训练包括:
将第j个所述第二样本候选标签对应的样本标签语义特征输入第一变形网络,得到第j个所述第二样本候选标签对应的对象标签语义特征,其中,所述第一变形网络用于对N个所述第二样本候选标签各自对应的N个所述样本标签语义特征进行融合学习;
根据标签知识图谱和第j个所述第二样本候选标签对应的对象标签语义特征,确定与第j个所述第二样本候选标签匹配的样本标签关联语义特征,其中,所述标签知识图谱用于指示标签之间的关联关系;
将与所述第二样本媒体资源对应的样本标题语义特征和样本内容语义特征输入第二变形网络,得到对象资源特征,其中,所述第二变形网络用于对与所述第二样本媒体资源对应的样本标题语义特征和样本内容语义特征进行融合学习;
基于第j个所述样本标签信息特征确定与第j个所述第二样本候选标签匹配的第一样本置信度;
基于所述对象资源特征和第j个所述样本标签语义特征之间的相似度确定出与第j个所述第二样本候选标签匹配的第二样本置信度;
基于所述对象资源特征和第j个所述样本标签关联语义特征之间的相似度确定出与第j个所述第二样本候选标签匹配的第三样本置信度;
对所述第一样本置信度、所述第二样本置信度和所述第三样本置信度进行加权求和,得到训练结果。
13.一种媒体资源标签的确定装置,其特征在于,包括:
获取单元,用于获取目标媒体资源以及与所述目标媒体资源匹配的M个候选标签,其中,所述M个候选标签中的每一个候选标签与所述目标媒体资源的匹配度大于目标阈值,所述M为大于或等于2的整数;
提取单元,用于提取所述目标媒体资源的目标资源特征,并提取所述M个候选标签中每个候选标签各自对应的标签特征,其中,所述标签特征包括:与所述候选标签的标签描述信息对应的标签信息特征和与所述候选标签的标签文本对应的标签语义特征,所述标签描述信息用于描述所述候选标签的所述标签文本的生成信息;
第一确定单元,用于基于第i个所述标签信息特征确定出与第i个所述候选标签匹配的第一置信度,并基于所述目标资源特征和第i个所述标签语义特征之间的相似度确定出与第i个所述候选标签匹配的第二置信度,其中,所述i为正整数,且i小于等于M;
第二确定单元,用于在根据第i个所述第一置信度和第i个所述第二置信度确定出第i个所述候选标签满足置信度条件的情况下,将第i个所述候选标签确定为所述目标媒体资源的目标媒体资源标签。
14.一种标签确定模型的训练装置,其特征在于,包括:
第一获取单元,用于从第一样本集合中获取第一样本媒体资源以及与所述第一样本媒体资源匹配的M个第一样本候选标签,其中,M为大于或等于2的整数;
预训练单元,用于利用所述第一样本媒体资源及M个所述第一样本候选标签各自对应的样本标签文本,对初始化的语义特征提取网络进行预训练,其中,所述语义特征提取网络用于提取所述第一样本媒体资源的样本标题语义特征和样本内容语义特征,及所述第一样本候选标签的样本标签文本的样本标签语义特征;
第二获取单元,用于在训练中的所述语义特征提取网络输出的训练结果指示达到第一训练收敛条件的情况下,获取第二样本集合中的第二样本媒体资源以及与所述第二样本媒体资源匹配的N个第二样本候选标签,其中,N为大于或等于2的整数;
训练单元,用于利用所述第二样本媒体资源及N个所述第二样本候选标签各自对应的样本标签描述信息,对初始化的信息特征提取网络进行训练,其中,在所述信息特征提取网络进行训练的过程中,达到所述第一训练收敛条件的所述语义特征提取网络中的网络参数处于参数冻结状态;
确定单元,用于在训练中的所述信息特征提取网络指示达到第二训练收敛条件的情况下,将达到所述第一训练收敛条件的所述语义特征提取网络和达到所述第二训练收敛条件的所述信息特征提取网络,确定为用于为媒体资源确定媒体资源标签的标签确定模型。
15.一种计算机可读的存储介质,其特征在于,所述计算机可读的存储介质包括存储的程序,其中,所述程序运行时执行所述权利要求1至8或9至12任一项中所述的方法。
16.一种计算机程序产品,包括计算机程序/指令,其特征在于,该计算机程序/指令被处理器执行时实现权利要求1至8或9至12任一项中所述方法的步骤。
17.一种电子设备,包括存储器和处理器,其特征在于,所述存储器中存储有计算机程序,所述处理器被设置为通过所述计算机程序执行所述权利要求1至8或9至12任一项中所述的方法。
CN202211282578.1A 2022-10-19 2022-10-19 媒体资源标签的确定方法和装置、存储介质及电子设备 Pending CN116975262A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211282578.1A CN116975262A (zh) 2022-10-19 2022-10-19 媒体资源标签的确定方法和装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211282578.1A CN116975262A (zh) 2022-10-19 2022-10-19 媒体资源标签的确定方法和装置、存储介质及电子设备

Publications (1)

Publication Number Publication Date
CN116975262A true CN116975262A (zh) 2023-10-31

Family

ID=88475459

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211282578.1A Pending CN116975262A (zh) 2022-10-19 2022-10-19 媒体资源标签的确定方法和装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116975262A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117574160A (zh) * 2024-01-16 2024-02-20 腾讯科技(深圳)有限公司 媒体信息的标签识别方法、装置和存储介质及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117574160A (zh) * 2024-01-16 2024-02-20 腾讯科技(深圳)有限公司 媒体信息的标签识别方法、装置和存储介质及电子设备
CN117574160B (zh) * 2024-01-16 2024-05-10 腾讯科技(深圳)有限公司 媒体信息的标签识别方法、装置和存储介质及电子设备

Similar Documents

Publication Publication Date Title
WO2022041979A1 (zh) 一种信息推荐模型的训练方法和相关装置
CN111046275B (zh) 基于人工智能的用户标签确定方法及装置、存储介质
CN107688605B (zh) 跨平台数据匹配方法、装置、计算机设备和存储介质
CN112307351A (zh) 用户行为的模型训练、推荐方法、装置和设备
CN111898031A (zh) 一种获得用户画像的方法及装置
CN112380453B (zh) 物品推荐方法、装置、存储介质及设备
CN114332680A (zh) 图像处理、视频搜索方法、装置、计算机设备和存储介质
CN114298122B (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN113392179A (zh) 文本标注方法及装置、电子设备、存储介质
CN113641797A (zh) 数据处理方法、装置、设备、存储介质及计算机程序产品
CN117494051A (zh) 一种分类处理的方法、模型训练的方法以及相关装置
CN110162769B (zh) 文本主题输出方法和装置、存储介质及电子装置
CN112819024A (zh) 模型处理方法、用户数据处理方法及装置、计算机设备
CN116975262A (zh) 媒体资源标签的确定方法和装置、存储介质及电子设备
CN115424056A (zh) 模型训练方法和装置、图像分类方法、设备和介质
CN116958590A (zh) 媒体资源的处理方法和装置、存储介质及电子设备
CN115631008B (zh) 商品推荐方法、装置、设备及介质
CN111935259B (zh) 目标帐号集合的确定方法和装置、存储介质及电子设备
CN115168609A (zh) 一种文本匹配方法、装置、计算机设备和存储介质
CN115129930A (zh) 一种视频的信息处理方法、装置、计算机设备和存储介质
CN112749711B (zh) 视频获取方法和装置及存储介质
CN113704623A (zh) 一种数据推荐方法、装置、设备及存储介质
CN113469752A (zh) 内容推荐方法、装置、存储介质及电子设备
CN111611981A (zh) 信息识别方法和装置及信息识别神经网络训练方法和装置
CN114298118B (zh) 一种基于深度学习的数据处理方法、相关设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination