CN113312430A - 物品的标签序列确定方法、装置、服务器及存储介质 - Google Patents
物品的标签序列确定方法、装置、服务器及存储介质 Download PDFInfo
- Publication number
- CN113312430A CN113312430A CN202010124575.XA CN202010124575A CN113312430A CN 113312430 A CN113312430 A CN 113312430A CN 202010124575 A CN202010124575 A CN 202010124575A CN 113312430 A CN113312430 A CN 113312430A
- Authority
- CN
- China
- Prior art keywords
- target
- label
- probability
- submodel
- probability value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 239000013598 vector Substances 0.000 claims description 83
- 238000012549 training Methods 0.000 claims description 81
- 238000000605 extraction Methods 0.000 claims description 40
- 238000012545 processing Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 33
- 230000007704 transition Effects 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 12
- 238000013507 mapping Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 8
- 230000002457 bidirectional effect Effects 0.000 claims description 5
- 238000012546 transfer Methods 0.000 claims description 2
- 230000007787 long-term memory Effects 0.000 claims 1
- 230000006403 short-term memory Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 238000010276 construction Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/22—Indexing; Data structures therefor; Storage structures
- G06F16/2228—Indexing structures
- G06F16/2246—Trees, e.g. B+trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种物品的标签序列确定方法、装置、服务器及存储介质,该方法包括:获取用于描述目标物品的目标标题文本;基于预先训练好的目标级联概率模型,确定与目标标题文本相对应的联合概率值;根据联合概率值,确定与目标物品相对应的目标标签序列;其中,联合概率值包括目标物品对应各预设标签序列的概率值,预设标签序列中包括至少两个品类级别的标签。本发明实施例的技术方案,解决了现有技术中确定与某个物品相对应的标签序列时,未考虑品类级别之间的关联性,导致确定的标签序列准确性较低,实现了快速、准确、便捷的确定与目标物品相对应的标签序列。
Description
技术领域
本发明实施例涉及计算机技术领域,尤其涉及一种物品的标签序列确定方法、装置、服务器及存储介质。
背景技术
目前,可以对物品进行三级品类划分,例如,一本书的一级品类标签可以是图书、二级品类标签可以是小说、三级品类标签可以是作品集,三者之间的关系为图书包含了小说,小说又包含了作品集,即一级品类包含范围大于与其相对应的二级品类包含范围,二级品类包含范围大于与其相对应的三级品类包含范围。
为了便于用户快速找到目标物品,或者对各个物品进行入库处理,可以对各个物品进行品类划分。但是,在实际应用过程中存在商家无法准确的确定物品的品类,以及对物品的品类录入随意,导致基于品类查找物品或者物品入库时,存在查找不准确以及无法准确入库的技术问题。针对此问题,可以采用机器学习算法,或者通过预先建立的与各个品类级别相对应的分类器对物品进行分类。
在实现本发明的过程中,发明人发现现有技术中至少存在以下问题:
当采用机器学习算法确定物品的品类时,需要假设类别间毫无关联,即没有充分考虑到每个品类级别之间的关联性,导致最终分类效果不佳的问题。基于与各个品类级别相对应的分类器对物品进行分类时,若每个级别包括较多的品类、且分类层级较深时,需要构建数量庞大的子分类器,并且也没有考虑到每个层级之间的关联性,存在模型训练复杂,分类结果不准确的技术问题。
发明内容
本发明提供一种物品的标签序列确定方法、装置、服务器及存储介质,以实现快速、准确的根据用于描述物品的标题文本,确定与物品对应标签序列的技术效果。
第一方面,本发明实施例提供了一种物品的标签序列确定方法,该方法包括:
获取用于描述目标物品的目标标题文本;
基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;
根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;
其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
第二方面,本发明实施例还提供了一种级联概率模型的构建方法,所述级联概率模型中包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型,所述方法包括:
将所述文本特征提取子模型的输出,作为所述标签概率输出子模型的输入,将所述标签概率输出子模型的输出,作为所述目标随机条件树子模型的输入,以构建所述级联概率模型;
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
第三方面,本发明实施例还提供了一种物品的标签序列确定装置,该装置包括:
目标标题文本确定模块,用于获取用于描述目标物品的目标标题文本;
联合概率值确定模块,用于基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;
目标标签序列确定模块,用于根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;
其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
第四方面,本发明实施例还提供了一种级联概率模型的构建装置,其特征在于,所述级联概率模型中包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型,所述装置包括:
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
第五方面,本发明实施例还提供了一种服务器,所述服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例任一所述的物品的标签序列确定方法或级联概率模型的构建方法。
第六方面,本发明实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本发明实施例任一所述的物品的标签序列确定方法或级联概率模型的构建方法。
本发明实施例的技术方案,通过将用于描述目标物品的目标标题文本输入值预先训练好的目标级联概率模型中,可以得到与目标物品相对应的目标标签序列,由于目标级联概率模型充分考虑到了每个标签所属品类级别之间的关联性,因此得到的目标标签序列与目标物品的匹配度最高,即提高了确定目标标签序列准确性的技术效果,解决了现有技术中不论采用单一模型还是采用与各个级别相对应的分类器,确定与物品相对应的标签序列时,均未考虑到品类级别之间的关联性,导致无法准确的确定目标物品的标签序列,本技术方案实现了快速、准确便捷的确定与各个物品相对应的标签序列的技术效果。
附图说明
为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。
图1为本发明实施例一所提供的一种物品的标签序列确定方法流程示意图;
图2为本发明实施例二所提供的一种物品的标签序列确定方法另一流程示意图;
图3为本发明实施例二所提供的确定标签概率值的示意图;
图4为本发明实施例三所提供的训练目标级联概率模型的流程示意图;
图5为本发明实施例三所提供的随机条件树结构的示意图;
图6为本发明实施例四所提供的一优选实施例的流程示意图;
图7为本发明实施例五提供的一种物品的标签序列确定装置结构示意图;
图8为本发明实施例六提供的一种级联概率模型的构建装置结构示意图,
图9为本发明实施例七所提供的一种服务器结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一所提供的一种物品的标签序列确定方法的流程示意图,在将各个物品上架或者入库时,需要确定与物品相对应的标签序列,从而根据标签序列确定物品的具体上架类目以及入库的具体位置,因此需要确定与各个物品对应的标签序列。也就是说,本实施例可适用于根据用于描述物品的文本,确定该物品标签序列的情形,该方法可以由物品的标签序列确定装置来执行,该装置可以通过软件和/或硬件的形式实现,可选的,可以基于服务器来实现。
如图1所述,本实施例的方法包括:
S110、获取用于描述目标物品的目标标题文本。
其中,将需要确定标签序列的物品作为目标物品。目标标题文本可以是用于描述目标物品的文字信息。例如,目标物品为墨镜,与墨镜相对应的文字描述,即目标标题文本可以是:雷德蒙超轻太阳镜男女偏光太阳镜明星款潮人炫彩蛤蟆镜复古反光墨镜彩膜太阳眼镜偏光镜。
也就是说,在需要确定与某个物品相对应的标签序列时,可以先获取用于目标目标物品的目标标题文本。
S120、基于预先训练好的目标级联概率模型,确定与目标标题文本相对应的联合概率值。
其中,联合概率值为与目标物品相对应的各预设标签序列的概率值。预设标签序列的数量与预先建立的随机条件树结构中最末端对应叶子节点数量相同,可选的,若随机条件树结构中树的最末端对应叶子节点数量为20,那么预设标签序列的数量就为20组,相应的,联合概率值的数量与预设标签序列的数量相同。标签序列是由多个品类级别的标签构成的,且标签之间为包含和被包含的关系。也就是说,将位于随机条件树结构中处于同一分支上的所有标签作为一个预设标签序列,该序列中标签的数量与树的深度相关,每一个深度表示一个品类级别,根节点处对应的品类级别高于叶子节点处对应的品类级别。目标级联概率模型为对与目标标题文本进行处理,确定与目标标题文本对应的各预设标签序列概率值的模型。目标级联概率模型是基于随机条件树构建的,基于样本数据训练得到的。样本数据中可以包括样本标题文本和与样本标题文本对应的样本标签序列,基于样本标题文本,以及样本标签序列可以训练目标级联概率模型。
具体的,本实施例可以将目标标题文本输入至预先训练好的目标级联概率模型中,得到与目标标题文本对应的各个预设标签序列的联合概率值。
示例性的,将“雷德蒙超轻太阳镜男女偏光太阳镜明星款潮人炫彩蛤蟆镜复古反光墨镜彩膜太阳眼镜偏光镜”输入至目标级联概率模型中,可以得到与该文本相对应的各个预设标签序列的联合概率值,可选的,若预设标签序列有10组,可以得到10组联合概率值。
S130、根据联合概率值,确定与目标物品相对应的目标标签序列。
在本实施例中,每个预设标签序列中包括至少两个品类级别的标签,且不同品类级别中标签的关系为包含和被包含的关系,例如,其中一个预设标签序列中包括三个品类级别的标签,其中一级品类级别中的标签为衣服,二级品类级别中的标签为上衣,三级品类级别中的标签为背心。即一级品类级别的标签包含二级品类级别的标签,二级品类级别的标签包括三级品类级别的标签,如衣服包含上衣,上衣包含背心,预设标签序列可以是“衣服-上衣-背心”。
其中,目标标签序列为从所有预设标签序列中筛选出与目标标题文本关联度最高的标签序列。
具体的,根据目标级联概率模型确定的各个联合概率值,可以准确的判断出与目标标题文本相对应的各个预设标签序列的概率值,基于与所有预设标签序列对应的概率值,可以从所有预设标签序列中确定与目标标题文本相对应的目标标签序列。
在本实施例中,根据联合概率值,确定与目标物品相对应的目标标签序列,可以是:根据联合概率值,确定联合概率值最高时所对应的预设标签序列,并将联合概率值最高时所对应的预设标签序列作为与目标物品相对应的目标标签序列。
其中,联合概率值的数量的预设标签序列的数量相同,例如,预设标签序列的数量有十组,输出的联合概率值也有十个。将联合概率值最高时对应的标签序列作为与目标标题文本关联度最高的标签序列。
具体的,从所有联合概率值中,获取概率值最高时对应的预设标签序列,并作为目标标签序列。
示例性的,根据10组联合概率值,可以确定联合概率值最高时对应的标签序列,并作为目标标签序列。
在本实施例中,确定目标标签序列的好处在于:在将物品上架上时,可以确的将物品添加到该类目下,以便于用户快速的查找到该物品,提高了用户浏览量,从而提高销售量的效果。
本发明实施例的技术方案,通过将用于描述目标物品的目标标题文本输入值预先训练好的目标级联概率模型中,可以得到与目标物品相对应的目标标签序列,由于目标级联概率模型充分考虑到了每个标签所属品类级别之间的关联性,因此得到的目标标签序列与目标物品的匹配度最高,即提高了确定目标标签序列准确性的技术效果,解决了现有技术中不论采用单一模型还是采用与各个级别相对应的分类器,确定与物品相对应的标签序列时,均未考虑到品类级别之间的关联性,导致无法准确的确定目标物品的标签序列,本技术方案实现了快速、准确便捷的确定与各个物品相对应的标签序列的技术效果。
实施例二
图2为本发明实施例二所提供的一种物品的标签序列确定方法另一流程示意图,本实施例在上述实施例的基础上,目标级联概率模型可以包括:与文本特征提取子模型相连接的标签概率输出子模型、以及与标签概率输出子模型相连接的目标随机条件树子模型,基于上述子模型可以对目标标题文本进行具体处理。其中与上述实施例相同或相应的术语解释在此不再赘述。
如图2所示,本实施例提供的物品的标签序列确定方法包括:
S210、获取用于描述目标物品的目标标题文本。
S220、基于文本特征提取子模型,确定与目标标题文本相对应的目标特征向量。
其中,文本特征提取子模型可以是指用于提取每个标题文本中的标题词,并提取出与标题词对应的特征,获取相应的目标特征向量的网络子模型。在对标题词进行处理之前,可以对目标标题文本进行分词处理,得到目标标题文本中的各个标题词。例如,文本特征提取子模型可以包括:语言处理子模型和神经网络子模型。其中,预设语言处理子模型可以对标题词进行处理,以得到与每个标题词相对应的标题词向量。神经网络输出子模型可以是基于深度学习的方式,提取出标题词对应的特征向量的神经网络模型。例如,语言处理子模型可以是但不局限于BERT(Bidirectional Encoder Representation fromTransformers)双向编码器模型;神经网络子模型可以是但不限于Bi-LSTM(Bi-directional Long-Short Term Memory)双向长短时记忆网络。
具体的,本实施例可以基于分词词典对目标标题文本进行分词处理,确定出目标标题文本中的各个标题词,以获取与目标物品相对应的标题词序列,将标题词序列输入文本特征提取子模型中,根据文本特征提取子模型中的双向编码器模型可以确定与每个标题词对应的标题词向量,基于神经网络子模型可以是标题词向量进行处理,得到与目标标题文本对应的目标特征向量。
可选的,对目标标题文本进行分词处理,得到目标标题文本中的各个标题词;将每个标题词输入至语言处理子模型中,得到与每个标题词相对应的标题词向量;将每个标题词向量输入至神经网络子模型中,得到与目标标题文本相对应的目标特征向量。
具体的,在对目标标题文本进行分词处理时,可以将目标标题文本中的每个字作为一个标题词,还可以是过滤出目标标题文本中的有效词汇并作为标题词。可以先将标题词输入至语言处理子模型中,根据语言处理子模型的输出,获取与每个标题词对应的标题词向量,将各个标题词向量(即标题词向量)输入至神经网络子模型中,获取与每个标题词相对应的目标特征向量,即与目标标题文本相对应的目标特征向量。
在上述技术方案的基础上,需要说明的是,文本特征提取子模型主要对标题文本进行处理,以确定与标题文本相对应的特征向量,若可以预先确定与标题文本相对应的特征向量,那么目标级联概率模中可以不包括文本特征提取子模型。
S230、基于目标特征向量与标签概率输出子模型,确定与标签概率输出子模型中每个标签相对应的标签概率值。
需要说明的是,目标级联概率模型中还包括标签概率输出子模型。标签概率输出子模型可以是用于确定模型中各个标签,即预设标签序列中每个标签对应的概率值的模型。也就是说,基于标签概率输出子模型可以确定各预设标签序列中每个标签的标签概率值。
其中,标签概率输出子模型中包括预设层数的输出网络层,预设层数可以与预先建立的品类级别的数量相同。也就是说,在随机条件树构建完成后,可以根据随机条件树的深度,即品类级别的数量,确定输出网络层的数量。基于输出网络层对对应品类级别中与各标签对应的特征向量进行处理,以得到该品类级别中各个标签的标签概率值。
在基于标签概率输出子模型中的各个输出网络层对目标特征向量进行处理之前,先简单介绍标签概率输出子模型中每个输出网络层的结构。
标签概率输出子模型中包括多个输出网络层,每个输出网络层中包括全连全连接层和归一化指数函数层。全连接层用于将目标特征向量映射为与当前输出网络层相对应的特征向量,归一化指数函数层用于对特征向量进行处理,确定该输出网络层对应的品类级别中各标签的标签概率值。
具体的,针对预设数量的输出网络层中的各个输出网络层,可以根据预先建立的映射关系表,确定与各个品类级别对应的输出网络层。假设有K个品类级别,那么标签概率输出子模型中包括K组输出网络层,可以是第一品类级别对应第一输出网络层,第二品类级别对应第二输出网络层,第K品类级别对应第K组输出网络层。以对第K组输出网络层对目标特征向量进行处理为例来介绍,可以是:在将目标特征向量输入至标签概率输出子模型后,根据预先建立的映射关系,确定与第K组输出网络层对应的品类级别,可选的,第K品类级别,确定第K品类级别中标签的数量M,基于第K组输出网络层中的全连接层将目标特征向量映射为与标签数量M相对应的向量,作为特征向量;将特征向量输入至第K组输出网络层中的归一化指数函数层,可以输出与第K品类级别中各个标签的标签概率值。基于上述方式,可以确定每个品类级别中每个标签的标签概率值,即确定每个预设标签序列中每个标签的标签概率值。
示例性的,假设目标输入文本(商品的名称)为Xi,文本特征提取子模型为f(·),基于文本特征提取子模型f(·),处理后的目标特征向量可以表示为Hi=f(Xi),其中Hi∈R1 ×d,d表示目标特征向量中元素的数量。将目标特征向量Hi输入到标签概率输出子模型中,即K组输出网络中,以第k组输出网络层为例来介绍,其中,第k组输出网络层可以表示为gk(·)。目标特征向量Hi,可以经过全连接层将目标特征向量Hi∈R1×d映射为向量其中Lk表示第k组输出网络层对应品类级别中标签的数量,即经过映射后向量中元素的数量与该品类级别中标签的数量相同,向量中每个位置对应第k个级别中的一个标签再基于归一化指数函数层对映射后的向量进行处理,得到第k品类级别中各标签的标签概率值,即对映射后向量进行softmax操作,得到其中为第k品类级别中各标签的标签概率值。
在本实施例中,确定预设标签序列中各个标签的标签表概率值,可以参见图3所示,输入数据Xi,经特征提取网络层(文本特征提取子模型后)后,可以得到与输入数据Xi对应的目标特征向量;将目标特征向量输入到K组输出网络层中,可以先得到与每个品类级别对应的特征向量Oi,在对特征向量进行处理,得到每个品类级别中每个标签的标签概率值Ei。
S240、基于标签概率值,以及目标随机条件树子模型,确定位于预先建立的随机条件树结构中同一分支上的所有标签构成的预设标签序列的联合概率值。
需要说明的是,目标随机条件树子模型是基于预先建立的随机条件树结构构建的。也就是说,目标随机条件树子模型的结构与随机条件树的结构相同。
其中,目标随机条件树子模型是基于预先建立的随机条件树结构构建并训练得到的。训练目标随机条件树子模型的主要作用是建立标签序列中各标签之间的关联性,即确定随机条件树结构中各个节点之间的权重值,也就是标签关联节点处的转移概率值。也就是说,目标随机条件树子模型中包括随机条件树结构中各节点之间转移概率值。
具体的,将所有标签概率值输入到目标随机条件树子模型中,可以根据目标随机条件树子模型中各个节点(各个标签)之间的转移概率值,可以确定位于不同品类级别且处于同一分支上的标签序列的联合概率值。如,对某个预设标签序列中的各标签概率值,与各标签之间的转移概率值进行乘积运算,得到与预设标签序列相对应的联合概率值。
示例性的,将样本数据输入到目标级联概率模型中后,对于输入数据样本Xi对应的各级预设标签序列为{l(1)i,l(2)i,…,l(K)i}的联合概率值,即位于随机条件树结构中处于同一路径上的各预设标签序列的联合概率值可以是:
S250、根据联合概率值,确定联合概率值最高时所对应的预设标签序列,并将联合概率值最高时所对应的预设标签序列作为与目标物品相对应的目标标签序列。
具体的,在得到与每个预设标签序列相对应的联合概率值后,可以获取联合概率值最高时所对应的预设标签序列,并将作为目标标签序列。
本发明实施例的技术方案,通过目标级联概率模型中的标签概率输出子模型对数据进行处理后,可以得到与目标物品相对应的各个预设标签的标签概率值,在基于随机条件树对各个标签概率值进行处理时,由于随机条件树子模型中包括各个标签之间的转移概率值,即各层级之间的关联关系,因此可以准确的确定与目标物品相关联的各个预设标签序列的联合概率值,从而从所有联合概率值中筛选出与目标物品关联度最高的标签序列,解决了现有技术中采用单一模型或与各个品类级别相对应的分类器对物品进行分类时对数据处理时,由于未考虑到标签之间的关联性,导致确定的标签序列与物品之间存在一定的差异性,即存在准确性较低的问题;进一步的,针对分类器对物品分类时,若每个级别包括较多的标签,且分类层级较深时,需要构建庞大的子分类器,存在模型训练复杂、分类结果与实际结果存在一定误差的问题,实现了在基于目标级联概率模型对数据处理时,由于该模型充分考虑到了各标签之间的关联性,因此处理得到的结果与目标物品的匹配度较高的技术效果。
实施例三
在基于目标级联概率模型对目标标题文本进行处理之前,还需要训练目标级联概率模型。其中,训练目标级联概率模型的流程图如图4所示,所述方法包括:
为了提高目标级联概率模型的准确性,可以基于尽可能多的训练样本数据对构建的初始级联概率模型进行训练。初始级联概率模型为基于随机条件树结构构建的模型。随机条件树结构可以基于多个训练样本数据构建,或者是将预先构建好的随机条件树结构直接应用。
在本实施例中,构建随机条件树结构可以是:
获取多个训练样本数据,并获取与每个训练样本数据对应的标签序列,确定标签序列中每个标签所属的品类级别;基于品类级别以及标签序列中的各个标签建立的树状结构,作为随机条件树结构。
其中,训练样本数据中包括用于描述样本物品的训练标题文本,以及与训练标题文本对应的训练标签序列。可以将已确定标签序列的物品作为训练样本。根据与每个训练样本数据相对应的标签序列,建立随机条件树,例如,可以将训练样本数据中的一级品类对应的标签作为根节点,二级品类对应的标签为一级品类标签的子节点,三级品类对应的标签为二级品类标签的子节点,基于上述方式建立与所有训练样本数据对应的树状结构,随机条件树结构中从根节点到叶子节点的任意一条路径上的标签序列为预设标签序列。
为了清楚的介绍随机条件树结构,可以参见图5来理解。在基于训练样本数据构建随机条件树结构时,可以先获取训练标签序列中标签的个数,并根据标签的个数建立树的深度,可选的,假设训练标签序列中标签的个数为3个,随机条件树的深度可以是4,将随机条件树中的根节点作为开始符号,随机条件树第二层的各个节点表示第一品类级别中的各个标签,第三层的各个节点标识第二品类级别中的各个标签,第四层的各个节点表示第三品类级别中的各个标签。不同品级标签之间的连接表示了包含关系,对于第一品类级别中的标签所包含的第二品类级别中标签的集合为即标签包含三个第二品类级别的标签,依据上述关系,将训练标签序列中的各个标签按树状图的方式构建在一起。需要说明的是,图5仅仅是随机条件树结构的简单示意图,品类级别的数量与标签的数量不局限于图5中所示意的。
S410、获取多个训练样本数据,并将训练样本数据输入至预先构建的初始级联概率模型中,得到与每个训练样本数据相对应的初始联合概率值。
在随机条件树结构的基础上构建初始级联概率模型。训练初始级联概率模型主要是对标签概率输出子模型和目标随机随机条件树子模型进行训练。
根据随机条件树结构,可以构建标签概率输出子模型中的各个输出网络层,以及目标随机条件树子模型,将此时构建得到的标签概率输出子模型以及目标随机条件树子模型的整体作为初始级联概率模型的一部分。
其中,为了训练得到目标随机条件树子模型,在建立随机条件树结构时,可以将不存在连接关系的节点权重值设置为0。存在连接关系的标签之间的权重值标记为其中,表示第k级别上的某个标签,表示与标签相关联的其中一个标签。在对模型训练时,可以将节点的权重值作为模型的训练参数,即将存在连接关系的标签之间的权重值作为初始级联概率模型的训练参数。
具体的,可以基于预先建立的随机条件树结构,构建标签概率输出子模型以及随机条件树子模型。在获取到训练样本数据后,可以将与样本数据相对应的样本标题文本,以及与样本数据相对应的标签序列作为初始级联概率模型的输入,初始级联概率模型可以输出与每个训练样本数据对应的初始联合概率值。
S420、基于反向传播算法,以及初始联合概率值,对初始级联概率模型中的预设损失函数进行修正。
需要说明的是,在对初始级联概率模型训练之前可以将训练参数设置为默认值。在对初始级联概率模型训练时,可以基于初始级联概率模型的输出结果修正模型中的训练参数,也就是说,可以通过对初始级联概率模型中的损失函数进行修正,来得到目标级联概率模型。
其中,损失函数是预先设置的,用于衡量确定的初始联合概率值是否准确。
损失函数可以设置如下:
其中,P(l(1)i,l(2)i,…,l(K)i|Xi)表示各预设标签序列相对于训练标签序列初始联合概率值。
具体的,在得到初始联合概率值后,可以基于反向传播算法和初始联合概率值,确定初始级联概率模型中的损失参数,并基于损失参数对损失函数进行修正。
S430、将预设损失函数达到收敛作为训练目标,对初始级联概率模型进行训练,以训练得到目标级联概率模型。
具体的,可以将损失函数的训练误差,即损失参数作为检测损失函数当前是否达到收敛的条件,比如训练误差是否小于预设误差或误差变化趋势是否趋于稳定,或者当前的迭代次数是否等于预设次数。若检测达到收敛条件,比如损失函数的训练误差达到小于预设误差或误差变化趋于稳定,表明初始级联概率模型训练完成,此时可以停止迭代训练。若检测到当前未达到收敛条件,可以进一步获取样本数据对初始级联概率模型进行训练,直至损失函数的训练误差在预设范围之内。当损失函数的训练误差达到收敛时,可以将初始级联概率模型作为目标级联概率模型,即此时可以确定初始级联概率模型中各个节点之间的转移概率。
本发明实施例的技术方案,基于训练样本数据中各个标签的多级分类关系,建立随机条件树结构,随机条件树结构中包括各节点之间的连接信息,通过对基于随机条件树构建的目标随机条件树子模型以及标签概率输出子模型进行训练时,可以确定各个节点之间的转移概率,即充分考虑到了各个层级之间的关联关系,因此训练得到的目标级联概率模型充分考虑了各个层级之间的关联关系,从而可以准确的确定与目标物品相对应的目标标签序列。
实施例四
在上述技术方案的基础上,在对级联概率模型进行训练之前,需要先构建级联概率模型,以基于对构建的级联概率模型进行训练得到目标级联概率模型。级联概率模型包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型。
其中,对目标级联概率模型进行构建的具体方法可以是:先构建随机条件树结构,示例性的,若数据样本为一件商品的名称,该商品存在三个品级的标签,分别为一级品类标签、二级品类标签、一级三级品类标签,也就是说,对于一件商品来说,品类级别K=3。假设第k∈{1,2,…,K}级中的所有标签的集合为Lk,对于第k个品级中的某个标签该标签包含的下一级别的标签集合表示为对于K个级别的分类问题,其对应随机条件树是深度为K+1的树,其根节点可以看到一个开始的符号,第二层节点表示第一品类级别中的各个分类标签,第k+1层表示第k个级别上的各个标签。不同分级标签之间的连接关系表示了包含关系,两个节点之间的连接带有权重,表示两个标签之间的转移概率,例如第k个级别上的标签到第k+1个级别上的标签的转移概率为则两者对应的节点之间的连接的权重值也为如果节点之间不存在包含关系,转移概率为0。随机条件树结构中从根节点到叶子节点的任意一条路径都代表了可能存在的一种按照级别分类的序列,以商品的分类为例,这个路径可能为“图书-小说-作品集”,按照上述方式构建随机条件树结构,并对随机条件树中不存在连接关系的各个节点的权重值进行标记,以便在模型构建完成后,可以将各个节点的权重值作为训练参数来训练级联概率模型。
在随机条件树结构建立完成后,可以基于随机条件树结构建立标签概率输出子模型以及目标随机条件树子模型。
可选的,基于随机条件树结构构建标签概率输出子模型可以是,基于随机条件树结构中品类级别的数量,确定标签概率输出子模型中输出网络层的数量,就每个品类级别中包含的标签数量,确定与品类级别对应的输出网络层结构,根据输出网络层数量,以及输出网络层结构构建标签概率输出子模型。
具体的,在确定随机条件树的深度后,可以根据树的深度确定标签概率输出子模型中输出网络层的层数,根据每个输出网络层对应的品类级别,以及该品类级别中对应的标签数量,可以确定输出网络层中全连接层的结构。在构建标签概率子模型的同时,也可以构建目标随机条件树子模型。
构建的各个模型的作用为:所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
相应的,在具体应用的过程中,可以是:将文本特征提取子模型的输出,作为标签概率输出子模型的输入,将标签概率输出子模型的输出,作为目标随机条件树子模型的输入,以构建所述级联概率模型。
本发明实施例的技术方案,通过构建的文本特征提取子模型、标签概率输出子模型对数据进行处理后,可以得到与目标物品相对应的各个预设标签的标签概率值,在基于随机条件树对各个标签概率值进行处理时,由于随机条件树子模型中包括各个标签之间的转移概率值,即各层级之间的关联关系,因此可以准确的确定与目标物品相关联的各个预设标签序列的联合概率值,从而从所有联合概率值中筛选出与目标物品关联度最高的标签序列,解决了现有技术中采用单一模型或与各个品类级别相对应的分类器对物品进行分类时对数据处理时,由于未考虑到标签之间的关联性,导致确定的标签序列与物品之间存在一定的差异性,即存在准确性较低的问题;进一步的,针对分类器对物品分类时,若每个级别包括较多的标签,且分类层级较深时,需要构建庞大的子分类器,存在模型训练复杂、分类结果与实际结果存在一定误差的问题,实现了在基于目标级联概率模型对数据处理时,由于该模型充分考虑到了各标签之间的关联性,因此处理得到的结果与目标物品的匹配度较高的技术效果。
实施例四
作为上述实施例的一优选实施例,可以将本技术方案划分为目标级联概率模型构建过程、训练过程中以及应用过程。如图6所示,所述方法包括:
S610、构建随机条件树结构。
在随机条件树构建完成后,可以基于随机条件树结构构建初始级联概率模型,即构建初始级联概率模型中的目标随机条件树子模型和标签概率输出子模型。
S620、将训练样本的名称和标签序列输入至构建的初始级联概率模型中。
其中,初始级联概率模型中包括文本特征提取子模型、标签概率输出子模型和目标随机条件树子模型。
将训练样本数据的名称和对应的标签序列输入值初始级联概率模型中,得到与训练样本数据相对应的初始联合概率值。
S630、基于初始联合概率值,采用反向传播算法对初始级联概率模型中的损失函数进行修正,得到目标级联概率模型。
采用反向传播算法结合初始联合概率值,对初始级联概率模型中的损失函数进行修正,当检测到损失函数收敛时,将此时的初始级联概率模型作为目标级联概率模型。
S640、将目标物品的名称输入至目标级联概率模型中。
将用于描述目标物品的文本,即目标物品的名称,输入至目标级联概率模型中。
S650、基于目标级联概率模型,对目标物品的名称进行处理,得到与各个预设标签序列相对应的联合概率值。
其中,预设标签序列为位于随机条件树结构中处于同一分支上的所有标签构成的组合。
具体的,基于目标级联概率模型中的标签概率输出子模型可以确定预设标签序列中各个标签的标签概率值,将各个标签概率值输入到目标随机条件树子模型中后,可以得到与预设标签序列相对应的联合概率值。
S660、获取联合概率值最大时对应的品类标签序列,作为与目标物品相对应的目标标签序列,并将目标标签序列输出。
具体的,从所有联合概率值中筛选出联合概率值最大时对应的标签序列,并作为目标标签序列,并将确定的目标标签序列输出。
本发明实施例的技术方案,通过目标级联概率模型中的标签概率输出子模型对数据进行处理后,可以得到与目标物品相对应的各个预设标签的标签概率值,在基于随机条件树对各个标签概率值进行处理时,由于随机条件树子模型中包括各个标签之间的转移概率值,即各层级之间的关联关系,因此可以准确的确定与目标物品相关联的各个预设标签序列的联合概率值,从而从所有联合概率值中筛选出与目标物品关联度最高的标签序列,解决了现有技术中采用单一模型或与各个品类级别相对应的分类器对物品进行分类时对数据处理时,由于未考虑到标签之间的关联性,导致确定的标签序列与物品之间存在一定的差异性,即存在准确性较低的问题;进一步的,针对分类器对物品分类时,若每个级别包括较多的标签,且分类层级较深时,需要构建庞大的子分类器,存在模型训练复杂、分类结果与实际结果存在一定误差的问题,实现了在基于目标级联概率模型对数据处理时,由于该模型充分考虑到了各标签之间的关联性,因此处理得到的结果与目标物品的匹配度较高的技术效果。
实施例五
图7为本发明实施例四提供的一种物品的标签序列确定装置结构示意图,该装置包括:目标标题文本确定模块710、联合概率值确定模块720和目标标签序列确定模块730。
其中,目标标题文本确定模块710,用于获取用于描述目标物品的目标标题文本;联合概率值确定模块720,用于基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;目标标签序列确定模块730,用于根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
本发明实施例的技术方案,通过将用于描述目标物品的目标标题文本输入值预先训练好的目标级联概率模型中,可以得到与目标物品相对应的目标标签序列,由于目标级联概率模型充分考虑到了每个标签所属品类级别之间的关联性,因此得到的目标标签序列与目标物品的匹配度最高,即提高了确定目标标签序列准确性的技术效果,解决了现有技术中不论采用单一模型还是采用与各个级别相对应的分类器,确定与物品相对应的标签序列时,均未考虑到品类级别之间的关联性,导致无法准确的确定目标物品的标签序列,本技术方案实现了快速、准确便捷的确定与各个物品相对应的标签序列的技术效果。
在上述技术方案的基础上,所述目标级联概率模型中包括与文本特征提取子模型相连接的标签概率输出子模型,以及与所述标签概率输出子模型相连的目标随机条件树子模型;所述联合概率值确定模块,还包括:
特征向量确定单元,用于基于所述文本特征提取子模型,确定与所述目标标题文本相对应的目标特征向量;
标签概率值确定单元,用于基于所述目标特征向量与所述标签概率输出子模型,确定与所述标签概率输出子模型中每个标签相对应的标签概率值;
联合概率值确定单元,用于基于所述标签概率值,以及所述目标随机条件树子模型,确定位于预先建立的随机条件树结构中同一分支上的所有标签构成的预设标签序列的联合概率值。
在上述各技术方案的基础上,所述文本特征提取子模型包括语言处理子模型和神经网络子模型;
相应的,特征向量确定单元,还包括:
分词子单元,用于对所述目标标题文本进行分词处理,得到所述目标标题文本中的各个标题词;
标题词向量确定子单元,用于将每个标题词输入至所述语言处理子模型中,得到与每个标题词相对应的标题词向量;
目标特征向量确定子单元,用于将每个标题词向量输入至神经网络子模型中,得到与目标标题文本相对应的目标特征向量。
在上述各技术方案的基础上,所述语言处理子模型为BERT双向编码器模型,所述神经网络子模型为长短时记忆网络。
在上述各技术方案的基础上,所述标签概率输出子模型中包括预设数量的输出网络层;所述预设数量与预先建立的品类级别的数量相同;每个品类级别中包括至少一个标签;品类级别的数量与预先建立的随机条件树结构中树的深度相同;
相应的,所述标签概率值输出模块,用于基于预设数量的输出网络层对所述目标特征向量进行处理,得到每个品类级别中每个标签的标签概率值。
在上述各技术方案的基础上,每个输出网络层中包括全连接层以及归一化指数函数层;
相应的,所述标签概率值输出模块,还用于对于预设数量的输出网络层中的各输出网络层,基于预先建立的映射关系,确定与所述输出网络层相对应的目标品类级别;基于所述输出网络层中的全连接层以及所述目标品类级别中标签的数量,将所述目标特征向量映射为与所述目标品类级别相对应的第一特征向量;基于所述第一特征向量,以及所述归一化指数函数层,确定所述目标品类级别中每个标签的标签概率值。
在上述各技术方案的基础上,所述目标随机条件树子模型是基于预先建立的随机条件树结构训练得到的,所述目标随机条件树子模型中包括根节点、与所述根节点相连接的叶子节点、以及叶子节点之间的转移概率值;
相应的,联合概率值确定单元,还用于:将所有标签概率值输入到所述目标随机条件树子模型中,根据预先确定的标签与转移概率值之间的映射关系,对各个标签的标签概率值进行处理,确定位于不同品类级别且处于同一分支上的标签序列的联合概率值。
在上述各技术方案的基础上,所述目标标签序列确定模块,还用于根据所述至少一个联合概率值,确定联合概率值最高时所对应的预设标签序列,并将联合概率值最高时所对应的预设标签序列作为与目标物品相对应的目标标签序列。
在上述各技术方案的基础上,所述装置还包括:级联概率模型确定模块,用于训练所述目标级联概率模型;
所述级联概率模型确定模块具体用于:
获取多个训练样本数据,并将所述训练样本数据输入至预先构建的初始级联概率模型中,得到与每个训练样本数据相对应的原始联合概率值;其中,所述训练样本数据中包括用于描述样本物品的训练标题文本,以及与所述训练标题文本相对应的训练标签序列;
基于反向传播算法,以及所述原始联合概率值,对所述初始级联概率模型中的预设损失函数进行修正;
将所述预设损失函数达到收敛作为训练目标,对所述初始级联概率模型进行训练,以训练得到所述目标级联概率模型。
在上述各技术方案的基础上,所述目标标签序列中包括一级品类标签、二级品类标签以及三级品类标签,所述一级品类标签的等级高于所述二级品类标签,所述二级品类标签的等级高于所述三级品类标签。
本发明实施例所提供的物品的标签序列确定装置可执行本发明任意实施例所提供的物品的标签序列确定方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
实施例六
图8为本发明实施例六提供的一种级联概率模型的构建装置结构示意图,该装置包括:文本特征提取子模型810、标签概率输出子模块820和目标随机条件子树模块830。
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
本发明实施例的技术方案,通过构建的文本特征提取子模型、标签概率输出子模型对数据进行处理后,可以得到与目标物品相对应的各个预设标签的标签概率值,在基于随机条件树对各个标签概率值进行处理时,由于随机条件树子模型中包括各个标签之间的转移概率值,即各层级之间的关联关系,因此可以准确的确定与目标物品相关联的各个预设标签序列的联合概率值,从而从所有联合概率值中筛选出与目标物品关联度最高的标签序列,解决了现有技术中采用单一模型或与各个品类级别相对应的分类器对物品进行分类时对数据处理时,由于未考虑到标签之间的关联性,导致确定的标签序列与物品之间存在一定的差异性,即存在准确性较低的问题;进一步的,针对分类器对物品分类时,若每个级别包括较多的标签,且分类层级较深时,需要构建庞大的子分类器,存在模型训练复杂、分类结果与实际结果存在一定误差的问题,实现了在基于目标级联概率模型对数据处理时,由于该模型充分考虑到了各标签之间的关联性,因此处理得到的结果与目标物品的匹配度较高的技术效果。
在上述技术方案的基础上:构建级联概率模型之前还包括:构建随机条件树结构;
其中,构建随机条件树结构,包括:
针对多个训练样本数据中的每个训练样本数据,获取所述训练样本数据的标签序列,并确定所述标签序列中每个标签所属的品类级别;
基于所述品类级别以及所述标签序列建立树状结构,作为所述随机条件树结构,以基于所述随机条件树结构构建所述标签概率输出子模型以及所述目标随机条件树子模型。
在上述技术方案的基础上,所述装置还包括:
基于所述随机条件树结构中品类级别的数量,确定标签概率输出子模型中输出网络层的数量,基于每个品类级别中包含的标签数量,确定与所述品类级别对应的输出网络层结构,根据所述输出网络层数量以及所述输出网络层结构构建所述标签概率输出子模型;
基于所述随机条件树结构中每个品类级别中的各个标签,构建所述目标随机条件树子模型。
本发明实施例所提供的级联概率模型的构建装置可执行本发明任意实施例所提供的级联概率模型的构建方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
实施例七
图9为本发明实施例七提供的一种服务器的结构示意图。图9示出了适于用来实现本发明实施例实施方式的示例性服务器90的框图。图9显示的服务器90仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,服务器90以通用计算服务器的形式表现。服务器90的组件可以包括但不限于:一个或者多个处理器或者处理单元901,系统存储器902,连接不同系统组件(包括系统存储器902和处理单元901)的总线903。
总线903表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
服务器90典型地包括多种计算机系统可读介质。这些介质可以是任何能够被服务器90访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器902可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)904和/或高速缓存存储器905。服务器90可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统906可以用于读写不可移动的、非易失性磁介质(图9未显示,通常称为“硬盘驱动器”)。尽管图9中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线903相连。存储器902可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块907的程序/实用工具908,可以存储在例如存储器902中,这样的程序模块907包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块907通常执行本发明所描述的实施例中的功能和/或方法。
服务器90也可以与一个或多个外部设备909(例如键盘、指向服务器、显示器910等)通信,还可与一个或者多个使得用户能与该服务器90交互的服务器通信,和/或与使得该服务器90能与一个或多个其它计算服务器进行通信的任何服务器(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口911进行。并且,服务器90还可以通过网络适配器912与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器912通过总线903与服务器90的其它模块通信。应当明白,尽管图9中未示出,可以结合服务器90使用其它硬件和/或软件模块,包括但不限于:微代码、服务器驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元901通过运行存储在系统存储器902中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的物品的标签序列确定方法或级联概率模型的确定方法。
实施例六
本发明实施例六还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行物品的标签序列确定方法或级联概率模型的确定方法。
该方法包括:
获取用于描述目标物品的目标标题文本;
基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;
根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;
其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。或,
所述级联概率模型中包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型,所述方法包括:
将所述文本特征提取子模型的输出,作为所述标签概率输出子模型的输入,将所述标签概率输出子模型的输出,作为所述目标随机条件树子模型的输入,以构建所述级联概率模型;
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (15)
1.一种物品的标签序列确定方法,其特征在于,包括:
获取用于描述目标物品的目标标题文本;
基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;
根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;
其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
2.根据权利要求1所述的方法,其特征在于,所述目标级联概率模型中包括与文本特征提取子模型相连接的标签概率输出子模型,以及与所述标签概率输出子模型相连的目标随机条件树子模型;所述基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值,包括:
基于所述文本特征提取子模型,确定与所述目标标题文本相对应的目标特征向量;
基于所述目标特征向量与所述标签概率输出子模型,确定与所述标签概率输出子模型中每个标签相对应的标签概率值;
基于所述标签概率值,以及所述目标随机条件树子模型,确定位于预先建立的随机条件树结构中同一分支上的所有标签构成的预设标签序列的联合概率值。
3.根据权利要求2所述的方法,其特征在于,所述文本特征提取子模型包括语言处理子模型和神经网络子模型;
相应的,所述基于所述文本特征提取子模型,确定与所述目标标题文本相对应的目标特征向量,包括:
对所述目标标题文本进行分词处理,得到所述目标标题文本中的各个标题词;
将每个标题词输入至所述语言处理子模型中,得到与每个标题词相对应的标题词向量;
将每个标题词向量输入至神经网络子模型中,得到与目标标题文本相对应的目标特征向量。
4.根据权利要求3所述的方法,其特征在于,所述语言处理子模型为BERT双向编码器模型,所述神经网络子模型为长短时记忆网络。
5.根据权利要求2所述的方法,其特征在于,所述标签概率输出子模型中包括预设数量的输出网络层;所述预设数量与预先建立的品类级别的数量相同;每个品类级别中包括至少一个标签;品类级别的数量与预先建立的随机条件树结构中树的深度相同;
相应的,所述基于所述目标特征向量与所述标签概率输出子模型,确定与所述标签概率输出子模型中每个标签相对应的标签概率值,包括:
基于预设数量的输出网络层对所述目标特征向量进行处理,得到每个品类级别中每个标签的标签概率值。
6.根据权利要求5所述的方法,其特征在于,每个输出网络层中包括全连接层以及归一化指数函数层;
相应的,基于预设数量的输出网络层对所述目标特征向量进行处理,得到每个品类级别中每个标签的标签概率值,包括:
对于预设数量的输出网络层中的各输出网络层,基于预先建立的映射关系,确定与所述输出网络层相对应的目标品类级别;
基于所述输出网络层中的全连接层以及所述目标品类级别中标签的数量,将所述目标特征向量映射为与所述目标品类级别相对应的第一特征向量;
基于所述第一特征向量,以及所述归一化指数函数层,确定所述目标品类级别中每个标签的标签概率值。
7.根据权利要求2所述的方法,其特征在于,所述目标随机条件树子模型是基于预先建立的随机条件树结构构建的,所述目标随机条件树子模型中包括随机条件树结构中各节点之间的转移概率值;
相应的,基于所述标签概率值,以及所述目标随机条件树子模型,确定位于预先建立的随机条件树结构中同一分支上的所有标签构成的标签序列的联合概率值,包括:
将所有标签概率值输入到所述目标随机条件树子模型中,根据预先确定的各个标签与转移概率值之间的映射关系,对各个标签的标签概率值进行处理,确定位于不同品类级别且处于同一分支上的标签序列的联合概率值。
8.根据权利要求1所述的方法,其特征在于,所述根据所述联合概率值,确定与所述目标物品相对应的目标标签序列,包括:
根据所述联合概率值,确定联合概率值最高时所对应的预设标签序列,并将联合概率值最高时所对应的预设标签序列作为与目标物品相对应的目标标签序列。
9.根据权利要求1所述的方法,其特征在于,还包括:训练所述目标级联概率模型;
其中,训练所述目标级联概率模型,包括:
获取多个训练样本数据,并将所述训练样本数据输入至预先构建的初始级联概率模型中,得到与每个训练样本数据相对应的初始联合概率值;其中,所述训练样本数据中包括用于描述样本物品的训练标题文本,以及与所述训练标题文本相对应的训练标签序列;
基于反向传播算法,以及所述初始联合概率值,对所述初始级联概率模型中的预设损失函数进行修正;
将所述预设损失函数达到收敛作为训练目标,对所述初始级联概率模型进行训练,以训练得到所述目标级联概率模型。
10.根据权利要求1所述的方法,其特征在于,所述目标标签序列中包括一级品类标签、二级品类标签以及三级品类标签,所述一级品类标签的等级高于所述二级品类标签的等级,所述二级品类标签的等级高于所述三级品类标签的等级。
11.一种级联概率模型的构建方法,其特征在于,所述级联概率模型中包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型,所述方法包括:
将所述文本特征提取子模型的输出,作为所述标签概率输出子模型的输入,将所述标签概率输出子模型的输出,作为所述目标随机条件树子模型的输入,以构建所述级联概率模型;
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
12.一种物品的标签序列确定装置,其特征在于,包括:
目标标题文本确定模块,用于获取用于描述目标物品的目标标题文本;
联合概率值确定模块,用于基于预先训练好的目标级联概率模型,确定与所述目标标题文本相对应的联合概率值;
目标标签序列确定模块,用于根据所述联合概率值,确定与所述目标物品相对应的目标标签序列;
其中,所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
13.一种级联概率模型的构建装置,其特征在于,所述级联概率模型中包括文本特征提取子模型,标签概率输出子模型以及目标随机条件树子模型,所述装置包括:
其中,所述文本特征提取子模型,用于基于输入的目标物品的目标标题文本,输出与所述目标标题文本相对应的目标特征向量;
所述标签概率输出子模型,用于基于所述目标特征向量,输出与所述标签概率输出子模型中每个标签相对应的标签概率值;
所述目标随机条件树子模型,用于基于所述标签概率值,输出联合概率值;所述联合概率值包括所述目标物品对应各预设标签序列的概率值,所述预设标签序列中包括至少两个品类级别的标签。
14.一种服务器,其特征在于,所述服务器包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的物品标签序列确定方法或11任一所述的级联概率模型的构建方法。
15.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-10中任一所述的物品标签序列确定方法或11所述的级联概率模型的构建方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010124575.XA CN113312430B (zh) | 2020-02-27 | 2020-02-27 | 物品的标签序列确定方法、装置、服务器及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010124575.XA CN113312430B (zh) | 2020-02-27 | 2020-02-27 | 物品的标签序列确定方法、装置、服务器及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113312430A true CN113312430A (zh) | 2021-08-27 |
CN113312430B CN113312430B (zh) | 2024-09-20 |
Family
ID=77370197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010124575.XA Active CN113312430B (zh) | 2020-02-27 | 2020-02-27 | 物品的标签序列确定方法、装置、服务器及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113312430B (zh) |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145951A (ja) * | 2010-01-15 | 2011-07-28 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ自動分類装置、コンテンツ自動分類方法およびコンテンツ自動分類プログラム |
US8805845B1 (en) * | 2013-07-31 | 2014-08-12 | LinedIn Corporation | Framework for large-scale multi-label classification |
CN104978328A (zh) * | 2014-04-03 | 2015-10-14 | 北京奇虎科技有限公司 | 一种获取层级分类器以及文本分类的方法及装置 |
US20170124615A1 (en) * | 2015-11-04 | 2017-05-04 | Wal-Mart Stores, Inc. | Systems, method, and non-transitory computer-readable storage media for evaluating, storing, and managing labels for classification model evaluation and training |
CN108171254A (zh) * | 2017-11-22 | 2018-06-15 | 北京达佳互联信息技术有限公司 | 图像标签确定方法、装置及终端 |
CN108268449A (zh) * | 2018-02-10 | 2018-07-10 | 北京工业大学 | 一种基于词项聚类的文本语义标签抽取方法 |
CN109299458A (zh) * | 2018-09-12 | 2019-02-01 | 广州多益网络股份有限公司 | 实体识别方法、装置、设备及存储介质 |
WO2019184471A1 (zh) * | 2018-03-27 | 2019-10-03 | 北京达佳互联信息技术有限公司 | 图像标签确定方法、装置及终端 |
US20190377794A1 (en) * | 2018-06-07 | 2019-12-12 | Alibaba Group Holding Limited | Method and apparatus for determining user intent |
CN110598869A (zh) * | 2019-08-27 | 2019-12-20 | 阿里巴巴集团控股有限公司 | 基于序列模型的分类方法、装置、电子设备 |
CN110634050A (zh) * | 2019-09-06 | 2019-12-31 | 北京无限光场科技有限公司 | 一种鉴别房源类型的方法、装置、电子设备及存储介质 |
CN110688482A (zh) * | 2019-09-12 | 2020-01-14 | 新华三大数据技术有限公司 | 多标签识别方法、训练方法及装置 |
WO2020034750A1 (zh) * | 2018-08-14 | 2020-02-20 | 阿里巴巴集团控股有限公司 | 一种分类模型生成方法及装置、一种数据识别方法及装置 |
-
2020
- 2020-02-27 CN CN202010124575.XA patent/CN113312430B/zh active Active
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011145951A (ja) * | 2010-01-15 | 2011-07-28 | Nippon Telegr & Teleph Corp <Ntt> | コンテンツ自動分類装置、コンテンツ自動分類方法およびコンテンツ自動分類プログラム |
US8805845B1 (en) * | 2013-07-31 | 2014-08-12 | LinedIn Corporation | Framework for large-scale multi-label classification |
CN104978328A (zh) * | 2014-04-03 | 2015-10-14 | 北京奇虎科技有限公司 | 一种获取层级分类器以及文本分类的方法及装置 |
US20170124615A1 (en) * | 2015-11-04 | 2017-05-04 | Wal-Mart Stores, Inc. | Systems, method, and non-transitory computer-readable storage media for evaluating, storing, and managing labels for classification model evaluation and training |
CN108171254A (zh) * | 2017-11-22 | 2018-06-15 | 北京达佳互联信息技术有限公司 | 图像标签确定方法、装置及终端 |
CN108268449A (zh) * | 2018-02-10 | 2018-07-10 | 北京工业大学 | 一种基于词项聚类的文本语义标签抽取方法 |
WO2019184471A1 (zh) * | 2018-03-27 | 2019-10-03 | 北京达佳互联信息技术有限公司 | 图像标签确定方法、装置及终端 |
US20190377794A1 (en) * | 2018-06-07 | 2019-12-12 | Alibaba Group Holding Limited | Method and apparatus for determining user intent |
WO2020034750A1 (zh) * | 2018-08-14 | 2020-02-20 | 阿里巴巴集团控股有限公司 | 一种分类模型生成方法及装置、一种数据识别方法及装置 |
CN109299458A (zh) * | 2018-09-12 | 2019-02-01 | 广州多益网络股份有限公司 | 实体识别方法、装置、设备及存储介质 |
CN110598869A (zh) * | 2019-08-27 | 2019-12-20 | 阿里巴巴集团控股有限公司 | 基于序列模型的分类方法、装置、电子设备 |
CN110634050A (zh) * | 2019-09-06 | 2019-12-31 | 北京无限光场科技有限公司 | 一种鉴别房源类型的方法、装置、电子设备及存储介质 |
CN110688482A (zh) * | 2019-09-12 | 2020-01-14 | 新华三大数据技术有限公司 | 多标签识别方法、训练方法及装置 |
Non-Patent Citations (4)
Title |
---|
YANG TAO等: "A Multi-Label Text Classification Method Based on Labels Vector Fusion", 2018 INTERNATIONAL CONFERENCE ON PROMISING ELECTRONIC TECHNOLOGIES (ICPET), 11 November 2018 (2018-11-11) * |
张春焰;李涛;刘峥;: "基于路径选择的层次多标签分类", 计算机技术与发展, no. 10, 16 May 2018 (2018-05-16) * |
蒋俊钊;程良伦;李全杰;: "基于标签相关性的卷积神经网络多标签分类算法", 工业控制计算机, no. 07, 25 July 2018 (2018-07-25) * |
郑伟;王朝坤;刘璋;王建民;: "一种基于随机游走模型的多标签分类算法", 计算机学报, no. 08, 15 August 2010 (2010-08-15) * |
Also Published As
Publication number | Publication date |
---|---|
CN113312430B (zh) | 2024-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107992596B (zh) | 一种文本聚类方法、装置、服务器和存储介质 | |
CN112131920B (zh) | 用于扫描图像中的表格信息的数据结构生成 | |
US11599927B1 (en) | Artificial intelligence system using deep neural networks for pairwise character-level text analysis and recommendations | |
CN109408829B (zh) | 文章可读性确定方法、装置、设备和介质 | |
WO2023207096A1 (zh) | 一种实体链接方法、装置、设备及非易失性可读存储介质 | |
CN110941951B (zh) | 文本相似度计算方法、装置、介质及电子设备 | |
CN111767738A (zh) | 一种标签校验方法、装置、设备和存储介质 | |
CN113064964A (zh) | 文本分类方法、模型训练方法、装置、设备以及存储介质 | |
CN111738791B (zh) | 一种文本处理方法、装置、设备和存储介质 | |
CN111666766A (zh) | 数据处理方法、装置和设备 | |
CN112182145A (zh) | 文本相似度确定方法、装置、设备和存储介质 | |
CN111241410A (zh) | 一种行业新闻推荐方法及终端 | |
CN113591881B (zh) | 基于模型融合的意图识别方法、装置、电子设备及介质 | |
CN115129913A (zh) | 敏感词挖掘方法及其装置、设备、介质 | |
CN113076758B (zh) | 一种面向任务型对话的多域请求式意图识别方法 | |
CN116975400B (zh) | 一种数据分类分级方法、装置、电子设备及存储介质 | |
CN116798417B (zh) | 语音意图识别方法、装置、电子设备及存储介质 | |
CN109635004A (zh) | 一种数据库的对象描述提供方法、装置及设备 | |
CN109948040A (zh) | 对象信息的存储、推荐方法及系统、设备和存储介质 | |
CN113139558A (zh) | 确定物品的多级分类标签的方法和装置 | |
CN113312430B (zh) | 物品的标签序列确定方法、装置、服务器及存储介质 | |
CN115017385A (zh) | 一种物品搜索方法、装置、设备和存储介质 | |
CN113988085B (zh) | 文本语义相似度匹配方法、装置、电子设备及存储介质 | |
CN115129885A (zh) | 实体链指方法、装置、设备及存储介质 | |
CN113705692A (zh) | 基于人工智能的情感分类方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |