CN116955599A - 一种类目确定的方法、相关装置、设备以及存储介质 - Google Patents
一种类目确定的方法、相关装置、设备以及存储介质 Download PDFInfo
- Publication number
- CN116955599A CN116955599A CN202210366431.4A CN202210366431A CN116955599A CN 116955599 A CN116955599 A CN 116955599A CN 202210366431 A CN202210366431 A CN 202210366431A CN 116955599 A CN116955599 A CN 116955599A
- Authority
- CN
- China
- Prior art keywords
- category
- vector
- text
- target
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 138
- 238000003860 storage Methods 0.000 title claims description 18
- 239000013598 vector Substances 0.000 claims abstract description 903
- 230000004927 fusion Effects 0.000 claims abstract description 404
- 238000009826 distribution Methods 0.000 claims abstract description 212
- 238000013145 classification model Methods 0.000 claims abstract description 163
- 239000011159 matrix material Substances 0.000 claims description 398
- 238000013507 mapping Methods 0.000 claims description 79
- 238000011176 pooling Methods 0.000 claims description 60
- 230000006870 function Effects 0.000 claims description 57
- 238000000354 decomposition reaction Methods 0.000 claims description 56
- 238000012549 training Methods 0.000 claims description 45
- 238000002372 labelling Methods 0.000 claims description 44
- 238000004364 calculation method Methods 0.000 claims description 22
- 238000012015 optical character recognition Methods 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 238000004519 manufacturing process Methods 0.000 claims description 10
- 230000015654 memory Effects 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 abstract description 11
- 238000005516 engineering process Methods 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 44
- 238000013461 design Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 18
- 238000003058 natural language processing Methods 0.000 description 15
- 230000003993 interaction Effects 0.000 description 13
- 241000196324 Embryophyta Species 0.000 description 12
- 238000012545 processing Methods 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 9
- 101150115304 cls-2 gene Proteins 0.000 description 7
- 101150053100 cls1 gene Proteins 0.000 description 7
- 238000004891 communication Methods 0.000 description 7
- 241000287828 Gallus gallus Species 0.000 description 6
- 241000220317 Rosa Species 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 6
- 230000033764 rhythmic process Effects 0.000 description 6
- 230000001965 increasing effect Effects 0.000 description 4
- 238000010276 construction Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 101100481876 Danio rerio pbk gene Proteins 0.000 description 2
- 101100481878 Mus musculus Pbk gene Proteins 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000011478 gradient descent method Methods 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 241001494479 Pecora Species 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 230000006798 recombination Effects 0.000 description 1
- 238000005215 recombination Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了可应用于云技术、人工智能、智慧交通、辅助驾驶等各种场景的类目确定方法,包括:通过层级分类模型的编码器获取文本编码向量;基于文本编码向量,通过层级分类模型的第一分类器获取第一分布向量;根据文本编码向量和N个二级类目语义向量,生成文本融合向量,二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的;通过层级分类模型的第二分类器获取第二分布向量;根据第一分布向量确定目标一级类目,根据第二分布向量确定目标二级类目。本申请还提供了装置、设备及介质。本申请通过二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
Description
技术领域
本申请涉及自然语言处理技术领域,尤其涉及一种类目确定的方法、相关装置、设备以及存储介质。
背景技术
随着计算机技术的不断发展,用户所面对的信息量与日剧增。在用户面对大量信息时,可通过搜索关键词得到与关键词相关的信息。其中,标题是多媒体内容的主要成分之一。基于标题再结合自然语言处理等基础算法,能够完成对文本的解析,从而强化多媒体语义信息的理解,这也是多媒体搜索系统的核心工作。
搜索和推荐的前提是对信息进行分类,其中,较为常见的方案是对信息进行多级分类。在传统方案中,可以将多级分类任务当成几个基础的多分类任务。即,将类目体系拉平,模型直接预测二级类目,再直接由预测得到的二级类目来回溯一级类目。
发明人发现现有技术中至少存在如下问题,传统方案是以多分类的方式进行判别。然而,对于二级类目而言,由于其类目粒度较细,标注难度较大,因此,往往面临数据量较少的问题,从而导致分类准确性上仍有较大的提升空间。
发明内容
本申请实施例提供了一种类目确定的方法、相关装置、设备以及存储介质。本申请通过二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
有鉴于此,本申请一方面提供一种类目确定的方法,包括:
基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
基于文本编码向量,通过层级分类模型所包括的第一分类器获取第一分布向量,其中,第一分布向量包括M个第一概率值,第一分布向量中的每个第一概率值对应于一个一级类目的概率值,M为大于1的整数;
根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,二级类目属于一级类目的子类目,N为大于1的整数;
基于文本融合向量,通过层级分类模型所包括的第二分类器获取第二分布向量,其中,第二分布向量包括N个第二概率值,第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
根据第一分布向量确定目标文本信息所属的目标一级类目,并且,根据第二分布向量确定目标文本信息所属的目标二级类目。
本申请另一方面提供一种类目确定的方法,包括:
基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
根据文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,T为大于1的整数;
基于文本融合向量,通过类目分类模型所包括的分类器获取目标分布向量,其中,目标分布向量包括T个概率值,目标分布向量中的每个概率值对应于一个类目的概率值;
根据目标分布向量确定目标文本信息所属的目标类目。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,通过层级分类模型所包括的编码器获取文本编码向量之前,还包括:
基于待训练文本信息,通过待训练类目分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于标注类目;
根据预测文本编码向量以及T个类目语义向量,生成预测文本融合向量;
基于预测文本融合向量,通过待训练类目分类模型所包括的待训练分类器获取目标预测分布向量,其中,目标预测分布向量包括T个概率值,目标预测分布向量中的每个概率值对应于一个类目的概率值;
根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,直至满足模型训练条件,得到类目分类模型。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,包括:
根据目标预测分布向量以及标注类目,采用分类损失函数计算得到针对待训练文本信息的损失值;
根据损失值对待训练类目分类模型的模型参数进行更新。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,还包括:
获取语料样本集合,其中,语料样本集合中包括至少一个语料样本,每个语料样本对应于一个类目;
针对T个类目中的每个类目,根据语料样本集合确定类目所对应的候选关键词集合;
针对T个类目中的每个类目,从候选关键词集合中获取至少一个关键词;
针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,针对T个类目中的每个类目,从候选关键词集合中获取至少一个关键词,包括:
针对T个类目中的每个类目,根据语料样本集合以及每个语料样本所对应的类目,计算候选关键词集合中每个关键词的卡方值;
针对T个类目中的每个类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对T个类目中的每个类目,从排序后的候选关键词集合中选择前K个关键词作为至少一个关键词,其中,K为大于或等于1的整数。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,还包括:
针对T个类目中的每个类目,获取类目所对应的类目词语;
针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量,包括:
针对T个类目中的每个类目,根据类目所对应的类目词语以及至少一个关键词,生成类目所对应的类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量,包括:
针对T个类目中的每个类目,获取至少一个关键词中每个关键词所对应的词向量;
针对T个类目中的每个类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到类目所对应的类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,包括:
对T个类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据第一融合矩阵以及第二融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,包括:
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,包括:
对T个类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第一融合矩阵、第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量之前,还包括:
获取针对目标视频的目标文本信息,其中,目标文本信息包括目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取针对目标图片的目标文本信息,其中,目标文本信息包括目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取针对目标商品的目标文本信息,其中,目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取针对目标文本的目标文本信息,其中,目标文本信息包括目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,还包括:
接收终端发送针对于待搜索内容的类目查询指令;
响应于类目查询指令,若待搜索内容为视频内容,则向终端发送视频搜索结果;
响应于类目查询指令,若待搜索内容为图片内容,则向终端发送图片搜索结果;
响应于类目查询指令,若待搜索内容为商品内容,则向终端发送商品搜索结果;
响应于类目查询指令,若待搜索内容为文本内容,则向终端发送文本搜索结果。
本申请另一方面提供一种类目确定装置,包括:
获取模块,用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
获取模块,还用于基于文本编码向量,通过层级分类模型所包括的第一分类器获取第一分布向量,其中,第一分布向量包括M个第一概率值,第一分布向量中的每个第一概率值对应于一个一级类目的概率值,M为大于1的整数;
生成模块,用于根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,二级类目属于一级类目的子类目,N为大于1的整数;
获取模块,还用于基于文本融合向量,通过层级分类模型所包括的第二分类器获取第二分布向量,其中,第二分布向量包括N个第二概率值,第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
确定模块,用于根据第一分布向量确定目标文本信息所属的目标一级类目,并且,根据第二分布向量确定目标文本信息所属的目标二级类目。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,还用于获取语料样本集合,其中,语料样本集合中包括至少一个语料样本,每个语料样本对应于一个二级类目;
确定模块,还用于针对N个二级类目中的每个二级类目,根据语料样本集合确定二级类目所对应的候选关键词集合;
获取模块,还用于针对N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词;
生成模块,还用于针对N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,具体用于针对N个二级类目中的每个二级类目,根据语料样本集合以及每个语料样本所对应的二级类目,计算候选关键词集合中每个关键词的卡方值;
针对N个二级类目中的每个二级类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对N个二级类目中的每个二级类目,从排序后的候选关键词集合中选择前K个关键词作为至少一个关键词,其中,K为大于或等于1的整数。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,还用于针对N个二级类目中的每个二级类目,获取二级类目所对应的类目词语;
生成模块,具体用于针对N个二级类目中的每个二级类目,根据二级类目所对应的类目词语以及至少一个关键词,生成二级类目所对应的二级类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
生成模块,具体用于针对N个二级类目中的每个二级类目,获取至少一个关键词中每个关键词所对应的词向量;
针对N个二级类目中的每个二级类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到二级类目所对应的二级类目语义向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
生成模块,具体用于对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据第一融合矩阵以及第二融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
生成模块,具体用于采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
生成模块,具体用于对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第一融合矩阵、第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标视频的目标文本信息,其中,目标文本信息包括目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标图片的目标文本信息,其中,目标文本信息包括目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标商品的目标文本信息,其中,目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标文本的目标文本信息,其中,目标文本信息包括目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,类目确定装置还包括接收模块以及发送模块;
接收模块,用于接收终端发送针对于待搜索内容的类目查询指令;
发送模块,用于响应于类目查询指令,若待搜索内容为视频内容,则向终端发送视频搜索结果;
发送模块,还用于响应于类目查询指令,若待搜索内容为图片内容,则向终端发送图片搜索结果;
发送模块,还用于响应于类目查询指令,若待搜索内容为商品内容,则向终端发送商品搜索结果;
发送模块,还用于响应于类目查询指令,若待搜索内容为文本内容,则向终端发送文本搜索结果。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,类目确定装置还包括训练模块;
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,基于待训练文本信息,通过待训练层级分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于一级标注类目以及二级标注类目;
获取模块,还用于基于预测文本编码向量,通过待训练层级分类模型所包括的第一待训练分类器获取第一预测分布向量,其中,第一预测分布向量包括M个第一概率值,第一预测分布向量中的每个第一概率值对应于一个一级类目的概率值;
生成模块,还用于根据预测文本编码向量以及N个二级类目语义向量,生成预测文本融合向量;
获取模块,还用于基于预测文本融合向量,通过待训练层级分类模型所包括的第二待训练分类器获取第二预测分布向量,其中,第二预测分布向量包括N个第二概率值,第二预测分布向量中的每个第二概率值对应于一个二级类目的概率值;
训练模块,用于根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目,对待训练层级分类模型的模型参数进行更新,直至满足模型训练条件,得到层级分类模型。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
训练模块,具体用于根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
根据第一损失值和第二损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,
训练模块,具体用于根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
从第一预测分布向量中确定与一级标注类目对应的第一元素预测分值,并从第二预测分布向量中确定与二级标注类目对应的第二元素预测分值;
根据第一元素预测分值、第二元素预测分值以及目标超参数,采用合页损失函数计算得到针对待训练文本信息的第三损失值;
根据第一损失值、第二损失值和第三损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
本申请另一方面提供一种类目确定装置,包括:
获取模块,用于基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
生成模块,用于根据文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,T为大于1的整数;
获取模块,还用于基于文本融合向量,通过类目分类模型所包括的分类器获取目标分布向量,其中,目标分布向量包括T个概率值,目标分布向量中的每个概率值对应于一个类目的概率值;
确定模块,用于根据目标分布向量确定目标文本信息所属的目标类目。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,类目确定装置还包括训练模块;
获取模块,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,基于待训练文本信息,通过待训练类目分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于标注类目;
生成模块,还用于根据预测文本编码向量以及T个类目语义向量,生成预测文本融合向量;
获取模块,还用于基于预测文本融合向量,通过待训练类目分类模型所包括的待训练分类器获取目标预测分布向量,其中,目标预测分布向量包括T个概率值,目标预测分布向量中的每个概率值对应于一个类目的概率值;
训练模块,用于根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,直至满足模型训练条件,得到类目分类模型。
本申请另一方面提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现上述各方面的方法。
本申请的另一方面提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现上述各方面的方法。
本申请的另一个方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述各方面的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:
本申请实施例中,提供了一种类目确定的方法,首先,基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量。然后基于文本编码向量,通过层级分类模型所包括的第一分类器获取第一分布向量。此外,还需要根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的。接下来,可基于文本融合向量,通过层级分类模型所包括的第二分类器获取第二分布向量。最后,根据第一分布向量确定目标文本信息所属的目标一级类目,并且,根据第二分布向量确定目标文本信息所属的目标二级类目。通过上述方式,针对各个二级类目,可根据至少两个关键词构建其对应的语义向量(即,二级类目语义向量),基于此,利用二级类目语义向量与文本编码向量生成文本融合向量,将文本融合向量作为预测二级类目的依据。由于二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
附图说明
图1为本申请实施例中类目确定系统的一个架构示意图;
图2为本申请实施例中基于层级分类模型确定多级类目的一个示意图;
图3为本申请实施例中基于类目分类模型确定单级类目的一个示意图;
图4为本申请实施例中类目确定方法的一个流程示意图;
图5为本申请实施例中层级分类模型的一个结构示意图;
图6为本申请实施例中视频内容层次分类任务的一个示意图;
图7为本申请实施例中图片内容层次分类任务的一个示意图;
图8为本申请实施例中商品内容层次分类任务的一个示意图;
图9为本申请实施例中文本内容层次分类任务的一个示意图;
图10为本申请实施例中基于多级类目显示视频搜索结果的一个界面示意图;
图11为本申请实施例中基于多级类目显示图片搜索结果的一个界面示意图;
图12为本申请实施例中基于多级类目显示商品搜索结果的一个界面示意图;
图13为本申请实施例中基于多级类目显示文本搜索结果的一个界面示意图;
图14为本申请实施例中类目确定方法的另一个流程示意图;
图15为本申请实施例中类目分类模型的一个结构示意图;
图16为本申请实施例中视频内容分类任务的一个示意图;
图17为本申请实施例中图片内容分类任务的一个示意图;
图18为本申请实施例中商品内容分类任务的一个示意图;
图19为本申请实施例中文本内容分类任务的一个示意图;
图20为本申请实施例中基于单级类目显示视频搜索结果的一个界面示意图;
图21为本申请实施例中基于单级类目显示图片搜索结果的一个界面示意图;
图22为本申请实施例中基于单级类目显示商品搜索结果的一个界面示意图;
图23为本申请实施例中基于单级类目显示文本搜索结果的一个界面示意图;
图24为本申请实施例中类目确定装置的一个示意图;
图25为本申请实施例中类目确定装置的另一个示意图;
图26为本申请实施例中计算机设备的一个结构示意图。
具体实施方式
本申请实施例提供了一种类目确定的方法、相关装置、设备以及存储介质。本申请通过二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“对应于”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
随着互联网技术的持续发展,出现了越来越多的网络交互平台,这些网络交互平台为人们的日常生活提供了极大的便利,同时,也为网络交互平台的内容整合增加了难度。因此,可对网络交互平台上的内容进行分类,以便进行内容搜索和内容推荐等任务。示例性地,在网络视频平台中,用户可根据视频分类结果观看到感兴趣的视频内容。示例性地,在网络电商平台中,用户可根据商品分类结果购买到商品。示例性地,在网络游戏平台中,用户可根据游戏分类结果选择电子游戏。示例性地,在网络教育平台中,用户可根据课程分类结果进行课程学习。示例性地,在网络电子书平台中,用户可根据电子书分类结果进行文章阅读。
为了在上述场景中实现更准确地类目分类,本申请提出了一种类目确定的方法,该方法应用于图1所示的类目确定系统,如图所示,类目确定系统包括服务器和终端,且客户端部署于终端上,其中,客户端可以通过浏览器的形式运行于终端上,也可以通过独立的应用程序(application,APP)的形式运行于终端上等,对于客户端的具体展现形式,此处不做限定。本申请涉及的服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(content deliverynetwork,CDN)、和大数据和(Artificial Intelligence,AI)平台等基础云计算服务的云服务器。终端包括但不限于手机、电脑、智能语音交互设备、智能家电和车载终端等,但并不局限于此。终端和服务器可以通过有线或无线通信方式进行直接或间接地连接,本申请在此不做限制。服务器和终端的数量也不做限制。本申请提供的方案可以由终端独立完成,也可以由服务器独立完成,还可以由终端与服务器配合完成,对此,本申请并不做具体限定。本申请实施例可应用于各种场景,包括但不限于云技术、AI、智慧交通和辅助驾驶等。
基于图1所示的类目确定系统,具体地,数据库中存储有大量待分类内容(例如,视频内容、图片内容、商品内容以及文本内容等)。示例性地,一种情况下,可将这些待分类内容作为层级分类模型的输入,由此得到内容的多级类目,其中,多级类目至少包括一级类目和二级类目。示例性地,另一种情况下,可将这些待分类内容作为类目分类模型的输入,由此得到内容的单级类目。基于此,将内容及其对应的类目(即,多级类目或单级类目)存储于类目映射表中,服务器可调用类目映射表。用户通过终端选择类目,于是,服务器根据类目映射表以及用户所选的类目,向用户使用的终端推送相关的内容。
层次分类(hierarchical multi-label classification)是计算机视觉(computer vision,CV)和自然语言处理(nature language processing,NLP)领域中重要的一项任务。其主要的特点在于类目标签具有上下级关系,上级标签是下级标签的父级,越往下级其粒度越细。
其中,CV是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,CV研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的AI系统。CV技术通常包括图像处理、图像识别、图像语义理解、图像检索、光学字符识别(optical character recognition,OCR)、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建、自动驾驶、智慧交通等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。
其中,NLP是计算机科学领域与AI领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。NLP是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。NLP技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
下面将结合图2介绍层级分类模型的任务执行流程,请参阅图2,图2为本申请实施例中基于层级分类模型确定多级类目的一个示意图,如图所示,层级分类模型在一级类目和二级类目上均采用多分类模型。将待分类内容所对应的目标文本信息(例如,五个小时降雨量突破150毫米,局部地区接近180毫米)输入至编码器,得到文本编码向量。将文本编码向量输入至第一分类器,通过第一分类器输出第一分布向量,根据第一分布向量确定目标文本信息所属的目标一级类目(例如,新闻)。将文本编码向量与N个二级类目语义向量进行融合,得到文本融合向量,再将文本融合向量输入至第二分类器,通过第二分类器输出第二分布向量,根据第二分布向量确定目标文本信息所属的目标二级类目(例如,气象新闻)。
下面将结合图3介绍类目分类模型的任务执行流程,请参阅图3,图3为本申请实施例中基于类目分类模型确定单级类目的一个示意图,如图所示,类目分类模型采用多分类模型。将待分类内容所对应的目标文本信息(例如,五个小时降雨量突破150毫米,局部地区接近180毫米)输入至编码器,得到文本编码向量。将文本编码向量输入至分类器,通过分类器输出目标分布向量,根据目标分布向量确定目标文本信息所属的目标类目(例如,气象新闻)。
结合上述介绍,下面将对本申请中类目确定的方法进行介绍,请参阅图4,本申请实施例中类目确定的方法可以由计算机设备执行,该计算机设备可以是终端或服务器,包括:
110、基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
在一个或多个实施例中,获取目标文本信息,将目标文本信息输入至层级分类模型所包括的编码器,通过编码器输出文本编码向量。其中,目标文本信息可来源于视频、图片或文章等,而目标文本信息可以是标题句子或者段落等,此处不做限定。
可以理解的是,本申请涉及的编码器可以采用卷积神经网络(convolutionalneural networks,CNN),长短期记忆人工神经(long-short term memory,LSTM)网络,基于注意力机制的LSTM网络,或基于转换器的双向编码表征(bidirectional encoderrepresentations from transformers,BERT)模型等,此处不做限定。
具体地,假设目标文本信息为“跳一跳,教你上600分的攻略”,将该目标文本信息作为编码器(encoder)的输入,然后可基于字粒度或词粒度对目标文本信息进行编码,由此得到文本编码向量。以编码器采用BERT模型为例进行介绍,基于此,将目标文本信息以字粒度的形式输入至训练好的BERT模型,经过编码后生成文本编码向量。以每个字的语义向量为768维为例,取字符“CLS”输出向量(768维)作为整个目标文本信息的向量表示,或者,取各个字符输出向量的平均值作为整个目标文本信息的向量表示,又或者采用其他方,此处不做限定。因此,文本编码向量也为768维。即,l1_emb=encoder(Sententce),其中,l1_emb表示文本编码向量,Sententce表示目标文本信息。
120、基于文本编码向量,通过层级分类模型所包括的第一分类器获取第一分布向量,其中,第一分布向量包括M个第一概率值,第一分布向量中的每个第一概率值对应于一个一级类目的概率值,M为大于1的整数;
在一个或多个实施例中,将文本编码向量输入至层级分类模型所包括的第一分类器(classify1)中,由第一分类器(classify1)输出第一分布向量(logits1)。即,logits1=classify1(l1_emb)。第一分布向量表示为logits1=[a1,a2,…,aM]。其中,第一概率值(ai)表示预测为第i个一级类目的概率值,M表示一级类目的总数,每个第一概率值表示为对应一级类目的概率值。
具体地,以M为5为例,假设第一分布向量为(0,0.1,0.7,0.2,0),其中,首个第一概率值“0”表示属于“游戏”的概率值为“0”,第一概率值“0.1”表示属于“舞蹈”的概率值为“0.1”,第一概率值“0.7”表示属于“科技”的概率值为“0.7”,第一概率值“0.2”表示属于“自然”的概率值为“0.2”,最后一个第一概率值“0”表示属于“运动”的概率值为“0”。可见,目标文本信息属于“科技”的概率最大。
130、根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,二级类目属于一级类目的子类目,N为大于1的整数;
在一个或多个实施例中,获取N个二级类目语义向量,这里的N个二级类目语义向量是预先训练得到的。即,对于每个二级类目而言,构建其对应的词表,其中,词表包括若干个关键词。基于此,对每个二级类目所对应的词表进行编码,从而得到每个二级类目的表征向量,即,得到二级类目语义向量。
具体地,在实际应用中,可直接调用各个二级类目对应的二级类目语义向量,然后将文本编码向量与N个二级类目语义向量进行特征融合,得到文本融合向量(fusion)。基于此,通过融合交互的方式来强化目标文本信息与二级类目之间的语义。
140、基于文本融合向量,通过层级分类模型所包括的第二分类器获取第二分布向量,其中,第二分布向量包括N个第二概率值,第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
在一个或多个实施例中,将文本融合向量(fusion)输入至层级分类模型所包括的第二分类器(classify2)中,由第二分类器(classify2)输出第二分布向量(logits2)。即,logits2=classify2(fusion)。第二分布向量表示为logits2=[b1,b2,…,bN]。其中,第二概率值(bi)表示预测为第i个二级类目的概率值,N表示二级类目的总数,每个第二概率值表示为对应二级类目的概率值。
可以理解的是,第二分类器包括前馈神经网络(feedforward neural network,FNN),即,logits2=softmax(FNN(fusion))。也就是说,将FNN输出的结果输入到归一化指数函数(softmax),通过softmax输出第二分布向量(logits2)。
需要说明的是,二级类目属于一级类目的下一级类目(即,子类目)。通常情况下,M值小于N值,例如,有44个一级类目,包括“体育”、“游戏”和“娱乐”等主题性粗粒度类目,每个一级类目又可以细分为多个二级类目,如共有305个细粒度的二级类目。
具体地,为了便于理解,请参阅图5,图5为本申请实施例中层级分类模型的一个结构示意图,如图所示,目标文本信息输入至编码器(encoder),由编码器(encoder)输出对应的文本编码向量(l1_emb)。基于此,一方面,可将文本编码向量(l1_emb)作为第一分类器(classify1)的输入,通过第一分类器(classify1)输出第一分布向量(logits1)。另一方面,将文本编码向量(l1_emb)与N个二级类目语义向量(e_emb)进行融合,得到文本融合向量(fusion)。其中,N个二级类目语义向量(e_emb)为基于N个二级类目对应的词表构建的。将文本融合向量(fusion)作为第二分类器(classify2)的输入,通过第二分类器(classify2)输出第二分布向量(logits2)。
150、根据第一分布向量确定目标文本信息所属的目标一级类目,并且,根据第二分布向量确定目标文本信息所属的目标二级类目。
在一个或多个实施例中,根据第一分布向量确定最大第一概率值所对应的一级类目,并将该一级类目作为目标一级类目。类似地,根据第二分布向量确定最大第二概率值所对应的二级类目,并将该二级类目作为目标二级类目。
需要说明的是,本申请以输出目标一级类目和目标二级类目为例进行介绍,在实际应用中,还可以输出更多级的类目,相应地,层级分类模型也需要包括应用输出不同类目的分类器,此处不做赘述。
本申请实施例中,提供了一种类目确定的方法。通过上述方式,针对各个二级类目,可根据至少两个关键词构建其对应的语义向量(即,二级类目语义向量),基于此,利用二级类目语义向量与文本编码向量生成文本融合向量,将文本融合向量作为预测二级类目的依据。由于二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
获取语料样本集合,其中,语料样本集合中包括至少一个语料样本,每个语料样本对应于一个二级类目;
针对N个二级类目中的每个二级类目,根据语料样本集合确定二级类目所对应的候选关键词集合;
针对N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词;
针对N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量。
在一个或多个实施例中,介绍了一种构建二级类目语义向量的方式。由前述实施例可知,首先需要获取语料样本集合,按各个语料样本对应的二级类目,对这些语料样本集合进行划分。划分完毕之后,针对每个二级类目,分别从对应的语料样本中提取候选关键词集合,然后从候选关键词集合中选择至少一个关键词。基于此,针对每个二级类目,获取各个关键词的词向量,最后,根据这些词向量生成二级类目对应的二级类目语义向量。
具体地,为了便于理解,请参阅表1,表1为语料样本集合的一个示意。
表1
语料样本 | 一级类目 | 二级类目 |
跳一跳,教你上600分的攻略 | 游戏 | 小游戏 |
广场舞跳一跳更健康 | 舞蹈 | 广场舞 |
太难打了,经济被压制,手机给你来玩吧 | 游戏 | 手游 |
手机迭代的速度是其成为消耗品的主要原因 | 科技 | 手机 |
对语料样本集合进行划分,针对每个二级类目,分别从对应的语料样本中提取相应的候选关键词集合。为了便于理解,请参阅表2,表2为二级类目对应候选关键词集合的一个示意。
表2
二级类目 | 候选关键词集合 |
小游戏 | [打地鼠,植物,即时通信,塔防,运动,赛车] |
广场舞 | [广场舞,公园,舞蹈,步子,节奏,气氛,团队] |
手游 | [手机,吃鸡,组队,好友,胜利,失败,游戏应用] |
手机 | [无线网,麦克风,摄像头,按键,价格,品牌] |
基于此,可进一步从各个二级类目对应的候选关键词集合中提取至少一个关键词,再获取各个关键词的词向量。其中,词向量在通用语料上训练完成的,训练方式一般采用词模型(word2vec)、独热(one-hot)、BERT或矩阵分解等方式。
需要说明的是,在实际应用中,可采用卡方统计,或,目标群体指数(target groupindex,TGI)统计,或,词频统计等方式,从候选关键词集合中提取一个或多个关键词。为了便于理解,请参阅表3,表3为二级类目对应词表的一个示意。
表3
二级类目 | 词表 |
小游戏 | [植物,即时通信,赛车] |
广场舞 | [舞蹈,步子,节奏] |
手游 | [手机,吃鸡,组队] |
手机 | [无线网,价格,品牌] |
基于此,针对每个二级类目,根据其对应的至少一个关键词生成二级类目语义向量。
其次,本申请实施例中,提供了一种构建二级类目语义向量的方式。通过上述方式,引入二级类目相关的关键词作为生成二级类目语义向量的依据,强化文本融合向量中对应的二级类目的特征表达。在二级类目训练数据缺失的情形下,该种方式也更为有利,从而有利于提升类目分类的准确性。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,针对N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词,具体包括:
针对N个二级类目中的每个二级类目,根据语料样本集合以及每个语料样本所对应的二级类目,计算候选关键词集合中每个关键词的卡方值;
针对N个二级类目中的每个二级类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对N个二级类目中的每个二级类目,从排序后的候选关键词集合中选择前K个关键词作为至少一个关键词,其中,K为大于或等于1的整数。
在一个或多个实施例中,介绍了一种基于卡方值确定关键词的方式。由前述实施例可知,基于经过标注的语料样本集合,可对每个二级类目对应的关键词进行卡方统计,得到每个关键词与每个二级类目之间的重要程度。最终每个二级类目截取前K个(即,topK)重要的关键词,得到如表3所示的词表。
具体地,下面以二级类目“小游戏”为例进行说明。假设语料样本集合包括10000个语料样本,其中,有1000个语料样本被标注为“小游戏”。于是针对这1000个语料样本,在排除停用词的情况下先选出候选关键词集合。然后分别计算候选关键词集合中各个关键词的卡方值。为了便于理解,以关键词“跳一跳”为例进行介绍。请参阅表4,表4为针对二级类目“小游戏”与关键词“跳一跳”构建的一个卡方统计表。
表4
基于此,针对一个二级类目,可采用如下方式计算关键词的卡方值:
其中,X2(Wi,Cj)表示针对第j个二级类目的第i个关键词所对应的卡方值。Wi表示第i个关键词。Cj表示第j个二级类目。A表示标注为第j个二级类目的语料样本中包括第i个关键词的样本数量。B表示未标注为第j个二级类目的语料样本中包括第i个关键词的样本数量。C表示标注为第j个二级类目的语料样本中不包括第i个关键词的样本数量。D表示未标注为第j个二级类目的语料样本中不包括第i个关键词的样本数量。Q表示A、B、C和D之和。
于是,针对每个二级类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序。最后取出前K个关键词来构建对应的词表,其中,K为大于或等于1的整数,例如,K设置为3。
再次,本申请实施例中,提供了一种基于卡方值确定关键词的方式。通过上述方式,对于二级类目,可采用卡方统计的方式来获取每个二级类目对应的关键词。这些关键词从某种程度上代表了二级类目表达的语义,从而强化文本融合向量中二级类目的特征表达。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
针对N个二级类目中的每个二级类目,获取二级类目所对应的类目词语;
针对N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量,具体包括:
针对N个二级类目中的每个二级类目,根据二级类目所对应的类目词语以及至少一个关键词,生成二级类目所对应的二级类目语义向量。
在一个或多个实施例中,介绍了一种基于二级类目对应文本构建二级类目语义向量的方式。由前述实施例可知,每个二级类目本身具有一定的语义,因此,还可以将二级类目对应的类目词语作为关键词。
具体地,为了便于理解,请参阅表5,表5为二级类目对应词表的一个示意。
表5
二级类目 | 词表 |
小游戏 | [小游戏,植物,即时通信,赛车] |
广场舞 | [广场舞,舞蹈,步子,节奏] |
手游 | [手游,手机,吃鸡,组队] |
手机 | [手机,无线网,价格,品牌] |
可见,每个二级类目对应的词表不仅包括基于语料样本集合获取到的关键词,还包括二级类目对应的类目词语。由此,根据二级类目所对应的类目词语以及K个关键词,生成该二级类目对应的二级类目语义向量。
再次,本申请实施例中,提供了一种基于二级类目对应文本构建二级类目语义向量的方式。通过上述方式,一方面,充分利用了基于语料样本集合的统计信息,避免直接使用二级类目的词向量带来的语义偏差问题。另一方面,进一步引入二级类目的词向量,能够更直接地提供语义信息,从而强化二级类目的语义表征。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,针对N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量,具体包括:
针对N个二级类目中的每个二级类目,获取至少一个关键词中每个关键词所对应的词向量;
针对N个二级类目中的每个二级类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到二级类目所对应的二级类目语义向量。
在一个或多个实施例中,介绍了一种生成二级类目语义向量的方式。由前述实施例可知,每个二级类目往往具有至少一个关键词,每个关键词具有其对应的词向量。因此,可对这些词向量采用平均池化处理或最大池化处理,以得到二级类目语义向量。
具体地,以二级类目“小游戏”为例进行说明,假设二级类目“小游戏”所对应的词表包括三个关键词,分别为“植物”,“即时通信”以及“赛车”。为了便于理解,请参阅表6,表6为关键词与词向量对应关系的一个示意。
表6
关键词 | 词向量 |
植物 | (0.1,0.8,0.6,0.1,…) |
即时通信 | (0.3,0.9,0.3,0.1,…) |
赛车 | (0.5,0.1,0.9,0.4,…) |
示例性地,一种情况下,第i个二级类目语义向量表示为:
cls_i=avg_pooling([v1,v2,..vK]);
其中,cls_i表示第i个二级类目语义向量。[v1,v2,..vK]表示K个关键词中每个关键词对应的词向量。avg_pooling表示向量平均化操作。
基于此,结合表6,得到二级类目“小游戏”的二级类目语义向量为[0.3,0.6,0.6,0.2,…]。
示例性地,另一种情况下,第i个二级类目语义向量表示为:
cls_i=max_pooling([v1,v2,..vK]);
其中,cls_i表示第i个二级类目语义向量。[v1,v2,..vK]表示K个关键词中每个关键词对应的词向量。max_pooling表示向量最大化操作。
基于此,结合表6,得到二级类目“小游戏”的二级类目语义向量为[0.5,0.9,0.9,0.4,…]。
N个二级类目语义向量可表示为e_emb=[cls_1,cls_2…,cls_N]。
再次,本申请实施例中,提供了一种生成二级类目语义向量的方式。通过上述方式,可采用平均池化操作或最大池化操作对二级类目对应的关键词进行处理,由此,得到用于表征第二类目的二级类目语义向量。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,具体包括:
对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据第一融合矩阵以及第二融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第一融合矩阵以及第二融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成N个文本编码向量,由此,可对N个文本编码向量与N个二级类目语义向量进行操作。基于此,下面将介绍生成第一融合矩阵和第二融合矩阵的方式。
(1)基于向量拼接生成第一融合矩阵;
具体地,对N个二级类目语义向量和文本编码向量进行拼接,得到第一融合矩阵。即:
fusion1=V(l1_emb:e_emb);
其中,fusion1表示第一融合矩阵。V表示一级映射参数矩阵。[:]为向量拼接方式。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。
(2)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
下面将结合示例,介绍构建文本融合向量的方式。
方式一,将第一融合矩阵和第二融合矩阵进行拼接,得到一个综合矩阵,再对综合矩阵进行平均池化处理或最大池化处理,以得到文本融合向量。即:
fusion=avg_pooling([fusion1:fusion2]);或,
fusion=max_pooling([fusion1:fusion2]);
其中,fusion表示文本融合向量。fusion1表示第一融合矩阵,fusion2表示第二融合矩阵。avg_pooling表示平均池化处理。max_pooling表示最大池化处理。
方式二,将第一融合矩阵和第二融合矩阵进行拼接,得到一个综合矩阵,再通过全连接层对综合矩阵进行处理,以此得到文本融合向量。即:
fusion=FC([fusion1:fusion2]);
其中,FC表示全连接层的计算。
方式三,分别对第一融合矩阵和第二融合矩阵进行平均池化处理或最大池化处理,得到对应的两个向量。再对这两个向量进行拼接,得到文本融合向量。即:
fusion=[avg_pooling(fusion1):avg_pooling(fusion2)];或,
fusion=[max_pooling(fusion1):max_pooling(fusion2)];
方式四,分别通过全连接层对第一融合矩阵和第二融合矩阵进行处理,得到对应的两个向量。再对这两个向量进行拼接,得到文本融合向量。即:
fusion=[FC(fusion1):FC(fusion2)];
需要说明的是,本申请可采用上述任意一种方式生成文本融合向量,此处不做限定。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于两个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,具体包括:
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第二融合矩阵和第三融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成N个文本编码向量,由此,可对N个文本编码向量与N个二级类目语义向量进行操作。基于此,下面将介绍生成第二融合矩阵以及第三融合矩阵的方式。
(1)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
(2)基于向量余弦相似度生成第三融合矩阵;
具体地,对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵。即:
其中,fusion3表示第三融合矩阵。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。U2表示第三映射矩阵。V2表示第四映射矩阵。⊙表示元素点乘。
下面将结合示例,介绍构建文本融合向量的方式。
方式一,将第二融合矩阵和第三融合矩阵进行拼接,得到一个综合矩阵,再对综合矩阵进行平均池化处理或最大池化处理,以得到文本融合向量。即:
fusion=avg_pooling([fusion2:fusion3]);或,
fusion=max_pooling([fusion2:fusion3]);
其中,fusion表示文本融合向量。fusion2表示第二融合矩阵,fusion3表示第三融合矩阵。avg_pooling表示平均池化处理。max_pooling表示最大池化处理。
方式二,将第二融合矩阵和第三融合矩阵进行拼接,得到一个综合矩阵,再通过全连接层对综合矩阵进行处理,以此得到文本融合向量。即:
fusion=FC([fusion2:fusion3]);
其中,FC表示全连接层的计算。
方式三,分别对第二融合矩阵和第三融合矩阵进行平均池化处理或最大池化处理,得到对应的两个向量。再对这两个向量进行拼接,得到文本融合向量。即:
fusion=[avg_pooling(fusion2):avg_pooling(fusion3)];或,
fusion=[max_pooling(fusion2):max_pooling(fusion3)];
方式四,分别通过全连接层对第二融合矩阵和第三融合矩阵进行处理,得到对应的两个向量。再对这两个向量进行拼接,得到文本融合向量。即:
fusion=[FC(fusion2):FC(fusion3)];
需要说明的是,本申请可采用上述任意一种方式生成文本融合向量,此处不做限定。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于两个不同角度来构建融合特征,即,第一,引入参数矩阵能够实现特征的深度融合,第二,对N个二级类目语义向量与文本编码向量进行匹配,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,具体包括:
对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第一融合矩阵、第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第一融合矩阵、第二融合矩阵和第三融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成N个文本编码向量,由此,可对N个文本编码向量与N个二级类目语义向量进行操作。基于此,下面将介绍生成第一融合矩阵、第二融合矩阵以及第三融合矩阵的方式。
(1)基于向量拼接生成第一融合矩阵;
具体地,对N个二级类目语义向量和文本编码向量进行拼接,得到第一融合矩阵。即:
fusion1=V(l1_emb:e_emb);
其中,fusion1表示第一融合矩阵。V表示一级映射参数矩阵。[:]为向量拼接方式。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。
(2)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
(3)基于向量余弦相似度生成第三融合矩阵;
具体地,对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵。即:
其中,fusion3表示第三融合矩阵。l1_emb表示文本编码向量。e_emb表示N个二级类目语义向量。U2表示第三映射矩阵。V2表示第四映射矩阵。⊙表示元素点乘。
下面将结合示例,介绍构建文本融合向量的方式。
方式一,将第一融合矩阵、第二融合矩阵和第三融合矩阵进行拼接,得到一个综合矩阵,再对综合矩阵进行平均池化处理或最大池化处理,以得到文本融合向量。即:
fusion=avg_pooling([fusion1:fusion2:fusion3]);或,
fusion=max_pooling([fusion1:fusion2:fusion3]);
其中,fusion表示文本融合向量。fusion1表示第一融合矩阵,fusion2表示第二融合矩阵,fusion3表示第三融合矩阵。avg_pooling表示平均池化处理。max_pooling表示最大池化处理。
方式二,将第一融合矩阵、第二融合矩阵和第三融合矩阵进行拼接,得到一个综合矩阵,再通过全连接层对综合矩阵进行处理,以此得到文本融合向量。即:
fusion=FC([fusion1:fusion2:fusion3]);
其中,FC表示全连接层的计算。
方式三,分别对第一融合矩阵、第二融合矩阵和第三融合矩阵进行平均池化处理或最大池化处理,得到对应的三个向量。再对这三个向量进行拼接,得到文本融合向量。即:
fusion=[avg_pooling(fusion1):avg_pooling(fusion2):avg_pooling(fusion3)];或,
fusion=[max_pooling(fusion1):max_pooling(fusion2):max_pooling(fusion3)];
方式四,分别通过全连接层对第一融合矩阵、第二融合矩阵和第三融合矩阵进行处理,得到对应的三个向量。再对这三个向量进行拼接,得到文本融合向量。即:
fusion=[FC(fusion1):FC(fusion2):FC(fusion3)];
需要说明的是,本申请可采用上述任意一种方式生成文本融合向量,此处不做限定。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于三个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,第三,对N个二级类目语义向量与文本编码向量进行匹配。以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,还可以包括:
获取针对目标视频的目标文本信息,其中,目标文本信息包括目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取针对目标图片的目标文本信息,其中,目标文本信息包括目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取针对目标商品的目标文本信息,其中,目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取针对目标文本的目标文本信息,其中,目标文本信息包括目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
在一个或多个实施例中,介绍了多种提取目标文本信息的方式。由前述实施例可知,目标文本信息可来源于视频平台、公众号、电商平台或者微博等,下面将分别以目标视频、目标图片、目标商品以及目标文本为例介绍层次分类任务。
任务一,对目标视频进行层次分类;
示例性地,视频标题、摘要信息、字幕信息以及评论信息是视频内容的主要成分,结合NLP等算法完成对文本的解析,从而强化视频语义信息的理解,是视频搜索系统的重要工作之一。其中,摘要信息可以是对视频的简要介绍,字幕信息是从视频中提取的字幕,评论信息是指用户对视频进行评论的信息。
为了便于理解,请参阅图6,图6为本申请实施例中视频内容层次分类任务的一个示意图,如图所示,假设从目标视频中提取的目标文本信息为“这个英雄没发育起来,经济被压制,完全没法继续战斗啊”,将目标文本信息输入至层级分类模型,由此,得到目标一级类目为“游戏”,目标二级类目为“手游”。
任务二,对目标图片进行层次分类;
示例性地,标题信息、作者信息、OCR信息以及摘要信息是图片内容的主要成分,结合NLP等算法完成对文本的解析,从而强化图片语义信息的理解,是图片搜索系统的重要工作之一。其中,作者信息表示图片的拍摄者姓名或者制作方信息,OCR信息表示从图片中识别出的文本信息,摘要信息可以是对图片的简要介绍。
为了便于理解,请参阅图7,图7为本申请实施例中图片内容层次分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“画中的人物高傲而又自尊,她穿戴着豪华的服饰,坐在华贵的敞蓬马车上”,将目标文本信息输入至层级分类模型,由此,得到目标一级类目为“画作”,目标二级类目为“人物”。
任务三,对目标商品进行层次分类;
示例性地,商品名称信息、产地信息、评论信息以及商品描述信息是商品内容的主要成分,结合NLP等算法完成对文本的解析,从而强化商品语义信息的理解,是商品搜索系统的重要工作之一。其中,评论信息表示购买方对商品的评论,商品描述信息表示商家对商品的简要介绍。
为了便于理解,请参阅图8,图8为本申请实施例中商品内容层次分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“商品类型:日历;产地:浙江;销售量:5000/月;价格:18元”,将目标文本信息输入至层级分类模型,由此,得到目标一级类目为“电器”,目标二级类目为“电话”。
任务四,对目标文本进行层次分类;
示例性地,标题信息、作者信息、摘要信息、评论信息以及正文信息是文本内容的主要成分,结合NLP等算法完成对文本的解析,从而强化文本语义信息的理解,是文本搜索系统的重要工作之一。其中,评论信息表示购买方对商品的评论,商品描述信息表示商家对商品的简要介绍。
为了便于理解,请参阅图9,图9为本申请实施例中文本内容层次分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“玫瑰是蔷薇目,…,玫瑰一直备受推崇”,将目标文本信息输入至层级分类模型,由此,得到目标一级类目为“科普”,目标二级类目为“植物”。
需要说明的是,在实际应用中,还可以包括更多类型的任务,本申请介绍的四类层次分类任务仅为一个示意,不应理解为对本申请的限定。
其次,本申请实施例中,提供了多种提取目标文本信息的方式,通过上述方式,能够应用于不同的类目分类场景,无论是视频还是图片,无论是商品还是文本,都可以采用本申请提供的方法提取相应的目标文本信息,以此进行进一步的预测,从而提升方案的灵活性和多样性。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
接收终端发送针对于待搜索内容的类目查询指令;
响应于类目查询指令,若待搜索内容为视频内容,则向终端发送视频搜索结果;
响应于类目查询指令,若待搜索内容为图片内容,则向终端发送图片搜索结果;
响应于类目查询指令,若待搜索内容为商品内容,则向终端发送商品搜索结果;
响应于类目查询指令,若待搜索内容为文本内容,则向终端发送文本搜索结果。
在一个或多个实施例中,介绍了多种在搜索场景下推送相应类目对应内容的方式。由前述实施例可知,用户还可以通过终端向服务器发送针对于待搜索内容的类目查询指令,服务器响应于类目查询指令,并根据待搜索内容确定需要向终端推送的搜索结果。下面将结合四类应用场景进行说明。
一、视频搜索场景;
用户可在视频平台上搜索视频,即,待搜索内容为视频内容。为了便于理解,请参阅图10,图10为本申请实施例中基于多级类目显示视频搜索结果的一个界面示意图,如图10中(A)图所示,在视频平台上显示有多个一级类目,假设用户触发了针对“综艺”的类目查询指令,基于此,可显示与一级类目“综艺”有关的二级类目。例如,“真人秀”、“舞蹈”和“情感”等。假设用户触发了针对“真人秀”的类目查询指令,如图10中(B)图所示,在视频搜索结果中显示有下一级类目相关的内容,例如,“超级剧本杀”等。
二、图片搜索场景;
用户可在壁纸平台上搜索壁纸,即,待搜索内容为图片内容。为了便于理解,请参阅图11,图11为本申请实施例中基于多级类目显示图片搜索结果的一个界面示意图,如图11中(A)图所示,在壁纸平台上显示有多个一级类目,假设用户触发了针对“星座壁纸”的类目查询指令,基于此,可显示与一级类目“星座壁纸”有关的二级类目。如图11中(B)图所示,在图片搜索结果中显示有二级类目相关的内容,例如,“白羊座”等。
三、商品搜索场景;
用户可在电商平台上搜索商品,即,待搜索内容为商品内容。为了便于理解,请参阅图12,图12为本申请实施例中基于多级类目显示商品搜索结果的一个界面示意图,如图12中(A)图所示,在电商平台上显示有多个一级类目,假设用户触发了针对“家电”的类目查询指令,基于此,可显示与一级类目“家电”有关的二级类目。如图12中(B)图所示,在商品搜索结果中显示有二级类目相关的内容,例如,“电视”等。
四、文本搜索场景;
用户可在电子书平台上搜索小说,即,待搜索内容为文本内容。为了便于理解,请参阅图13,图13为本申请实施例中基于多级类目显示文本搜索结果的一个界面示意图,如图13中(A)图所示,在电子书平台上显示有多个一级类目,假设用户触发了针对“科幻”的类目查询指令,基于此,可显示与一级类目“科幻”有关的二级类目。如图13中(B)图所示,在文本搜索结果中显示有二级类目相关的内容,例如,“机器时代”等。
需要说明的是,在实际应用中,还可以涉及更多的应用场景,本申请介绍的四类应用场景仅为一个示意,不应理解为对本申请的限定。
其次,本申请实施例中,提供了多种在搜索场景下推送相应类目对应内容的方式,通过上述方式,后台可根据用户输入的待搜索内容判断搜索对象(例如,视频内容、图片内容、商品内容或文本内容等),基于此,后台结合预先确定的多级类目,能够高效地搜索到用户感兴趣的内容,并推送至用户使用的终端,从而提升搜索效率。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,还可以包括:
基于待训练文本信息,通过待训练层级分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于一级标注类目以及二级标注类目;
基于预测文本编码向量,通过待训练层级分类模型所包括的第一待训练分类器获取第一预测分布向量,其中,第一预测分布向量包括M个第一概率值,第一预测分布向量中的每个第一概率值对应于一个一级类目的概率值;
根据预测文本编码向量以及N个二级类目语义向量,生成预测文本融合向量;
基于预测文本融合向量,通过待训练层级分类模型所包括的第二待训练分类器获取第二预测分布向量,其中,第二预测分布向量包括N个第二概率值,第二预测分布向量中的每个第二概率值对应于一个二级类目的概率值;
根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目,对待训练层级分类模型的模型参数进行更新,直至满足模型训练条件,得到层级分类模型。
在一个或多个实施例中,介绍了一种层级分类模型的训练方法。由前述实施例可知,待训练层级分类模型包括待训练编码器、第一待训练分类器以及第二待训练分类器。待训练层级分类模型满足模型训练条件时,即得到层级分类模型。下面将以对一个待训练文本信息进行训练为例进行介绍,在实际训练过程中,需要更多数量的待训练文本信息。
具体地,首先,获取待训练文本信息,其中,待训练文本信息已预先采用人工标注的方式确定其对应的一级标注类目以及二级标注类目。然后将待训练文本信息作为待训练编码器的输入,通过待训练编码器输出预测文本编码向量。再将预测文本编码向量输入至待训练层级分类模型所包括的第一待训练分类器中,由第一待训练分类器输出第一预测分布向量。其中,第一预测分布向量即为一级类目的预测结果,第一预测分布向量包括M个第一概率值,每个第一概率值表示为对应一级类目的概率值。
此外,还需要将预测文本编码向量与N个二级类目语义向量进行融合,得到预测文本融合向量。基于此,可将预测文本融合向量输入至待训练层级分类模型所包括的第二待训练分类器,由第二待训练分类器输出第二预测分布向量。其中,第二预测分布向量即为二级类目的预测结果,第二预测分布向量包括N个第二概率值,每个第二概率值表示为对应二级类目的概率值。
最后,采用损失函数,根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目计算得到综合损失值。于是,采用随机梯度下降法对综合损失值进行梯度计算,以此对待训练层级分类模型的模型参数进行更新。当迭代次数达到阈值,或者,综合损失值已收敛,则表示满足模型训练条件。
其次,本申请实施例中,提供了一种层级分类模型的训练方法,通过上述方式,能够训练用于实现多级类目分类的层级分类模型。在训练过程中,也融合了二级类目语义向量,从而有利于增强模型对于类目的学习能力,进而提升类目分类的准确率。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目,对待训练层级分类模型的模型参数进行更新,具体包括:
根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
根据第一损失值和第二损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
在一个或多个实施例中,介绍了一种采用交叉熵损失函数对模型参数进行更新的方式。由前述实施例可知,训练时可采用静态权重和的方式作为任务最终的损失函数。此外,还可以采用动态权重和的方式作为任务最终的损失函数,例如,引入动态任务优先级(Dynamic Task Priority,DTP)或焦点损失(Focal Loss),这类损失可根据实际损失模块的损失值大小来调整相关的权重值,使最终的损失值更关注于损失值大的模块。
具体地,本申请使用的损失函数可以由两个部分组成,包括针对第一预测分布向量以及一级标注类目采用第一分类损失函数(例如,负对数损失函数),以及,针对第二预测分布向量以及二级标注类目采用第二分类损失函数(例如,负对数损失函数)。
针对一个待训练文本信息,其总损失函数可表示为如下公式:
Loss=λ1losscls1+λ2losscls2;
其中,Loss表示待训练文本信息的综合损失值。λ1表示第一权重值(即,用于调整一级类目分类任务的超参数)。λ2表示第二权重值(即,用于调整二级类目分类任务的超参数)。losscls1表示待训练文本信息的第一损失值。losscls2表示待训练文本信息的第二损失值。
由于本申请以使一个待训练文本信息为例进行介绍的,如果涉及到多个待训练文本信息,则需要累加这些待训练文本信息的综合损失值。
基于此,还需要分别计算第一损失值和第二损失值,第一损失值的计算方式如下所示:
其中,losscls1表示待训练文本信息的第一损失值。M表示一级类目总数。i表示第i个一级类目。yi表示针对第i个一级类目的一级标注类目(即,标注是否属于第i个一级类目,yi为1时表示属于第i个一级类目,yi为0时表示不属于第i个一级类目)。ai表示第一预测分布向量中的第i个第一概率值(即,预测为第i个一级类目的概率值)。
第二损失值的计算方式如下所示:
其中,losscls2表示待训练文本信息的第二损失值。N表示二级类目总数。j表示第j个二级类目。yj表示针对第j个二级类目的二级标注类目(即,标注是否属于第j个二级类目,yj为1时表示属于第j个二级类目,yj为0时表示不属于第j个二级类目)。aj表示第二预测分布向量中的第j个第二概率值(即,预测为第j个二级类目的概率值)。
再次,本申请实施例中,提供了一种采用交叉熵损失函数对模型参数进行更新的方式,通过上述方式,利用多个分类器对应的交叉熵损失值对模型进行训练,能够有效地提升分类器的分类效果,从而提升多级类目分类的准确性。
可选地,在上述图4对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目,对待训练层级分类模型的模型参数进行更新,具体包括:
根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
从第一预测分布向量中确定与一级标注类目对应的第一元素预测分值,并从第二预测分布向量中确定与二级标注类目对应的第二元素预测分值;
根据第一元素预测分值、第二元素预测分值以及目标超参数,采用合页损失函数计算得到针对待训练文本信息的第三损失值;
根据第一损失值、第二损失值和第三损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
在一个或多个实施例中,介绍了一种采用交叉熵损失函数和合页损失函数对模型参数进行更新的方式。由前述实施例可知,训练时可采用静态权重和或动态权重和的方式作为任务最终的损失函数。
具体地,本申请使用的损失函数可以由三个部分组成,包括针对第一预测分布向量以及一级标注类目采用第一分类损失函数(例如,负对数损失函数),以及,针对第二预测分布向量以及二级标注类目采用第二分类损失函数(例如,负对数损失函数)。此外,为了保证两级分类结果的一致性,还增加一个增加合页损失函数。假设上层类目的分类总是易于下级类目的分类,因此,增加合页损失函数可令一级类目的概率总是大于对应的二级类目。
针对一个待训练文本信息,其总损失函数可表示为如下公式:
Loss=λ1losscls1+λ2losscls2+λ3lossh;
其中,Loss表示待训练文本信息的综合损失值。λ1表示第一权重值(即,用于调整一级类目分类任务的超参数)。λ2表示第二权重值(即,用于调整二级类目分类任务的超参数)。λ3表示第三权重值。losscls1表示待训练文本信息的第一损失值。losscls2表示待训练文本信息的第二损失值。lossh表示待训练文本信息的第三损失值。
由于本申请以使一个待训练文本信息为例进行介绍的,如果涉及到多个待训练文本信息,则需要累加这些待训练文本信息的综合损失值。
基于此,还需要分别计算第一损失值、第二损失值和第三损失值,需要说明的是,第一损失值和第二损失值的计算方式可参阅前述实施例,此处不做赘述。
合页损失函数可表示为如下公式:
lossh=max(0,λ+l2_score-l1_score);
其中,lossh表示待训练文本信息的第三损失值。λ表示目标超参数。l2_score表示第二预测分布向量中确定与二级标注类目对应的第二元素预测分值,例如,二级标注类目为“手游”,“手游”对应于第二预测分布向量中的第5个索引值,因此,将第二预测分布向量中第5个索引值所对应的第二概率值作为第二元素预测分值。类似地,l1_score表示第一预测分布向量中确定与一级标注类目对应的第一元素预测分值,例如,一级标注类目为“游戏”,“游戏”对应于第一预测分布向量中的第30个索引值,因此,将第一预测分布向量中第30个索引值所对应的第一概率值作为第一元素预测分值。max(·)表示取最大值。
再次,本申请实施例中,提供了一种采用交叉熵损失函数和合页损失函数对模型参数进行更新的方式,通过上述方式,由于上层类目的分类通常易于下级类目的分类,即,细粒度的二级类目分类难度更大,因此,增加合页损失函数可用于保证一级类目的概率应该总是大于对应的二级类目,从而保证两级类目的一致性,以此提升多层级类目分类准确性。
结合上述介绍,下面将对本申请中类目确定的方法进行介绍,请参阅图14,本申请实施例中类目确定的方法可以由计算机设备执行,该计算机设备可以是终端或服务器,包括:
210、基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
在一个或多个实施例中,获取目标文本信息,将目标文本信息输入至类目分类模型所包括的编码器,通过编码器输出文本编码向量。其中,目标文本信息可来源于视频、图片或文章等,而目标文本信息可以是标题句子或者段落等,此处不做限定。
需要说明的是,步骤210与步骤110的描述相似,故此处不做赘述。
220、根据文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,T为大于1的整数;
在一个或多个实施例中,获取T个类目语义向量,这里的T个类目语义向量是预先训练得到的。即,对于每个类目而言,构建其对应的词表,其中,词表包括若干个关键词。基于此,对每个类目所对应的词表进行编码,从而得到每个类目的表征向量,即,得到类目语义向量。
具体地,在实际应用中,可直接调用各个类目对应的类目语义向量,然后将文本编码向量与T个类目语义向量进行特征融合,得到文本融合向量(fusion)。基于此,通过融合交互的方式来强化目标文本信息与类目之间的语义。
230、基于文本融合向量,通过类目分类模型所包括的分类器获取目标分布向量,其中,目标分布向量包括T个概率值,目标分布向量中的每个概率值对应于一个类目的概率值;
在一个或多个实施例中,将文本融合向量(fusion)输入至类目分类模型所包括的分类器(classify)中,由分类器(classify)输出目标分布向量(logits)。即,logits=classify(fusion)。目标分布向量表示为logits=[c1,c2,…,cT]。其中,概率值(ci)表示预测为第i个类目的概率值,T表示类目的总数,每个概率值表示为对应类目的概率值。
可以理解的是,分类器包括FNN,即,logits=softmax(FNN(fusion))。也就是说,将FNN输出的结果输入到softmax,通过softmax输出目标分布向量(logits)。
具体地,为了便于理解,请参阅图15,图15为本申请实施例中类目分类模型的一个结构示意图,如图所示,目标文本信息输入至编码器(encoder),由编码器(encoder)输出对应的文本编码向量(l1_emb)。基于此,将文本编码向量(l1_emb)与T个类目语义向量(e_emb)进行融合,得到文本融合向量(fusion)。其中,T个类目语义向量(e_emb)为基于T个类目对应的词表构建的。将文本融合向量(fusion)作为分类器(classify)的输入,通过分类器(classify)输出目标分布向量(logits)。
240、根据目标分布向量确定目标文本信息所属的目标类目。
在一个或多个实施例中,根据目标分布向量确定最大概率值所对应的类目,并将该类目作为目标类目。
本申请实施例中,提供了一种类目确定的方法。通过上述方式,针对各个类目,可根据至少两个关键词构建其对应的语义向量(即,类目语义向),基于此,利用类目语义向与文本编码向量生成文本融合向量,将文本融合向量作为预测类目的依据。由于类目语义向引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,还可以包括:
基于待训练文本信息,通过待训练类目分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于标注类目;
根据预测文本编码向量以及T个类目语义向量,生成预测文本融合向量;
基于预测文本融合向量,通过待训练类目分类模型所包括的待训练分类器获取目标预测分布向量,其中,目标预测分布向量包括T个概率值,目标预测分布向量中的每个概率值对应于一个类目的概率值;
根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,直至满足模型训练条件,得到类目分类模型。
在一个或多个实施例中,介绍了一种类目分类模型的训练方法。由前述实施例可知,待训练类目分类模型包括待训练编码器以及待训练分类器。待训练类目分类模型满足模型训练条件时,即得到类目分类模型。下面将以对一个待训练文本信息进行训练为例进行介绍,在实际训练过程中,需要更多数量的待训练文本信息。
具体地,首先,获取待训练文本信息,其中,待训练文本信息已预先采用人工标注的方式确定其对应的标注类目。然后将待训练文本信息作为待训练编码器的输入,通过待训练编码器输出预测文本编码向量。预测文本融合向量再将预测文本融合向量输入至待训练类目分类模型所包括的待训练分类器中,由待训练分类器输出目标预测分布向量。其中,目标预测分布向量即为类目的预测结果,目标预测分布向量包括T个概率值,每个概率值表示为对应类目的概率值。
最后,采用损失函数,根据目标预测分布向量以及标注类目计算得到综合损失值。于是,采用随机梯度下降法对损失值进行梯度计算,以此对待训练类目分类模型的模型参数进行更新。当迭代次数达到阈值,或者,损失值已收敛,则表示满足模型训练条件。
其次,本申请实施例中,提供了一种类目分类模型的训练方法,通过上述方式,能够训练用于实现单个类目分类的类目分类模型。在训练过程中,也融合了类目语义向量,从而有利于增强模型对于类目的学习能力,进而提升类目分类的准确率。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,具体包括:
根据目标预测分布向量以及标注类目,采用分类损失函数计算得到针对待训练文本信息的损失值;
根据损失值对待训练类目分类模型的模型参数进行更新。
在一个或多个实施例中,介绍了一种采用交叉熵损失函数对模型参数进行更新的方式。由前述实施例可知,针对一个待训练文本信息,可采用分类损失函数计算其对应的损失值。涉及到多个待训练文本信息时,需要累加这些待训练文本信息的损失值。
具体地,针对一个待训练文本信息,分类损失函数如下所示:
其中,losscls表示待训练文本信息的损失值。T表示类目总数。t表示第t个类目。yt表示针对第t个类目的标注类目(即,标注是否属于第t个类目,yt为1时表示属于第t个类目,yt为0时表示不属于第t个类目)。at表示目标预测分布向量中的第t个概率值(即,预测为第t个类目的概率值)。
再次,本申请实施例中,提供了一种采用交叉熵损失函数对模型参数进行更新的方式,通过上述方式,利用多交叉熵损失值对模型进行训练,能够有效地提升分类器的分类效果,从而提升类目分类的准确性。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
获取语料样本集合,其中,语料样本集合中包括至少一个语料样本,每个语料样本对应于一个类目;
针对T个类目中的每个类目,根据语料样本集合确定类目所对应的候选关键词集合;
针对T个类目中的每个类目,从候选关键词集合中获取至少一个关键词;
针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量。
在一个或多个实施例中,介绍了一种构建类目语义向量的方式。由前述实施例可知,首先需要获取语料样本集合,按各个语料样本对应的类目,对这些语料样本集合进行划分。划分完毕之后,针对每个类目,分别从对应的语料样本中提取候选关键词集合,然后从候选关键词集合中选择至少一个关键词。基于此,针对每个类目,获取各个关键词的词向量,最后,根据这些词向量生成对应的类目语义向量。
具体地,为了便于理解,请参阅表7,表7为语料样本集合的一个示意。
表7
语料样本 | 类目 |
跳一跳,教你上600分的攻略 | 小游戏 |
广场舞跳一跳更健康 | 广场舞 |
太难打了,经济被压制,手机给你来玩吧 | 手游 |
手机迭代的速度是其成为消耗品的主要原因 | 手机 |
对语料样本集合进行划分,针对每个类目,分别从对应的语料样本中提取相应的候选关键词集合。为了便于理解,请参阅表8,表8为类目对应候选关键词集合的一个示意。
表8
类目 | 候选关键词集合 |
小游戏 | [打地鼠,植物,即时通信,塔防,运动,赛车] |
广场舞 | [广场舞,公园,舞蹈,步子,节奏,气氛,团队] |
手游 | [手机,吃鸡,组队,好友,胜利,失败,游戏应用] |
手机 | [无线网,麦克风,摄像头,按键,价格,品牌] |
基于此,可进一步从各个类目对应的候选关键词集合中提取至少一个关键词,再获取各个关键词的词向量。其中,词向量在通用语料上训练完成的,训练方式一般采用word2vec、one-hot、BERT或矩阵分解等方式。
需要说明的是,在实际应用中,可采用卡方统计,或,TGI统计,或,词频统计等方式,从候选关键词集合中提取一个或多个关键词。为了便于理解,请参阅表9,表9为类目对应词表的一个示意。
表9
类目 | 词表 |
小游戏 | [植物,即时通信,赛车] |
广场舞 | [舞蹈,步子,节奏] |
手游 | [手机,吃鸡,组队] |
手机 | [无线网,价格,品牌] |
基于此,针对每个类目,根据其对应的至少一个关键词生成类目语义向量。
其次,本申请实施例中,提供了一种构建类目语义向量的方式。通过上述方式,引入类目相关的关键词作为生成类目语义向量的依据,强化文本融合向量中对应的类目的特征表达。在类目训练数据缺失的情形下,该种方式也更为有利,从而有利于提升类目分类的准确性。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,针对T个类目中的每个类目,从候选关键词集合中获取至少一个关键词,具体包括:
针对T个类目中的每个类目,根据语料样本集合以及每个语料样本所对应的类目,计算候选关键词集合中每个关键词的卡方值;
针对T个类目中的每个类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对T个类目中的每个类目,从排序后的候选关键词集合中选择前K个关键词作为至少一个关键词,其中,K为大于或等于1的整数。
在一个或多个实施例中,介绍了一种基于卡方值确定关键词的方式。由前述实施例可知,基于经过标注的语料样本集合,可对每个类目对应的关键词进行卡方统计,得到每个关键词与每个类目之间的重要程度。最终每个类目截取前K个(即,topK)重要的关键词,得到如表9所示的词表。
具体地,下面以类目“小游戏”为例进行说明。假设语料样本集合包括10000个语料样本,其中,有1000个语料样本被标注为“小游戏”。于是针对这1000个语料样本,在排除停用词的情况下先选出候选关键词集合。然后分别计算候选关键词集合中各个关键词的卡方值。为了便于理解,以关键词“跳一跳”为例进行介绍。请参阅表10,表10为针对类目“小游戏”与关键词“跳一跳”构建的一个卡方统计表。
表10
基于此,针对一个类目,可采用如下方式计算关键词的卡方值:
其中,Y2(Wi,Cj)表示针对第j个类目的第i个关键词所对应的卡方值。Wi表示第i个关键词。Cj表示第j个类目。A表示标注为第j个类目的语料样本中包括第i个关键词的样本数量。B表示未标注为第j个类目的语料样本中包括第i个关键词的样本数量。C表示标注为第j个类目的语料样本中不包括第i个关键词的样本数量。D表示未标注为第j个类目的语料样本中不包括第i个关键词的样本数量。Q表示A、B、C和D之和。
于是,针对每个类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序。最后取出前K个关键词来构建对应的词表,其中,K为大于或等于1的整数,例如,K设置为3。
再次,本申请实施例中,提供了一种基于卡方值确定关键词的方式。通过上述方式,可采用卡方统计的方式来确定每个类目对应的关键词。这些关键词从某种程度上代表了类目的语义,从而强化文本融合向量中类目的特征表达。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
针对T个类目中的每个类目,获取类目所对应的类目词语;
针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量,包括:
针对T个类目中的每个类目,根据类目所对应的类目词语以及至少一个关键词,生成类目所对应的类目语义向量。
在一个或多个实施例中,介绍了一种基于类目对应文本构建类目语义向量的方式。由前述实施例可知,每个类目本身具有一定的语义,因此,还可以将类目对应的类目词语作为关键词。
具体地,为了便于理解,请参阅表11,表11为类目对应词表的一个示意。
表11
类目 | 词表 |
小游戏 | [小游戏,植物,即时通信,赛车] |
广场舞 | [广场舞,舞蹈,步子,节奏] |
手游 | [手游,手机,吃鸡,组队] |
手机 | [手机,无线网,价格,品牌] |
可见,每个类目对应的词表不仅包括基于语料样本集合获取到的关键词,还包括类目对应的类目词语。由此,根据类目所对应的类目词语以及K个关键词,生成该类目对应的类目语义向量。
再次,本申请实施例中,提供了一种基于类目对应文本构建类目语义向量的方式。通过上述方式,一方面,充分利用了基于语料样本集合的统计信息,避免直接使用类目的词向量带来的语义偏差问题。另一方面,进一步引入类目的词向量,能够更直接地提供语义信息,从而强化类目的语义表征。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,针对T个类目中的每个类目,根据至少一个关键词生成类目所对应的类目语义向量,具体包括:
针对T个类目中的每个类目,获取至少一个关键词中每个关键词所对应的词向量;
针对T个类目中的每个类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到类目所对应的类目语义向量。
在一个或多个实施例中,介绍了一种生成类目语义向量的方式。由前述实施例可知,每个类目往往具有至少一个关键词,每个关键词具有其对应的词向量。因此,可对这些词向量采用平均池化处理或最大池化处理,以得到类目语义向量。
具体地,以类目“小游戏”为例进行说明,假设类目“小游戏”所对应的词表包括三个关键词,分别为“植物”,“即时通信”以及“赛车”。为了便于理解,请参阅表12,表12为关键词与词向量对应关系的一个示意。
表12
关键词 | 词向量 |
植物 | (0.1,0.8,0.6,0.1,…) |
即时通信 | (0.3,0.9,0.3,0.1,…) |
赛车 | (0.5,0.1,0.9,0.4,…) |
示例性地,一种情况下,第i个类目语义向量表示为:
cls_i=avg_pooling([v1,v2,..vK]);
其中,cls_i表示第i个类目语义向量。[v1,v2,..vK]表示K个关键词中每个关键词对应的词向量。avg_pooling表示向量平均化操作。
基于此,结合表12,得到类目“小游戏”的类目语义向量为[0.3,0.6,0.6,0.2,…]。
示例性地,另一种情况下,第i个类目语义向量表示为:
cls_i=max_pooling([v1,v2,..vK]);
其中,cls_i表示第i个类目语义向量。[v1,v2,..vK]表示K个关键词中每个关键词对应的词向量。max_pooling表示向量最大化操作。
基于此,结合表12,得到类目“小游戏”的类目语义向量为[0.5,0.9,0.9,0.4,…]。
T个类目语义向量可表示为e_emb=[cls_1,cls_2…,cls_T]。
再次,本申请实施例中,提供了一种生成类目语义向量的方式。通过上述方式,可采用平均池化操作或最大池化操作对类目对应的关键词进行处理,由此,得到用于表征类目的类目语义向量。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,具体包括:
对T个类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据第一融合矩阵以及第二融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第一融合矩阵以及第二融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成T个文本编码向量,由此,可对T个文本编码向量与T个类目语义向量进行操作。基于此,下面将介绍生成第一融合矩阵和第二融合矩阵的方式。
(1)基于向量拼接生成第一融合矩阵;
具体地,对T个类目语义向量和文本编码向量进行拼接,得到第一融合矩阵。即:
fusion1=V(l1_emb:e_emb);
其中,fusion1表示第一融合矩阵。V表示一级映射参数矩阵。[:]为向量拼接方式。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。
(2)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
需要说明的是,文本融合向量的构建方式如前述实施例所述,故此处不做赘述。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于两个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,具体包括:
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第二融合矩阵和第三融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成T个文本编码向量,由此,可对T个文本编码向量与T个类目语义向量进行操作。基于此,下面将介绍生成第二融合矩阵以及第三融合矩阵的方式。
(1)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
(2)基于向量余弦相似度生成第三融合矩阵;
具体地,对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵。
即:
其中,fusion3表示第三融合矩阵。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。U2表示第三映射矩阵。V2表示第四映射矩阵。⊙表示元素点乘。
需要说明的是,文本融合向量的构建方式如前述实施例所述,故此处不做赘述。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于两个不同角度来构建融合特征,即,第一,引入参数矩阵能够实现特征的深度融合,第二,对T个类目语义向量与文本编码向量进行匹配,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,根据文本编码向量以及T个类目语义向量,生成文本融合向量,具体包括:
对T个类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第一融合矩阵、第二融合矩阵以及第三融合矩阵,生成文本融合向量。
在一个或多个实施例中,提供了一种生成文本融合向量的方式。由前述实施例可知,基于第一融合矩阵、第二融合矩阵和第三融合矩阵构建得到文本融合向量。在建模的时候,可以将文本编码向量(l1_emb)扩展成T个文本编码向量,由此,可对T个文本编码向量与T个类目语义向量进行操作。基于此,下面将介绍生成第一融合矩阵、第二融合矩阵以及第三融合矩阵的方式。
(1)基于向量拼接生成第一融合矩阵;
具体地,对T个类目语义向量和文本编码向量进行拼接,得到第一融合矩阵。即:
fusion1=V(l1_emb:e_emb);
其中,fusion1表示第一融合矩阵。V表示一级映射参数矩阵。[:]为向量拼接方式。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。
(2)基于张量分解生成第二融合矩阵;
具体地,采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵,并且采用第二映射矩阵对T个类目语义向量进行张量分解,得到第二矩阵,基于此,对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵。即:
fusion2=(U1*l1_emb)⊙(V1*e_emb);
其中,fusion2表示第二融合矩阵。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。U1表示第一映射矩阵。V1表示第二映射矩阵。(U1*l1_emb)表示第一矩阵。(V1*e_emb)表示第二矩阵。⊙表示元素点乘。
(3)基于向量余弦相似度生成第三融合矩阵;
具体地,对T个类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵。
即:
其中,fusion3表示第三融合矩阵。l1_emb表示文本编码向量。e_emb表示T个类目语义向量。U2表示第三映射矩阵。V2表示第四映射矩阵。⊙表示元素点乘。
需要说明的是,文本融合向量的构建方式如前述实施例所述,故此处不做赘述。
其次,本申请实施例中,提供了一种生成文本融合向量的方式。通过上述方式,基于三个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,第三,对T个类目语义向量与文本编码向量进行匹配。以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量之前,还可以包括:
获取针对目标视频的目标文本信息,其中,目标文本信息包括目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取针对目标图片的目标文本信息,其中,目标文本信息包括目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取针对目标商品的目标文本信息,其中,目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取针对目标文本的目标文本信息,其中,目标文本信息包括目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
在一个或多个实施例中,介绍了多种提取目标文本信息的方式。由前述实施例可知,目标文本信息可来源于视频平台、公众号、电商平台或者微博等,下面将分别以目标视频、目标图片、目标商品以及目标文本为例介绍分类任务。
任务一,对目标视频进行分类;
示例性地,视频标题、摘要信息、字幕信息以及评论信息是视频内容的主要成分,结合NLP等算法完成对文本的解析,从而强化视频语义信息的理解,是视频搜索系统的重要工作之一。其中,摘要信息可以是对视频的简要介绍,字幕信息是从视频中提取的字幕,评论信息是指用户对视频进行评论的信息。
为了便于理解,请参阅图16,图16为本申请实施例中视频内容分类任务的一个示意图,如图所示,假设从目标视频中提取的目标文本信息为“这个英雄没发育起来,经济被压制,完全没法继续战斗啊”,将目标文本信息输入至类目分类模型,由此,得到目标类目为“手游”。
任务二,对目标图片进行分类;
示例性地,标题信息、作者信息、OCR信息以及摘要信息是图片内容的主要成分,结合NLP等算法完成对文本的解析,从而强化图片语义信息的理解,是图片搜索系统的重要工作之一。其中,作者信息表示图片的拍摄者姓名或者制作方信息,OCR信息表示从图片中识别出的文本信息,摘要信息可以是对图片的简要介绍。
为了便于理解,请参阅图17,图17为本申请实施例中图片内容分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“画中的人物高傲而又自尊,她穿戴着豪华的服饰,坐在华贵的敞蓬马车上”,将目标文本信息输入至类目分类模型,由此,得到目标类目为“人物”。
任务三,对目标商品进行分类;
示例性地,商品名称信息、产地信息、评论信息以及商品描述信息是商品内容的主要成分,结合NLP等算法完成对文本的解析,从而强化商品语义信息的理解,是商品搜索系统的重要工作之一。其中,评论信息表示购买方对商品的评论,商品描述信息表示商家对商品的简要介绍。
为了便于理解,请参阅图18,图18为本申请实施例中商品内容分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“商品类型:日历;产地:浙江;销售量:5000/月;价格:18元”,将目标文本信息输入至类目分类模型,由此,得到目标类目为“电话”。
任务四,对目标文本进行分类;
示例性地,标题信息、作者信息、摘要信息、评论信息以及正文信息是文本内容的主要成分,结合NLP等算法完成对文本的解析,从而强化文本语义信息的理解,是文本搜索系统的重要工作之一。其中,评论信息表示购买方对商品的评论,商品描述信息表示商家对商品的简要介绍。
为了便于理解,请参阅图19,图19为本申请实施例中文本内容分类任务的一个示意图,如图所示,假设从目标图片中提取的目标文本信息为“玫瑰是蔷薇目,…,玫瑰一直备受推崇”,将目标文本信息输入至类目分类模型,由此,得到目标类目为“植物”。
需要说明的是,在实际应用中,还可以包括更多类型的任务,本申请介绍的四类分类任务仅为一个示意,不应理解为对本申请的限定。
其次,本申请实施例中,提供了多种提取目标文本信息的方式,通过上述方式,能够应用于不同的类目分类场景,无论是视频还是图片,无论是商品还是文本,都可以采用本申请提供的方法提取相应的目标文本信息,以此进行进一步的预测,从而提升方案的灵活性和多样性。
可选地,在上述图14对应的各个实施例的基础上,本申请实施例提供的另一个可选实施例中,还可以包括:
接收终端发送针对于待搜索内容的类目查询指令;
响应于类目查询指令,若待搜索内容为视频内容,则向终端发送视频搜索结果;
响应于类目查询指令,若待搜索内容为图片内容,则向终端发送图片搜索结果;
响应于类目查询指令,若待搜索内容为商品内容,则向终端发送商品搜索结果;
响应于类目查询指令,若待搜索内容为文本内容,则向终端发送文本搜索结果。
在一个或多个实施例中,介绍了多种在搜索场景下推送相应类目对应内容的方式。由前述实施例可知,用户还可以通过终端向服务器发送针对于待搜索内容的类目查询指令,服务器响应于类目查询指令,并根据待搜索内容确定需要向终端推送的搜索结果。下面将结合四类应用场景进行说明。
一、视频搜索场景;
用户可在视频平台上搜索视频,即,待搜索内容为视频内容。为了便于理解,请参阅图20,图20为本申请实施例中基于单级类目显示视频搜索结果的一个界面示意图,如图20中(A)图所示,在视频平台上显示有多个类目,例如,“真人秀”、“舞蹈”和“情感”等。假设用户触发了针对“真人秀”的类目查询指令,如图10中(B)图所示,在视频搜索结果中显示有下一级类目相关的内容,例如,“超级剧本杀”等。
二、图片搜索场景;
用户可在壁纸平台上搜索壁纸,即,待搜索内容为图片内容。为了便于理解,请参阅图21,图21为本申请实施例中基于单级类目显示图片搜索结果的一个界面示意图,如图21中(A)图所示,在壁纸平台上显示有多个级类目,假设用户触发了针对“星座壁纸”的类目查询指令,基于此,如图11中(B)图所示,可显示与“星座壁纸”有关的壁纸图。
三、商品搜索场景;
用户可在电商平台上搜索商品,即,待搜索内容为商品内容。为了便于理解,请参阅图22,图22为本申请实施例中基于单级类目显示商品搜索结果的一个界面示意图,如图22中(A)图所示,在电商平台上显示有多个类目,假设用户触发了针对“家电”的类目查询指令,基于此,如图22中(B)图所示,可显示与类目“家电”有关的内容,例如,“电视”等。
四、文本搜索场景;
用户可在电子书平台上搜索小说,即,待搜索内容为文本内容。为了便于理解,请参阅图23,图23为本申请实施例中基于单级类目显示文本搜索结果的一个界面示意图,如图23中(A)图所示,在电子书平台上显示有多个类目,假设用户触发了针对“科幻”的类目查询指令,基于此,可显示与类目“科幻”有关的内容,例如,“小说《AAAAA》”等。
需要说明的是,在实际应用中,还可以涉及更多的应用场景,本申请介绍的四类应用场景仅为一个示意,不应理解为对本申请的限定。
其次,本申请实施例中,提供了多种在搜索场景下推送相应类目对应内容的方式,通过上述方式,后台可根据用户输入的待搜索内容判断搜索对象(例如,视频内容、图片内容、商品内容或文本内容等),基于此,后台结合预先确定的多级类目,能够高效地搜索到用户感兴趣的内容,并推送至用户使用的终端,从而提升搜索效率。
下面对本申请中的类目确定装置进行详细描述,请参阅图24,图24为本申请实施例中类目确定装置的一个实施例示意图,类目确定装置30包括:
获取模块310,用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
获取模块310,还用于基于文本编码向量,通过层级分类模型所包括的第一分类器获取第一分布向量,其中,第一分布向量包括M个第一概率值,第一分布向量中的每个第一概率值对应于一个一级类目的概率值,M为大于1的整数;
生成模块320,用于根据文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,二级类目属于一级类目的子类目,N为大于1的整数;
获取模块310,还用于基于文本融合向量,通过层级分类模型所包括的第二分类器获取第二分布向量,其中,第二分布向量包括N个第二概率值,第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
确定模块330,用于根据第一分布向量确定目标文本信息所属的目标一级类目,并且,根据第二分布向量确定目标文本信息所属的目标二级类目。
本申请实施例中,提供了一种类目确定装置。采用上述装置,针对各个二级类目,可根据至少两个关键词构建其对应的语义向量(即,二级类目语义向量),基于此,利用二级类目语义向量与文本编码向量生成文本融合向量,将文本融合向量作为预测二级类目的依据。由于二级类目语义向量引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
获取模块310,还用于获取语料样本集合,其中,语料样本集合中包括至少一个语料样本,每个语料样本对应于一个二级类目;
确定模块330,还用于针对N个二级类目中的每个二级类目,根据语料样本集合确定二级类目所对应的候选关键词集合;
获取模块310,还用于针对N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词;
生成模块320,还用于针对N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,引入二级类目相关的关键词作为生成二级类目语义向量的依据,强化文本融合向量中对应的二级类目的特征表达。在二级类目训练数据缺失的情形下,该种方式也更为有利,从而有利于提升类目分类的准确性。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
获取模块310,具体用于针对N个二级类目中的每个二级类目,根据语料样本集合以及每个语料样本所对应的二级类目,计算候选关键词集合中每个关键词的卡方值;
针对N个二级类目中的每个二级类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对N个二级类目中的每个二级类目,从排序后的候选关键词集合中选择前K个关键词作为至少一个关键词,其中,K为大于或等于1的整数。
本申请实施例中,提供了一种类目确定装置。采用上述装置,对于二级类目,可采用卡方统计的方式来获取每个二级类目对应的关键词。这些关键词从某种程度上代表了二级类目表达的语义,从而强化文本融合向量中二级类目的特征表达。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
获取模块310,还用于针对N个二级类目中的每个二级类目,获取二级类目所对应的类目词语;
生成模块320,具体用于针对N个二级类目中的每个二级类目,根据二级类目所对应的类目词语以及至少一个关键词,生成二级类目所对应的二级类目语义向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,通过上述方式,一方面,充分利用了基于语料样本集合的统计信息,避免直接使用二级类目的词向量带来的语义偏差问题。另一方面,进一步引入二级类目的词向量,能够更直接地提供语义信息,从而强化二级类目的语义表征。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
生成模块320,具体用于针对N个二级类目中的每个二级类目,获取至少一个关键词中每个关键词所对应的词向量;
针对N个二级类目中的每个二级类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到二级类目所对应的二级类目语义向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,可采用平均池化操作或最大池化操作对二级类目对应的关键词进行处理,由此,得到用于表征第二类目的二级类目语义向量。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
生成模块320,具体用于对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据第一融合矩阵以及第二融合矩阵,生成文本融合向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,基于两个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
生成模块320,具体用于采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第二融合矩阵以及第三融合矩阵,生成文本融合向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,基于两个不同角度来构建融合特征,即,第一,引入参数矩阵能够实现特征的深度融合,第二,对N个二级类目语义向量与文本编码向量进行匹配,以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
生成模块320,具体用于对N个二级类目语义向量以及文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对N个二级类目语义向量进行张量分解,得到第二矩阵;
对第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对N个二级类目语义向量以及文本编码向量进行相似度计算,得到第三融合矩阵;
根据第一融合矩阵、第二融合矩阵以及第三融合矩阵,生成文本融合向量。
本申请实施例中,提供了一种类目确定装置。采用上述装置,基于三个不同角度来构建融合特征,即,第一,直接进行特征拼接能够融合深度较浅的特征,第二,引入参数矩阵能够实现特征的深度融合,第三,对N个二级类目语义向量与文本编码向量进行匹配。以此构建多模式交互匹配特征,从而使得文本融合向量具有更好的表达能力,有利于提升模型识别能力。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
获取模块310,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标视频的目标文本信息,其中,目标文本信息包括目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取模块310,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标图片的目标文本信息,其中,目标文本信息包括目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取模块310,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标商品的目标文本信息,其中,目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取模块310,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,获取针对目标文本的目标文本信息,其中,目标文本信息包括目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
本申请实施例中,提供了一种类目确定装置。采用上述装置,能够应用于不同的类目分类场景,无论是视频还是图片,无论是商品还是文本,都可以采用本申请提供的方法提取相应的目标文本信息,以此进行进一步的预测,从而提升方案的灵活性和多样性。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,类目确定装置30还包括接收模块340以及发送模块350;
接收模块340,用于接收终端发送针对于待搜索内容的类目查询指令;
发送模块350,用于响应于类目查询指令,若待搜索内容为视频内容,则向终端发送视频搜索结果;
发送模块350,还用于响应于类目查询指令,若待搜索内容为图片内容,则向终端发送图片搜索结果;
发送模块350,还用于响应于类目查询指令,若待搜索内容为商品内容,则向终端发送商品搜索结果;
发送模块350,还用于响应于类目查询指令,若待搜索内容为文本内容,则向终端发送文本搜索结果。
本申请实施例中,提供了一种类目确定装置。采用上述装置,后台可根据用户输入的待搜索内容判断搜索对象(例如,视频内容、图片内容、商品内容或文本内容等),基于此,后台结合预先确定的多级类目,能够高效地搜索到用户感兴趣的内容,并推送至用户使用的终端,从而提升搜索效率。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,类目确定装置30还包括训练模块360;
获取模块310,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,基于待训练文本信息,通过待训练层级分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于一级标注类目以及二级标注类目;
获取模块310,还用于基于预测文本编码向量,通过待训练层级分类模型所包括的第一待训练分类器获取第一预测分布向量,其中,第一预测分布向量包括M个第一概率值,第一预测分布向量中的每个第一概率值对应于一个一级类目的概率值;
生成模块320,还用于根据预测文本编码向量以及N个二级类目语义向量,生成预测文本融合向量;
获取模块310,还用于基于预测文本融合向量,通过待训练层级分类模型所包括的第二待训练分类器获取第二预测分布向量,其中,第二预测分布向量包括N个第二概率值,第二预测分布向量中的每个第二概率值对应于一个二级类目的概率值;
训练模块360,用于根据第一预测分布向量、第二预测分布向量、一级标注类目以及二级标注类目,对待训练层级分类模型的模型参数进行更新,直至满足模型训练条件,得到层级分类模型。
本申请实施例中,提供了一种类目确定装置。采用上述装置,能够训练用于实现多级类目分类的层级分类模型。在训练过程中,也融合了二级类目语义向量,从而有利于增强模型对于类目的学习能力,进而提升类目分类的准确率。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
训练模块,具体用于根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
根据第一损失值和第二损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
本申请实施例中,提供了一种类目确定装置。采用上述装置,利用多个分类器对应的交叉熵损失值对模型进行训练,能够有效地提升分类器的分类效果,从而提升多级类目分类的准确性。
可选地,在上述图24所对应的实施例的基础上,本申请实施例提供的类目确定装置30的另一实施例中,
训练模块,具体用于根据第一预测分布向量以及一级标注类目,采用第一分类损失函数计算得到针对待训练文本信息的第一损失值;
根据第二预测分布向量以及二级标注类目,采用第二分类损失函数计算得到针对待训练文本信息的第二损失值;
从第一预测分布向量中确定与一级标注类目对应的第一元素预测分值,并从第二预测分布向量中确定与二级标注类目对应的第二元素预测分值;
根据第一元素预测分值、第二元素预测分值以及目标超参数,采用合页损失函数计算得到针对待训练文本信息的第三损失值;
根据第一损失值、第二损失值和第三损失值,确定针对待训练文本信息的综合损失值;
根据综合损失值对待训练层级分类模型的模型参数进行更新。
本申请实施例中,提供了一种类目确定装置。采用上述装置,由于上层类目的分类通常易于下级类目的分类,即,细粒度的二级类目分类难度更大,因此,增加合页损失函数可用于保证一级类目的概率应该总是大于对应的二级类目,从而保证两级类目的一致性,以此提升多层级类目分类准确性。
下面对本申请中的类目确定装置进行详细描述,请参阅图25,图25为本申请实施例中类目确定装置的另一个实施例示意图,类目确定装置40包括:
获取模块410,用于基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
生成模块420,用于根据文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,T为大于1的整数;
获取模块410,还用于基于文本融合向量,通过类目分类模型所包括的分类器获取目标分布向量,其中,目标分布向量包括T个概率值,目标分布向量中的每个概率值对应于一个类目的概率值;
确定模块430,用于根据目标分布向量确定目标文本信息所属的目标类目。
本申请实施例中,提供了一种类目确定装置。采用上述装置,针对各个类目,可根据至少两个关键词构建其对应的语义向量(即,类目语义向),基于此,利用类目语义向与文本编码向量生成文本融合向量,将文本融合向量作为预测类目的依据。由于类目语义向引入了一些额外的知识,因此,能够达到增强模型分类能力的目的,从而有利于提升类目分类的准确率。
在一种可能的设计中,在本申请实施例的另一方面的另一种实现方式中,类目确定装置还包括训练模块440;
获取模块410,还用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,基于待训练文本信息,通过待训练类目分类模型所包括的待训练编码器获取预测文本编码向量,其中,待训练文本信息对应于标注类目;
生成模块420,还用于根据预测文本编码向量以及T个类目语义向量,生成预测文本融合向量;
获取模块410,还用于基于预测文本融合向量,通过待训练类目分类模型所包括的待训练分类器获取目标预测分布向量,其中,目标预测分布向量包括T个概率值,目标预测分布向量中的每个概率值对应于一个类目的概率值;
训练模块440,用于根据目标预测分布向量以及标注类目,对待训练类目分类模型的模型参数进行更新,直至满足模型训练条件,得到类目分类模型。
本申请实施例中,提供了一种类目确定装置。采用上述装置,能够训练用于实现单个类目分类的类目分类模型。在训练过程中,也融合了类目语义向量,从而有利于增强模型对于类目的学习能力,进而提升类目分类的准确率。
图26是本申请实施例提供的一种计算机设备结构示意图,该计算机设备500可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(centralprocessing units,CPU)522(例如,一个或一个以上处理器)和存储器532,一个或一个以上存储应用程序542或数据544的存储介质530(例如一个或一个以上海量存储设备)。其中,存储器532和存储介质530可以是短暂存储或持久存储。存储在存储介质530的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对计算机设备中的一系列指令操作。更进一步地,中央处理器522可以设置为与存储介质530通信,在计算机设备500上执行存储介质530中的一系列指令操作。
计算机设备500还可以包括一个或一个以上电源526,一个或一个以上有线或无线网络接口550,一个或一个以上输入输出接口558,和/或,一个或一个以上操作系统541,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由计算机设备所执行的步骤可以基于该图26所示的计算机设备结构。
本申请实施例中还提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,该处理器执行计算机程序时,实现前述各个实施例描述方法的步骤。
本申请实施例中还提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时,实现前述各个实施例描述方法的步骤。
本申请实施例中还提供一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时,实现前述各个实施例描述方法的步骤。
可以理解的是,在本申请的具体实施方式中,涉及到用户信息等相关的数据,当本申请以上实施例运用到具体产品或技术中时,需要获得用户许可或者同意,且相关数据的收集、使用和处理需要遵守相关国家和地区的相关法律法规和标准。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是服务器或终端等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储计算机程序的介质。
以上所述,以上实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围。
Claims (20)
1.一种类目确定的方法,其特征在于,包括:
基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
基于所述文本编码向量,通过所述层级分类模型所包括的第一分类器获取第一分布向量,其中,所述第一分布向量包括M个第一概率值,所述第一分布向量中的每个第一概率值对应于一个一级类目的概率值,所述M为大于1的整数;
根据所述文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,所述每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,所述二级类目属于所述一级类目的子类目,所述N为大于1的整数;
基于所述文本融合向量,通过所述层级分类模型所包括的第二分类器获取第二分布向量,其中,所述第二分布向量包括N个第二概率值,所述第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
根据所述第一分布向量确定所述目标文本信息所属的目标一级类目,并且,根据所述第二分布向量确定所述目标文本信息所属的目标二级类目。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取语料样本集合,其中,所述语料样本集合中包括至少一个语料样本,每个语料样本对应于一个二级类目;
针对N个二级类目中的每个二级类目,根据所述语料样本集合确定二级类目所对应的候选关键词集合;
针对所述N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词;
针对所述N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量。
3.根据权利要求2所述的方法,其特征在于,所述针对所述N个二级类目中的每个二级类目,从候选关键词集合中获取至少一个关键词,包括:
针对所述N个二级类目中的每个二级类目,根据所述语料样本集合以及所述每个语料样本所对应的二级类目,计算候选关键词集合中每个关键词的卡方值;
针对所述N个二级类目中的每个二级类目,按照卡方值从高到低的顺序,对候选关键词集合中的关键词进行排序;
针对所述N个二级类目中的每个二级类目,从排序后的候选关键词集合中选择前K个关键词作为所述至少一个关键词,其中,所述K为大于或等于1的整数。
4.根据权利要求2所述的方法,其特征在于,所述方法还包括:
针对所述N个二级类目中的每个二级类目,获取二级类目所对应的类目词语;
所述针对所述N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量,包括:
针对所述N个二级类目中的每个二级类目,根据二级类目所对应的类目词语以及至少一个关键词,生成所述二级类目所对应的二级类目语义向量。
5.根据权利要求2所述的方法,其特征在于,所述针对所述N个二级类目中的每个二级类目,根据至少一个关键词生成二级类目所对应的二级类目语义向量,包括:
针对所述N个二级类目中的每个二级类目,获取至少一个关键词中每个关键词所对应的词向量;
针对所述N个二级类目中的每个二级类目,对每个关键词所对应的词向量进行平均池化处理或最大池化处理,得到二级类目所对应的二级类目语义向量。
6.根据权利要求1所述的方法,其特征在于,所述根据所述文本编码向量以及N个二级类目语义向量,生成文本融合向量,包括:
对所述N个二级类目语义向量以及所述文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对所述文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对所述N个二级类目语义向量进行张量分解,得到第二矩阵;
对所述第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
根据所述第一融合矩阵以及所述第二融合矩阵,生成所述文本融合向量。
7.根据权利要求1所述的方法,其特征在于,所述根据所述文本编码向量以及N个二级类目语义向量,生成文本融合向量,包括:
采用第一映射矩阵对所述文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对所述N个二级类目语义向量进行张量分解,得到第二矩阵;
对所述第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对所述N个二级类目语义向量以及所述文本编码向量进行相似度计算,得到第三融合矩阵;
根据所述第二融合矩阵以及所述第三融合矩阵,生成所述文本融合向量。
8.根据权利要求1所述的方法,其特征在于,所述根据所述文本编码向量以及N个二级类目语义向量,生成文本融合向量,包括:
对所述N个二级类目语义向量以及所述文本编码向量进行拼接,得到第一融合矩阵;
采用第一映射矩阵对所述文本编码向量进行张量分解,得到第一矩阵;
采用第二映射矩阵对所述N个二级类目语义向量进行张量分解,得到第二矩阵;
对所述第一矩阵以及第二矩阵进行元素点乘,得到第二融合矩阵;
对所述N个二级类目语义向量以及所述文本编码向量进行相似度计算,得到第三融合矩阵;
根据所述第一融合矩阵、所述第二融合矩阵以及所述第三融合矩阵,生成所述文本融合向量。
9.根据权利要求1所述的方法,其特征在于,所述基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,所述方法还包括:
获取针对目标视频的所述目标文本信息,其中,所述目标文本信息包括所述目标视频的标题信息、摘要信息、字幕信息以及评论信息中的至少一项;
或,
获取针对目标图片的所述目标文本信息,其中,所述目标文本信息包括所述目标图片的标题信息、作者信息、光学字符识别OCR信息以及摘要信息中的至少一种;
或,
获取针对目标商品的所述目标文本信息,其中,所述目标文本信息包括目标商品的商品名称信息、产地信息、评论信息以及商品描述信息中的至少一项;
或,
获取针对目标文本的所述目标文本信息,其中,所述目标文本信息包括所述目标文本的标题信息、作者信息、摘要信息、评论信息以及正文信息中的至少一项。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
接收终端发送针对于待搜索内容的类目查询指令;
响应于所述类目查询指令,若所述待搜索内容为视频内容,则向所述终端发送视频搜索结果;
响应于所述类目查询指令,若所述待搜索内容为图片内容,则向所述终端发送图片搜索结果;
响应于所述类目查询指令,若所述待搜索内容为商品内容,则向所述终端发送商品搜索结果;
响应于所述类目查询指令,若所述待搜索内容为文本内容,则向所述终端发送文本搜索结果。
11.根据权利要求1至10中任一项所述的方法,其特征在于,所述基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,所述方法还包括:
基于待训练文本信息,通过待训练层级分类模型所包括的待训练编码器获取预测文本编码向量,其中,所述待训练文本信息对应于一级标注类目以及二级标注类目;
基于所述预测文本编码向量,通过所述待训练层级分类模型所包括的第一待训练分类器获取第一预测分布向量,其中,所述第一预测分布向量包括M个第一概率值,所述第一预测分布向量中的每个第一概率值对应于一个一级类目的概率值;
根据所述预测文本编码向量以及所述N个二级类目语义向量,生成预测文本融合向量;
基于所述预测文本融合向量,通过所述待训练层级分类模型所包括的第二待训练分类器获取第二预测分布向量,其中,所述第二预测分布向量包括N个第二概率值,所述第二预测分布向量中的每个第二概率值对应于一个二级类目的概率值;
根据所述第一预测分布向量、所述第二预测分布向量、所述一级标注类目以及所述二级标注类目,对所述待训练层级分类模型的模型参数进行更新,直至满足模型训练条件,得到所述层级分类模型。
12.根据权利要求11所述的方法,其特征在于,所述根据所述第一预测分布向量、所述第二预测分布向量、所述一级标注类目以及所述二级标注类目,对所述待训练层级分类模型的模型参数进行更新,包括:
根据所述第一预测分布向量以及所述一级标注类目,采用第一分类损失函数计算得到针对所述待训练文本信息的第一损失值;
根据所述第二预测分布向量以及所述二级标注类目,采用第二分类损失函数计算得到针对所述待训练文本信息的第二损失值;
根据所述第一损失值和所述第二损失值,确定针对所述待训练文本信息的综合损失值;
根据所述综合损失值对所述待训练层级分类模型的模型参数进行更新。
13.根据权利要求11所述的方法,其特征在于,所述根据所述第一预测分布向量、所述第二预测分布向量、所述一级标注类目以及所述二级标注类目,对所述待训练层级分类模型的模型参数进行更新,包括:
根据所述第一预测分布向量以及所述一级标注类目,采用第一分类损失函数计算得到针对所述待训练文本信息的第一损失值;
根据所述第二预测分布向量以及所述二级标注类目,采用第二分类损失函数计算得到针对所述待训练文本信息的第二损失值;
从所述第一预测分布向量中确定与所述一级标注类目对应的第一元素预测分值,并从所述第二预测分布向量中确定与所述二级标注类目对应的第二元素预测分值;
根据所述第一元素预测分值、所述第二元素预测分值以及目标超参数,采用合页损失函数计算得到针对所述待训练文本信息的第三损失值;
根据所述第一损失值、所述第二损失值和所述第三损失值,确定针对所述待训练文本信息的综合损失值;
根据所述综合损失值对所述待训练层级分类模型的模型参数进行更新。
14.一种类目确定的方法,其特征在于,包括:
基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
根据所述文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,所述每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,所述T为大于1的整数;
基于所述文本融合向量,通过所述类目分类模型所包括的分类器获取目标分布向量,其中,所述目标分布向量包括T个概率值,所述目标分布向量中的每个概率值对应于一个类目的概率值;
根据所述目标分布向量确定所述目标文本信息所属的目标类目。
15.根据权利要求14所述的方法,其特征在于,所述基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量之前,所述方法还包括:
基于待训练文本信息,通过待训练类目分类模型所包括的待训练编码器获取预测文本编码向量,其中,所述待训练文本信息对应于标注类目;
根据所述预测文本编码向量以及T个类目语义向量,生成预测文本融合向量;
基于所述预测文本融合向量,通过所述待训练类目分类模型所包括的待训练分类器获取目标预测分布向量,其中,所述目标预测分布向量包括T个概率值,所述目标预测分布向量中的每个概率值对应于一个类目的概率值;
根据所述目标预测分布向量以及所述标注类目,对所述待训练类目分类模型的模型参数进行更新,直至满足模型训练条件,得到所述类目分类模型。
16.一种类目确定装置,其特征在于,包括:
获取模块,用于基于目标文本信息,通过层级分类模型所包括的编码器获取文本编码向量;
所述获取模块,还用于基于所述文本编码向量,通过所述层级分类模型所包括的第一分类器获取第一分布向量,其中,所述第一分布向量包括M个第一概率值,所述第一分布向量中的每个第一概率值对应于一个一级类目的概率值,所述M为大于1的整数;
生成模块,用于根据所述文本编码向量以及N个二级类目语义向量,生成文本融合向量,其中,每个二级类目语义向量对应于一个二级类目,所述每个二级类目语义向量为基于与对应二级类目关联的至少两个关键词生成的,所述二级类目属于所述一级类目的子类目,所述N为大于1的整数;
所述获取模块,还用于基于所述文本融合向量,通过所述层级分类模型所包括的第二分类器获取第二分布向量,其中,所述第二分布向量包括N个第二概率值,所述第二分布向量中的每个第二概率值对应于一个二级类目的概率值;
确定模块,用于根据所述第一分布向量确定所述目标文本信息所属的目标一级类目,并且,根据所述第二分布向量确定所述目标文本信息所属的目标二级类目。
17.一种类目确定装置,其特征在于,包括:
获取模块,用于基于目标文本信息,通过类目分类模型所包括的编码器获取文本编码向量;
生成模块,用于根据所述文本编码向量以及T个类目语义向量,生成文本融合向量,其中,每个类目语义向量对应于一个类目,所述每个类目语义向量为基于与对应类目关联的至少两个关键词生成的,所述T为大于1的整数;
所述获取模块,还用于基于所述文本融合向量,通过所述类目分类模型所包括的分类器获取目标分布向量,其中,所述目标分布向量包括T个概率值,所述目标分布向量中的每个概率值对应于一个类目的概率值;
确定模块,用于根据所述目标分布向量确定所述目标文本信息所属的目标类目。
18.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13中任一项所述的方法的步骤,或,实现权利要求14至15中任一项所述的方法的步骤。
19.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤,或,实现权利要求14至15中任一项所述的方法的步骤。
20.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤,或,实现权利要求14至15中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210366431.4A CN116955599A (zh) | 2022-04-08 | 2022-04-08 | 一种类目确定的方法、相关装置、设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210366431.4A CN116955599A (zh) | 2022-04-08 | 2022-04-08 | 一种类目确定的方法、相关装置、设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116955599A true CN116955599A (zh) | 2023-10-27 |
Family
ID=88453366
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210366431.4A Pending CN116955599A (zh) | 2022-04-08 | 2022-04-08 | 一种类目确定的方法、相关装置、设备以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116955599A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117744785A (zh) * | 2024-02-19 | 2024-03-22 | 北京博阳世通信息技术有限公司 | 基于网络采集数据的时空知识图谱智能构建方法及系统 |
-
2022
- 2022-04-08 CN CN202210366431.4A patent/CN116955599A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117744785A (zh) * | 2024-02-19 | 2024-03-22 | 北京博阳世通信息技术有限公司 | 基于网络采集数据的时空知识图谱智能构建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111177575B (zh) | 一种内容推荐方法、装置、电子设备和存储介质 | |
Biten et al. | Good news, everyone! context driven entity-aware captioning for news images | |
CN111046275B (zh) | 基于人工智能的用户标签确定方法及装置、存储介质 | |
CN111680217A (zh) | 内容推荐方法、装置、设备及存储介质 | |
CN111488931A (zh) | 文章质量评估方法、文章推荐方法及其对应的装置 | |
CN115115913A (zh) | 一种数据处理方法、装置、电子设备及存储介质 | |
CN113254711B (zh) | 一种互动图像的显示方法、装置、计算机设备和存储介质 | |
CN112989212B (zh) | 媒体内容推荐方法、装置和设备及计算机存储介质 | |
CN113705313A (zh) | 文本识别方法、装置、设备及介质 | |
CN115964560B (zh) | 基于多模态预训练模型的资讯推荐方法及设备 | |
CN113392179A (zh) | 文本标注方法及装置、电子设备、存储介质 | |
CN111831924A (zh) | 内容推荐方法、装置、设备及可读存储介质 | |
CN111324773A (zh) | 一种背景音乐构建方法、装置、电子设备和存储介质 | |
CN114328906A (zh) | 一种多级类目的确定方法、模型训练的方法以及相关装置 | |
CN113011172A (zh) | 文本处理方法、装置、计算机设备和存储介质 | |
CN114201516A (zh) | 一种用户画像构建的方法、信息推荐的方法以及相关装置 | |
CN117216535A (zh) | 推荐文本生成模型的训练方法、装置、设备及介质 | |
CN114282528A (zh) | 一种关键词提取方法、装置、设备及存储介质 | |
CN116955599A (zh) | 一种类目确定的方法、相关装置、设备以及存储介质 | |
Liu et al. | A multimodal approach for multiple-relation extraction in videos | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN113761887A (zh) | 基于文本处理的匹配方法、装置、计算机设备和存储介质 | |
CN113741759B (zh) | 评论信息的展示方法、装置、计算机设备和存储介质 | |
CN116955707A (zh) | 内容标签的确定方法、装置、设备、介质及程序产品 | |
CN116205700A (zh) | 目标产品的推荐方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |