CN111428144A - 基于dcn与lda结合的推荐方法、装置和计算机设备 - Google Patents
基于dcn与lda结合的推荐方法、装置和计算机设备 Download PDFInfo
- Publication number
- CN111428144A CN111428144A CN202010125463.6A CN202010125463A CN111428144A CN 111428144 A CN111428144 A CN 111428144A CN 202010125463 A CN202010125463 A CN 202010125463A CN 111428144 A CN111428144 A CN 111428144A
- Authority
- CN
- China
- Prior art keywords
- vector
- recommendation
- dimension
- specified
- dcn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9536—Search customisation based on social or collaborative filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/06—Buying, selling or leasing transactions
- G06Q30/0601—Electronic shopping [e-shopping]
- G06Q30/0631—Item recommendations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Bioinformatics & Computational Biology (AREA)
- Accounting & Taxation (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Finance (AREA)
- Development Economics (AREA)
- Economics (AREA)
- Marketing (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请揭示了基于DCN与LDA结合的推荐方法,包括:分别提取用户维度数据和推荐物维度数据;将用户维度数据和推荐物维度数据分别转换为第一向量和第二向量,第一向量和第二向量均为DCN网络模型所能识别的向量,其中,第二向量携带相似度信息;将转换后的向量均输入到DCN网络模型中,结合相似度信息计算各推荐物的推荐排序结果;根据推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。将LDA模型映射文章信息得到向量和用户信息通过包埋映射后得到的向量进行向量拼接,作为DCN的输入向量,LDA模型映射文章信息得到向量有效的保留了文章彼此之间的相似度信息,推荐精准度有了一定的提升,推荐更精准。
Description
技术领域
本申请涉及到计算机领域,特别是涉及到基于DCN与LDA结合的推荐方法、装置和计算机设备。
背景技术
随着人类生活的智能化程度的提高,智能化推荐也越来越流行,为用户提供更便捷、更精准的信息服务。近几年在推荐算法上进行了逐步的更新,包括deepFM,DCN,GBDT+LR等算法在数据维度上进行了扩展,但推荐算法均未考虑客户的属性数据,物品的属性数据等,造成了数据维度的浪费,而且推荐效果提升甚微,依然不能满足用户得到精准推荐信息的使用需求。
发明内容
本申请的主要目的为提供基于DCN(DataCommunicationNetwork的缩写,中文意思为:数据通信网络)与LDA(Latent Dirichlet Allocation的缩写,中文意思为:潜在狄利克雷分布)结合的推荐方法,旨在解决现有推荐算法不能达到精准推荐的技术问题。
本申请提出一种基于DCN与LDA结合的推荐方法,包括:
分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;
将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;
将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
优选地,所述推荐物为文章,将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量的步骤,包括:
判断当前所有文章是否均存在被点击浏览数据;
若否,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
优选地,所述第一向量和所述第二向量通过包埋映射和/或LDA模型转换得到,按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量的步骤,包括:
判断指定维度特征是否属于稠密特征;
若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
若是,则将稀疏特征进行包埋映射,得到包埋向量;
若否,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;
将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
优选地,判断指定维度特征是否属于稠密特征的步骤之前,包括:
将由多个主题混合生成的指定文档,输入所述LDA模型;
从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;
从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;
从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;
基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;
根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
优选地,将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果的步骤,包括:
将转换后的包埋向量、LDA向量和稠密特征向量拼接,形成所述第一向量和所述第二向量拼接后的向量组;
将所述向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
本申请还提供了一种基于DCN与LDA结合的推荐装置,包括:
提取模块,用于分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;
转换模块,用于将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述推荐物维度数据对应的向量携带相似度信息;
输入模块,用于将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
推荐模块,用于根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
优选地,所述转换模块,包括:
判断子模块,用于判断当前所有文章是否均存在被点击浏览数据;
生成子模块,用于若当前所有文章均不存在被点击浏览数据,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
分类子模块,用于将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
转换子模块,用于按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
优选地,所述转换子模块,包括:
第一判断单元,用于判断指定维度特征是否属于稠密特征;
第二判断单元,用于若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
包埋单元,用于若属于稀疏特征,则将稀疏特征进行包埋映射,得到包埋向量;
转换单元,用于若不属于稀疏特征,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;
形成单元,用于将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
本申请还提供了一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述方法的步骤。
本申请还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述的方法的步骤。
本申请通过DCN与LDA模型结合的方法,将LDA模型映射文章信息得到向量和用户信息通过包埋映射后得到的向量进行向量拼接,作为DCN的输入向量,LDA模型映射文章信息得到向量有效的保留了文章彼此之间的相似度信息,在用户阅读文章推荐上,可根据用户选择的文章信息,将与文章信息具有相似性的所有文章集中向用户推荐,推荐精准度有了一定的提升,相比对文章id或者题目直接进行embedding(包埋)推荐更精准。
附图说明
图1本申请一实施例的基于DCN与LDA结合的推荐方法流程示意图;
图2本申请一实施例的基于DCN与LDA结合的推荐装置结构示意图;
图3本申请一实施例的计算机设备内部结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
参照图1,本申请一实施例的基于DCN与LDA结合的推荐方法,包括:
S1:分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取。
S2:将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;
S3:将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
S4:根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
举例地,本实施例的推荐物为用户阅读的文章,用户维度数据包括用户性别、用户年龄、用户常住地域和用户职业等,用户维度数据是从踩点数据和注册数据中提取的。推荐物维度数据包括文章题目、文章内容、文章被阅读次数和文章被收藏次数等,推荐物维度数据与用户维度数据具有对应关联关系,推荐物维度数据根据所述用户维度信息对应提取,是指根据用户维度信息锁定指定用户,然后针对性的提取指定用户的推荐物维度数据。通过LDA模型的映射文章题目和文章内容得到的向量,包括了语义关联对应的向量维度,有效的保留了推荐文章彼此之间的相似度信息,然后通过与用户维度数据中的文本数据包埋映射后的向量进行向量拼接后,共同作为DCN的输入向量。上述包埋映射用于将文本数据转换为数值型数据,将用户维度数据对应的文本数据中的每个词看作最小单元,然后根据最小单元的特征映射为数值向量空间的向量值等数值型数据,上述比如最小单元的特征包括词的词性、组成词的字数、词关联的相近度等。向量拼接是指多个向量合并为一个多维向量的过程,举例地,LDA模型输出的向量为[A1,A2,...A3],用户维度数据包埋映射后的向量为[B1,B2,...B3],向量拼接后形成的多维向量为[A1,A2,...A3,B1,B2,...B3]。
进一步地,所述推荐物为文章,将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量的步骤S2,包括:
S21:判断当前所有文章是否均存在被点击浏览数据;
S22:若否,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
S23:将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
S24:按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
本实施例中,通过将用户维度数据中不能被DCN网络模型识别的文本数据中的每个词,根据切词工具的切词逻辑算法切词处理得到分词,或根据数据库中的现有词库划分文本得到分词,然后根据分词中包括的词性映射为向量值,实现用户维度数据中的转换。比如,根据切词工具中现有的词性分类,将文本数据中经过分词处理后,对各分词标注词性。切词工具中现有的词性分类为10种,则用10维向量表示该分词,该分词对应的词性维度赋值为1,其他词性维度赋值为0。本实施例通过负采样补充数据,负采样对应的向量值赋值为0,通过补充负样本,才使得模型训练具有泛化力,使DCN网络模型的训练不具有适用局限性。
进一步地,所述第一向量和所述第二向量通过包埋映射和/或LDA模型转换得到,所述按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量的步骤S22,包括:
S221:判断指定维度特征是否属于稠密特征;
S222:若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
S223:若是,则将稀疏特征进行包埋映射,得到包埋向量;
S224:若否,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;
S225:将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
本实施例中文章被阅读次数和文章被收藏次数为稠密特征,稠密特征为存在具体赋值的特征,比如赋值为1,稀疏特征对应值为0,或不存在对应的赋值。所以稠密特征可直接被DCN网络模型识别,原文章id亦属于稠密特征,但为避免使用随机向量进行推荐,本实施例舍弃使用文章id,而用文章题目和文章内容共同参与分类推荐,但文章题目和文章内容即不属于稀疏特征也不属于稠密特征,且不能直接被DCN网络模型识别,所以通过LDA模型将文章题目和文章内容分别转换成LDA向量,转换过程中保留了词之间的语义相关度。
包埋特征与稠密特征的属性相类似,均有对应的赋值,可被DCN网络模型识别。用户维度数据中的年龄等属于稀疏特征,本实施例的稀疏特征通过归一化等操作,将稀疏特征映射为包埋特征对应的包埋向量。例如浏览用户的年龄段为n1岁到n2岁,跨度为(n2-n1)岁,当前用户的年龄为m岁,则归一化值为(m-n1)/(n2-n1),数值为0至1之间的数值。本实施例通过把文章题目和文章内容共同输入到预训练的LDA模型进行向量转换,进而使所有参与推荐排序的维度特征均被DCN网络模型所能识别,均可进入DCN网络模型参与推荐排序计算。
进一步地,判断指定维度特征是否属于稠密特征的步骤S221前,包括:
S220a:将由多个主题混合生成的指定文档,输入所述LDA模型;
S220b:从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;
S220c:从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;
S220d:从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;
S220e:基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;
S220f:根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
LDA模型中的假设文档是由多个主题的混合产生的,用于LDA模型端的数据输入。通过LDA模型每个文档的生成过程如下:从全局的泊松分布参数为β的分布中生成一个文档的长度N,从全局的狄利克雷参数为alpha的分布中生成一个当前文档的θ,对应当前文档长度N的每一个字都有:从θ为参数的多项式分布生成一个主题的下标Z;从θ和Z共同为参数的多项式分布中,产生一个字Wn,这些主题基于词的概率分布来产生词,给定文档数据集,确定LDA模型的参量后,LDA模型可以根据训练中的映射逻辑学习得出,哪些主题产生了这些文档。本实施例中对于文章题目和文章内容,通过去停用词,建立词表,进行LDA模型的训练,从而得到每篇文章的主题信息,比如定义50个主题信息,那么对于每篇文章均可得到一个50维的向量,并保存模型。此向量的好处优于简单的对文章题目或者文章id进行简单的包埋映射,因为对文章id直接进行包埋映射,包埋映射后的向量之间成为孤点,相互之间不关联,使得相似文章通过包埋映射后,在映射距离上没有直接关系,从而造成了相似度信息的损失。但通过LDA模型将文章映射为向量,映射原理类似于word2vec,相似的文章映射向量后体现在向量之间的距离更近,有效提升了包埋映射后的向量信息。
进一步地,将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果的步骤S3,包括:
S31:将转换后的包埋向量、LDA向量和稠密特征向量依次拼接,形成所述第一向量以及所述第二向量拼接后的向量组;
S32:将向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
本实施例中DCN网络模型的训练过程同现有训练过程相同,不赘述。本实施例通过把文章题目和文章内容用LDA模型转换成包埋特征,并拼接在其他稠密特征或已转换的包埋特征的向量后面,形成向量组,然后输入到DCN网络模型,使各维度特征参与推荐计算,上述向量拼接次序不作限定。举例地,包埋向量为[1]、LDA向量为[2]和稠密特征向量为[3,4],拼接后形成[1,2,3,4]。根据已保存DCN模型,在生产环境中,根据已召回的文章,首先通过已保存的LDA模型计算文章的映射向量,然后通过DCN模型计算文章的输出结果(值均在0-1之间),依据此输出结果,返回前端,从大到小形成推荐排序进行推荐。
参照图2,本申请一实施例的基于DCN与LDA结合的推荐装置,包括:
提取模块1,用于分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取。
转换模块2,用于将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;
输入模块3,用于将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
推荐模块4,用于根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
举例地,本实施例的推荐物为用户阅读的文章,用户维度数据包括用户性别、用户年龄、用户常住地域和用户职业等,用户维度数据是从踩点数据和注册数据中提取的。推荐物维度数据包括文章题目、文章内容、文章被阅读次数和文章被收藏次数等,推荐物维度数据与用户维度数据具有对应关联关系,推荐物维度数据根据所述用户维度信息对应提取,是指根据用户维度信息锁定指定用户,然后针对性的提取指定用户的推荐物维度数据。通过LDA模型的映射文章题目和文章内容得到的向量,包括了语义关联对应的向量维度,有效的保留了推荐文章彼此之间的相似度信息,然后通过与用户维度数据中的文本数据包埋映射后的向量进行向量拼接后,共同作为DCN的输入向量。上述包埋映射用于将文本数据转换为数值型数据,将用户维度数据对应的文本数据中的每个词看作最小单元,然后根据最小单元的特征映射为数值向量空间的向量值等数值型数据,上述比如最小单元的特征包括词的词性、组成词的字数、词关联的相近度等。向量拼接是指多个向量合并为一个多维向量的过程,举例地,LDA模型输出的向量为[A1,A2,...A3],用户维度数据包埋映射后的向量为[B1,B2,...B3],向量拼接后形成的多维向量为[A1,A2,...A3,B1,B2,...B3]。
进一步地,所述推荐物为文章,所述转换模块2,包括:
判断子模块,用于判断当前所有文章是否均存在被点击浏览数据;
生成子模块,用于若当前所有文章均不存在被点击浏览数据,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
分类子模块,用于将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
转换子模块,用于按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
本实施例中,通过将用户维度数据中不能被DCN网络模型识别的文本数据中的每个词,根据切词工具的切词逻辑算法切词处理得到分词,或根据数据库中的现有词库划分文本得到分词,然后根据分词中包括的词性映射为向量值,实现用户维度数据中的转换。比如,根据切词工具中现有的词性分类,将文本数据中经过分词处理后,对各分词标注词性。切词工具中现有的词性分类为10种,则用10维向量表示该分词,该分词对应的词性维度赋值为1,其他词性维度赋值为0。本实施例通过负采样补充数据,负采样对应的向量值赋值为0,通过补充负样本,才使得模型训练具有泛化力,使DCN网络模型的训练不具有适用局限性。
进一步地,所述转换子模块,包括:
第一判断单元,用于判断指定维度特征是否属于稠密特征;
第二判断单元,用于若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
包埋单元,用于若属于稀疏特征,则将稀疏特征进行包埋映射,得到包埋向量;
转换单元,用于若不属于稀疏特征,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量。
形成单元,用于将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
本实施例中文章被阅读次数和文章被收藏次数为稠密特征,稠密特征为存在具体赋值的特征,比如赋值为1,稀疏特征对应值为0,或不存在对应的赋值。所以稠密特征可直接被DCN网络模型识别,原文章id亦属于稠密特征,但为避免使用随机向量进行推荐,本实施例舍弃使用文章id,而用文章题目和文章内容共同参与分类推荐,但文章题目和文章内容即不属于稀疏特征也不属于稠密特征,且不能直接被DCN网络模型识别,所以通过LDA模型将文章题目和文章内容分别转换成LDA向量,转换过程中保留了词之间的语义相关度。
包埋特征与稠密特征的属性相类似,均有对应的赋值,可被DCN网络模型识别。用户维度数据中的年龄等属于稀疏特征,本实施例的稀疏特征通过归一化等操作,将稀疏特征映射为包埋特征对应的包埋向量。例如浏览用户的年龄段为n1岁到n2岁,跨度为(n2-n1)岁,当前用户的年龄为m岁,则归一化值为(m-n1)/(n2-n1),数值为0至1之间的数值。本实施例通过把文章题目和文章内容共同输入到预训练的LDA模型进行向量转换,进而使所有参与推荐排序的维度特征均被DCN网络模型所能识别,均可进入DCN网络模型参与推荐排序计算。
进一步地,所述转换子模块,包括:
输入单元,用于将由多个主题混合生成的指定文档,输入所述LDA模型;
第一生成单元,用于从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;
第二生成单元,用于从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;
产生单元,用于从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;
给定单元,用于基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;
锁定单元,用于根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
LDA模型中的假设文档是由多个主题的混合产生的,用于LDA模型端的数据输入。通过LDA模型每个文档的生成过程如下:从全局的泊松分布参数为β的分布中生成一个文档的长度N,从全局的狄利克雷参数为alpha的分布中生成一个当前文档的θ,对应当前文档长度N的每一个字都有:从θ为参数的多项式分布生成一个主题的下标Z;从θ和Z共同为参数的多项式分布中,产生一个字Wn,这些主题基于词的概率分布来产生词,给定文档数据集,确定LDA模型的参量后,LDA模型可以根据训练中的映射逻辑学习得出,哪些主题产生了这些文档。本实施例中对于文章题目和文章内容,通过去停用词,建立词表,进行LDA模型的训练,从而得到每篇文章的主题信息,比如定义50个主题信息,那么对于每篇文章均可得到一个50维的向量,并保存模型。此向量的好处优于简单的对文章题目或者文章id进行简单的包埋映射,因为对文章id直接进行包埋映射,包埋映射后的向量之间成为孤点,相互之间不关联,使得相似文章通过包埋映射后,在映射距离上没有直接关系,从而造成了相似度信息的损失。但通过LDA模型将文章映射为向量,映射原理类似于word2vec,相似的文章映射向量后体现在向量之间的距离更近,有效提升了包埋映射后的向量信息。
进一步地,输入模块3,包括:
拼接子模块,用于将转换后的包埋向量、LDA向量和稠密特征向量拼接,形成所述第一向量以及所述第二向量的拼接后的向量组;
训练子模块,用于将向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
本实施例中DCN网络模型的训练过程同现有训练过程相同,不赘述。本实施例通过把文章题目和文章内容用LDA模型转换成包埋特征,并拼接在其他稠密特征或已转换的包埋特征的向量后面,形成向量组,然后输入到DCN网络模型,使各维度特征参与推荐计算,上述向量拼接次序不作限定。举例地,包埋向量为[1]、LDA向量为[2]和稠密特征向量为[3,4],拼接后形成[1,2,3,4]。根据已保存DCN模型,在生产环境中,根据已召回的文章,首先通过已保存的LDA模型计算文章的映射向量,然后通过DCN模型计算文章的输出结果(值均在0-1之间),依据此输出结果,返回前端,从大到小形成推荐排序进行推荐。
参照图3,本申请实施例中还提供一种计算机设备,该计算机设备可以是服务器,其内部结构可以如图3所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设计的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储基于DCN与LDA结合的推荐过程需要的所有数据。该计算机设备的网络接口用于与外部的端通过网络连接通信。该计算机程序被处理器执行时以实现基于DCN与LDA结合的推荐方法。
上述处理器执行上述基于DCN与LDA结合的推荐方法,包括:分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
上述计算机设备,通过DCN与LDA模型结合的方法,将LDA模型映射文章信息得到向量和用户信息通过包埋映射后得到的向量进行向量拼接,作为DCN的输入向量,LDA模型映射文章信息得到向量有效的保留了文章彼此之间的相似度信息,在用户阅读文章推荐上,可根据用户选择的文章信息,将与文章信息具有相似性的所有文章集中向用户推荐,推荐精准度有了一定的提升,相比对文章id或者题目直接进行embedding(包埋)推荐更精准。
在一个实施例中,所述推荐物为文章,上述处理器将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量的步骤,包括:判断当前所有文章是否均存在被点击浏览数据;若否,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
在一个实施例中,所述第一向量和所述第二向量通过包埋映射和/或LDA模型转换得到,上述处理器按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量的步骤,包括:判断指定维度特征是否属于稠密特征;若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;若是,则将稀疏特征进行包埋映射,得到包埋向量;若否,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
在一个实施例中,上述处理器判断指定维度特征是否属于稠密特征的步骤之前,包括:将由多个主题混合生成的指定文档,输入所述LDA模型;从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
在一个实施例中,上述处理器将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果的步骤,包括:将转换后的包埋向量、LDA向量和稠密特征向量拼接,形成所述第一向量和所述第二向量拼接后的向量组;将所述向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
本领域技术人员可以理解,图3中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定。
本申请一实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现基于DCN与LDA结合的推荐方法,包括:分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
上述计算机可读存储介质,通过DCN与LDA模型结合的方法,将LDA模型映射文章信息得到向量和用户信息通过包埋映射后得到的向量进行向量拼接,作为DCN的输入向量,LDA模型映射文章信息得到向量有效的保留了文章彼此之间的相似度信息,在用户阅读文章推荐上,可根据用户选择的文章信息,将与文章信息具有相似性的所有文章集中向用户推荐,推荐精准度有了一定的提升,相比对文章id或者题目直接进行embedding(包埋)推荐更精准。
在一个实施例中,所述推荐物为文章,上述处理器将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量的步骤,包括:判断当前所有文章是否均存在被点击浏览数据;若否,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
在一个实施例中,所述第一向量和所述第二向量通过包埋映射和/或LDA模型转换得到,上述处理器按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量的步骤,包括:判断指定维度特征是否属于稠密特征;若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;若是,则将稀疏特征进行包埋映射,得到包埋向量;若否,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
在一个实施例中,上述处理器判断指定维度特征是否属于稠密特征的步骤之前,包括:将由多个主题混合生成的指定文档,输入所述LDA模型;从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
在一个实施例中,上述处理器将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果的步骤,包括:将转换后的包埋向量、LDA向量和稠密特征向量拼接,形成所述第一向量和所述第二向量拼接后的向量组;将所述向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,上述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的和实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双速据率SDRAM(SSRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
以上所述仅为本申请的优选实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (10)
1.一种基于DCN与LDA结合的推荐方法,其特征在于,包括:
分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;
将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;
将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
2.根据权利要求1所述的基于DCN与LDA结合的推荐方法,其特征在于,所述推荐物为文章,将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量的步骤,包括:
判断当前所有文章是否均存在被点击浏览数据;
若否,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
3.根据权利要求2所述的基于DCN与LDA结合的推荐方法,其特征在于,所述第一向量和所述第二向量通过包埋映射和/或LDA模型转换得到,所述按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量的步骤,包括:
判断指定维度特征是否属于稠密特征;
若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
若是,则将稀疏特征进行包埋映射,得到包埋向量;
若否,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;
将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
4.根据权利要求3所述的基于DCN与LDA结合的推荐方法,其特征在于,判断指定维度特征是否属于稠密特征的步骤之前,包括:
将由多个主题混合生成的指定文档,输入所述LDA模型;
从全局的泊松分布参数为β的分布中,生成所述指定文档的长度N,从全局的狄利克雷参数为alpha的分布中,生成所述指定文档对应的θ;
从所述指定文档对应的θ为参数的多项式分布中,生成指定主题的下标Z,其中,所述指定主题属于多个主题中的任一个;
从所述指定文档对应的θ和Z共同为参数的多项式分布中,产生指定词Wn;
基于所述指定词的概率分布产生所述指定主题,并给定所述指定文档的数据集;
根据所述指定文档与所述指定文档对应的数据集的映射过程,锁定所述LDA模型的参量。
5.根据权利要求1所述的基于DCN与LDA结合的推荐方法,其特征在于,所述将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果的步骤,包括:
将转换后的包埋向量、LDA向量和稠密特征向量拼接,形成所述第一向量以及所述第二向量拼接后的向量组;
将所述向量组输入所述DCN网络模型,通过Cross网络和Deep网络训练,得到输出层的输出结果。
6.一种基于DCN与LDA结合的推荐装置,其特征在于,包括:
提取模块,用于分别提取用户维度数据和推荐物维度数据,其中,所述推荐物维度数据根据所述用户维度信息对应提取;
转换模块,用于将所述用户维度数据和所述推荐物维度数据分别转换为第一向量和第二向量,所述第一向量和所述第二向量均为DCN网络模型所能识别的向量,其中,所述第二向量携带相似度信息;
输入模块,用于将转换后的所述第一向量和所述第二向量均输入到所述DCN网络模型中,结合所述相似度信息计算各推荐物的推荐排序结果;
推荐模块,用于根据所述推荐排序结果,依次将对应的推荐物返回前端,推荐给用户。
7.根据权利要求6所述的基于DCN与LDA结合的推荐装置,其特征在于,所述推荐物为文章,所述转换模块,包括:
判断子模块,用于判断当前所有文章是否均存在被点击浏览数据;
生成子模块,用于若当前所有文章均不存在被点击浏览数据,则通过负采样生成未被点击浏览的文章对应的被点击浏览数据;
分类子模块,用于将所有文章对应的所述用户维度数据和所有文章的维度数据分别进行分类,得到各类型的维度特征;
转换子模块,用于按照各类型的维度特征分别对应的向量转换方式,将各类型的维度特征分别转换成DCN网络模型所能识别的所述第一向量和所述第二向量。
8.根据权利要求7所述的基于DCN与LDA结合的推荐装置,其特征在于,所述转换子模块,包括:
第一判断单元,用于判断指定维度特征是否属于稠密特征;
第二判断单元,用于若指定维度特征不属于稠密特征,则判断是否属于稀疏特征;
包埋单元,用于若属于稀疏特征,则将稀疏特征进行包埋映射,得到包埋向量;
转换单元,用于若不属于稀疏特征,则判定所述指定维度特征为文章题目和文章内容,并将所述指定维度特征输入到预训练的LDA模型转换成LDA向量;
形成单元,用于将所述用户维度数据中的稀疏特征和/或稠密特征转换后,形成所述用户维度数据对应的所述第一向量,将所述推荐物维度数据中的稀疏特征、稠密特征、文章题目和文章内容转换后,形成所述推荐物维度数据对应的所述第二向量。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至5中任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至5中任一项所述的方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010125463.6A CN111428144A (zh) | 2020-02-27 | 2020-02-27 | 基于dcn与lda结合的推荐方法、装置和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010125463.6A CN111428144A (zh) | 2020-02-27 | 2020-02-27 | 基于dcn与lda结合的推荐方法、装置和计算机设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111428144A true CN111428144A (zh) | 2020-07-17 |
Family
ID=71547791
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010125463.6A Pending CN111428144A (zh) | 2020-02-27 | 2020-02-27 | 基于dcn与lda结合的推荐方法、装置和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111428144A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579889A (zh) * | 2020-12-07 | 2021-03-30 | 北京百度网讯科技有限公司 | 物品推荐方法、装置、电子设备及存储介质 |
-
2020
- 2020-02-27 CN CN202010125463.6A patent/CN111428144A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112579889A (zh) * | 2020-12-07 | 2021-03-30 | 北京百度网讯科技有限公司 | 物品推荐方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106776711B (zh) | 一种基于深度学习的中文医学知识图谱构建方法 | |
CN105512245B (zh) | 一种基于回归模型建立企业画像的方法 | |
CN111539197B (zh) | 文本匹配方法和装置以及计算机系统和可读存储介质 | |
CN112395506A (zh) | 一种资讯推荐方法、装置、电子设备和存储介质 | |
CN111190997A (zh) | 一种使用神经网络和机器学习排序算法的问答系统实现方法 | |
CN112948575B (zh) | 文本数据处理方法、装置和计算机可读存储介质 | |
CN112989038B (zh) | 句子级用户画像生成方法、装置及存储介质 | |
CN112115232A (zh) | 一种数据纠错方法、装置及服务器 | |
CN111325030A (zh) | 文本标签构建方法、装置、计算机设备和存储介质 | |
CN112507109A (zh) | 一种基于语义分析与关键词识别的检索方法和装置 | |
CN112699232A (zh) | 文本标签提取方法、装置、设备和存储介质 | |
CN113704623A (zh) | 一种数据推荐方法、装置、设备及存储介质 | |
CN113641833A (zh) | 服务需求匹配方法及装置 | |
CN114997288A (zh) | 一种设计资源关联方法 | |
CN115329210A (zh) | 一种基于交互图分层池化的虚假新闻检测方法 | |
CN111414471A (zh) | 用于输出信息的方法和装置 | |
CN111368093A (zh) | 信息获取方法、装置、电子设备及计算机可读存储介质 | |
CN114254116A (zh) | 文献资料文本分类方法、分类模型构建方法和分类装置 | |
CN111428144A (zh) | 基于dcn与lda结合的推荐方法、装置和计算机设备 | |
CN116933164A (zh) | 基于相似性的医康养服务需求分类方法 | |
CN111859955A (zh) | 一种基于深度学习的舆情数据分析模型 | |
CN116644148A (zh) | 关键词识别方法、装置、电子设备及存储介质 | |
CN114676775A (zh) | 样本信息标注方法、装置、设备、程序以及存储介质 | |
CN111310066B (zh) | 一种基于主题模型和关联规则算法的好友推荐方法及系统 | |
CN114328895A (zh) | 新闻摘要的生成方法、装置以及计算机设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |