CN111598596A - 数据处理方法、装置、电子设备及存储介质 - Google Patents
数据处理方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111598596A CN111598596A CN201910129643.9A CN201910129643A CN111598596A CN 111598596 A CN111598596 A CN 111598596A CN 201910129643 A CN201910129643 A CN 201910129643A CN 111598596 A CN111598596 A CN 111598596A
- Authority
- CN
- China
- Prior art keywords
- current
- word vector
- data
- vector matrix
- commodity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q30/00—Commerce
- G06Q30/02—Marketing; Price estimation or determination; Fundraising
- G06Q30/0282—Rating or review of business operators or products
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Development Economics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- Game Theory and Decision Science (AREA)
- Economics (AREA)
- Marketing (AREA)
- General Business, Economics & Management (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明的实施例提供了一种数据处理方法、装置、电子设备以及存储介质,涉及计算机技术领域。该数据处理方法包括:获取当前商品评论数据;根据所述当前商品评论数据获得当前词向量矩阵;将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。本发明实施例的技术方案利用训练好的联合深度学习模型能够自动给商品评论打标签,从而有利于消费者根据其个人的消费决策点去浏览对应标签下的商品评论,减少了消费者浏览商品评论的数量。
Description
技术领域
本发明涉及计算机技术领域,具体而言,涉及一种数据处理方法、数据处理装置、电子设备以及计算机可读存储介质。
背景技术
随着互联网电子商务技术的发展,消费者购买商品的习惯逐渐从传统的线下模式转化为线上模式。当消费者决策是否从某电商网站上购买一件商品时,除了对电商平台、商品品牌、商品详情等因素的关注之外,商品评论也是消费者重点关注的方面。消费者可以从商品评论中获得最关心和渴望得到解决的消费决策需求点,例如商品的外观、性能、价格、物流、使用感受等信息。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:像一些大型电商平台,一件热销商品的评论可能达到数十万甚至上百万条,消费者要从大量的文本信息中获得消费决策需求点,不仅耗时耗力,甚至会消磨消费者的耐心,从而可能导致消费者的流失。
因此,需要一种新的数据处理方法、装置、电子设备以及存储介质。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明实施例的目的在于提供一种数据处理方法、数据处理装置、电子设备以及计算机可读存储介质,进而至少在一定程度上克服由于相关技术中存在的商品评论数据量较多而导致的消费者无法快速获得自己感兴趣的商品评论的技术问题。
根据本发明实施例的第一方面,提供了一种数据处理方法,包括:获取当前商品评论数据;根据所述当前商品评论数据获得当前词向量矩阵;将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
在本发明的一些示例性实施例中,所述联合深度学习模型包括卷积神经网络模型,所述卷积神经网络模型包括卷积层、池化层和全连接层;其中,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签,包括:将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列;将所述当前局部特征向量序列输入至所述池化层,输出第一预设维度的句子特征向量;将所述句子特征向量输入至所述全连接层,输出第二预设维度的语义向量;其中,所述第二预设维度小于所述第一预设维度。
在本发明的一些示例性实施例中,所述卷积层包括多个卷积核;其中,将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列,包括:将所述当前词向量矩阵分别与每个卷积核进行卷积操作,获得每个卷积核对应的语境特征;将每个卷积核对应的语境特征进行融合,获得所述当前局部特征向量序列。
在本发明的一些示例性实施例中,所述联合深度学习模型还包括循环神经网络模型;其中,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签,还包括:将所述语义向量输入至所述循环神经网络模型,输出所述当前商品评论数据对应的商品的各个标签的概率;对各个标签的概率进行排序,选取前k个概率最大的标签作为所述当前商品评论数据的目标标签;其中,k为大于等于1的正整数。
在本发明的一些示例性实施例中,所述方法还包括:获取前k个最大概率的概率分布;若所述概率分布满足预设条件,则确定前k个概率最大的标签作为所述当前商品评论数据的目标标签。
在本发明的一些示例性实施例中,所述方法还包括:若所述概率分布不满足所述预设条件,则从前k个最大概率中选取前m个最大概率;确定前m个最大概率对应的标签作为所述当前商品评论数据的目标标签;其中,m为小于等于k且大于等于1的正整数。
在本发明的一些示例性实施例中,根据所述当前商品评论数据获得当前词向量矩阵,包括:对所述当前商品评论数据进行预处理,获得当前评论词语序列;将所述当前评论词语序列输入至训练完成的词向量模型,输出所述当前词向量矩阵。
在本发明的一些示例性实施例中,所述方法还包括:获得训练数据集,所述训练数据集包括标注其标签的历史商品评论数据;根据所述历史商品评论数据训练所述词向量模型,并输出历史词向量矩阵;将所述历史词向量矩阵输入至所述联合深度学习模型,并根据其标注的标签对其进行训练。
根据本发明实施例的第二方面,提供一种数据处理装置,包括:评论数据获取模块,配置为获取当前商品评论数据;向量矩阵获得模块,配置为根据所述当前商品评论数据获得当前词向量矩阵;目标标签预测模块,配置为将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
根据本发明实施例的第三方面,提供一种电子设备,包括:处理器;以及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如上述任意一项所述的数据处理方法。
根据本发明实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述任意一项所述的数据处理方法。
上述发明中的一个实施例具有如下优点或有益效果:一方面,因为采用了将当前商品评论数据转换为当前词向量矩阵的技术手段,为后续联合深度学习模型进行运算提高了处理效率;另一方面,因为还采用了将该当前词向量矩阵输入至训练完成的联合深度学习模型、并利用该训练好的联合深度学习模型预测输出该当前商品评论数据的目标标签的技术手段,从而可以实现给该当前商品评论数据自动打标签的技术效果,消费者可以根据其个人的消费决策点去浏览对应标签下的商品评论,减少了消费者浏览商品评论的数量,有助于消费者快速获得自己感兴趣的商品评论,提高了消费者对商品的购买欲,可以促进消费者在电子商务平台上下单,提高电子商务平台的购买转化率,增加电子商务平台的消费者粘性,因此,能够解决现有技术中存在的商品评论数据量较多而导致的消费者无法快速获得自己感兴趣的商品评论的技术问题。
上述发明中的另一个实施例具有如下优点或有益效果:因为采用了联合深度学习模型结合了卷积神经网络模型和循环神经网络模型的技术手段,卷积神经网络可以很好的提取输入的当前词向量矩阵包含的特征信息,同时循环神经网络模型可以通过顺序地对句子或文本进行建模来有效的考虑一个句子或是文本整体所包含的特征信息,因此,将综合卷积神经网络模型和循环神经网络模型的联合深度学习模型运用到给商品评论自动打标签上,可以提高标签的准确率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了根据本发明的一些实施例的数据处理方法的流程示意图;
图2示出了图1中的步骤S130的一些实施例流程示意图;
图3示出了根据本发明另一些实施例的数据处理方法的流程示意图;
图4示出了根据本发明又一些实施例的数据处理方法的流程示意图;
图5示出了根据本发明一些实施例的CNN模型抽取文本的语义向量的架构示意图;
图6示出了根据发明一些实施例的RNN模型预测标签的架构示意图;
图7示出了根据本发明一些实施例的商品评论的示意图;
图8示出了根据本发明的一些示例性实施例的数据处理装置的示意框图;
图9示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本发明将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
相关技术中,为了帮助消费者快速获得商品评论中的消费决策需求点,一些电子商务平台在订单评论页做了如下工作来对商品评论进行分类:
1)商品评分:根据消费者给出的商品评分,可以将对应的商品评论划分为好评、中评、差评三个层次,消费者可以从不同层次的评论中获得对自己消费决策有价值的信息。
2)买家印象:买家印象中消费者可以选择运维人员预先设定的标签,同时消费者也可以自定义标签,使得其他消费者可以通过买家印象标签快速获得自己感兴趣的消费决策点。
3)评价晒单:消费者可以通过图片的形式分享购物体验心得,供其他消费者作为参考。
但是,在上述商品评分方式中,统计好评、中评和差评的数量,只给出了直观的商品评分,消费者想获得个人消费决策需求点仍然需要浏览大量的文本信息。在上述买家印象和评价晒单方式中,消费者评价所购买的商品时,选择买家印象标签或自定义标签或晒单的数量占整个商品评论的比例非常小,消费者仍然需要从好评、中评和差评中浏览大量的评论信息。
图1示出了根据本发明的一些实施例的数据处理方法的流程示意图。本发明实施例的数据处理方法可以由任意具备计算处理能力的电子设备执行,例如服务器和/或终端设备等。
如图1所示,本发明实施例提供的数据处理方法可以包括以下步骤。
在步骤S110中,获取当前商品评论数据。
本发明实施例中,所述当前商品评论数据可以来自任意的电子商务平台、网上送餐平台、网上购票平台、网上点评平台、网上打车平台、网上家政平台等,本发明对此不作限定。
在一些实施例中,若本发明实施例提供的数据处理方法由服务器执行,可以由所述服务器从客户端获取所述当前商品评论数据,其中所述客户端上安装有消费者可以提交商品评论的应用程序(Application,app)或者可以打开相应的网站等。
需要说明的是,本发明实施例中提及的商品是一个广泛的概念,可以包括实体的物品,例如手机、电脑等;也可以包括非实体的服务,例如家政服务、打车服务等。
在步骤S120中,根据所述当前商品评论数据获得当前词向量矩阵。
在示例性实施例中,根据所述当前商品评论数据获得当前词向量矩阵,可以包括:对所述当前商品评论数据进行预处理,获得当前评论词语序列;将所述当前评论词语序列输入至训练完成的词向量模型,输出所述当前词向量矩阵。
本发明实施例中,对所述当前商品评论数据进行预处理,可以包括利用文本预处理模块对所述当前商品评论数据进行分词、词性标注、去掉停用词等操作。其中,去掉停用词可以根据词性去掉连词、介词和代词等无意义词,保留动词、名词、形容词等有意义词。
例如,可以采用开源的stanford分词、结巴分词等任意一种合适的分词工具完成分词,同时这些分词工具也支持词性标记、去掉停用词等操作。
本发明实施例中,所述词向量模型可以采用Word2Vec,但本发明并不限定于此,可以采用任意一种合适的词向量模型将预处理后的当前商品评论数据进行向量化。Word2Vec它的特点是将所有的词向量化,这样词与词之间就可以定量的去度量他们之间的关系,挖掘词之间的联系。
其中,Word2Vec是2013年谷歌开源的NLP(Neuro-Linguistic Programming,神经语言程序学)工具,包括CBOW(Continuous Bag-of-Words,连续词袋)和Skip-gram两个模型。通过该分词工具可以使文本信息处理方式从传统的高维稀疏向量空间转化成低维词向量空间。本发明实施例中,可以将大量商品评论文本数据通过Word2Vec映射到一个语义空间。
在步骤S130中,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
本发明实施例中,所述联合深度学习模型可以将卷积神经网络(ConvolutionalNeural Network,CNN)模型与循环神经网络(Recurrent Neural Network,RNN)模型相结合,利用CNN模型提取商品评论的文本特征并转化为高级语义向量,利用RNN模型对商品评论进行多标签预测,从而对商品评论赋予一个或者多个目标标签。消费者可以根据自己想要的消费决策点,去浏览对应标签下的商品评论,减少浏览商品评论的数量,提高消费者对商品的购买欲。
本发明实施方式提供的数据处理方法,一方面,因为采用了将当前商品评论数据转换为当前词向量矩阵的技术手段,为后续联合深度学习模型进行运算提高了处理效率;另一方面,因为还采用了将该当前词向量矩阵输入至训练完成的联合深度学习模型、并利用该训练好的联合深度学习模型预测输出该当前商品评论数据的目标标签的技术手段,从而可以实现给该当前商品评论数据自动打标签的技术效果,消费者可以根据其个人的消费决策点去浏览对应标签下的商品评论,减少了消费者浏览商品评论的数量,有助于消费者快速获得自己感兴趣的商品评论,提高了消费者对商品的购买欲,可以促进消费者在电子商务平台上下单,提高电子商务平台的购买转化率,增加电子商务平台的消费者粘性,因此,能够解决现有技术中存在的商品评论数据量较多而导致的消费者无法快速获得自己感兴趣的商品评论的技术问题。
图2示出了图1中的步骤S130的一些实施例流程示意图。本发明实施例中,所述联合深度学习模型可以包括卷积神经网络模型,所述卷积神经网络模型可以包括卷积层、池化层和全连接层。
如图2所示,本发明实施例中,上述步骤S130可以进一步包括以下步骤。
在步骤S131中,将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列。
在示例性实施例中,所述卷积层可以包括多个卷积核。
在示例性实施例中,将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列,可以包括:将所述当前词向量矩阵分别与每个卷积核进行卷积操作,获得每个卷积核对应的语境特征;将每个卷积核对应的语境特征进行融合,获得所述当前局部特征向量序列。
本发明实施例中,CNN模型中的卷积层是通过滑动窗口捕获词语的n-gram(n-元,n为大于等于1的正整数)语境特征。它对Word2Vec输出的当前词向量矩阵与多个卷积核进行卷积操作,产生一个输出,即所述当前局部特征向量序列。
在步骤S132中,将所述当前局部特征向量序列输入至所述池化层,输出第一预设维度的句子特征向量。
本发明实施例中,在卷积层提取局部上下文特征的当前局部特征向量序列后,需要对这些局部特征进行聚合操作以获得具有固定大小的句子级矢量特征,而不依赖输入词语序列的长度。因此,需要忽略对句子语义没有显著的影响的局部特征,只在全局特征向量中保留对句子有语义的特征向量。为此,使用池化操作来强制网络保留由卷积层产生的最有用的局部特征,即选择特征图中每个池化区域最大的神经元激活值。
本发明实施例中,所述第一预设维度的取值范围可以是100-200,但本发明并不限定于此,可以根据实际需求进行自主设定。
在步骤S133中,将所述句子特征向量输入至所述全连接层,输出第二预设维度的语义向量。
其中,所述第二预设维度小于所述第一预设维度。即通过所述全连接层实现所述池化层输出的句子特征向量的降维作用,可以降低后续的数据处理量,提高数据处理效率。
本发明实施例中,在全连接层之间需要将多个垂直方向产生的向量通过merge层融合在一起,产生句子级矢量特征的所述句子特征向量之后,再应用一个非线性变化来提取高级语义表示。
继续参考图2,所述联合深度学习模型还可以包括循环神经网络模型。
在步骤S134中,将所述语义向量输入至所述循环神经网络模型,输出所述当前商品评论数据对应的商品的各个标签的概率。
其中,RNN模型是用于处理序列数据的神经网络,例如时间序列。在这里可以用于处理具有多个标签序列的商品评论数据。
本发明实施例中,所述循环神经网络模型可以是LSTM(Long short term memory,长短记忆)神经网络模型,其中,LSTM是RNN最成功的变体之一,其包括三个门:输入门、遗忘门和输出门。本发明实施例中可以采用LSTM作为商品评论的标签预测。
本发明实施例中,可以预先对不同的商品设定至少一个标签,或者,可以预先对不同的商品品类设定至少一个标签,例如,预先对手机品类设定“物流”、“性能”、“外观”、“屏幕”等多个标签,之后当接收到某一手机的一条新的商品评论时,利用本发明实施例提供的RNN模型预测该条新的商品评论的目标标签时,RNN模型可以输出该条新的商品评论对应各个标签的概率。
在步骤S135中,对各个标签的概率进行排序,选取前k个概率最大的标签作为所述当前商品评论数据的目标标签。
其中,k为大于等于1的正整数。
就像一部电影同时具有“爱情”、“动作”和“喜剧”一个或者多个标签一样,商品评论也可以被赋予一个或者多个标签。
本发明实施例中,经过RNN模型预测后,可以输出某手机的一条商品评论的各个标签的概率,将各个标签的概率进行降序排列(当然,也可以是升序排列)后,可以选择前k个概率最大的标签作为其目标标签。例如,假设一条商品评论描述的信息包含了“物流”、“价格”和“外观”,就可以为这条评论打上“物流”、“价格”和“外观”三个标签。
本发明实施方式提供的数据处理方法,因为采用了联合深度学习模型结合了卷积神经网络模型和循环神经网络模型的技术手段,卷积神经网络可以很好的提取输入的当前词向量矩阵包含的特征信息,同时循环神经网络模型可以通过顺序地对句子或文本进行建模来有效的考虑一个句子或是文本整体所包含的特征信息,因此,将综合卷积神经网络模型和循环神经网络模型的联合深度学习模型运用到给商品评论自动打标签上,可以提高标签的准确率。
图3示出了根据本发明另一些实施例的数据处理方法的流程示意图。
如图3所示,与上述实施例相比,本发明实施例提供的数据处理方法其不同之处在于,还可以包括以下步骤。
在步骤S310中,获取前k个最大概率的概率分布。
本发明实施例中,经过RNN模型预测后,可以输出一条商品评论的各个标签的概率,将各个标签的概率进行降序排列后,可以选择前k个最大概率。
在步骤S320中,判断所述概率分布是否满足预设条件;若所述概率分布满足所述预设条件,则进入步骤S330;若所述概率分布不满足所述预设条件,则跳转到步骤S340。
在步骤S330中,若所述概率分布满足预设条件,则确定前k个概率最大的标签作为所述当前商品评论数据的目标标签。
例如,假设某手机的一条评论对应的标签“物流”、“外观”、“性能”、“屏幕”、“电池”的概率分别为0.3、0.3、0.3、0.05和0.05。再假设k=3,则选择前3个概率分别为0.3、0.3和0.3,由此可以获知,这前3个概率是相等的,因此,可以将这前3个概率对应的三个标签“物流”、“外观”、“性能”均作为这条评论的目标标签。
需要说明的是,上述预设条件并不限定前k个最大概率中的每个概率必须相等,上面仅是一个举例说明,只要前k个最大概率中的相邻两个概率的差异值小于预设阈值,即前k个最大概率中的各个概率的值的大小相差不过悬殊,则可以认为所述概率分布满足所述预设条件。所述预设阈值的取值可以根据具体需求进行自主调整,本发明对此不作限定。
在步骤S340中,若所述概率分布不满足所述预设条件,则从前k个最大概率中选取前m个最大概率。
例如,假设某手机的一条评论对应的标签“物流”、“外观”、“性能”、“屏幕”、“电池”的概率分别为0.8、0.1、0.09、0.06和0.05。再假设k=3,则选择前3个概率分别为0.8、0.1和0.09,由此可以获知,第一个概率0.8和第二个概率0.1之间的差异较大,此时可以认为所述概率分布不满足所述预设条件,从这3个最大概率中选取第一个概率0.8,而摒弃概率0.1和0.09。
在步骤S350中,确定前m个最大概率对应的标签作为所述当前商品评论数据的目标标签。
其中,m为小于等于k且大于等于1的正整数。
例如,最终确定上述第一个概率0.8对应的“物流”作为该条手机评论的目标标签。
本发明实施方式提供的数据处理方法,通过对RNN模型预测的概率进行处理,可以进一步提高商品评论预测的精准度。
图4示出了根据本发明又一些实施例的数据处理方法的流程示意图。
如图4所示,与上述实施例相比,本发明实施例提供的数据处理方法其不同之处在于,还可以包括以下步骤。
在步骤S410中,获得训练数据集,所述训练数据集包括标注其标签的历史商品评论数据。
本发明实施例中,可以首先从电子商务平台等中采集大量的历史商品评论数据,然后可以采用人工标注的方式给各条历史商品评论数据打上其真实的标签。
在步骤S420中,根据所述历史商品评论数据训练所述词向量模型,并输出历史词向量矩阵。
本发明实施例中,可以根据所述训练数据集中的历史商品评论数据训练所述词向量模型,例如Word2Vec。还可以利用训练完成的词向量模型输出各条历史商品评论数据的历史词向量矩阵。
在步骤S430中,将所述历史词向量矩阵输入至所述联合深度学习模型,并根据其标注的标签对其进行训练。
本发明实施例中,以所述词向量模型为Word2Vec、且所述联合深度学习模型为CNN-RNN模型为例,训练过程可以包括两个步骤:首先通过将所有已标注的历史商品评论数据用作未标记数据来训练Word2Vec模型。然后将Word2Vec模型的输出馈入到第二训练步骤,即CNN-RNN模型的监督训练。例如,可以使用softmax分类器用于标签预测的RNN的上层,然后将交叉熵损失从RNN向下传播回CNN以更新CNN-RNN模型的权重。
本发明实施例中,还可以使用Adam优化算法使模型快速收敛。
在另一些实施例中,对于正则化,对CNN和RNN中的所有权重可以采用L2范数进行约束。
因此,对于每条历史商品评论,将预测不同长度的标签序列,理想情况是每条输入的历史商品评论的标签序列与属于该历史商品评论的标签子集(即预先为该历史商品评论标注的真实标签的集合)完全匹配。
图5示出了根据本发明一些实施例的CNN模型抽取文本的语义向量的架构示意图。
如图5所示,首先利用已标注的商品评论数据集作为训练数据集,训练Word2Vec模型和CNN-RNN模型,模型训练完成后,将当前商品评论输入至文本预处理模块中,然后将文本预处理模块的输出信息输入至训练好的Word2Vec模型中,这里假设文本预处理模块的输出信息包括n个词语(n为大于等于1的正整数),那么Word2Vec模型将输出x1,x2,x3直至xn个词向量,其中各个词向量的维度可以是固定的并且相同的,将各个词向量组合在一起即获得词向量矩阵。然后将Word2Vec模型输出的词向量矩阵输入至训练好的CNN模型的卷积层,将该词向量矩阵分别与卷积层的多个卷积核(1-元(1-gram),…3-元(3-gram),更多直至n-元(n-gram))分别进行卷积操作,然后将各个卷积操作的输出进行拼接,获得局部特征向量序列。再将该局部特征向量序列输入至CNN模型的池化层,获得固定大小的句子特征向量。然后将该句子特征向量输入至CNN模型的全连接层,输出语义向量X。
图6示出了根据发明一些实施例的RNN模型预测标签的架构示意图。
如图6所示,这里假设预先给当前商品评论对应的商品设定的标签依次为标签_物流(tag_物流),标签_价格(tag_价格),标签_外观(tag_外观),标签_性能(tag_性能),标签_...(tag_...),且假设RNN模型为LSTM,其中,底层Xt(t为大于等于0的正整数)是第t时刻的输入,即商品评论的高级语义向量;中间层Ht是第t时刻的隐藏状态,它负责整个神经网络的记忆功能。Ht(t为大于等于0的正整数)由上一时刻的隐藏状态和本层的当前时刻的输入共同决定;上层Yt(t为大于等于1的正整数)是第t时刻的输出,即softmax层通过线性变换来计算每个标签的概率。
本发明实施例中,可以采用以下计算公式:
Xi=X,i=0,1,2,...,t
Hi=f(U(i)Xi+W(i)H(i-1)+b(i)),i=1,2,...,t
Yi=g(ViHi),i=1,2,...,t
其中,上述公式中f是激活函数,U(i)是输入Xi的权重矩阵,W(i)是上一次的值Hi-1作为这一次的输入的权重矩阵,b(i)是偏置项;g是激活函数,V(i)是输出层Yi的权重矩阵。
具体的,输入一条商品评论,首先经过文本预处理输出进行预处理后的词语序列,利用词向量模型将词语向量化并馈送到CNN模型,依次经过卷积层、池化层、全连接层输出语义向量;将该输出的语义向量作为标签预测的初始化状态馈送到LSTM之后,整个网络能根据CNN提取的特征来预测输入商品评论的相关标签序列。其中,RNN模型以<开始>(<START>)开始标签序列预测,首先利用顶层的softmax层通过线性变换来计算每个标签的概率。然后,预测具有最大概率的一个或者多个目标标签;最后,标签的预测以<END>(<结束>)标记结束。
图7示出了根据本发明一些实施例的商品评论的示意图。
如图7所示,为商品评论多标签分类样例图,这里假设针对某款手机的一条评论为“手机试玩两个星期了,总体还不错,首先给XX商城满分,本来说的一个星期后发货,结果两天就发货,一天就到了,太牛了,说说手机吧,优点性价比很高,目前最便宜的845,相机也不错,缺点就是屏幕很一般,电池有点快,看屏幕时间长了,有点头晕,屏幕自动亮度有时候很暗,不知道怎么回事,其他都很好,总体手机不错,本来抢了几分钟都要放弃的,他提示我换个手指试试,结果我就换了一个手指,然后马上抢到了,哈哈哈哈”,该商品评论的描述信息包含了“物流”、“价格”、“相机”、“电池”、“屏幕”,因此该评论可以被标记“物流”、“价格”、“相机”、“电池”、“屏幕”标签。
本发明实施例提供的数据处理方法,利用CNN-RNN模型对商品评论进行一个或者多个标签预测,通过Word2Vec训练词向量模型、CNN模型提取商品评论的文本特征、RNN模型对商品评论进行多标签预测三阶段操作,对每个商品评论标记一个或者多个标签,帮助消费者快速从大量的文本信息中获得消费决策需求点。
此外,在本发明的实施例中,还提供了一种数据处理装置。参照图8所示,该数据处理装置800可以包括:评论数据获取模块810、向量矩阵获得模块820以及目标标签预测模块830。
其中,评论数据获取模块810可以配置为获取当前商品评论数据。向量矩阵获得模块820可以配置为根据所述当前商品评论数据获得当前词向量矩阵。目标标签预测模块830可以配置为将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
在示例性实施例中,所述联合深度学习模型可以包括卷积神经网络模型,所述卷积神经网络模型可以包括卷积层、池化层和全连接层。其中,目标标签预测模块830可以包括:局部特征提取单元,可以配置为将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列;句子特征获取单元,可以配置为将所述当前局部特征向量序列输入至所述池化层,输出第一预设维度的句子特征向量;语义向量生成单元,可以配置为将所述句子特征向量输入至所述全连接层,输出第二预设维度的语义向量;其中,所述第二预设维度小于所述第一预设维度。
在示例性实施例中,所述卷积层可以包括多个卷积核。其中,所述局部特征提取单元可以包括:语境特征提取子单元,可以配置为将所述当前词向量矩阵分别与每个卷积核进行卷积操作,获得每个卷积核对应的语境特征;语境特征融合子单元,可以配置为将每个卷积核对应的语境特征进行融合,获得所述当前局部特征向量序列。
在示例性实施例中,所述联合深度学习模型还可以包括循环神经网络模型。其中,目标标签预测模块830还可以包括:标签概率预测单元,可以配置为将所述语义向量输入至所述循环神经网络模型,输出所述当前商品评论数据对应的商品的各个标签的概率;目标标签选取单元,可以配置为对各个标签的概率进行排序,选取前k个概率最大的标签作为所述当前商品评论数据的目标标签;其中,k为大于等于1的正整数。
在示例性实施例中,数据处理装置800还可以包括:概率分布获取模块,可以配置为获取前k个最大概率的概率分布;第一标签确定模块,可以配置为若所述概率分布满足预设条件,则确定前k个概率最大的标签作为所述当前商品评论数据的目标标签。
在示例性实施例中,数据处理装置800还可以包括:概率选取模块,可以配置为若所述概率分布不满足所述预设条件,则从前k个最大概率中选取前m个最大概率;第二标签确定模块,可以配置为确定前m个最大概率对应的标签作为所述当前商品评论数据的目标标签;其中,m为小于等于k且大于等于1的正整数。
在示例性实施例中,向量矩阵获得模块820可以包括:词语序列获得单元,可以配置为对所述当前商品评论数据进行预处理,获得当前评论词语序列;向量矩阵获得单元,可以配置为将所述当前评论词语序列输入至训练完成的词向量模型,输出所述当前词向量矩阵。
在示例性实施例中,数据处理装置800还可以包括:训练数据获得模块,可以配置为获得训练数据集,所述训练数据集包括标注其标签的历史商品评论数据;第一模型训练模块,可以配置为根据所述历史商品评论数据训练所述词向量模型,并输出历史词向量矩阵;第二模型训练模块,可以配置为将所述历史词向量矩阵输入至所述联合深度学习模型,并根据其标注的标签对其进行训练。
由于本发明的示例实施例的数据处理装置800的各个功能模块与上述数据处理方法的示例实施例的步骤对应,因此在此不再赘述。
在本发明的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
下面参考图9,其示出了适于用来实现本发明实施例的电子设备的计算机系统900的结构示意图。图9示出的电子设备的计算机系统900仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图9所示,计算机系统900包括中央处理单元(CPU)901,其可以根据存储在只读存储器(ROM)902中的程序或者从存储部分908加载到随机访问存储器(RAM)903中的程序而执行各种适当的动作和处理。在RAM 903中,还存储有系统操作所需的各种程序和数据。CPU901、ROM 902以及RAM 903通过总线904彼此相连。输入/输出(I/O)接口905也连接至总线904。
以下部件连接至I/O接口905:包括键盘、鼠标等的输入部分906;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分907;包括硬盘等的存储部分908;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分909。通信部分909经由诸如因特网的网络执行通信处理。驱动器910也根据需要连接至I/O接口905。可拆卸介质911,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器910上,以便于从其上读出的计算机程序根据需要被安装入存储部分908。
特别地,根据本发明的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分909从网络上被下载和安装,和/或从可拆卸介质911被安装。在该计算机程序被中央处理单元(CPU)901执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的模块和/或单元和/或子单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的模块和/或单元和/或子单元也可以设置在处理器中。其中,这些模块和/或单元和/或子单元的名称在某种情况下并不构成对该模块和/或单元和/或子单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现如上述实施例中所述的数据处理方法。
例如,所述电子设备可以实现如图1中所示的:步骤S110,获取当前商品评论数据;步骤S120,根据所述当前商品评论数据获得当前词向量矩阵;步骤S130,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备或装置的若干模块和/或单元和/或子单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块和/或单元和/或子单元的特征和功能可以在一个模块和/或单元和/或子单元中具体化。反之,上文描述的一个模块和/或单元和/或子单元的特征和功能可以进一步划分为由多个模块和/或单元和/或子单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。
Claims (11)
1.一种数据处理方法,其特征在于,包括:
获取当前商品评论数据;
根据所述当前商品评论数据获得当前词向量矩阵;
将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
2.根据权利要求1所述的数据处理方法,其特征在于,所述联合深度学习模型包括卷积神经网络模型,所述卷积神经网络模型包括卷积层、池化层和全连接层;
其中,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签,包括:
将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列;
将所述当前局部特征向量序列输入至所述池化层,输出第一预设维度的句子特征向量;
将所述句子特征向量输入至所述全连接层,输出第二预设维度的语义向量;
其中,所述第二预设维度小于所述第一预设维度。
3.根据权利要求2所述的数据处理方法,其特征在于,所述卷积层包括多个卷积核;其中,将所述当前词向量矩阵输入至所述卷积层,输出当前局部特征向量序列,包括:
将所述当前词向量矩阵分别与每个卷积核进行卷积操作,获得每个卷积核对应的语境特征;
将每个卷积核对应的语境特征进行融合,获得所述当前局部特征向量序列。
4.根据权利要求2所述的数据处理方法,其特征在于,所述联合深度学习模型还包括循环神经网络模型;其中,将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签,还包括:
将所述语义向量输入至所述循环神经网络模型,输出所述当前商品评论数据对应的商品的各个标签的概率;
对各个标签的概率进行排序,选取前k个概率最大的标签作为所述当前商品评论数据的目标标签;
其中,k为大于等于1的正整数。
5.根据权利要求4所述的数据处理方法,其特征在于,还包括:
获取前k个最大概率的概率分布;
若所述概率分布满足预设条件,则确定前k个概率最大的标签作为所述当前商品评论数据的目标标签。
6.根据权利要求5所述的数据处理方法,其特征在于,还包括:
若所述概率分布不满足所述预设条件,则从前k个最大概率中选取前m个最大概率;
确定前m个最大概率对应的标签作为所述当前商品评论数据的目标标签;
其中,m为小于等于k且大于等于1的正整数。
7.根据权利要求1所述的数据处理方法,其特征在于,根据所述当前商品评论数据获得当前词向量矩阵,包括:
对所述当前商品评论数据进行预处理,获得当前评论词语序列;
将所述当前评论词语序列输入至训练完成的词向量模型,输出所述当前词向量矩阵。
8.根据权利要求7所述的数据处理方法,其特征在于,还包括:
获得训练数据集,所述训练数据集包括标注其标签的历史商品评论数据;
根据所述历史商品评论数据训练所述词向量模型,并输出历史词向量矩阵;
将所述历史词向量矩阵输入至所述联合深度学习模型,并根据其标注的标签对其进行训练。
9.一种数据处理装置,其特征在于,包括:
评论数据获取模块,配置为获取当前商品评论数据;
向量矩阵获得模块,配置为根据所述当前商品评论数据获得当前词向量矩阵;
目标标签预测模块,配置为将所述当前词向量矩阵输入至训练完成的联合深度学习模型中,预测所述当前商品评论数据的一个或者多个目标标签。
10.一种电子设备,其特征在于,包括:处理器;以及存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现如权利要求1至8中任一项所述的数据处理方法。
11.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的数据处理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910129643.9A CN111598596A (zh) | 2019-02-21 | 2019-02-21 | 数据处理方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910129643.9A CN111598596A (zh) | 2019-02-21 | 2019-02-21 | 数据处理方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111598596A true CN111598596A (zh) | 2020-08-28 |
Family
ID=72184966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910129643.9A Pending CN111598596A (zh) | 2019-02-21 | 2019-02-21 | 数据处理方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111598596A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052942A (zh) * | 2020-09-18 | 2020-12-08 | 支付宝(杭州)信息技术有限公司 | 神经网络模型训练方法、装置及系统 |
CN112308166A (zh) * | 2020-11-09 | 2021-02-02 | 建信金融科技有限责任公司 | 一种处理标签数据的方法和装置 |
CN112308662A (zh) * | 2020-10-09 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 评价晒单推荐方法和装置 |
CN112434965A (zh) * | 2020-12-04 | 2021-03-02 | 广东电力信息科技有限公司 | 一种基于词频的专家标签产生方法、装置、终端 |
CN112528136A (zh) * | 2020-11-30 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 一种观点标签的生成方法、装置、电子设备和存储介质 |
CN114091837A (zh) * | 2021-10-27 | 2022-02-25 | 浪潮卓数大数据产业发展有限公司 | 一种基于电商数据进行店铺评分的方法及系统 |
CN114580372A (zh) * | 2020-11-30 | 2022-06-03 | 北京嘀嘀无限科技发展有限公司 | 文本处理方法、装置、设备和存储介质 |
-
2019
- 2019-02-21 CN CN201910129643.9A patent/CN111598596A/zh active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112052942A (zh) * | 2020-09-18 | 2020-12-08 | 支付宝(杭州)信息技术有限公司 | 神经网络模型训练方法、装置及系统 |
CN112052942B (zh) * | 2020-09-18 | 2022-04-12 | 支付宝(杭州)信息技术有限公司 | 神经网络模型训练方法、装置及系统 |
CN112308662A (zh) * | 2020-10-09 | 2021-02-02 | 北京沃东天骏信息技术有限公司 | 评价晒单推荐方法和装置 |
CN112308166A (zh) * | 2020-11-09 | 2021-02-02 | 建信金融科技有限责任公司 | 一种处理标签数据的方法和装置 |
CN112528136A (zh) * | 2020-11-30 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 一种观点标签的生成方法、装置、电子设备和存储介质 |
CN114580372A (zh) * | 2020-11-30 | 2022-06-03 | 北京嘀嘀无限科技发展有限公司 | 文本处理方法、装置、设备和存储介质 |
CN112434965A (zh) * | 2020-12-04 | 2021-03-02 | 广东电力信息科技有限公司 | 一种基于词频的专家标签产生方法、装置、终端 |
CN114091837A (zh) * | 2021-10-27 | 2022-02-25 | 浪潮卓数大数据产业发展有限公司 | 一种基于电商数据进行店铺评分的方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111598596A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN109062893B (zh) | 一种基于全文注意力机制的商品名称识别方法 | |
CN111444334A (zh) | 数据处理方法、文本识别方法、装置及计算机设备 | |
CN111784455A (zh) | 一种物品推荐方法及推荐设备 | |
CN111368548A (zh) | 语义识别方法及装置、电子设备和计算机可读存储介质 | |
CN110457480A (zh) | 基于交互式注意力机制的细粒度情感分类模型的构建方法 | |
CN109584006B (zh) | 一种基于深度匹配模型的跨平台商品匹配方法 | |
CN111325571A (zh) | 一种多任务学习的商品评论标签自动生成方法、装置及系统 | |
CN111797622B (zh) | 用于生成属性信息的方法和装置 | |
CN107729453B (zh) | 一种提取中心产品词的方法和装置 | |
CN110827112A (zh) | 深度学习的商品推荐方法、装置、计算机设备及存储介质 | |
CN111950593A (zh) | 一种推荐模型训练的方法及装置 | |
US11921766B2 (en) | Generating electronic summary documents for landing pages | |
CN113781149B (zh) | 信息推荐方法、装置、计算机可读存储介质及电子设备 | |
CN111738807B (zh) | 用于推荐目标对象的方法、计算设备和计算机存储介质 | |
CN111695024A (zh) | 对象评估值的预测方法及系统、推荐方法及系统 | |
CN111340605B (zh) | 训练用户行为预测模型、用户行为预测的方法和装置 | |
CN111967924A (zh) | 商品推荐方法、商品推荐装置、计算机设备和介质 | |
CN115345669A (zh) | 文案生成方法、装置、存储介质及计算机设备 | |
CN116703506A (zh) | 一种基于多特征融合的电商商品推荐方法及系统 | |
CN111523315B (zh) | 数据处理方法、文本识别方法、装置及计算机设备 | |
CN115953217A (zh) | 商品评分推荐方法及其装置、设备、介质、产品 | |
CN113254824B (zh) | 内容确定方法、设备、介质及程序产品 | |
CN111274383B (zh) | 一种应用于报价的分类对象方法和装置 | |
CN113806622A (zh) | 推荐方法、装置及设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |