CN112948677A - 基于点评美感度的推荐理由确定方法、系统、设备及介质 - Google Patents

基于点评美感度的推荐理由确定方法、系统、设备及介质 Download PDF

Info

Publication number
CN112948677A
CN112948677A CN202110220617.4A CN202110220617A CN112948677A CN 112948677 A CN112948677 A CN 112948677A CN 202110220617 A CN202110220617 A CN 202110220617A CN 112948677 A CN112948677 A CN 112948677A
Authority
CN
China
Prior art keywords
comment
label
comment text
text
aesthetic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110220617.4A
Other languages
English (en)
Other versions
CN112948677B (zh
Inventor
唐建
鞠剑勋
李健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Zhilv Information Technology Co ltd
Original Assignee
Shanghai Zhilv Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Zhilv Information Technology Co ltd filed Critical Shanghai Zhilv Information Technology Co ltd
Priority to CN202110220617.4A priority Critical patent/CN112948677B/zh
Publication of CN112948677A publication Critical patent/CN112948677A/zh
Application granted granted Critical
Publication of CN112948677B publication Critical patent/CN112948677B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0282Rating or review of business operators or products
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Strategic Management (AREA)
  • Artificial Intelligence (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Software Systems (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Economics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • General Business, Economics & Management (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Marketing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种基于点评美感度的推荐理由确定方法、系统、设备及介质,该方法包括:获取每个标签的点评文本;将每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分;从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由。本发明通过将获取到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分,将从每个标签的点评文本的美感度评分中确定出的美感度评分最高的点评文本作为对应标签的推荐理由,提高了推荐理由的合理性和优美度,满足了用户的需求,提高了用户体验度。

Description

基于点评美感度的推荐理由确定方法、系统、设备及介质
技术领域
本发明涉及自然语言处理技术领域,特别涉及一种基于点评美感度的推荐理由确定方法、系统、设备及介质。
背景技术
目前,旅游产品的推荐理由是从该产品的简介中找出能够突出该产品特色的若干个词,再通过若干个词组合成推荐理由,并不是将完整的句子作为推荐理由来推荐给用户,而将若干个词作为推荐理由过于概括,没有针对特定方向进行具体的推荐,会导致用户的体验度低。
发明内容
本发明要解决的技术问题是为了克服现有技术中将从旅游产品的简介中找出的若干个词组合成推荐理由推荐给用户,由于该推荐理由过于概括,没有针对特定方向进行具体的推荐,导致用户的体验度低的缺陷,提供一种基于点评美感度的推荐理由确定方法、系统、设备及介质。
本发明是通过下述技术方案来解决上述技术问题:
本发明第一方面提供了一种基于点评美感度的推荐理由确定方法,所述确定方法包括:
获取每个标签的点评文本;
将获取到的所述每个标签的点评文本分别输入bert(预训练语言模型)模型,以得到每个标签的点评文本的美感度评分;
从所述每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的所述美感度评分最高的点评文本作为对应标签的所述推荐理由。
较佳地,所述bert模型的训练步骤包括:
获取已标注美感度评分的点评文本;
用所述已标注美感度评分的点评文本训练所述bert模型。
较佳地,所述获取已标注美感度评分的点评文本的步骤之后,所述bert模型的训练步骤还包括:
预处理所述已标注美感度评分的点评文本,得到处理后的所述已标注美感度评分的点评文本;
用处理后的所述已标注美感度评分的点评文本训练bert模型。
较佳地,所述获取已标注美感度评分的点评文本的步骤包括:
将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示;
将所述多个字向量表示进行最大值池化处理,得到词汇向量表示;
将所述词汇向量表示进行均值池化处理,得到点评文本向量表示;
将所述点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
和/或,
所述将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示的步骤包括:
获取所述点评文本序列转换得到的字向量、文本向量和位置向量;
将所述字向量、所述文本向量和所述位置向量拼接后输入所述bert模型,得到所述点评文本序列中多个字向量表示。
较佳地,所述获取每个标签的点评文本的步骤之前,所述确定方法还包括:
获取标签体系,所述标签体系包括多个标签层级;
在所述标签体系中获取所述每个标签的点评文本;
和/或,
所述获取标签体系的步骤之后,所述确定方法还包括:
获取每个标签中点评文本的关键词;
在所述标签体系中根据所述关键词获取每个标签的点评文本。
本发明第二方面提供了一种基于点评美感度的推荐理由确定系统,所述确定系统包括第一获取模块、输入模块和确定模块;
所述第一获取模块用于获取每个标签的点评文本;
所述输入模块用于将获取到的所述每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分;
所述确定模块用于从所述每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的所述美感度评分最高的点评文本作为对应标签的所述推荐理由。
较佳地,所述确定系统还包括第二获取模块和训练模块;
所述第二获取模块用于获取已标注美感度评分的点评文本;
所述训练模块用于用所述已标注美感度评分的点评文本训练所述bert模型。
较佳地,所述确定系统还包括预处理模块;
所述预处理模块用于预处理所述已标注美感度评分的点评文本,得到处理后的所述已标注美感度评分的点评文本;
所述训练模块具体用于用处理后的所述已标注美感度评分的点评文本训练bert模型。
较佳地,所述第二获取模块包括输入单元、第一处理单元、第二处理单元和变换单元;
所述输入单元用于将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示;
所述第一处理单元用于将所述多个字向量表示进行最大值池化处理,得到词汇向量表示;
所述第二处理单元用于将所述词汇向量表示进行均值池化处理,得到点评文本向量表示;
所述变换单元用于将所述点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
和/或,
所述第二获取模块包括获取单元;
所述获取单元用于获取所述点评文本序列转换得到的字向量、文本向量和位置向量;
所述输入单元具体用于将所述字向量、所述文本向量和所述位置向量拼接后输入所述bert模型,得到所述点评文本序列中多个字向量表示。
较佳地,所述确定系统还包括第三获取模块;
所述第三获取模块用于获取标签体系,所述标签体系包括多个标签层级;
所述第一获取模块具体用于在所述标签体系中获取所述每个标签的点评文本;
和/或,
所述确定系统还包括第四获取模块;
所述第四获取模块用于获取每个标签中点评文本的关键词;
所述第一获取模块具体还用于根据所述关键词获取每个标签的点评文本。
本发明第三方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的基于点评美感度的推荐理由确定方法。
本发明第四方面提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的基于点评美感度的推荐理由确定方法的步骤。
本发明的积极进步效果在于:
本发明通过将获取得到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分,再从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由推荐给用户,提高了推荐理由的合理性和优美度,满足了用户的需求,提高了用户体验度。
附图说明
图1为本发明实施例1的基于点评美感度的推荐理由确定方法的流程图。
图2为本发明实施例1的基于点评美感度的推荐理由确定方法的bert模型的训练步骤的流程图。
图3为本发明实施例1的基于点评美感度的推荐理由确定方法的步骤101a的流程图。
图4为本发明实施例2的基于点评美感度的推荐理由确定系统的模块示意图。
图5为本发明实施例3的电子设备的结构示意图。
具体实施方式
下面通过实施例的方式进一步说明本发明,但并不因此将本发明限制在所述的实施例范围之中。
实施例1
本实施例提供了一种基于点评美感度的推荐理由确定方法,如图1所示,该确定方法包括:
步骤101、获取标签体系,标签体系包括多个标签层级。
本实施方式中,标签体系是通过观察大量的用户点评,总结用户点评的主要方面,从而构建成标签体系,标签体系的建立方便为用户推荐该用户关注的某些方面的推荐理由。标签体系可以分为3级,即包括3个标签层级,也可以根据实际情况分成其他数量的标签层级,此处不做具体限定。
例如,如下表所示的部分标签体系,将标签体系分为3个标签层级,其中,1级标签层级、2级标签层级以及3级标签层级是层级的一对多关系,第一列为1级标签层级,第二列为2级标签层级,第三列为3级标签层级。
1级标签层级 2级标签层级 3级标签层级
服务 领队 领队不错
服务 导游 导游服务好
服务 导游 导游服务耐心
服务 导游 导游讲解到位
服务 导游 导游讲解详细
服务 导游 导游帮忙拿行李
服务 导游 导游帮忙拍照
服务 导游 导游幽默
服务 导游 导游认真负责
服务 导游 导游热情
服务 导游 导游有礼貌
服务 导游 导游是当地通
服务 导游 导游熟悉线路
服务 导游 导游知识渊博
服务 导游 导游体贴老人
服务 导游 导游照顾小孩
服务 旅拍 旅拍
服务 旅拍 摄影师技术好
服务 旅拍 成片非常棒
服务 旅拍 有免费拍照
服务 特色服务 有中文服务
服务 特色服务 缓解高反
服务 特色服务 旅行管家
服务 特色服务 慢生活
步骤102、获取每个标签中点评文本的关键词。
步骤103、在标签体系中根据关键词获取每个标签的点评文本。
本实施方式中,为了准确的获取产品中属于不同标签的点评文本,具体地,给3级标签定义了一些关键词,根据关键词获取每个标签的点评文本。
例如,3级标签及对应的部分关键词的具体内容如下表所示,第一列是3级标签;第二列是属于该标签的点评应该要包含的关键词,其中,(A,B)表示必须同时包含A和B;第三列是该标签下的点评不应该包含的关键词。本实施方式中该标签下的点评不应该包含的关键词可以是空的(即没有关键词),也可以是否定词,还可以是其他影响点评美感度的词。
Figure BDA0002954694000000071
步骤104、将获取到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分。
本实施方式中,美感度可以理解为美感强度。
步骤105、从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由。
本实施方式会对每个标签的所有点评文本进行评分,例如,评分可以分为1-4分,其中,1分为最低分,4分为最高分,然后将每个标签的所有点评文本的评分从高到低进行排序,将评分最高的点评文本作为对应标签的推荐理由。在将推荐理由推荐给用户时,通常会结合该对应标签在整个旅游产品中的权重和特殊性,优先将权重高的或者有特殊性的推荐理由推荐给用户。
本实施方式中,如图2所示,bert模型的训练步骤包括:
步骤101a、获取已标注美感度评分的点评文本。
本实施方式中,在标签体系中随机获取部分已标注美感度评分的点评文本。
步骤101b、预处理已标注美感度评分的点评文本,得到处理后的已标注美感度评分的点评文本。
本实施方式中,预处理已标注美感度评分的点评文本,具体地,对已标注美感度评分的点评文本进行噪声过滤,去除掉点评文本中非符号、数字、文字等字符,之后再对点评文本进行分词得到词汇序列,记录每个字符所在词汇的词汇位置。
步骤101c、用处理后的已标注美感度评分的点评文本训练bert模型。
本实施方式中,通过点评文本真实标签和预测标签分布计算cross-entropy loss(交叉熵损失函数),采用Adam(Adaptive Moment Estimation)(自适应矩估计)算法对loss(损失)极小化,最后得到训练后的bert模型。
本实施方式中,如图3所示,上述步骤101a包括:
步骤101a1、将点评文本序列输入bert模型,得到点评文本序列中多个字向量表示。
本实施方式中,将点评文本序列输入bert模型,得到该点评文本序列中每个字对应的字向量表示,该字向量维度为768,也可以为其他数值。
具体地,将点评文本序列
Figure BDA0002954694000000091
输入bert模型,得到文本字级别表示ri=BERT(wordi)。其中,点评文本序列
Figure BDA0002954694000000092
中,n表示文本长度,i大于等于1且小于等于n。
步骤101a2、将多个字向量表示进行最大值池化处理,得到词汇向量表示。
本实施方式通过max-pooling(最大值池化)将同一个词汇下的不同字向量表示转换成词汇向量表示。
具体地,在数据处理阶段,通过分词工具对文本进行分词,得到词汇序列
Figure BDA0002954694000000093
每一个词汇都会有若干的字组成,即
Figure BDA0002954694000000094
其中,s表示构成词汇的首字在文本中的位置,l表示词汇的长度。而词汇向量表示通过以下公式得到:
Figure BDA0002954694000000095
其中,Rp表示词汇p的向量表示,k表示词汇p中的字在文本中位置,l表示词汇p的字数(即表示词汇p的长度),
Figure BDA0002954694000000096
对应每个
Figure BDA0002954694000000097
的向量表示,k的取值范围是[s,s+l]。
步骤101a3、将词汇向量表示进行均值池化处理,得到点评文本向量表示。
本实施方式中,不同词汇的向量表示经过Mean-pooling(均值池化)处理得到整个文本的向量表示,即全局向量。文本由若干个词汇序列
Figure BDA0002954694000000098
组成,其中,m表示词汇数量。而文本向量表示通过以下公式得到:
Figure BDA0002954694000000099
其中,Rsen表示文本的向量表示,j表示词汇在文本中的位置,
Figure BDA00029546940000000910
对应每个phasej的向量表示,j的取值范围是[1,m]。
步骤101a4、将点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
本实施方式中,将点评文本向量表示经过一个线性变换后映射到标签类别的分布上,最终得到已标注美感度评分的点评文本。
在本实施例的具体实施过程中,更进一步地,步骤101a1具体包括:
步骤101a11、获取点评文本序列转换得到的字向量、文本向量和位置向量。
步骤101a12、将字向量、文本向量和位置向量拼接后输入bert模型,得到点评文本序列中多个字向量表示。
本实施方式中,bert模型将点评文本序列转换成字向量、文本向量和位置向量,并将字向量、文本向量和位置向量拼接后输入bert模型。
本实施方式通过将在标签体系中根据关键词获取得到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分,再从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由推荐给用户,而通过标签体系以及关键词来获取每个标签的点评文本,提高了推荐理由的合理性,通过bert模型对每个标签的点评文本的美感度进行评分,提高了推荐理由的优美度,从而满足了用户的需求,提高了用户体验度。
实施例2
本实施例提供了基于点评美感度的推荐理由确定系统,如图4所示,该确定系统包括第一获取模块1、输入模块2、确定模块3、第二获取模块4、训练模块5、预处理模块6、第三获取模块7和第四获取模块8。
第三获取模块7用于获取标签体系,标签体系包括多个标签层级。
本实施方式中,标签体系是通过观察大量的用户点评,总结用户点评的主要方面,从而构建成标签体系,标签体系的建立方便为用户推荐该用户关注的某些方面的推荐理由。标签体系可以分为3级,即包括3个标签层级,也可以根据实际情况分成其他数量的标签层级,此处不做具体限定。
例如,如下表所示的部分标签体系,将标签体系分为3个标签层级,其中,1级标签层级、2级标签层级以及3级标签层级是层级的一对多关系,第一列为1级标签层级,第二列为2级标签层级,第三列为3级标签层级。
Figure BDA0002954694000000111
Figure BDA0002954694000000121
第四获取模块8用于获取每个标签中点评文本的关键词。
第一获取模块1具体用于在标签体系中根据关键词获取每个标签的点评文本。
本实施方式中,为了准确的获取产品中属于不同标签的点评文本,具体地,给3级标签定义了一些关键词,根据关键词获取每个标签的点评文本。
例如,3级标签及对应的部分关键词的具体内容如下表所示,第一列是3级标签;第二列是属于该标签的点评应该要包含的关键词,其中,(A,B)表示必须同时包含A和B;第三列是该标签下的点评不应该包含的关键词。本实施方式中该标签下的点评不应该包含的关键词可以是空的(即没有关键词),也可以是否定词,还可以是其他影响点评美感度的词。
Figure BDA0002954694000000122
Figure BDA0002954694000000131
输入模块2用于将获取到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分。
本实施方式中,美感度可以理解为美感强度。
确定模块3用于从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由。
本实施方式会对每个标签的所有点评文本进行评分,例如,评分可以分为1-4分,其中,1分为最低分,4分为最高分,然后将每个标签的所有点评文本的评分从高到低进行排序,将评分最高的点评文本作为对应标签的推荐理由。在将推荐理由推荐给用户时,通常会结合该对应标签在整个旅游产品中的权重和特殊性,优先将权重高的或者有特殊性的推荐理由推荐给用户。
第二获取模块4用于获取已标注美感度评分的点评文本。
本实施方式中,在标签体系中随机获取部分已标注美感度评分的点评文本。
预处理模块6用于预处理已标注美感度评分的点评文本,得到处理后的已标注美感度评分的点评文本。
本实施方式中,预处理已标注美感度评分的点评文本,具体地,对已标注美感度评分的点评文本进行噪声过滤,去除掉点评文本中非符号、数字、文字等字符,之后再对点评文本进行分词得到词汇序列,记录每个字符所在词汇的词汇位置。
训练模块5具体用于用处理后的已标注美感度评分的点评文本训练bert模型。
本实施方式中,通过点评文本真实标签和预测标签分布计算cross-entropyloss,采用Adam(Adaptive Moment Estimation)算法对loss极小化,最后得到训练后的bert模型。
本实施方式中,如图4所示,第二获取模块4包括输入单元41、第一处理单元42、第二处理单元43、变换单元44和获取单元45。
输入单元41用于将点评文本序列输入bert模型,得到点评文本序列中多个字向量表示。
本实施方式中,将点评文本序列输入bert模型,得到该点评文本序列中每个字对应的字向量表示,该字向量维度为768,也可以为其他数值。
具体地,将点评文本序列
Figure BDA0002954694000000141
输入bert模型,得到文本字级别表示ri=BERT(wordi)。其中,点评文本序列
Figure BDA0002954694000000142
中,n表示文本长度,i大于等于1且小于等于n。
第一处理单元42用于将多个字向量表示进行最大池化处理,得到词汇向量表示。
本实施方式通过max-pooling将同一个词汇下的不同字向量表示转换成词汇向量表示。
具体地,在数据处理阶段,通过分词工具对文本进行分词,得到词汇序列
Figure BDA0002954694000000143
每一个词汇都会有若干的字组成,即
Figure BDA0002954694000000144
其中,s表示构成词汇的首字在文本中的位置,l表示词汇的长度。而词汇向量表示通过以下公式得到:
Figure BDA0002954694000000145
其中,Rp表示词汇p的向量表示,k表示词汇p中的字在文本中位置,l表示词汇p的字数(即表示词汇p的长度),
Figure BDA0002954694000000146
对应每个wordk的向量表示,k的取值范围是[s,s+l]。
第二处理单元43用于将词汇向量表示进行均值池化处理,得到点评文本向量表示。
本实施方式中,不同词汇的向量表示经过Mean-pooling处理得到整个文本的向量表示,即全局向量。文本由若干个词汇序列
Figure BDA0002954694000000151
组成,其中,m表示词汇数量。而文本向量表示通过以下公式得到:
Figure BDA0002954694000000152
其中,Rsen表示文本的向量表示,j表示词汇在文本中的位置,
Figure BDA0002954694000000153
对应每个phasej的向量表示,j的取值范围是[1,m]。
变换单元44用于将点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
本实施方式中,将点评文本向量表示经过一个线性变换后映射到标签类别的分布上,最终得到已标注美感度评分的点评文本。
获取单元45用于获取点评文本序列转换成得到的字向量、文本向量和位置向量。
输入单元41具体用于将字向量、文本向量和位置向量拼接后输入bert模型,得到点评文本序列中多个字向量表示。
本实施方式中,bert模型将点评文本序列转换成字向量、文本向量和位置向量,并将字向量、文本向量和位置向量拼接后输入bert模型。
本实施方式通过将在标签体系中根据关键词获取得到的每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分,再从每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的美感度评分最高的点评文本作为对应标签的推荐理由推荐给用户,而通过标签体系以及关键词来获取每个标签的点评文本,提高了推荐理由的合理性,通过bert模型对每个标签的点评文本的美感度进行评分,提高了推荐理由的优美度,从而满足了用户的需求,提高了用户体验度。
实施例3
图5为本发明实施例3提供的一种电子设备的结构示意图。电子设备包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现实施例1的基于点评美感度的推荐理由确定方法。图5显示的电子设备30仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备30可以以通用计算设备的形式表现,例如其可以为服务器设备。电子设备30的组件可以包括但不限于:上述至少一个处理器31、上述至少一个存储器32、连接不同系统组件(包括存储器32和处理器31)的总线33。
总线33包括数据总线、地址总线和控制总线。
存储器32可以包括易失性存储器,例如随机存取存储器(RAM)321和/或高速缓存存储器322,还可以进一步包括只读存储器(ROM)323。
存储器32还可以包括具有一组(至少一个)程序模块324的程序/实用工具325,这样的程序模块324包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
处理器31通过运行存储在存储器32中的计算机程序,从而执行各种功能应用以及数据处理,例如本发明实施例1所提供的基于点评美感度的推荐理由确定方法。
电子设备30也可以与一个或多个外部设备34(例如键盘、指向设备等)通信。这种通信可以通过输入/输出(I/O)接口35进行。并且,生成的设备30还可以通过网络适配器36与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图5所示,网络适配器36通过总线33与模型生成的设备30的其它模块通信。应当明白,尽管图中未示出,可以结合模型生成的设备30使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理器、外部磁盘驱动阵列、RAID(磁盘阵列)系统、磁带驱动器以及数据备份存储系统等。
应当注意,尽管在上文详细描述中提及了电子设备的若干单元/模块或子单元/模块,但是这种划分仅仅是示例性的并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多单元/模块的特征和功能可以在一个单元/模块中具体化。反之,上文描述的一个单元/模块的特征和功能可以进一步划分为由多个单元/模块来具体化。
实施例4
本实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现实施例1所提供的基于点评美感度的推荐理由确定方法的步骤。
其中,可读存储介质可以采用的更具体可以包括但不限于:便携式盘、硬盘、随机存取存储器、只读存储器、可擦拭可编程只读存储器、光存储器件、磁存储器件或上述的任意合适的组合。
在可能的实施方式中,本发明还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行实现实施例1所述的基于点评美感度的推荐理由确定方法的步骤。
其中,可以以一种或多种程序设计语言的任意组合来编写用于执行本发明的程序代码,所述程序代码可以完全地在用户设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户设备上部分在远程设备上执行或完全在远程设备上执行。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这仅是举例说明,本发明的保护范围是由所附权利要求书限定的。本领域的技术人员在不背离本发明的原理和实质的前提下,可以对这些实施方式做出多种变更或修改,但这些变更和修改均落入本发明的保护范围。

Claims (12)

1.一种基于点评美感度的推荐理由确定方法,其特征在于,所述确定方法包括:
获取每个标签的点评文本;
将获取到的所述每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分;
从所述每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的所述美感度评分最高的点评文本作为对应标签的所述推荐理由。
2.如权利要求1所述的基于点评美感度的推荐理由确定方法,其特征在于,所述bert模型的训练步骤包括:
获取已标注美感度评分的点评文本;
用所述已标注美感度评分的点评文本训练所述bert模型。
3.如权利要求2所述的基于点评美感度的推荐理由确定方法,其特征在于,所述获取已标注美感度评分的点评文本的步骤之后,所述bert模型的训练步骤还包括:
预处理所述已标注美感度评分的点评文本,得到处理后的所述已标注美感度评分的点评文本;
用处理后的所述已标注美感度评分的点评文本训练bert模型。
4.如权利要求2所述的基于点评美感度的推荐理由确定方法,其特征在于,所述获取已标注美感度评分的点评文本的步骤包括:
将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示;
将所述多个字向量表示进行最大值池化处理,得到词汇向量表示;
将所述词汇向量表示进行均值池化处理,得到点评文本向量表示;
将所述点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
和/或,
所述将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示的步骤包括:
获取所述点评文本序列转换得到的字向量、文本向量和位置向量;
将所述字向量、所述文本向量和所述位置向量拼接后输入所述bert模型,得到所述点评文本序列中多个字向量表示。
5.如权利要求1所述的基于点评美感度的推荐理由确定方法,其特征在于,所述获取每个标签的点评文本的步骤之前,所述确定方法还包括:
获取标签体系,所述标签体系包括多个标签层级;
在所述标签体系中获取所述每个标签的点评文本;
和/或,
所述获取标签体系的步骤之后,所述确定方法还包括:
获取每个标签中点评文本的关键词;
在所述标签体系中根据所述关键词获取每个标签的点评文本。
6.一种基于点评美感度的推荐理由确定系统,其特征在于,所述确定系统包括第一获取模块、输入模块和确定模块;
所述第一获取模块用于获取每个标签的点评文本;
所述输入模块用于将获取到的所述每个标签的点评文本分别输入bert模型,以得到每个标签的点评文本的美感度评分;
所述确定模块用于从所述每个标签的点评文本的美感度评分中确定出美感度评分最高的点评文本,并将确定出的所述美感度评分最高的点评文本作为对应标签的所述推荐理由。
7.如权利要求5所述的基于点评美感度的推荐理由确定系统,其特征在于,所述确定系统还包括第二获取模块和训练模块;
所述第二获取模块用于获取已标注美感度评分的点评文本;
所述训练模块用于用所述已标注美感度评分的点评文本训练所述bert模型。
8.如权利要求7所述的基于点评美感度的推荐理由确定系统,其特征在于,所述确定系统还包括预处理模块;
所述预处理模块用于预处理所述已标注美感度评分的点评文本,得到处理后的所述已标注美感度评分的点评文本;
所述训练模块具体用于用处理后的所述已标注美感度评分的点评文本训练bert模型。
9.如权利要求7所述的基于点评美感度的推荐理由确定系统,其特征在于,所述第二获取模块包括输入单元、第一处理单元、第二处理单元和变换单元;
所述输入单元用于将点评文本序列输入所述bert模型,得到所述点评文本序列中多个字向量表示;
所述第一处理单元用于将所述多个字向量表示进行最大值池化处理,得到词汇向量表示;
所述第二处理单元用于将所述词汇向量表示进行均值池化处理,得到点评文本向量表示;
所述变换单元用于将所述点评文本向量表示线性变换后映射到标签分布上,得到已标注美感度评分的点评文本。
和/或,
所述第二获取模块包括获取单元;
所述获取单元用于获取所述点评文本序列转换得到的字向量、文本向量和位置向量;
所述输入单元具体用于将所述字向量、所述文本向量和所述位置向量拼接后输入所述bert模型,得到所述点评文本序列中多个字向量表示。
10.如权利要求6所述的基于点评美感度的推荐理由确定系统,其特征在于,所述确定系统还包括第三获取模块;
所述第三获取模块用于获取标签体系,所述标签体系包括多个标签层级;
所述第一获取模块具体用于在所述标签体系中获取所述每个标签的点评文本;
和/或,
所述确定系统还包括第四获取模块;
所述第四获取模块用于获取每个标签中点评文本的关键词;
所述第一获取模块具体还用于根据所述关键词获取每个标签的点评文本。
11.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1-5中任意一项所述的基于点评美感度的推荐理由确定方法。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-5中任意一项所述的基于点评美感度的推荐理由确定方法的步骤。
CN202110220617.4A 2021-02-26 2021-02-26 基于点评美感度的推荐理由确定方法、系统、设备及介质 Active CN112948677B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110220617.4A CN112948677B (zh) 2021-02-26 2021-02-26 基于点评美感度的推荐理由确定方法、系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110220617.4A CN112948677B (zh) 2021-02-26 2021-02-26 基于点评美感度的推荐理由确定方法、系统、设备及介质

Publications (2)

Publication Number Publication Date
CN112948677A true CN112948677A (zh) 2021-06-11
CN112948677B CN112948677B (zh) 2023-11-03

Family

ID=76246655

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110220617.4A Active CN112948677B (zh) 2021-02-26 2021-02-26 基于点评美感度的推荐理由确定方法、系统、设备及介质

Country Status (1)

Country Link
CN (1) CN112948677B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113407842A (zh) * 2021-06-28 2021-09-17 携程旅游信息技术(上海)有限公司 模型训练方法、主题推荐理由的获取方法及系统、电子设备

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205699A (zh) * 2015-09-17 2015-12-30 北京众荟信息技术有限公司 基于酒店点评的用户标签和酒店标签匹配方法及装置
CN108491463A (zh) * 2018-03-05 2018-09-04 科大讯飞股份有限公司 标签确定方法及装置
CN108959383A (zh) * 2018-05-31 2018-12-07 平安科技(深圳)有限公司 网络舆情的分析方法、装置及计算机可读存储介质
CN109697657A (zh) * 2018-12-27 2019-04-30 厦门快商通信息技术有限公司 一种餐饮推荐方法、服务器及存储介质
CN110717017A (zh) * 2019-10-17 2020-01-21 腾讯科技(深圳)有限公司 一种处理语料的方法
CN111523289A (zh) * 2020-04-24 2020-08-11 支付宝(杭州)信息技术有限公司 一种文本格式生成方法、装置、设备和可读介质
CN111914159A (zh) * 2019-05-10 2020-11-10 招商证券股份有限公司 一种信息推荐方法及终端
CN112052670A (zh) * 2020-08-28 2020-12-08 丰图科技(深圳)有限公司 地址文本分词方法、装置、计算机设备和存储介质
CN112131469A (zh) * 2020-09-22 2020-12-25 安徽农业大学 一种基于评论文本的深度学习推荐方法
CN112200601A (zh) * 2020-09-11 2021-01-08 深圳市法本信息技术股份有限公司 物品推荐方法、装置及可读存储介质
CN112231485A (zh) * 2020-12-14 2021-01-15 平安科技(深圳)有限公司 文本推荐方法、装置、计算机设备及存储介质
CN112329474A (zh) * 2020-11-02 2021-02-05 山东师范大学 融合注意力的方面级用户评论文本情感分析方法及系统

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105205699A (zh) * 2015-09-17 2015-12-30 北京众荟信息技术有限公司 基于酒店点评的用户标签和酒店标签匹配方法及装置
CN108491463A (zh) * 2018-03-05 2018-09-04 科大讯飞股份有限公司 标签确定方法及装置
CN108959383A (zh) * 2018-05-31 2018-12-07 平安科技(深圳)有限公司 网络舆情的分析方法、装置及计算机可读存储介质
CN109697657A (zh) * 2018-12-27 2019-04-30 厦门快商通信息技术有限公司 一种餐饮推荐方法、服务器及存储介质
CN111914159A (zh) * 2019-05-10 2020-11-10 招商证券股份有限公司 一种信息推荐方法及终端
CN110717017A (zh) * 2019-10-17 2020-01-21 腾讯科技(深圳)有限公司 一种处理语料的方法
CN111523289A (zh) * 2020-04-24 2020-08-11 支付宝(杭州)信息技术有限公司 一种文本格式生成方法、装置、设备和可读介质
CN112052670A (zh) * 2020-08-28 2020-12-08 丰图科技(深圳)有限公司 地址文本分词方法、装置、计算机设备和存储介质
CN112200601A (zh) * 2020-09-11 2021-01-08 深圳市法本信息技术股份有限公司 物品推荐方法、装置及可读存储介质
CN112131469A (zh) * 2020-09-22 2020-12-25 安徽农业大学 一种基于评论文本的深度学习推荐方法
CN112329474A (zh) * 2020-11-02 2021-02-05 山东师范大学 融合注意力的方面级用户评论文本情感分析方法及系统
CN112231485A (zh) * 2020-12-14 2021-01-15 平安科技(深圳)有限公司 文本推荐方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李旸: "面向数据特性的文本情感分析方法研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113407842A (zh) * 2021-06-28 2021-09-17 携程旅游信息技术(上海)有限公司 模型训练方法、主题推荐理由的获取方法及系统、电子设备
CN113407842B (zh) * 2021-06-28 2024-03-22 携程旅游信息技术(上海)有限公司 模型训练方法、主题推荐理由的获取方法及系统、电子设备

Also Published As

Publication number Publication date
CN112948677B (zh) 2023-11-03

Similar Documents

Publication Publication Date Title
CN108363790B (zh) 用于对评论进行评估的方法、装置、设备和存储介质
US20170185581A1 (en) Systems and methods for suggesting emoji
CN109325229B (zh) 一种利用语义信息计算文本相似度的方法
CN113205817B (zh) 语音语义识别方法、系统、设备及介质
CN109408826A (zh) 一种文本信息提取方法、装置、服务器及存储介质
KR20170055970A (ko) 컴퓨터로 구현되는 관련 아이템의 식별 기법
CN111611452B (zh) 搜索文本的歧义识别方法、系统、设备及存储介质
CN110442872B (zh) 一种文本要素完整性审核方法及装置
CN111414561B (zh) 用于呈现信息的方法和装置
CN110717021B (zh) 人工智能面试中获取输入文本和相关装置
US20220293094A1 (en) Machine learning based models for automatic conversations in online systems
CN112818091A (zh) 基于关键词提取的对象查询方法、装置、介质与设备
CN111488455A (zh) 模型训练的方法、文本分类的方法、系统、设备及介质
CN112528654A (zh) 自然语言处理方法、装置及电子设备
CN113051368A (zh) 双塔模型训练方法、检索方法、装置及电子设备
CN115019142A (zh) 基于融合特征的图像标题生成方法、系统、电子设备
CN113326367B (zh) 基于端到端文本生成的任务型对话方法和系统
CN112349294B (zh) 语音处理方法及装置、计算机可读介质、电子设备
US20220147719A1 (en) Dialogue management
CN112883172B (zh) 一种基于双重知识选择的生物医学问答方法
CN112948677B (zh) 基于点评美感度的推荐理由确定方法、系统、设备及介质
CN114492451A (zh) 文本匹配方法、装置、电子设备及计算机可读存储介质
CN111881264B (zh) 一种开放领域问答任务中长文本检索的方法和电子设备
CN112559711A (zh) 一种同义文本提示方法、装置及电子设备
CN116306653A (zh) 一种正则化领域知识辅助的命名实体识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant