CN111414561B - 用于呈现信息的方法和装置 - Google Patents
用于呈现信息的方法和装置 Download PDFInfo
- Publication number
- CN111414561B CN111414561B CN201910019968.1A CN201910019968A CN111414561B CN 111414561 B CN111414561 B CN 111414561B CN 201910019968 A CN201910019968 A CN 201910019968A CN 111414561 B CN111414561 B CN 111414561B
- Authority
- CN
- China
- Prior art keywords
- comment
- information
- code
- comment information
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 239000013598 vector Substances 0.000 claims description 76
- 230000007246 mechanism Effects 0.000 claims description 31
- 230000015654 memory Effects 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 16
- 230000002457 bidirectional effect Effects 0.000 claims description 12
- 125000004122 cyclic group Chemical group 0.000 claims description 11
- 238000012417 linear regression Methods 0.000 claims description 10
- 238000004590 computer program Methods 0.000 claims description 9
- 238000007477 logistic regression Methods 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 description 15
- 238000010586 diagram Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 238000013507 mapping Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000013210 evaluation model Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/338—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请实施例公开了用于呈现信息的方法和装置。该方法的一种实现方式包括:获取目标发布信息和与该目标发布信息关联的评论信息集合;对于该评论信息集合中的评论信息,基于该评论信息和该目标发布信息,生成该评论信息的有用性概率和预测评论分数;基于所得到的有用性概率集合和预测评论分数集合,呈现该评论信息集合中的评论信息。该实施方式提高了信息呈现的灵活性。
Description
技术领域
本申请实施例涉及计算机技术领域,具体涉及互联网领域,尤其涉及用于呈现信息的方法和装置。
背景技术
互联网已经进入了一个新的时代,网络用户的身份从单纯的浏览者转换为浏览者与内容生产者的综合体。即,用户在浏览文本信息的同时,可以将自己的观点以“帖子”的形式发布在网络上。这样的评论机制已经被诸如:新闻类应用、贴吧类应用、购物类应用等服务类产品中成熟应用。这些产品每天发布数以万计的文本信息(新闻信息、商品描述信息等),用户又会基于这些文本信息产生海量的评论信息。
由于评论通常由用户自主生成,并非所有评论内容都能够向其他用户提供与被评论对象有关的有用或有价值信息,甚至有些评论可能与被评论对象完全无关。有甚者还会带有某种不正当目的发布某些评论,存在评论质量高,但与发布文本主题无关的情况。如果被评论对象的评论数量过多,有用评论与无用评论混杂在一起,其他用户难以从众多评论中快速获取有用信息,并且无用信息也不利于提供商或其他第三方对被评论对象的正确评价(例如是否值得推荐的判断等)。因此,存在对评论的价值或有用程度进行评估的需求。
发明内容
本申请实施例提出了用于呈现信息的方法和装置。
第一方面,本申请实施例提供了一种用于呈现信息的方法,包括:获取目标发布信息和与目标发布信息关联的评论信息集合;对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数;基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
在一些实施例中,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息,包括:按照相应预测评论分数由大到小的顺序呈现评论信息集合中的评论信息。
在一些实施例中,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息,包括:将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
在一些实施例中,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数,包括:从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码;从目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码;基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数。
在一些实施例中,基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数,包括:将该评论初始编码输入第一双向长短时记忆网络,得到评论编码;将发布初始编码输入第二双向长短时记忆网络,得到发布编码;将发布编码通过注意力权重矩阵转换得到发布映射编码;基于发布映射编码和该评论编码,生成注意力机制编码;将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率;将该注意力机制编码输入线性回归模型得到预测评论分数。
第二方面,本申请实施例提供了一种用于呈现信息的装置,包括:获取单元,被配置成获取目标发布信息和与目标发布信息关联的评论信息集合;生成单元,被配置成对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数;呈现单元,被配置基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
在一些实施例中,呈现单元进一步被配置成按照相应价值分数由大到小的顺序呈现评论信息集合中的评论信息。
在一些实施例中,呈现单元进一步被配置成将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
在一些实施例中,生成单元包括:第一生成子单元,被配置成从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码;第二生成子单元,被配置成从目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码;第三生成子单元,被配置成基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数。
在一些实施例中,第三生成子单元包括:第一输入模块,被配置成将该评论初始编码输入第一双向长短时记忆循环神经网络,得到评论编码;第二输入模块,被配置成将发布初始编码输入第二双向长短时记忆循环神经网络,得到发布编码;转换模块,被配置成将发布编码通过注意力权重矩阵转换得到发布映射编码;生成模块,被配置成基于发布映射编码和该评论编码,生成注意力机制编码;第三输入模块,被配置成将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率;第四输入模块,被配置成将该注意力机制编码输入线性回归模型得到预测评论分数。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面描述的方法。
本申请实施例提供的方法和装置,首先,获取目标发布信息和与目标发布信息关联的评论信息集合。接着,对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数。之后,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。从而可以呈现质量高且与目标发布信息相关的评论信息,满足用户需求,提升用户体验。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请实施例可以应用于其中的示例性系统架构图;
图2是根据本申请的用于呈现信息的方法的一个实施例的流程图;
图3是根据本申请实施例的用于呈现信息的方法的一个应用场景的示意图;
图4是根据本申请的用于呈现信息的方法的又一个实施例的流程图;
图5是根据本申请的用于呈现信息的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于呈现信息的方法或用于呈现信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持信息输入的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如,能够为使用终端设备101、102、103的用户提供评估评论质量的评估服务器。评估服务器可以对接收到的用户评论等数据进行评估,并将处理结果(例如,评估确定的有用性概率和预测评论分数)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于呈现信息的方法可以由终端设备101、102、103执行,也可以由服务器105执行。相应地,用于呈现信息的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。在此不做具体限定。
应该理解,图1中的终端设备101、102、103,网络104和服务器105的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,其示出了根据本申请的用于呈现信息的方法的一个实施例的流程200。该用于呈现信息的方法,包括以下步骤:
步骤201,获取目标发布信息和与目标发布信息关联的评论信息集合。
在本实施例中,用于呈现信息的方法的执行主体(例如图1所示的服务器105)可以通过多种方式来获取目标发布信息和与目标发布信息关联的评论信息集合。例如,执行主体可以通过有线连接方式或无线连接方式,从数据库服务器(图中未示出)中获取存储于其中的目标发布信息。再例如,执行主体也可以接收终端(例如图1所示的终端101、102、103)或其他设备采集的目标发布信息。
需要指出的是,上述目标发布信息和与目标发布信息关联的评论信息集合可以直接存储于本地,也可以存储于与执行主体通信连接的其他电子设备。在目标发布信息和与目标发布信息关联的评论信息集合存储在本地时,执行主体可以直接提取本地所存储的目标发布信息和与目标发布信息关联的评论信息集合以进行处理。在目标发布信息和与目标发布信息关联的评论信息集合存储在与执行主体通信连接的其他电子设备时,执行主体可以通过有线连接方式或者无线连接方式获取目标发布信息和与目标发布信息关联的评论信息集合以进行处理。
这里,目标发布信息通常是指在应用中被发布的信息,上述应用可以是购物类应用、贴吧类应用或问答类应用等。例如,目标发布信息可以为贴吧里的帖子的标题,也可以为购物类应用中商品的描述信息。
评论信息也可以被称为点评、留言、回复等,指的是与某个对象或某类对象相关的内容(例如,意见、建议、评价、观点等)。这里,对象可以是物理对象或虚拟对象,诸如产品、服务、特定形式的内容(例如,新闻、视频、短文本等)。评论信息通常是由相应的评论者编写,并且被提交给特定网站主机。在本实施例中,评论信息可以表现为文字。可选地,评论信息也可以表现为音频、视频、图片等。
这里,与目标发布信息关联的评论信息通常是指目标发布信息对应的评论信息,例如,商品描述信息对应的商品评论信息,又例如,贴吧中帖子标题的回复信息。
步骤202,对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数。
在这里,有用性概率可以用于表征该评论信息的有用程度。预测评论分数用以表征该评论信息的预测评分,评分通常是指其他用户对该评论信息的评分。
具体地,可以通过对该评论信息和目标发布信息提取不同层面的特征,例如,结构特征、词法特征、词性特征、语义特征等,然后使用常用的分类模型或者回归模型预测评论的价值,例如,支持向量机、随机森林等。
可选地,还可以通过将该评论信息和目标发布信息输入信息评估模型,生成该评论信息的有用性概率和预测评论分数,其中,信息评估模型用于表征该评论信息和目标发布信息与有用性概率和预测评论分数的对应关系。上述信息评估模型可以是一个预先存储的对应关系表。该对应关系表中可以存储有多个评论信息和发布信息与有用性概率和预测评论分数的对应关系。该对应关系表可以是技术人员基于对大量的评论信息和发布信息与有用性概率和预测评论分数的统计而制定的。上述执行主体可以将该评论信息和目标发布信息与上述对应关系表中的评论信息和发布信息进行比较。若该对应关系表中的一个评论信息和发布信息与该评论信息和目标发布信息相同或相似,则将该对应关系表中的该评论信息和发布信息所对应的有用性概率和预测评论分数作为上述该评论信息和目标发布信息的有用性概率和预测评论分数。
可选地,上述信息评估模型也可以是基于机器学习技术而创建以及训练的现有的各种神经网络模型。该神经网络模型可以具有现有的各种神经网络结构(例如卷积神经网络、循环神经网络等)。信息评估模型的存储位置在本申请中同样不限制。
步骤203,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
在一些可选的实现方式中,按照相应价值分数由大到小的顺序呈现评论信息集合中的评论信息。
在一些可选的实现方式中,将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
在这些可选的实现方式中,隐藏显示通常是指不显示,即,不显示小于预设阈值的有用性概率对应的评论信息。折叠显示通常是指通过指定的标签折叠该评论信息或者折叠该评论信息并给出提示“该评论信息已被折叠”。例如,折叠显示应用在很多条目的导航模板、讨论页面等地方,通过鼠标的点击就可以展开和收缩一些版面,以方便读者进行导航阅读。
在本实施例中,通常,用户期望能够从评论者所给出的评论中评估、了解或认知特定对象的一个或多个方面(诸如质量、特点、功能、优缺点、细节等)。如果评论中包含这些方面的信息,用户倾向于认为评论是有价值或有用的。否则,评论将被认为是无价值或无用的。
本实施例提供的用于呈现信息的方法,首先,获取目标发布信息和与目标发布信息关联的评论信息集合,接着,对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数,之后,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。从而为用户呈现更加有价值的评论信息,满足用户需求,提升用户体验。
继续参见图3,图3是根据本实施例的基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息的应用场景的一个示意图300。
在图3所示的应用场景中,服务器301获取目标发布信息302和与目标发布信息关联的评论信息集合303。对于评论信息集合303中的评论信息,基于该评论信息和目标发布信息302,生成该评论信息的有用性概率和预测评论分数。基于所得到的有用性概率集合304和预测评论分数集合305,呈现评论信息集合中的评论信息。具体地,将预测评论分数由大到小的顺序呈现评论信息集合中的评论信息,将有用性概率小于0.5的评论信息进行折叠显示。
本实施例中用于呈现信息的方法,首先,通过获取目标发布信息和与目标发布信息关联的评论信息集合。然后,对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数。之后,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。从而可以呈现质量高且与目标发布信息相关的评论信息。将预测评论分数由大到小的顺序呈现评论信息集合中的评论信息,用户可以优先浏览到预测评论分数较高的评论,有助于提升用户体验。对于有用性概率小于预设阈值的评论信息进行折叠显示,用户无需浏览价值较低(有用性概率较低)的评论,有助于进一步提升用户体验。
进一步参考图4,其示出了用于呈现信息的方法的又一个实施例的流程400。该用于呈现信息的方法的流程400,包括以下步骤:
步骤401,获取目标发布信息和与目标发布信息关联的评论信息集合。
步骤402,对于评论信息集合中的评论信息,从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码。
在本实施例中,提取单词向量编码的过程,具体如下:评论信息的划分粒度可以与评论的文本所采用的语言相关。例如,如果评论信息包含诸如英语、法语、德语等由拉丁拼音组成的文字,可以按单词级别划分评论以获得单词向量编码。如果评论包含诸如中文、日文等象形文字,可以按词组级别(或词汇级别)来划分评论。将单词转换成指定的维度的向量(单词向量编码)。向量的维度转换属于公知技术,在此不做赘述。
在本实施例中,提取字符向量编码的过程中,具体如下:可以进一步划分每个单词,以获得更细粒度的字符。例如,针对英文评论,在按单词级别的粒度划分得到多个单词后,可以继续按字符级别的粒度进一步划分单词,以获得组成每个单词的一个或多个字符(例如,各个字母)。在另一示例中,针对诸如中文、日文等语言的评论,在按词汇级别的粒度划分得到多个词汇后,可以继续按单字级别的粒度划分词汇,以获得单字(例如,中文字或日文字)。此时,每个单字表示一个字符。将字符转换成指定的维度的向量(字符向量编码)。向量的维度转换属于公知技术,在此不做赘述。
每个单词可能被划分为不同数目的字符(例如,一个或多个字符)。将字符转换成具有相同维度的字符向量编码表示。在此基础上,可以将单词向量编码和字符向量编码进行组合,从而获得相同维度的组合向量化表示(评论初始编码)。
作为示例,假设一条评论包含n个英文单词(或者中文词汇),若定义其中第i个索引位置上的英文单词(中文词汇)为vi,那么这条评论作为一个长度为n的序列可以表示为v1:n=[v1,v2,..,vn]。按照这一约定,vi:j则代表其中的一个长度为j的连续子序列vi:j=[vi,..,vj]。定义英文单词vi所对应的“单词级别编码”是一个维度为d的向量,即(小写加粗代表向量,大写加粗代表矩阵,/>代表实数域)。如果所有不同的英文词汇有|V|个,那么这些单词级别编码所能构成的矩阵为/>vi的向量表示便是从V中映射而来。现定义/>为商品P的描述中第i个单词,/>为商品某一条评论R的第i个单词。
将每个英文单词当作字符串,如单词This包括的字符有T、h、i、s。假设单词vi包含n个连续字符,记为u1:n=[u1,u2,..,un];其中uj代表单词vi的第j个字符(如果是中文,则是词汇vi的第j个汉字)。定义字符uj的向量表示为(即,字符向量的维度为d'),ui:j则代表其中的一个连续子序列ui:j=[ui,..,uj]。如果所有不同的字符有|U|个,那么这些字符向量所能构成的矩阵为/>uj的向量表示便是从U中映射而来。
设计一个卷积神经网络,对于不同长度的单词,均可以生成相同维度的向量编码。采用一组卷积过滤器W'=[w'1,w'2,...,w'k'],其中每一个代表能够卷积连续长度为l'的字符序列的过滤器,如此一个连续长度为l'的字符序列uj:j+i-1的信息就可以通过卷积(内积)操作映射为一个标量值pi,j:
pi,j=tanh(w'i·uj:j+l’-1+b')
其中b'是一个偏置参数。
如果采用w'i扫描一遍u1:n,那么便可以获得一个维度为n+l'-1的向量pi。由此,通过卷积得到的特征映射矩阵为:
对P中的每个向量pi执行最大池化(max pooling)操作:
可以为单词vi获取一个维度为k'的字符级别编码h,与单词本身的字符长度n无关。
对于任意一个单词vi,它完整的向量表示一个句子的初始编码表示为:
e1:n=[e1,e2,..,en]
步骤403,从目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码。
在本实施例中,步骤403可以按照与步骤402类似的方式执行,在此不再赘述。
步骤404,基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数。
在本实施例中,可以将该评论初始编码输入第一循环神经网络,得到评论编码。将发布初始编码输入第二循环神经网络,得到发布编码。将发布编码通过注意力权重矩阵转换得到发布映射编码。基于发布映射编码和该评论编码,生成注意力机制编码。将该注意力机制编码输入多层神经网络得到有用性概率。将该注意力机制编码输入线性回归模型得到预测评论分数。
可选地,还可以将该评论初始编码输入第一单向长短时记忆循环神经网络,得到评论编码。然后,将发布初始编码输入第二单向长短时记忆循环神经网络,得到发布编码。之后,将发布编码通过注意力权重矩阵转换得到发布映射编码。接着,基于发布映射编码和该评论编码,生成注意力机制编码。然后,将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率。最后,将该注意力机制编码输入线性回归模型得到预测评论分数。
在一些可选的实现方式中,基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数,包括:
第一步,将该评论初始编码输入第一双向长短时记忆循环神经网络,得到评论编码。
第二步,将发布初始编码输入第二双向长短时记忆循环神经网络,得到发布编码。
第三步,将发布编码通过注意力权重矩阵转换得到发布映射编码。
第四步,基于发布映射编码和该评论编码,生成注意力机制编码。
第五步,将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率。
第六步,将该注意力机制编码输入线性回归模型得到预测评论分数。
不同的连续文本项的组合可能在评论的上下文中重要程度不同,对于评论的语义理解的贡献也不同。重要程度可以基于实际确定的语义特征来设置,这将在以下示例中详细讨论。由于每个文本项子集的特征信息由语义特征指示,文本项子集的重要程度也可以被认为是语义特征的重要程度。相应文本项子集的重要程度可以使得在确定评论价值时能够更多关注相关联的语义特征,这有助于提高评论评估结果的准确度。这样的机制也可以被称为“注意力”机制。
作为示例,假设ep为商品P的描述的初始编码,er为商品某一条评论R的初始编码。评论初始编码ep和发布初始编码er分别被隐藏层单元个数为l的双向LSTM(长短时记忆网络,Long Short-Term Memory)编码,即Bi-LSTM,那么得到商品P描述和商品某一评论R的Bi-LSTM状态的编码,可以写为:
Hp=BiLSTM(ep),Hr=BiLSTM(er)
其中Hp∈Rl×p,Hr∈Rl×r分别表示商品P描述和商品某一评论R的Bi-LSTM状态的编码。即评论编码和发布编码。
商品P描述到商品某一评论R的注意力权重矩阵G的计算方法如下:
其中Wg∈Rl×l且bg∈Rl为可学习的参数。表示重复列向量bp p次形成l×l矩阵。G∈Rp×r的第i列表示评论r的第i个单词在商品描述p所有单词的标准化注意力权重。
接下来使用注意力矩阵将商品描述的Bi-LSTM状态的编码映射为某一评价的Bi-LSTM状态的编码的向量表示,计算方式如下:
计算得到输出后,与Hr相加,即/>再将相加后的矩阵作为注意力机制编码x分别输入到评论是否有价值的判定和评论的预测评分两种任务中。可选地,也可以将相加后的矩阵拉伸成列向量x,作为评论的注意力机制编码x。将x分别输入到评论是否有价值的判定和评论的预测评分两种任务中。
那么与Hr相加作为最后输入的意义在于:首先,在神经网络学习过程中使用反向传播方法更新网络参数时,若/>为0,这时只需更新与计算Hr有关的Bi-LSTM参数,不需更新计算/>有关的G的参数,实现了跳跃更新,提高网络的学习效率。其次/>与Hr相加作为输入,有更多的评论与商品本身相关的信息被学习,不仅可提取评论自身的特征,还可提取出评论中与商品相关的特征,这样做更符合本申请实施例对网络评论质量评估的实现目标。
第一个任务判定评论是否有价值为二分类任务,采用逻辑斯蒂回归模型,对评论真实的有用性y进行鉴别:
其中,是对评论的有用性预测概率,w1与b1分别是逻辑斯蒂回归模型的参数和偏置。对于有N个样本的训练数据,即会对应预测出一系列的评论的有用性概率/>与真实的评论有用性比较,总损失为:
第二个任务为预测评论的分数。考虑到多数情况下互联网评论的打分多为连续的实数值,因此,采用线性回归模型,对真实的打分z进行预测:
其中,是预测打分;w2与b2分别是线性回归模型的参数和偏置。对于有N个样本的训练数据,即会预测出一系列的打分评估/>与真实的用户打分做比较,这个预测过程的损失为Lz:
通过上述方法可以得到有用性概率集合和预测评论分数集合。
步骤405,基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
上述步骤401、步骤405可以按照与图2所示的实施例的步骤201、步骤204类似的方式执行,在此不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于呈现信息的方法的流程400体现了提取单词向量编码和字符向量编码的步骤。不仅可提取评论自身的特征,还可提取出评论中与发布信息相关的特征,这样做更符合本申请实施例对评论质量评估的实现目标。由此,本实施例描述的方案可以将更加符合用户需求的信息呈现给用户,有助于提高用户的体验。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于呈现信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种服务器中。
如图5所示,本实施例的用于呈现信息的装置500包括:获取单元501,被配置成获取目标发布信息和与目标发布信息关联的评论信息集合;生成单元502,被配置成对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数;呈现单元503,被配置基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
在本实施例的一些可选的实现方式中,呈现单元进一步被配置成按照相应价值分数由大到小的顺序呈现评论信息集合中的评论信息。
在本实施例的一些可选的实现方式中,呈现单元进一步被配置成将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
在本实施例的一些可选的实现方式中,生成单元包括:第一生成子单元,被配置成从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码;第二生成子单元,被配置成从目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码;第三生成子单元,被配置成基于该评论初始编码和发布初始编码,生成有用性概率和预测评论分数。
在本实施例的一些可选的实现方式中,第三生成子单元包括:第一输入模块,被配置成将该评论初始编码输入第一双向长短时记忆循环神经网络,得到评论编码;第二输入模块,被配置成将发布初始编码输入第二双向长短时记忆循环神经网络,得到发布编码;转换模块,被配置成将发布编码通过注意力权重矩阵转换得到发布映射编码;生成模块,被配置成基于发布映射编码和该评论编码,生成注意力机制编码;第三输入模块,被配置成将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率;第四输入模块,被配置成将该注意力机制编码输入线性回归模型得到预测评论分数。
本申请的上述实施例提供的装置,获取单元501获取目标发布信息和与目标发布信息关联的评论信息集合。然后,生成单元502对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数。之后,呈现单元503基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。本实施例的装置,能够自动学习有效的文本特征,不需要额外开发或者购买语言学特征提取工具(例如中文分词,习性标注,句法分析器等)。可以将发布信息及其评论信息等文本信息作为本装置的原始输入,输出则是该评论信息是否有价值的预测结果。本实施例的装置,通过从发布信息与评论信息中提取特征,可以得到质量高且与目标发布信息相关的评论信息,从而可以呈现质量高且与目标发布信息相关的评论信息,满足用户需求,提升用户体验。
下面参考图6,其示出了适于用来实现本申请实施例的服务器的计算机系统600的结构示意图。图6示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括信息获取单元、生成单元和呈现单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,信息获取单元还可以被描述为“获取目标发布信息和与目标发布信息关联的评论信息集合的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的装置中所包含的;也可以是单独存在,而未装配入该装置中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该装置执行时,使得该装置:获取目标发布信息和与目标发布信息关联的评论信息集合;对于评论信息集合中的评论信息,基于该评论信息和目标发布信息,生成该评论信息的有用性概率和预测评论分数;基于所得到的有用性概率集合和预测评论分数集合,呈现评论信息集合中的评论信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (8)
1.一种用于呈现信息的方法,包括:
获取目标发布信息和与所述目标发布信息关联的评论信息集合;
对于所述评论信息集合中的评论信息,基于该评论信息和所述目标发布信息,生成该评论信息的有用性概率和预测评论分数;
基于所得到的有用性概率集合和预测评论分数集合,呈现所述评论信息集合中的评论信息;
其中,所述基于该评论信息和所述目标发布信息,生成该评论信息的有用性概率和预测评论分数,包括:
从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码;
从所述目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码;
基于该评论初始编码和所述发布初始编码,生成有用性概率和预测评论分数;
其中,所述基于该评论初始编码和所述发布初始编码,生成有用性概率和预测评论分数,包括:
将该评论初始编码输入第一双向长短时记忆网络,得到评论编码;
将所述发布初始编码输入第二双向长短时记忆网络,得到发布编码;
基于所述发布编码和该评论编码,生成注意力机制编码;
将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率;
将该注意力机制编码输入线性回归模型得到预测评论分数。
2.根据权利要求1所述的方法,其中,所述基于所得到的有用性概率集合和预测评论分数集合,呈现所述评论信息集合中的评论信息,包括:
按照相应预测评论分数由大到小的顺序呈现所述评论信息集合中的评论信息。
3.根据权利要求1所述的方法,其中,所述基于所得到的有用性概率集合和预测评论分数集合,呈现所述评论信息集合中的评论信息,包括:
将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
4.一种用于呈现信息的装置,包括:
获取单元,被配置成获取目标发布信息和与所述目标发布信息关联的评论信息集合;
生成单元,被配置成对于所述评论信息集合中的评论信息,基于该评论信息和所述目标发布信息,生成该评论信息的有用性概率和预测评论分数;
呈现单元,被配置基于所得到的有用性概率集合和预测评论分数集合,呈现所述评论信息集合中的评论信息;
其中,所述生成单元包括:
第一生成子单元,被配置成从该评论信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成评论初始编码;
第二生成子单元,被配置成从所述目标发布信息中提取单词向量编码和字符向量编码,以及基于所提取的单词向量编码和字符向量编码,生成发布初始编码;
第三生成子单元,被配置成基于该评论初始编码和所述发布初始编码,生成有用性概率和预测评论分数;
其中,所述第三生成子单元包括:
第一输入模块,被配置成将该评论初始编码输入第一双向长短时记忆循环神经网络,得到评论编码;
第二输入模块,被配置成将所述发布初始编码输入第二双向长短时记忆循环神经网络,得到发布编码;
生成模块,被配置成基于所述发布编码和该评论编码,生成注意力机制编码;
第三输入模块,被配置成将该注意力机制编码输入逻辑斯蒂回归模型得到有用性概率;
第四输入模块,被配置成将该注意力机制编码输入线性回归模型得到预测评论分数。
5.根据权利要求4所述的装置,其中,所述呈现单元进一步被配置成按照相应预测评论分数由大到小的顺序呈现所述评论信息集合中的评论信息。
6.根据权利要求4所述的装置,其中,所述呈现单元进一步被配置成将小于预设阈值的有用性概率对应的评论信息进行隐藏显示或折叠显示。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-3中任一所述的方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-3中任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910019968.1A CN111414561B (zh) | 2019-01-08 | 2019-01-08 | 用于呈现信息的方法和装置 |
US16/670,814 US11651015B2 (en) | 2019-01-08 | 2019-10-31 | Method and apparatus for presenting information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910019968.1A CN111414561B (zh) | 2019-01-08 | 2019-01-08 | 用于呈现信息的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111414561A CN111414561A (zh) | 2020-07-14 |
CN111414561B true CN111414561B (zh) | 2023-07-28 |
Family
ID=71404331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910019968.1A Active CN111414561B (zh) | 2019-01-08 | 2019-01-08 | 用于呈现信息的方法和装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11651015B2 (zh) |
CN (1) | CN111414561B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11495210B2 (en) * | 2019-10-18 | 2022-11-08 | Microsoft Technology Licensing, Llc | Acoustic based speech analysis using deep learning models |
CN111859220A (zh) * | 2020-07-24 | 2020-10-30 | 北京字节跳动网络技术有限公司 | 用于展示信息的方法和装置 |
CN113033214A (zh) * | 2021-04-30 | 2021-06-25 | 网易(杭州)网络有限公司 | 评论信息的识别方法、介质、装置和计算设备 |
US11620127B2 (en) * | 2021-05-11 | 2023-04-04 | Sap Se | Measuring documentation completeness in multiple languages |
CN113591004A (zh) * | 2021-08-04 | 2021-11-02 | 北京小米移动软件有限公司 | 游戏标签生成方法、装置、存储介质及电子设备 |
CN114707467B (zh) * | 2022-03-18 | 2024-06-14 | 浙江大学 | 一种基于自注意力机制的自动化拼音转汉字方法 |
CN114881020A (zh) * | 2022-07-12 | 2022-08-09 | 成都晓多科技有限公司 | 基于交叉注意力和门机制的评论质量识别模型及方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363790A (zh) * | 2018-02-12 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7519562B1 (en) * | 2005-03-31 | 2009-04-14 | Amazon Technologies, Inc. | Automatic identification of unreliable user ratings |
US7885863B2 (en) * | 2006-08-31 | 2011-02-08 | Yahoo! Inc. | Methods and computer readable media for enhancing product reviews |
US8001003B1 (en) * | 2007-09-28 | 2011-08-16 | Amazon Technologies, Inc. | Methods and systems for searching for and identifying data repository deficits |
US20130218884A1 (en) * | 2012-02-21 | 2013-08-22 | Salesforce.Com, Inc. | Method and system for providing a review from a customer relationship management system |
US10482090B2 (en) * | 2015-11-16 | 2019-11-19 | Facebook, Inc. | Ranking and filtering comments based on feed interaction history |
US20170140051A1 (en) * | 2015-11-16 | 2017-05-18 | Facebook, Inc. | Ranking and Filtering Comments Based on Labelling |
US10216803B2 (en) * | 2015-11-16 | 2019-02-26 | Facebook, Inc. | Ranking and filtering comments based on author and content |
CN107657056B (zh) * | 2017-10-18 | 2022-02-18 | 北京百度网讯科技有限公司 | 基于人工智能展示评论信息的方法和装置 |
CN108920665B (zh) * | 2018-07-05 | 2020-08-07 | 北京邮电大学 | 基于网络结构和评论文本的推荐评分方法及装置 |
-
2019
- 2019-01-08 CN CN201910019968.1A patent/CN111414561B/zh active Active
- 2019-10-31 US US16/670,814 patent/US11651015B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108363790A (zh) * | 2018-02-12 | 2018-08-03 | 百度在线网络技术(北京)有限公司 | 用于对评论进行评估的方法、装置、设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
Kunuch Chutmongkolporn ; Bundit Manaskasemsak ; Arnon Rungsawang. Graph-based opinion entity ranking in customer reviews.《2015 15th International Symposium on Communications and Information Technologies (ISCIT)》.2015,全文. * |
基于调节定向理论的在线评论感知有用性差异研究;李琪,任小静;基于调节定向理论的在线评论感知有用性差异研究;全文 * |
虚假在线评论产生的诱因及其对消费者购买意愿的影响研究;宋嘉莹;《中国优秀硕士论文电子期刊》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111414561A (zh) | 2020-07-14 |
US11651015B2 (en) | 2023-05-16 |
US20200218746A1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111414561B (zh) | 用于呈现信息的方法和装置 | |
US11403680B2 (en) | Method, apparatus for evaluating review, device and storage medium | |
US11501182B2 (en) | Method and apparatus for generating model | |
US20220292269A1 (en) | Method and apparatus for acquiring pre-trained model | |
US11645314B2 (en) | Interactive information retrieval using knowledge graphs | |
US20220012296A1 (en) | Systems and methods to automatically categorize social media posts and recommend social media posts | |
JP2019504413A (ja) | 絵文字を提案するためのシステムおよび方法 | |
US11720761B2 (en) | Systems and methods for intelligent routing of source content for translation services | |
CN111753082A (zh) | 基于评论数据的文本分类方法及装置、设备和介质 | |
Arumugam et al. | Hands-On Natural Language Processing with Python: A practical guide to applying deep learning architectures to your NLP applications | |
CN113627797B (zh) | 入职员工画像生成方法、装置、计算机设备及存储介质 | |
CN112926308B (zh) | 匹配正文的方法、装置、设备、存储介质以及程序产品 | |
CN112818091A (zh) | 基于关键词提取的对象查询方法、装置、介质与设备 | |
JP2022145623A (ja) | ヒント情報を提示する方法及び装置並びにコンピュータプログラム | |
CN112528654A (zh) | 自然语言处理方法、装置及电子设备 | |
Voloshyn et al. | Sentiment analysis technology of English newspapers quotes based on neural network as public opinion influences identification tool | |
CN115714002A (zh) | 抑郁风险检测模型训练方法、抑郁症状预警方法及相关设备 | |
CN117609612A (zh) | 资源推荐方法、装置、存储介质及电子设备 | |
CN111241273A (zh) | 文本数据分类方法、装置、电子设备及计算机可读介质 | |
CN113077312A (zh) | 酒店推荐方法、系统、设备及存储介质 | |
CN116578697A (zh) | 一种面向金融的语言情感分析和标注方法 | |
CN110705308A (zh) | 语音信息的领域识别方法、装置、存储介质及电子设备 | |
CN108920560A (zh) | 生成方法、训练方法、装置、计算机可读介质及电子设备 | |
CN114911940A (zh) | 文本情感识别方法及装置、电子设备、存储介质 | |
CN114138954A (zh) | 用户咨询问题推荐方法、系统、计算机设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |