CN110162594B - 文本数据的观点生成方法、装置及电子设备 - Google Patents

文本数据的观点生成方法、装置及电子设备 Download PDF

Info

Publication number
CN110162594B
CN110162594B CN201910008463.5A CN201910008463A CN110162594B CN 110162594 B CN110162594 B CN 110162594B CN 201910008463 A CN201910008463 A CN 201910008463A CN 110162594 B CN110162594 B CN 110162594B
Authority
CN
China
Prior art keywords
viewpoint
text data
candidate
evaluation
characters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910008463.5A
Other languages
English (en)
Other versions
CN110162594A (zh
Inventor
阳垚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910008463.5A priority Critical patent/CN110162594B/zh
Publication of CN110162594A publication Critical patent/CN110162594A/zh
Application granted granted Critical
Publication of CN110162594B publication Critical patent/CN110162594B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition

Abstract

本发明的实施例提供了一种文本数据的观点生成方法、装置及电子设备。该文本数据的观点生成方法包括:获取待处理的目标文本数据;通过监督式的机器学习模型提取所述目标文本数据的第一观点,基于无监督算法挖掘所述目标文本数据的第二观点;根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。本发明实施例的技术方案既能够充分利用有监督方法精确识别到文本数据的观点,同时又能够通过无监督算法有效缓解有监督方法召回率低、迭代处理较慢的问题,提高了文本数据观点的识别准确率及识别效率。

Description

文本数据的观点生成方法、装置及电子设备
技术领域
本发明涉及计算机及通信技术领域,具体而言,涉及一种文本数据的观点生成方法、装置及电子设备。
背景技术
随着内容分享平台的飞速发展和广泛应用,目前互联网上的UGC(User GeneratedContent,用户生成内容)数据爆炸式增长,而人们想要快速从海量数据中获取有价值的信息变得很艰难。传统的方式是采用人工查询和统计的方式进行处理,但是在面对数以亿计的文本数据时,这种方式成本较大且效率较低,而相关技术中提出的自动挖掘文本数据观点的方案,往往存在精度低和效率较低的问题。
发明内容
本发明的实施例提供了一种文本数据的观点生成方法、装置、计算机可读介质及电子设备,进而至少在一定程度上可以提高文本数据中观点的识别准确率及识别效率。
本发明的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本发明的实践而习得。
根据本发明实施例的一个方面,提供了一种文本数据的观点生成方法,包括:获取待处理的目标文本数据;通过监督式的机器学习模型提取所述目标文本数据的第一观点,基于无监督算法挖掘所述目标文本数据的第二观点;根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
根据本发明实施例的一个方面,提供了一种文本数据的观点生成装置,包括:第一获取单元,用于获取待处理的目标文本数据;处理单元,用于通过监督式的机器学习模型提取所述目标文本数据的第一观点,并基于无监督算法挖掘所述目标文本数据的第二观点;确定单元,用于根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;第一生成单元,用于根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
在本发明的一些实施例中,基于前述方案,所述处理单元包括:识别单元,用于通过实体识别模型识别所述目标文本数据中包含的实体词和情感词;挖掘单元,用于挖掘所述目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词;第二生成单元,用于根据所述实体词、所述情感词、所述目标主题词和所述目标观点词进行共现计算,以生成所述第二观点。
在本发明的一些实施例中,基于前述方案,所述的文本数据的观点生成装置还包括:第二获取单元,用于获取与所述目标文本数据具有关联关系的资料数据;提取单元,用于提取所述资料数据中所包含的实体名称,通过从所述资料数据中提取出的实体名称扩充所述实体词。
在本发明的一些实施例中,基于前述方案,所述挖掘单元配置为:根据所述目标文本数据中所包含的各个词的词性,确定所述目标文本数据中的候选主题词和候选观点词;根据所述候选主题词和所述候选观点词之间的关系、各个所述候选主题词之间的关系和各个所述候选观点词之间的关系,构建二分图;基于所述二分图计算各个所述候选主题词和各个所述候选观点词的置信度,并根据所述置信度确定所述目标主题词和目标观点词。
在本发明的一些实施例中,基于前述方案,所述确定单元配置为:根据所述第一观点所包含的第一评价主题的字符和所述第二观点所包含的第二评价主题的字符之间的关系,确定所述目标文本数据的候选评价主题;根据所述第一观点所包含的第一观点内容的字符和所述第二观点所包含的第二观点内容的字符之间的关系,确定所述目标文本数据的候选观点内容。
在本发明的一些实施例中,基于前述方案,所述确定单元配置为:若所述第一评价主题的字符与所述第二评价主题的字符之间存在包含关系,则将所述第一评价主题和所述第二评价主题中字符数量最多的作为所述候选评价主题;若所述第一评价主题的字符与所述第二评价主题的字符之间存在交叉关系,则将所述第一评价主题的字符和所述第二评价主题的字符进行拼接,以得到所述候选评价主题。
在本发明的一些实施例中,基于前述方案,所述确定单元配置为:若所述第一观点内容的字符与所述第二观点内容的字符之间存在包含关系,则将所述第一观点内容和所述第二观点内容中字符数量最多的作为所述候选观点内容;若所述第一观点内容的字符与所述第二观点内容的字符之间存在交叉关系,则将所述第一观点内容的字符和所述第二观点内容的字符进行拼接,以得到所述候选观点内容。
在本发明的一些实施例中,基于前述方案,所述第一生成单元配置为:根据所述候选评价主题的字符及所述候选观点内容的字符在所述目标文本数据中的位置,确定距离目标候选评价主题最近的目标候选观点内容,或确定距离目标候选观点内容的字符最近的目标候选评价主题;根据所述目标候选评价主题和所述目标候选观点内容,生成所述目标文本数据的观点。
在本发明的一些实施例中,基于前述方案,所述处理单元配置为:获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型;将所述目标文本数据输入至所述联合识别模型中,得到所述目标文本数据的评价主题和观点内容;根据所述目标文本数据的评价主题和观点内容,生成所述第一观点。
在本发明的一些实施例中,基于前述方案,所述处理单元配置为:获取用于对机器学习模型进行训练的第一文本数据;根据所述第一文本数据和所述第一文本数据中标记的评价主题标签和观点内容标签,生成训练样本;通过所述训练样本对所述机器学习模型进行训练,以生成所述联合识别模型。
在本发明的一些实施例中,基于前述方案,所述的文本数据的观点生成装置还包括:构建单元,用于根据长短期记忆网络和条件随机场算法构建所述机器学习模型,并构建所述机器学习模型的损失函数。
在本发明的一些实施例中,基于前述方案,所述构建单元配置为,通过以下公式构建所述机器学习模型对应的对数概率,并根据所述对数概率构建所述损失函数:
Figure BDA0001936348390000031
其中,p(y|X)表示在已知文本数据X的基础上,文本数据中所包含的字符是标签y的概率;YX表示所有可能的标签组合;
Figure BDA0001936348390000032
表示标签组合中的一个标签;
Figure BDA0001936348390000041
Figure BDA0001936348390000042
表示从标签yi转移到标签yi+1的概率矩阵,n表示标签集合中的标签个数;
Figure BDA0001936348390000043
表示所述长短期记忆网络LSTM输出的概率矩阵。
在本发明的一些实施例中,基于前述方案,所述构建单元还用于:在所述对数概率中添加边界多样性损失项,所述边界多样性损失项包括Eleft和Eright,其中,
Figure BDA0001936348390000044
其中,B表示的标签为位于词首的评价主题;C表示的标签为位于词首的观点内容;E表示的标签为位于词尾的评价主题;F表示的标签为位于词尾的观点内容;xi|yi=B/C表示邻接于B或C的词;xi|yi=E/F表示邻接于E或F的词;AV(w1w2…wk)=logRLav(w1w2…wk),logRLav(w1w2…wk)表示邻接于w1w2…wk的不同字符的个数。
根据本发明实施例的一个方面,提供了一种计算机可读介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现如上述实施例中所述的文本数据的观点生成方法。
根据本发明实施例的一个方面,提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如上述实施例中所述的文本数据的观点生成方法。
在本发明的一些实施例所提供的技术方案中,通过基于监督式的机器学习模型提取目标文本数据的第一观点,并基于无监督算法挖掘目标文本数据的第二观点,以根据第一观点所包含的字符和第二观点所包含的字符之间的关系,确定目标文本数据的候选评价主题和候选观点内容,进而根据候选评价主题和候选观点内容生成目标文本数据的观点,使得既能够充分利用有监督方法精确识别到文本数据的观点,提高了文本数据中观点识别的准确率,同时又能够通过无监督算法有效缓解有监督方法召回率低、迭代处理较慢的问题,提高了文本数据中观点的识别效率。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图;
图2示意性示出了根据本发明的一个实施例的文本数据的观点生成方法的流程图;
图3示意性示出了根据本发明的一个实施例的通过监督式的机器学习模型提取目标文本数据的第一观点的流程图;
图4示意性示出了根据本发明的一个实施例的获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型的流程图;
图5示意性示出了根据本发明的一个实施例的基于无监督算法挖掘目标文本数据的第二观点的流程图;
图6示意性示出了根据本发明的一个实施例的挖掘目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词的流程图;
图7示意性示出了根据本发明的一个实施例的根据第一观点和第二观点生成目标文本数据的观点的流程图;
图8示意性示出了根据本发明的一个实施例的意见内容的生成方法的流程图;
图9示意性示出了根据本发明的一个实施例的意见内容的生成方法的技术架构图;
图10示意性示出了Bi-LSTM-CRF模型的网络结构图;
图11示出了根据本发明的一个实施例的通过知识库方法来抽取意见表述的示意图;
图12示意性示出了根据本发明的一个实施例的文本数据的观点生成装置的框图;
图13示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
图1示出了可以应用本发明实施例的技术方案的示例性系统架构的示意图。
如图1所示,系统架构100可以包括终端设备(如图1中所示智能手机101、平板电脑102和便携式计算机103中的一种或多种,当然也可以是台式计算机等等)、网络104和服务器105。网络104用以在终端设备和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线通信链路、无线通信链路等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
在本发明的一个实施例中,用户可以利用终端设备103(也可以是终端设备101或102)向服务器105上传了待处理的文本数据,比如可以是用户发表的朋友圈消息、微博消息等。服务器105在获取到这些待处理的文本数据之后,一方面通过监督式的机器学习模型提取这些文本数据的第一观点(如可以包括评价主题和观点内容),另一方面基于无监督算法挖掘这些文本数据的第二观点,然后根据该第一观点所包含的字符和该第二观点所包含的字符,确定前述文本数据的候选评价主题和候选观点内容(比如根据第一观点所包含的评价主题的字符和第二观点所包含的评价主题的字符之间的关系,确定文本数据的候选评价主题;并根据第一观点所包含的观点内容的字符和第二观点所包含的观点内容的字符之间的关系,确定文本数据的候选观点内容),进而根据该候选评价主题和候选观点内容生成前述文本数据的观点。该实施例的技术方案使得既能够充分利用有监督方法精确识别到文本数据的观点,同时又能够通过无监督算法有效缓解有监督方法召回率低、迭代处理较慢的问题,提高了文本数据中观点的识别准确率及识别效率。
需要说明的是,本发明实施例所提供的文本数据的观点生成方法一般由服务器105执行,相应地,文本数据的观点生成装置一般设置于服务器105中。但是,在本发明的其它实施例中,终端设备也可以与服务器具有相似的功能,从而执行本发明实施例所提供的文本数据的观点生成方案。
以下对本发明实施例的技术方案的实现细节进行详细阐述:
图2示意性示出了根据本发明的一个实施例的文本数据的观点生成方法的流程图,该文本数据的观点生成方法可以由服务器来执行,该服务器可以是图1中所示的服务器。参照图2所示,该文本数据的观点生成方法至少包括步骤S210至步骤S240,详细介绍如下:
在步骤S210中,获取待处理的目标文本数据。
在本发明的一个实施例中,待处理的目标文本数据可以是UGC数据,比如可以是用户发表的朋友圈状态数据、微博数据、在网站上针对某些新闻发表的评论数据、针对某些产品发表的反馈数据等。
在步骤S220中,通过监督式的机器学习模型提取所述目标文本数据的第一观点,基于无监督算法挖掘所述目标文本数据的第二观点。
在本发明的一个实施例中,第一观点和第二观点均可以包括评价主题和观点内容,其中,评价主题是用户表达看法或态度的对象,观点内容是用户对前述对象所表达的看法或态度的详细内容。当然,在本发明的其它实施例中,第一观点和第二观点也可以仅包括评价主题,或者仅包括观点内容。
在本发明的一个实施例中,如图3所示,通过监督式的机器学习模型提取目标文本数据的第一观点的过程,具体包括如下步骤S310至步骤S330,详细介绍如下:
在步骤S310中,获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型。
在本发明的一个实施例中,如图4所示,步骤S310中获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型的过程,包括如下步骤S410至步骤S430,详细说明如下:
在步骤S410中,获取用于对机器学习模型进行训练的第一文本数据。
在本发明的一个实施例中,用于对机器学习模型进行训练第一文本数据与前述实施例中的目标文本数据是同类型的数据,比如可以是用户发表的朋友圈状态数据、微博数据、在网站上针对某些新闻发表的评论数据、针对某些产品发表的反馈数据等。
在步骤S420中,根据所述第一文本数据和所述第一文本数据中标记的评价主题标签和观点内容标签,生成训练样本。
在本发明的一个实施例中,为了使机器学习模型充分学习到文本数据中的评价主题和观点内容之间的隐含关系(如隐含语法关系),可以在生成训练样本时,对文本数据中的评价主题和观点内容均进行标注,以使机器学习模型对评价主题和观点内容进行联合学习及识别。
在本发明的一个实施例中,对文本数据进行标记的标签可以包括:位于词首的评价主题标签B、位于词中的评价主题标签M、位于词尾的评价主题标签E、位于词首的观点内容标签C、位于词中的观点内容标签N、位于词尾的观点内容标签F和单字成词标签O。当然,在本发明的其他实施例中,对文本数据进行标记的标签也可以包括上述7种标签中部分,或者还可以包括其他的标签。
继续参照图4所示,在步骤S430中,通过所述训练样本对机器学习模型进行训练,以生成所述联合识别模型。
在本发明的一个实施例中,机器学习模型可以是神经网络模型,比如可以综合LSTM(Long Short-Term Memory,长短期记忆网络)和CRF(Conditional Random Field,条件随机场)算法来构建Bi-LSTM-CRF模型,进而既能够通过该模型获取到长远的上下文信息,又能够考虑整个文本数据序列的最优解,确保机器学习模型能给得到最准确的识别结果。
在本发明的一个实施例中,在构建机器学习模型的损失函数时,可以先构建前述机器学习模型对应的对数概率,然后基于该对数概率构建损失函数。在本发明的实施例中,可以通过以下公式构建机器学习模型对应的对数概率:
Figure BDA0001936348390000091
其中,p(y|X)表示在已知文本数据X的基础上,文本数据中所包含的字符是标签y的概率;YX表示所有可能的标签组合,比如前述的位于词首的评价主题标签B、位于词中的评价主题标签M、位于词尾的评价主题标签E、位于词首的观点内容标签C、位于词中的观点内容标签N、位于词尾的观点内容标签F和单字成词标签O;
Figure BDA0001936348390000092
表示标签组合中的一个标签;
Figure BDA0001936348390000093
Figure BDA0001936348390000094
表示从标签yi转移到标签yi+1的概率矩阵,n表示标签集合中的标签个数;
Figure BDA0001936348390000095
表示所述长短期记忆网络LSTM输出的概率矩阵。其中,
Figure BDA0001936348390000096
为(k+2)×(k+2)维的概率矩阵;
Figure BDA0001936348390000097
为n×k维的概率矩阵。
在本发明的一个实施例中,在构建机器学习模型对应的对数概率之后,可以将该对数概率的相反数或倒数作为机器学习模型的损失函数,进而通过对机器学习模型进行训练来使损失函数收敛。
在本发明的一个实施例中,为了避免机器学习模型在处理的过程中出现评价主题和观点内容的边界识别有误的问题,可以在对数概率中添加边界多样性损失项,该边界多样性损失项包括Eleft和Eright,其中,
Figure BDA0001936348390000098
其中,B表示的标签为位于词首的评价主题;C表示的标签为位于词首的观点内容;E表示的标签为位于词尾的评价主题;F表示的标签为位于词尾的观点内容;xi|yi=B/C表示邻接于B或C的词;xi|yi=E/F表示邻接于E或F的词;AV(w1w2…wk)=logRLav(w1w2…wk),logRLav(w1w2…wk)表示邻接于w1w2…wk的不同字符的个数。
继续参照图3所示,在步骤S320中,将所述目标文本数据输入至所述联合识别模型中,得到所述目标文本数据的评价主题和观点内容。
在本发明的一个实施例中,由于联合识别模型可以是综合LSTM和CRF算法构建得到的Bi-LSTM-CRF模型,因此将目标文本数据输入至联合识别模型之后,既能够通过该模型获取到长远的上下文信息,又能够考虑整个文本数据序列的最优解,进而可以准确识别出目标文本数据的评价主题和观点内容。
在步骤S330中,根据所述目标文本数据的评价主题和观点内容,生成所述第一观点。
在本发明的一个实施例中,由于观点包括评价主题和观点内容,因此可以将目标文本数据的评价主题和观点内容作为第一观点。
在本发明的一个实施例中,如图5所示,基于无监督算法挖掘所述目标文本数据的第二观点的过程,具体包括如下步骤S510至步骤S530,详细介绍如下:
在步骤S510中,通过实体识别模型识别所述目标文本数据中包含的实体词和情感词。
在本发明的一个实施例中,可以通过预先训练好的机器学习模型(即实体识别模型)来识别目标文本数据中包含的实体词(如人名、机构名等)和情感词,该机器学习模型可以是CRF模型。
在本发明的一个实施例中,在通过预先训练好的机器学习模型识别目标文本数据中包含的实体词和情感词之前,可以对训练数据进行标记,即标记出其中包含的实体词和情感词,以得到训练样本,然后基于该训练样本对机器学习模型进行训练,最后基于训练好的机器学习模型来识别目标文本数据中包含的实体词。
在本发明的一个实施例中,还可以获取与前述目标文本数据具有关联关系的资料数据,然后提取该资料数据中所包含的实体名称,并通过从该资料数据中提取出的实体名称扩充所述实体词,以提高文本数据中观点的召回率。其中,与目标文本数据具有关联关系的资料数据可以是目标文本数据所在网站的垂直网站中的数据。
在步骤S520中,挖掘所述目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词。
在本发明的一个实施例中,如图6所示,步骤S520中挖掘目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词的过程,包括如下步骤:
步骤6510,根据所述目标文本数据中所包含的各个词的词性,确定所述目标文本数据中的候选主题词和候选观点词。
在本发明的一个实施例中,在确定目标文本数据中所包含的各个词的词性时,可以先对目标文本数据进行分词处理,然后进行词性筛选,以确定目标文本数据中的候选主题词和候选观点词。
步骤S620,根据所述候选主题词和所述候选观点词之间的关系、各个所述候选主题词之间的关系和各个所述候选观点词之间的关系,构建二分图。
在本发明的一个实施例中,可以将候选主题词和候选观点词分别作为一个子集来构建二分图,而两个子集之间的联系及两个子集内部的联系是通过候选主题词和候选观点词之间的关系、各个候选主题词之间的关系和各个候选观点词之间的关系来体现的。
步骤S630,基于所述二分图计算各个所述候选主题词和各个所述候选观点词的置信度,并根据所述置信度确定所述目标主题词和目标观点词。
在本发明的一个实施例中,可以基于随机游走算法来计算各个候选主题词和各个候选观点词的置信度,比如在二分图中,若某个候选主题词与候选观点词和其它候选主题词之间的连线较多,那么该候选主题词的置信度就越高。
继续参照图5所示,在步骤S530中,根据所述实体词、所述情感词、所述目标主题词和所述目标观点词进行共现计算,以生成第二观点。
在本发明的一个实施例中,可以从实体词和目标主题词中选择共现频率较高的词作为评价主题,并从情感词和目标观点词中选择共现频率较高的词作为观点内容,然后基于确定的评价主题和观点内容来生成第二观点。
继续参照图2所示,在步骤S230中,根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容。
在本发明的一个实施例中,如图7所示,步骤S230中根据第一观点所包含的字符和第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容的过程,包括如下步骤S710至步骤S720,详细介绍如下:
在步骤S710中,根据所述第一观点所包含的第一评价主题的字符和所述第二观点所包含的第二评价主题的字符之间的关系,确定所述目标文本数据的候选评价主题。
在本发明的一个实施例中,若第一评价主题的字符与第二评价主题的字符存在包含关系,则将第一评价主题和第二评价主题中字符数量最多的作为候选评价主题。比如若第一评价主题为“7系列的座椅”,第二评价主题为“座椅”,由于“7系列的座椅”包含了“座椅”,因此将“7系列的座椅”作为候选评价主题。
在本发明的一个实施例中,若第一评价主题的字符与第二评价主题的字符存在交叉关系,则将第一评价主题的字符和第二评价主题的字符进行拼接,以得到所述候选评价主题。比如若第一评价主题为“游戏画面”,第二评价主题为“画面细节”,由于“游戏画面”与“画面细节”之间存在交叉,因此将“游戏画面”与“画面细节”进行拼接得到的“游戏画面细节”作为候选评价主题。
在步骤S720中,根据所述第一观点所包含的第一观点内容的字符和所述第二观点所包含的第二观点内容的字符之间的关系,确定所述目标文本数据的候选观点内容。
在本发明的一个实施例中,若第一观点内容的字符与第二观点内容的字符存在包含关系,则将第一观点内容和第二观点内容中字符数量最多的作为候选观点内容。比如若第一观点内容为“太舒服了”,第二观点内容为“服了”,由于“太舒服了”包含了“服了”,因此将“太舒服了”作为候选观点内容。
在本发明的一个实施例中,若第一观点内容的字符与第二观点内容的字符存在交叉关系,则将第一观点内容的字符和第二观点内容的字符进行拼接,以得到候选观点内容。比如若第一观点内容为“逼真”,第二观点内容为“真细腻”,由于“逼真”与“真细腻”之间存在交叉,因此将“逼真”与“真细腻”进行拼接得到的“逼真细腻”作为候选评价主题。
需要说明的是,本发明的实施例对图7中所示的步骤S710和步骤S720之间的执行顺序并不作严格限定,即可以先执行步骤S710,再执行步骤S720;或者先执行步骤S720,再执行步骤S710;或者也可以同时执行步骤S710和步骤S720。
继续参照图2所示,在步骤S240中,根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
在本发明的一个实施例中,步骤S240中根据目标文本数据的候选评价主题和候选观点内容,生成目标文本数据的观点的过程,具体包括:根据候选评价主题的字符及候选观点内容的字符在目标文本数据中的位置,确定距离目标候选评价主题最近的目标候选观点内容,或确定距离目标候选观点内容的字符最近的目标候选评价主题;根据所述目标候选评价主题和所述目标候选观点内容,生成所述目标文本数据的观点。
比如若目标文本数据是“KPL皮肤手感很好啊,开大时也比较优美”,若目标候选评价主题是“KPL皮肤”,候选观点内容1是“手感很好”,候选观点内容2是“优美”,由于候选观点内容1在目标文本数据中的位置距离候选评价主题“KPL皮肤”较近,因此选择候选观点内容1作为目标候选观点内容,最后生成目标文本数据的观点即为“KPL皮肤,手感很好”。
本发明上述实施例的技术方案既能够充分利用有监督方法精确识别到文本数据的观点,又能够通过无监督算法有效缓解有监督方法召回率低、迭代处理较慢的问题,提高了观点的识别准确率和识别效率。
以下以对识别用户发表的评论数据中的观点(评论数据中的观点可以是显式的意见内容,其包含评价主题和观点表述)为例,对本发明实施例的技术方案进行详细阐述:
如图8所示,根据本发明的一个实施例的意见内容的生成方法,包括如下步骤:
步骤S801,对评论数据进行数据预处理。
在本发明的一个实施例中,评论数据可以是新闻评论、朋友圈评论等。数据预处理可以包括广告等低质数据过滤、对长句进行分句处理、表情符等非文本数据的清洗处理等。
步骤S802,从数据预处理后得到的数据中抽取出意见内容,即提取评论数据表达的核心内容。
在本发明的一个实施例中,意见内容包括评价主题和观点表述。其中,评价主题是“意见”的分析对象,即表达看法或态度的评价主体;观点表述是“意见”的观点内容,即对评价对象所表达的看法或态度的详细内容或具体情感等。
步骤S803,基于抽取出的意见内容来聚合意见内容,即聚合同样或类似的观点内容。
步骤S804,确定意见内容的表示方式,并基于确定的表示方式展示生成的意见内容。比如可以根据用户的选择来确定意见内容的表示方式或者自动确定意见内容的表示方式(如将默认的表示方式作为意见内容的表示方式等)。
以下对图8中所示的步骤S802中从数据预处理后得到的数据中抽取出意见内容及步骤S803中聚合意见内容的具体过程进行详细阐述。
在本发明的一个实施例中,如图9所示为意见内容的生成方法的技术架构示意图,其中,意见内容的抽取过程主要包括知识库方法和序列标注方法,知识库方法借助了离线知识库,序列标注方法用于通过机器学习的方式识别评价主题和观点表述,详细介绍如下:
在本发明的一个实施例中,序列标注方法采用了考虑边界特征的Bi-LSTM-CRF模型。具体地,由于序列标注方法能利用上下文特征及主题观点之间的隐含句法关系进行监督学习,因此可以采用Bi-LSTM-CRF的序列标注模型训练得到“评价主题和观点表述联合识别模型”。Bi-LSTM-CRF模型综合了LSTM和CRF在序列标注问题上的优点,既能获取长远的上下文信息,又可以考虑整个序列的最优解,而不是将每个时刻的最优拼接起来。同时,通过将评价主题和观点表述进行联合识别,可以充分学习到上下文中评价主题与观点表述之间的隐含句法关系。可选地,可以采用7-gram标记,即通过如下7种标签来对训练数据进行标记:B(主题-词首)、M(主题-词中)、E(主题-词尾)、C(观点-词首)、N(观点-词中)、F(观点-词尾)、O(单字成词),在对训练数据进行标记之后,可以对Bi-LSTM-CRF模型进行训练。
在本发明的一个实施例中,Bi-LSTM-CRF模型的网络结构如图10所示,该模型的第一层利用预训练或随机初始化的embedding(嵌入)矩阵将句子中的每个字xi由one-hot(独热码)向量映射为低维稠密的字向量(character embedding)。
Bi-LSTM-CRF模型的第二层是双向LSTM层,该层的作用是自动提取句子特征。具体是将一个句子的各个字的字向量序列作为双向LSTM各个时间步的输入,再将正向LSTM输出的隐状态序列与反向LSTM输出的隐状态序列在各个位置输出的隐状态进行按位置拼接,最终得到完整的隐状态序列。
Bi-LSTM-CRF模型的第三层是CRF层,该层的作用是进行句子级的序列标注。CRF层的参数是一个(k+2)×(k+2)的矩阵A,Aij表示的是从第i个标签到第j个标签的转移得分,进而在为一个位置进行标注的时候可以利用此前已经标注过的标签,之所以要加2是因为要为句子首部添加一个起始状态以及为句子尾部添加一个终止状态。
在本发明的一个实施例中,Bi-LSTM-CRF模型的训练目标是最大化正确的标签序列的对数概率,其中,标签序列的对数概率的公式表示如下述公式1所示:
Figure BDA0001936348390000151
其中,p(y|X)表示在已知评论数据X的基础上,评论数据中所包含的字符是标签y的概率;YX表示所有可能的标签组合,比如前述的位于词首的评价主题标签B、位于词中的评价主题标签M、位于词尾的评价主题标签E、位于词首的观点内容标签C、位于词中的观点内容标签N、位于词尾的观点内容标签F和单字成词标签O;
Figure BDA0001936348390000152
表示标签组合中的一个标签;
Figure BDA0001936348390000153
Figure BDA0001936348390000154
表示从标签yi转移到标签yi+1的概率矩阵,n表示标签集合中的标签个数,y0和yn是作为序列开始和结束的标志;
Figure BDA0001936348390000155
表示长短期记忆网络LSTM输出的概率矩阵。其中,
Figure BDA0001936348390000156
为(k+2)×(k+2)维的概率矩阵;
Figure BDA0001936348390000157
为n×k维的概率矩阵。
在本发明的一个实施例中,Bi-LSTM-CRF模型的预测函数如下述公式2所示:
Figure BDA0001936348390000158
最终可以取max(p(y|X))时预测的x的标签序列作为抽取的意见内容。
在本发明的一个实施例中,由于Bi-LSTM-CRF模型仅利用了训练语料的上下文特征,并未添加任何其他外部特征,因此模型判定结果可能会出现类似下表1所示的“边界判定错误”的问题:
评论文本数据 评价主题 观点表述
更新失败玩的什么? 更新 失败玩
这游戏拉低智商!特别是对小学生而言! 这游戏拉 低智商
好玩,还原度很高 原度 很高
经常更新不了,卸了重新安装也救不了 新安装 救不了
感觉这个游戏还是细节方面不到位总体还行 游戏 细节方面不到位总体还行
表1
针对上述问题,在本发明的一个实施例中,可以考虑利用垂直领域大量未标注语料中的无监督特征,参考分词方法中处理分词边界的思路,即边界信息熵越大,边界的可能性越大。在上述的对数概率的(该对数概率的相反数或倒数做可以作为模型的损失函数)计算中添加边界多样性损失项(Eleft和Eright),将边界识别错误的损失添加到模型训练优化的过程。具体地,在公式1所示的对数概率中添加边界多样性损失项之后,得到如下公式3:
Figure BDA0001936348390000161
其中,Eleft和Eright分别通过如下公式4和公式5来表示:
Figure BDA0001936348390000162
Figure BDA0001936348390000163
其中,B、C、E、F分别表示上述的标签,即B表示的标签为位于词首的评价主题;C表示的标签为位于词首的观点内容;E表示的标签为位于词尾的评价主题;F表示的标签为位于词尾的观点内容;xi|yi=B/C表示邻接于B或C的词;xi|yi=E/F表示邻接于E或F的词;AV(w1w2…wk)=logRLav(w1w2…wk),logRLav(w1w2…wk)表示邻接于w1w2…wk的不同字符的个数。
在本发明的一个实施例中,由于序列标注模型对新词的召回率较低,且监督模型的训练迭代周期长,而网络用语日新月异,因此可以基于垂直领域知识库的匹配算法来搭建一套离线挖掘垂直领域主题观点对的流程,即通过知识库方法来抽取意见表述,持续更新知识库匹配算法。
在本发明的一个实施例中,如图11所示,通过知识库方法来抽取意见表述的过程主要通过如下3大模块来实现:垂直网站下载抽取模块1101、命名实体识别模块1102和主题观点词挖掘模块1103。
在本发明的一个实施例中,垂直网站下载抽取模块1101用于从垂直站点下载结构化知识,例如从豆瓣影视简介、汽车之家参数配置等数据中抽取得到的电影名、演员名以及汽车配置等实体。
在本发明的一个实施例中,命名实体识别模块1102用于通过预先训练好的命名实体识别模型(如CRF模型)从评论数据中挖掘出人名、机构名等实体以及情感词。
在本发明的一个实施例中,主题观点词挖掘模块1103利用主题与观点词间的观点修饰关系,如PMI(Point-Wise Mutual Information)值,以及主题词之间的句法关系及观点词间之间的句法关系,如LDA(Linear Discriminant Analysis,线性判别式分析)来构建二分图,然后参考PageRank(网页排名)的置信度计算思路,利用随机游走算法计算主题词与观点词的置信度。其中,在计算主题词与观点词的置信度时,假设与置信度高的观点词有越多关系的主题词的置信度越高,并且假设与置信度高的观点词或主题词有语义关系的观点词或主题词的置信度越高。
在本发明的一个实施例中,在得到实体与情感词,以及高置信度的主题词和观点词之后,可以通过共现计算来产出主题观点对知识库。
在本发明的一个实施例中,在通过序列标注方法(以下简称方法1)和通过知识库方法(以下简称方法2)抽取意见表述之后,可以对两种方法抽取的意见表述进行融合,具体的融合规则如下:
(1)评价主题或观点表述的内容最长规则:方法1和方法2识别的评价主题的字符之间若存在包含关系,则取字符串长度较长的;若字符之间存在交叉关系,则取拼接后的最长内容。类似地,若方法1和方法2识别的意见表述的字符之间若存在包含关系,则取字符串长度较长的;若字符之间存在交叉关系,则取拼接后的最长内容。
举例说明:如评论文本数据为“7系的座椅简直太舒服了”,方法1识别结果为【7系的座椅,太舒服】,方法2识别结果为【座椅,服了】,那么融合后结果为【7系的座椅,太舒服了】。
(2)评价主题和观点表述之间的紧邻规则:方法1和方法2识别的评价主题和观点表述中,同一评价主题(或观点表述)取在评论文本数据中位置最紧邻的观点表述(或评价主题)。
举例说明,如“KPL皮肤手感很好啊,开大时也比较优美”,方法1识别结果为【KPL皮肤,手感很好】,方法2识别结果为【KPL皮肤,优美】,融合后结果为【KPL皮肤,手感很好】。
本发明上述实施例的技术方案融合了有监督的序列标注识别和无监督的知识库匹配两种方法,具有灵活性和通用性,既能充分利用有监督方法精确识别评价主题和观点表述内容,又能有效缓解有监督方法的新召回低、迭代慢问题。整体技术方案的有益效果具体体现在如下几个方面:
1、有监督模型实验中,在游戏领域对比了传统的条件随机场(CRF)算法、标准的Bi-LSTM-CRF模型和本发明实施例中的考虑边界损失的Bi-LSTM-CRF模型。效果评测发现,在加入边界损失项之后,观点抽取准确率约83%、F值(即F-Measure)约78%,相比于标准的Bi-LSTM-CRF模型的F值提升了6个百分点,相比CRF模型的F值提升约18个百分点,对比效果如表2所示:
模型 准确率 召回率 F值
CRF模型 81% 47% 59%
标准的Bi-LSTM-CRF模型 79% 66% 72%
Bi-LSTM-CRF+边界损失项后的模型 83%(+4%) 74%(+8%) 78%(+6%)
表2
在本发明的一个实施例中,对于表1所示的“边界判定错误”的问题,通过本发明实施例的Bi-LSTM-CRF在添加边界损失项后的模型得到的结果如表3所示:
Figure BDA0001936348390000181
表3
2、在知识库匹配方法中,通过基于命名实体识别和图模型的离线挖掘方法构建多个垂直领域知识库可以包含大量的数据。在本发明的一个实施例中,通过基于命名实体识别和图模型的离线挖掘方法挖掘到的多个垂直领域得数据情况如表4所示:
Figure BDA0001936348390000191
表4
参照表4所示,通过本发明实施例的基于命名实体识别和图模型的离线挖掘方法构建多个垂直领域知识库能够有效缓解有监督方法召回率低、迭代处理较慢的问题,提高了文本数据中观点的识别准确率和识别效率。
需要说明的是,在本发明的上述实施例中深度神经网络的训练采用的是LSTM模型结构,而在本发明的其他实施例中,也可以采用其它有效的模型结构,例如采用LSTM和其它网络结构相结合的模型,例如卷积神经网络(Convolutional Neural Network,简称CNN)和长短期记忆模型结合(CNN-Bi-LSTM-CRF),也可以根据实际应用对模型内存占用的限制和对检测准确率的要求,对目前的循环神经网络的拓扑结构加以拓展或简化。另外本发明实施例中采用的Bi-LSTM-CRF模型可以不限定具体的标注单元,即可以是基于字的序列标注,也可以是基于词或bi-gram、tri-gram等其他类型的标注单元。并且在进行离线挖掘时,也可以采用类似标签传播或者关联规则的频繁项集挖掘等无监督方法。
以下介绍本发明的装置实施例,可以用于执行本发明上述实施例中的文本数据的观点生成方法。对于本发明装置实施例中未披露的细节,请参照本发明上述的文本数据的观点生成方法的实施例。
图12示意性示出了根据本发明的一个实施例的文本数据的观点生成装置的框图。
参照图12所示,根据本发明的一个实施例的文本数据的观点生成装置1200,包括:第一获取单元1202、处理单元1204、确定单元1206和第一生成单元1208。
其中,第一获取单元1202用于获取待处理的目标文本数据;处理单元1204用于通过监督式的机器学习模型提取所述目标文本数据的第一观点,并基于无监督算法挖掘所述目标文本数据的第二观点;确定单元1206用于根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;第一生成单元1208用于根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
在本发明的一个实施例中,处理单元1204配置为:获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型;将所述目标文本数据输入至所述联合识别模型中,得到所述目标文本数据的评价主题和观点内容;根据所述目标文本数据的评价主题和观点内容,生成所述第一观点。
在本发明的一个实施例中,处理单元1204配置为:获取用于对机器学习模型进行训练的第一文本数据;根据所述第一文本数据和所述第一文本数据中标记的评价主题标签和观点内容标签,生成训练样本;通过所述训练样本对所述机器学习模型进行训练,以生成所述联合识别模型。
在本发明的一个实施例中,所述的文本数据的观点生成装置1200还包括:构建单元,用于根据长短期记忆网络和条件随机场算法构建所述机器学习模型,并构建所述机器学习模型的损失函数。
在本发明的一个实施例中,所述构建单元配置为,通过以下公式构建所述机器学习模型对应的对数概率,并根据所述对数概率构建所述损失函数:
Figure BDA0001936348390000201
其中,p(y|X)表示在已知文本数据X的基础上,文本数据中所包含的字符是标签y的概率;YX表示所有可能的标签组合;
Figure BDA0001936348390000202
表示标签组合中的一个标签;
Figure BDA0001936348390000203
Figure BDA0001936348390000204
表示从标签yi转移到标签yi+1的概率矩阵,n表示标签集合中的标签个数;
Figure BDA0001936348390000205
表示所述长短期记忆网络LSTM输出的概率矩阵。
在本发明的一个实施例中,所述构建单元还用于:在所述对数概率中添加边界多样性损失项,所述边界多样性损失项包括Eleft和Eright,其中,
Figure BDA0001936348390000206
其中,B表示的标签为位于词首的评价主题;C表示的标签为位于词首的观点内容;E表示的标签为位于词尾的评价主题;F表示的标签为位于词尾的观点内容;xi|yi=B/C表示邻接于B或C的词;xi|yi=E/F表示邻接于E或F的词;AV(w1w2…wk)=logRLav(w1w2…wk),logRLav(w1w2…wk)表示邻接于w1w2…wk的不同字符的个数。
在本发明的一个实施例中,处理单元1204包括:识别单元,用于通过实体识别模型识别所述目标文本数据中包含的实体词和情感词;挖掘单元,用于挖掘所述目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词;第二生成单元,用于根据所述实体词、所述情感词、所述目标主题词和所述目标观点词进行共现计算,以生成所述第二观点。
在本发明的一个实施例中,所述的文本数据的观点生成装置1200还包括:第二获取单元,用于获取与所述目标文本数据具有关联关系的资料数据;提取单元,用于提取所述资料数据中所包含的实体名称,通过从所述资料数据中提取出的实体名称扩充所述实体词。
在本发明的一个实施例中,所述挖掘单元配置为:根据所述目标文本数据中所包含的各个词的词性,确定所述目标文本数据中的候选主题词和候选观点词;根据所述候选主题词和所述候选观点词之间的关系、各个所述候选主题词之间的关系和各个所述候选观点词之间的关系,构建二分图;基于所述二分图计算各个所述候选主题词和各个所述候选观点词的置信度,并根据所述置信度确定所述目标主题词和目标观点词。
在本发明的一个实施例中,确定单元1206配置为:根据所述第一观点所包含的第一评价主题的字符和所述第二观点所包含的第二评价主题的字符之间的关系,确定所述目标文本数据的候选评价主题;根据所述第一观点所包含的第一观点内容的字符和所述第二观点所包含的第二观点内容的字符之间的关系,确定所述目标文本数据的候选观点内容。
在本发明的一个实施例中,确定单元1206配置为:若所述第一评价主题的字符与所述第二评价主题的字符存在包含关系,则将所述第一评价主题和所述第二评价主题中字符数量最多的作为所述候选评价主题;若所述第一评价主题的字符与所述第二评价主题的字符存在交叉关系,则将所述第一评价主题的字符和所述第二评价主题的字符进行拼接,以得到所述候选评价主题。
在本发明的一个实施例中,确定单元1206配置为:若所述第一观点内容的字符与所述第二观点内容的字符存在包含关系,则将所述第一观点内容和所述第二观点内容中字符数量最多的作为所述候选观点内容;若所述第一观点内容的字符与所述第二观点内容的字符存在交叉关系,则将所述第一观点内容的字符和所述第二观点内容的字符进行拼接,以得到所述候选观点内容。
在本发明的一个实施例中,第一生成单元1208配置为:根据所述候选评价主题的字符及所述候选观点内容的字符在所述目标文本数据中的位置,确定距离目标候选评价主题最近的目标候选观点内容,或确定距离目标候选观点内容的字符最近的目标候选评价主题;根据所述目标候选评价主题和所述目标候选观点内容,生成所述目标文本数据的观点。
图13示出了适于用来实现本发明实施例的电子设备的计算机系统的结构示意图。
需要说明的是,图13示出的电子设备的计算机系统1300仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图13所示,计算机系统1300包括中央处理单元(Central Processing Unit,CPU)1301,其可以根据存储在只读存储器(Read-Only Memory,ROM)1302中的程序或者从存储部分1308加载到随机访问存储器(Random Access Memory,RAM)1303中的程序而执行各种适当的动作和处理。在RAM 1303中,还存储有系统操作所需的各种程序和数据。CPU1301、ROM 1302以及RAM 1303通过总线1304彼此相连。输入/输出(Input/Output,I/O)接口1305也连接至总线1304。
以下部件连接至I/O接口1305:包括键盘、鼠标等的输入部分1306;包括诸如阴极射线管(Cathode Ray Tube,CRT)、液晶显示器(Liquid Crystal Display,LCD)等以及扬声器等的输出部分1307;包括硬盘等的存储部分1308;以及包括诸如LAN(Local AreaNetwork,局域网)卡、调制解调器等的网络接口卡的通信部分1309。通信部分1309经由诸如因特网的网络执行通信处理。驱动器1310也根据需要连接至I/O接口1305。可拆卸介质1311,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1310上,以便于从其上读出的计算机程序根据需要被安装入存储部分1308。
特别地,根据本发明的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1309从网络上被下载和安装,和/或从可拆卸介质1311被安装。在该计算机程序被中央处理单元(CPU)1301执行时,执行本申请的系统中限定的各种功能。
需要说明的是,本发明实施例所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、闪存、光纤、便携式紧凑磁盘只读存储器(Compact Disc Read-Only Memory,CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本发明各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本发明实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、触控终端、或者网络设备等)执行根据本发明实施方式的方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (15)

1.一种文本数据的观点生成方法,其特征在于,包括:
获取待处理的目标文本数据;
通过监督式的机器学习模型提取所述目标文本数据的第一观点,基于无监督算法挖掘所述目标文本数据的第二观点;
根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;
根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
2.根据权利要求1所述的文本数据的观点生成方法,其特征在于,基于无监督算法挖掘所述目标文本数据的第二观点,包括:
通过实体识别模型识别所述目标文本数据中包含的实体词和情感词;
挖掘所述目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词;
根据所述实体词、所述情感词、所述目标主题词和所述目标观点词进行共现计算,以生成所述第二观点。
3.根据权利要求2所述的文本数据的观点生成方法,其特征在于,在根据所述实体词、所述情感词、所述目标主题词和所述目标观点词进行共现计算之前,还包括:
获取与所述目标文本数据具有关联关系的资料数据;
提取所述资料数据中所包含的实体名称,通过从所述资料数据中提取出的实体名称扩充所述实体词。
4.根据权利要求2所述的文本数据的观点生成方法,其特征在于,挖掘所述目标文本数据中包含的主题词和观点词,得到置信度高于预定值的目标主题词和目标观点词,包括:
根据所述目标文本数据中所包含的各个词的词性,确定所述目标文本数据中的候选主题词和候选观点词;
根据所述候选主题词和所述候选观点词之间的关系、各个所述候选主题词之间的关系和各个所述候选观点词之间的关系,构建二分图;
基于所述二分图计算各个所述候选主题词和各个所述候选观点词的置信度,并根据所述置信度确定所述目标主题词和目标观点词。
5.根据权利要求1所述的文本数据的观点生成方法,其特征在于,根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容,包括:
根据所述第一观点所包含的第一评价主题的字符和所述第二观点所包含的第二评价主题的字符之间的关系,确定所述目标文本数据的候选评价主题;
根据所述第一观点所包含的第一观点内容的字符和所述第二观点所包含的第二观点内容的字符之间的关系,确定所述目标文本数据的候选观点内容。
6.根据权利要求5所述的文本数据的观点生成方法,其特征在于,根据所述第一观点所包含的第一评价主题的字符和所述第二观点所包含的第二评价主题的字符之间的关系,确定所述目标文本数据的候选评价主题,包括:
若所述第一评价主题的字符与所述第二评价主题的字符之间存在包含关系,则将所述第一评价主题和所述第二评价主题中字符数量最多的作为所述候选评价主题;
若所述第一评价主题的字符与所述第二评价主题的字符之间存在交叉关系,则将所述第一评价主题的字符和所述第二评价主题的字符进行拼接,以得到所述候选评价主题。
7.根据权利要求5所述的文本数据的观点生成方法,其特征在于,根据所述第一观点所包含的第一观点内容的字符和所述第二观点所包含的第二观点内容的字符之间的关系,确定所述目标文本数据的候选观点内容,包括:
若所述第一观点内容的字符与所述第二观点内容的字符之间存在包含关系,则将所述第一观点内容和所述第二观点内容中字符数量最多的作为所述候选观点内容;
若所述第一观点内容的字符与所述第二观点内容的字符之间存在交叉关系,则将所述第一观点内容的字符和所述第二观点内容的字符进行拼接,以得到所述候选观点内容。
8.根据权利要求1所述的文本数据的观点生成方法,其特征在于,根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点,包括:
根据所述候选评价主题的字符及所述候选观点内容的字符在所述目标文本数据中的位置,确定距离目标候选评价主题最近的目标候选观点内容,或确定距离目标候选观点内容的字符最近的目标候选评价主题;
根据所述目标候选评价主题和所述目标候选观点内容,生成所述目标文本数据的观点。
9.根据权利要求1至8中任一项所述的文本数据的观点生成方法,其特征在于,通过监督式的机器学习模型提取所述目标文本数据的第一观点,包括:
获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型;
将所述目标文本数据输入至所述联合识别模型中,得到所述目标文本数据的评价主题和观点内容;
根据所述目标文本数据的评价主题和观点内容,生成所述第一观点。
10.根据权利要求9所述的文本数据的观点生成方法,其特征在于,获取对机器学习模型进行训练得到的评价主题和观点内容的联合识别模型,包括:
获取用于对机器学习模型进行训练的第一文本数据;
根据所述第一文本数据和所述第一文本数据中标记的评价主题标签和观点内容标签,生成训练样本;
通过所述训练样本对所述机器学习模型进行训练,以生成所述联合识别模型。
11.根据权利要求10所述的文本数据的观点生成方法,其特征在于,在通过所述训练样本对所述机器学习模型进行训练之前,还包括:
根据长短期记忆网络(LSTM)和条件随机场算法(CRF)构建所述机器学习模型,并构建所述机器学习模型的损失函数。
12.根据权利要求11所述的文本数据的观点生成方法,其特征在于,通过以下公式构建所述机器学习模型对应的对数概率,并根据所述对数概率构建所述损失函数:
Figure FDA0001936348380000041
其中,p(y|X)表示在已知文本数据X的基础上,文本数据中所包含的字符是标签y的概率;YX表示所有可能的标签组合;
Figure FDA0001936348380000042
表示标签组合中的一个标签;
Figure FDA0001936348380000043
Figure FDA0001936348380000044
表示从标签yi转移到标签yi+1的概率矩阵,n表示标签集合中的标签个数;
Figure FDA0001936348380000045
表示所述长短期记忆网络LSTM输出的概率矩阵。
13.根据权利要求12所述的文本数据的观点生成方法,其特征在于,还包括:在所述对数概率中添加边界多样性损失项,所述边界多样性损失项包括Eleft和Eright,其中,
Figure FDA0001936348380000046
其中,B表示的标签为位于词首的评价主题;C表示的标签为位于词首的观点内容;E表示的标签为位于词尾的评价主题;F表示的标签为位于词尾的观点内容;xi|yi=B/C表示邻接于B或C的词;xi|yi=E/F表示邻接于E或F的词;AV(w1w2…wk)=logRLav(w1w2…wk),logRLav(w1w2…wk)表示邻接于w1w2…wk的不同字符的个数。
14.一种文本数据的观点生成装置,其特征在于,包括:
第一获取单元,用于获取待处理的目标文本数据;
处理单元,用于通过监督式的机器学习模型提取所述目标文本数据的第一观点,并基于无监督算法挖掘所述目标文本数据的第二观点;
确定单元,用于根据所述第一观点所包含的字符和所述第二观点所包含的字符之间的关系,确定所述目标文本数据的候选评价主题和候选观点内容;
第一生成单元,用于根据所述候选评价主题和所述候选观点内容,生成所述目标文本数据的观点。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1至13中任一项所述的文本数据的观点生成方法。
CN201910008463.5A 2019-01-04 2019-01-04 文本数据的观点生成方法、装置及电子设备 Active CN110162594B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910008463.5A CN110162594B (zh) 2019-01-04 2019-01-04 文本数据的观点生成方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910008463.5A CN110162594B (zh) 2019-01-04 2019-01-04 文本数据的观点生成方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN110162594A CN110162594A (zh) 2019-08-23
CN110162594B true CN110162594B (zh) 2022-12-27

Family

ID=67645330

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910008463.5A Active CN110162594B (zh) 2019-01-04 2019-01-04 文本数据的观点生成方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN110162594B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111078875B (zh) * 2019-12-03 2022-12-13 哈尔滨工程大学 一种基于机器学习的从半结构化文档中提取问答对的方法
CN111160035B (zh) * 2019-12-31 2023-06-20 北京明朝万达科技股份有限公司 文本语料的处理方法和装置
CN111428492B (zh) * 2020-01-10 2023-07-07 深圳信息职业技术学院 一种情境感知的深度学习算法
CN113392641A (zh) * 2020-10-26 2021-09-14 腾讯科技(深圳)有限公司 文本处理方法、装置、存储介质和设备
CN112434510B (zh) * 2020-11-24 2024-03-29 北京字节跳动网络技术有限公司 一种信息处理方法、装置、电子设备和存储介质
CN113220872A (zh) * 2021-02-08 2021-08-06 民生科技有限责任公司 一种文档标签生成方法、系统及可读存储介质
CN115496039B (zh) * 2022-11-17 2023-05-12 荣耀终端有限公司 一种词语提取方法及计算机设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103365997A (zh) * 2013-07-12 2013-10-23 华东师范大学 一种基于集成学习的观点挖掘方法
CN104484437A (zh) * 2014-12-24 2015-04-01 福建师范大学 一种网络短评情感挖掘方法
CN108416032A (zh) * 2018-03-12 2018-08-17 腾讯科技(深圳)有限公司 一种文本分类方法、装置及存储介质
CN108492118A (zh) * 2018-04-03 2018-09-04 电子科技大学 汽车售后服务质量评价回访文本数据的两阶段抽取方法
CN108628828A (zh) * 2018-04-18 2018-10-09 国家计算机网络与信息安全管理中心 一种基于自注意力的观点及其持有者的联合抽取方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104049755B (zh) * 2014-06-18 2017-01-18 中国科学院自动化研究所 信息处理方法及装置
US10810472B2 (en) * 2017-05-26 2020-10-20 Oracle International Corporation Techniques for sentiment analysis of data using a convolutional neural network and a co-occurrence network

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103365997A (zh) * 2013-07-12 2013-10-23 华东师范大学 一种基于集成学习的观点挖掘方法
CN104484437A (zh) * 2014-12-24 2015-04-01 福建师范大学 一种网络短评情感挖掘方法
CN108416032A (zh) * 2018-03-12 2018-08-17 腾讯科技(深圳)有限公司 一种文本分类方法、装置及存储介质
CN108492118A (zh) * 2018-04-03 2018-09-04 电子科技大学 汽车售后服务质量评价回访文本数据的两阶段抽取方法
CN108628828A (zh) * 2018-04-18 2018-10-09 国家计算机网络与信息安全管理中心 一种基于自注意力的观点及其持有者的联合抽取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Unsupervised Model for Topic Viewpoint Discovery in Online Debates Leveraging Author Interactions;Amine Trabelsi等;《Twelfth International AAAI Conference on Web and Social Media》;20180615;第12卷(第1期);425-433 *
观点挖掘综述;陈旻等;《浙江大学学报(工学版)》;20140415;第48卷(第8期);1461-1472 *

Also Published As

Publication number Publication date
CN110162594A (zh) 2019-08-23

Similar Documents

Publication Publication Date Title
CN110162594B (zh) 文本数据的观点生成方法、装置及电子设备
US11501182B2 (en) Method and apparatus for generating model
CN109493977B (zh) 文本数据处理方法、装置、电子设备及计算机可读介质
CN111444320B (zh) 文本检索方法、装置、计算机设备和存储介质
CN109657054B (zh) 摘要生成方法、装置、服务器及存储介质
CN111858944B (zh) 一种基于注意力机制的实体方面级情感分析方法
CN109376222B (zh) 问答匹配度计算方法、问答自动匹配方法及装置
CN112560479B (zh) 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备
CN112164391A (zh) 语句处理方法、装置、电子设备及存储介质
CN111460221B (zh) 评论信息处理方法、装置及电子设备
CN113392209B (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
CN111680159A (zh) 数据处理方法、装置及电子设备
CN109086265B (zh) 一种语义训练方法、短文本中多语义词消歧方法
CN112989208B (zh) 一种信息推荐方法、装置、电子设备及存储介质
CN109359180B (zh) 用户画像生成方法、装置、电子设备及计算机可读介质
CN112926308B (zh) 匹配正文的方法、装置、设备、存储介质以及程序产品
CN113392179A (zh) 文本标注方法及装置、电子设备、存储介质
CN111400584A (zh) 联想词的推荐方法、装置、计算机设备和存储介质
CN113761190A (zh) 文本识别方法、装置、计算机可读介质及电子设备
WO2023108993A1 (zh) 基于深度聚类算法的产品推荐方法、装置、设备及介质
CN111414561A (zh) 用于呈现信息的方法和装置
CN115269828A (zh) 用于生成评论回复的方法、设备和介质
CN113705207A (zh) 语法错误识别方法及装置
CN111291550B (zh) 一种中文实体提取方法及装置
CN112926341A (zh) 文本数据处理方法、装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant