CN110457585A - 负面文本的推送方法、装置、系统及计算机设备 - Google Patents

负面文本的推送方法、装置、系统及计算机设备 Download PDF

Info

Publication number
CN110457585A
CN110457585A CN201910746137.4A CN201910746137A CN110457585A CN 110457585 A CN110457585 A CN 110457585A CN 201910746137 A CN201910746137 A CN 201910746137A CN 110457585 A CN110457585 A CN 110457585A
Authority
CN
China
Prior art keywords
text
identification model
training
identified
negative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910746137.4A
Other languages
English (en)
Other versions
CN110457585B (zh
Inventor
张国校
徐灿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201910746137.4A priority Critical patent/CN110457585B/zh
Publication of CN110457585A publication Critical patent/CN110457585A/zh
Application granted granted Critical
Publication of CN110457585B publication Critical patent/CN110457585B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/338Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及负面文本的推送方法、装置、系统及计算机设备,属于文本分类技术领域。该方法包括:获取待识别文本;待识别文本中包含有标识对象;将待识别文本输入到已训练的文本识别模型中;已训练的文本识别模型中包含有编码器层;已训练的文本识别模型根据包含有标识对象的训练文本训练得到,且在训练过程中,标识对象被替换为掩盖对象;根据已训练的文本识别模型的输出结果,确定待识别文本的文本类型;若根据文本类型确定待识别文本为负面文本,输出负面文本推送信息。上述技术方案,解决了负面文本的推送准确性不够高的问题。能通过包含有编码器层的文本识别模型准确识别待识别文本的文本类型,并输出负面文本的推送信息。

Description

负面文本的推送方法、装置、系统及计算机设备
技术领域
本发明涉及文本分类技术领域,特别是涉及负面文本的推送方法、装置、系统、计算机设备及存储介质。
背景技术
随着网络技术的发展,越来越多的人选择在网络上发表或查阅文章等,因此,每天都有数量巨大的文本出现在网络平台上。其中,带有负面情绪、内容低俗的文本也不在少数,因此平台管理员往往需要对网络上的文本进行鉴定,以确定其中的负面文本。
对于包含有标识对象(文本中起标识作用的词语、符号等)的文本,现有的负面文本识别方法是使用TD-LSTM模型来进行。这种方式能在一定程度上确定出文本是否为负面文本。但是这种负面文本识别方法将标识对象的上下文孤立开来,使得负面文本的推送准确性不够高。
发明内容
基于此,本发明实施例提供了负面文本的推送方法、装置、系统、计算机设备及存储介质,能准确识别出文本的类别并进行负面文本的推送。
本发明实施例的内容如下:
第一方面,本发明实施例提供一种负面文本的推送方法,包括以下步骤:获取待识别文本;所述待识别文本中包含有标识对象;将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据所述输出结果,确定所述待识别文本的文本类型;若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
第二方面,本发明实施例提供一种负面文本的推送装置,包括:文本获取模块,用于获取待识别文本;所述待识别文本中包含有标识对象;文本输入模块,用于将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;结果获取模块,用于获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;类型确定模块,用于根据所述输出结果,确定所述待识别文本的文本类型;文本识别模块,用于若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
第三方面,本发明实施例提供一种负面文本的推送系统,包括:网络连接的文本识别单元和文本推送单元;所述文本识别单元,用于将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据所述输出结果,确定所述待识别文本的文本类型;若根据所述文本类型确定所述待识别文本为负面文本,向所述文本推送单元输出负面文本推送信息;所述文本推送单元,用于根据所述负面文本推送信息向与所述标识对象对应的管理终端发送负面文本提示信息;所述负面文本提示信息用于提示管理人员对所述待识别文本进行处理。
第四方面,本发明实施例提供一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:获取待识别文本;所述待识别文本中包含有标识对象;将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据所述输出结果,确定所述待识别文本的文本类型;若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
第五方面,本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:获取待识别文本;所述待识别文本中包含有标识对象;将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据所述输出结果,确定所述待识别文本的文本类型;若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
上述负面文本的推送方法、装置、系统、计算机设备及存储介质,获取包含有标识对象的待识别文本;将待识别文本输入到包含有编码器层的已训练文本识别模型中;该文本识别模型根据编码器层输出的编码向量得到输出结果;在根据该文本识别模型的输出结果确定待识别文本为负面文本时,输出负面文本推送信息。能通过包含有编码器层的文本识别模型准确识别出待识别文本的文本类型,并输出负面文本的推送信息。
附图说明
图1为一个实施例中负面文本的推送方法的应用环境图;
图2为一个实施例中负面文本的推送方法的流程示意图;
图3为一个实施例中负面文本推送信息的显示示意图;
图4为一个实施例中使用TD-LSTM模型进行文本识别的流程示意图;
图5为一个实施例中模型的建立训练预测流程示意图;
图6为一个实施例中文本识别模型的运行流程示意图;
图7为另一个实施例中文本识别模型的运行流程示意图;
图8为再一个实施例中文本识别模型的运行流程示意图;
图9为另一个实施例中负面文本的推送方法的流程示意图;
图10为再一个实施例中负面文本的推送方法的流程示意图;
图11为一个实施例中负面文本的推送装置的结构框图;
图12为一个实施例中负面文本的推送系统的结构框图;
图13为一个实施例中文章内容的界面显示图;
图14为一个实施例中推送信息的界面显示图;
图15为另一个实施例中推送信息的界面显示图;
图16为再一个实施例中推送信息的界面显示图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在文本中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,文本所描述的实施例可以与其它实施例相结合。
本申请提供的负面文本的推送方法可以应用于如图1所示的计算机设备中。该计算机设备可以是服务器,也可以是终端设备,其内部结构图可以如图1所示。该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置和显示屏等。其中,存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现负面文本的推送方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行负面文本的推送方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等,计算机设备的网络接口用于与外部的终端通过网络连接通信。计算机设备中还可以包括数据库,该数据库用于存储负面文本的推送方法执行过程中涉及的各种数据。其中,该计算机设备为服务器时,可以用独立的服务器或者是多个服务器组成的服务器集群来实现;该计算机设备为终端设备时,可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。
本领域技术人员可以理解,图1中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。本发明实施例提供一种负面文本的推送方法、装置、系统、计算机设备及存储介质。以下分别进行详细说明。
在一个实施例中,如图2所示,提供了一种负面文本的推送方法。以该方法应用于图1中的计算机设备端为例进行说明,包括以下步骤:
S201、获取待识别文本;待识别文本中包含有标识对象。
在本发明实施例中,文本指的是文章、标题、评论、新闻等内容,可以是在网络上能搜索到的文本(例如:出现在特定应用平台上的文本)。进一步地,待识别文本可以指文本类型未知的文本。标识对象指的是文本中起标识作用或者较为关键的词语,以“人民网评王者荣耀是娱乐大众还是陷害人生”这一待识别文本为例,“王者荣耀”就可以作为标识对象,本发明实施例通过文本识别模型能对包含有“王者荣耀”这一关键词的待识别文本进行情感分析,确定其是否为负面文本。当然,在不同的应用场景下,一句话中的多个词语可以分别作为标识对象,例如,在某些场景下,“人民网”也可以作为标识对象,该场景能够对与“人民网”相关的文本进行情感分析以确定对应的文本是否为负面文本。需要说明的是,标识对象可以包括多个词,这些词为与某个对象相关的词,以“王者荣耀”为例,标识对象可以为“王者荣耀”,也可以为“农药”、“王者”、“wangzherongyao”、“KPL”等。包含有标识对象的待识别文本可以称为有对象文本。另外,待识别文本的数量可以为一个、两个、甚至多个,对于两个和多个的情况,文本识别模型可以采用同步或异步的方式进行文本的识别。
进一步的,待识别文本可以是一句话、一段文字或者一篇文章。在某些情况下,如果要确定某一段文字、某一篇文章是否为负面的,则可以对其中的一句话或者一个标题进行分析,根据这句话或者这个标题的文本类型识别结果确定对应的文字段或者文章是否为负面文本。
在一些实施例中,文本也可以替换为图片、视频等形式,而此时对应的文本识别模型可以替换为对应的图片识别模型、视频识别模型等。
S202、将待识别文本输入到已训练的文本识别模型中;已训练的文本识别模型中包含有编码器层;已训练的文本识别模型根据包含有标识对象的训练文本训练得到,且在训练过程中,标识对象被替换为掩盖对象。
文本识别模型可以为基于自然语言处理(Nature Language processing,NLP)的机器学习(Machine Learning,ML)模型。通过训练文本(可以为已知文本类型的文本)对初始的文本识别模型进行训练可以得到已训练的文本识别模型,这个已训练的文本识别模型能够对待识别文本进行识别,以确定待识别文本的文本类型。
其中,自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。自然语言处理是一门融语言学、计算机科学、数学于一体的科学。因此,这一领域的研究将涉及自然语言,即人们日常使用的语言,所以它与语言学的研究有着密切的联系。自然语言处理技术通常包括文本处理、语义理解、机器翻译、机器人问答、知识图谱等技术。
机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
编码器层为对输入文本进行向量编码的结构,可以为bert层,也可以为其他可以对输入文本进行编码的结构。进一步地,bert(深度双向预训练编码器,BidirectionalEncoder Representations from Transformers)可以用于问答系统、情感分析、垃圾邮件过滤、命名实体识别、文档聚类等任务中。bert的创新点在于它将双向转换用于语言模型,传统的语言模型是从左向右输入一个文本序列,或者将left-to-right和right-to-left的训练结合起来,而双向训练的语言模型对语境的理解会比单向的语言模型更深刻,因此,本发明实施例采用包含有bert层的文本识别模型来进行负面文本的推送。进一步地,本发明实施例采用的bert层可以根据RoBERTa(Robustly Optimized BERT approach)构建。
掩盖对象也可以称为MASK,可以指用来掩盖标识对象的标记。文本识别模型在训练初始阶段(后续的预测过程也一样)不清楚被掩盖的标识对象是什么内容,而是通过分析其上下文来确定上下文内容体现出的情感,确定整个待识别文本是否为负面文本。在一些实施例中,文本识别模型可以通过分析掩盖对象的上下文内容确定出掩盖对象对应的标识对象(即识别出标识对象的具体内容),进而确定整个文本所体现出的情感(可以指文本类型),以确定其是否为负面文本。
S203、获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到。
本步骤中,编码器层对输入的待识别文本进行分析,得到对应的编码向量,已训练的文本识别模型对编码向量进行分析,进而得到输出结果。
S204、根据已训练的文本识别模型的输出结果,确定待识别文本的文本类型。
包含有bert层的已训练的文本识别模型能够对待识别文本进行识别,文本识别模型的输出结果可以为以下几种形式:待识别文本对应于多个文本类型的概率、待识别文本的所属文本类型、是否为负面文本等。
其中,文本类型指的是待识别文本可能对应的情感类别,这个文本类型可以为一个、两个、甚至多个。进一步地,文本类型可以包括:负面文本、非负面文本,也可以包括:负面文本、正面文本、其他文本,还可以包括:言辞过激、态度适中、态度正面。
进一步地,对于待识别文本为两个或多个的情况,可以对应输出两个或多个输出结果,也可以是输出一个总的输出结果。例如,输出结果可以为:待识别文本1为负面文本,待识别文本2为非负面文本,待识别文本3为负面文本;也可以为:有两个负面文本一个非负面文本,其中,待识别文本1和待识别文本2为负面文本,待识别文本3为非负面文本。
计算机设备在获取到文本识别模型的输出结果时,直接或者经过简单的分析就能确定待识别文本的文本类型,进而能确定出待识别文本是否为负面文本。
S205、若根据文本类型确定待识别文本为负面文本,输出负面文本推送信息。
在本步骤中,在根据文本类型确定待识别文本为负面文本时,可以向管理终端输出负面文本推送信息,使用管理终端的管理员就能对负面文本进行处理(清除、作负面标记等)。管理终端可以在界面上显示相应的负面文本推送信息(如图3所示),图3中推送的负面文本推送信息为对包含有“皇室战争”这一标识对象的文章标题进行识别后得到的。在一些实施例中,在确定待识别文本为非负面文本时,也可以向管理终端输出推送消息。
进一步地,管理终端可以是各种具有显示功能的终端设备,可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。
对于包含有标识对象的文本,现有的负面文本识别方法是使用TD-LSTM模型来进行。如图4所示,其具体实现过程如下:识别出标识对象后,将文本以标识对象为中心分成左右两部分,每部分末尾加上对象词,然后将这两部分分别用LSTM进行建模,这样就同时对标识对象和上下文建模了。在所建立的模型中,输入层是当前时刻词向量;隐层是将前一时刻隐向量和当前时刻词向量经过三种门函数(输入门、遗忘门和输出门)作用后产生当前时刻的隐向量;输出层是将左右两个LSTM最后时刻的隐向量进行拼接,然后经过全连接层和归一化层(可以通过softmax层实现)得到负面和非负面的概率。实际上,这种负面文本识别方法将标识对象的上下文孤立开来,无法考虑两侧文本之间的相互影响,且不能很好地利用未标注语料(可以指待识别文本中标识对象之外的其他词语),使得负面文本的推送准确性不够高。本发明实施例提供的负面文本的推送方法,通过包含有bert层的文本识别模型对待识别文本进行分析,能充分考虑到标识对象及其上下文之间的相互影响,很好地利用了未标注语料,能得到较高的负面文本的推送准确性。
在一个实施例中,如图5所示,在对待识别文本进行识别之前,还包括对文本识别模型进行预训练(S501)和训练(S502)的阶段。其中,预训练阶段可以包括模型构建之前的准备过程,而模型训练阶段可以包括数据预处理、模型构建、模型训练和测试这几个步骤;经过模型训练阶段之后,就可以通过训练好的文本识别模型对待识别文本进行识别了,这个过程即为模型预测过程(S503)。
进一步的,将待识别文本输入到已训练的文本识别模型中的步骤之前,还包括:获取包含有标识对象的样本文本;将样本文本中的标识对象替换为掩盖对象,得到训练文本;将训练文本输入到预先建立的文本识别模型中进行模型训练,得到已训练的文本识别模型;文本识别模型根据预先确定的模型搭建框架建立;在得到已训练的文本识别模型后,还可以包括对已训练的文本识别模型进行测试和调优(fine-tuning)的过程,如果测试效果不满足预先设定的条件,还可以对已训练的文本识别模型进行调整或者重新训练。其中,预先确定的模型搭建框架可以为TensorFlow框架。
进一步地,构建和训练文本识别模型的过程可以为:a、根据TensorFlow1.12框架建立文本识别模型;b、获取包含有标识对象的样本文本;将样本文本中的标识对象替换为掩盖对象,得到训练文本;c、将训练文本输入到所建立的文本识别模型中进行模型训练,训练结束即得到已训练的文本识别模型。在一个实施例中,在文本识别模型的训练之前,需要对样本文本进行一定的预处理,例如,可以在样本文本的每句话之前添加句首标识,在句末添加句末标识,对样本文本进行分词处理,去除其中的停用词,将其中的标识对象替换为掩盖对象,经过这些预处理就可以得到训练文本(在这个示例中,样本文本和训练文本的形式不同,即样本本文为完整的语句,而训练文本为拆分后的多个词,在其他一些实施例中,样本文本和训练文本的形式可以相同,例如:从一句话中提取若干个词作为样本文本,对该样本文本进行一定的处理之后得到训练文本)。训练文本输入到文本识别模型后,bert层分析整个句子中各个词之间的关系,输出各个词(包括句首标识、掩盖对象、句末标识以及其他未标记的词语)对应的编码向量。而文本识别模型可以根据这些编码向量中的全部或部分来得到训练文本的识别结果。
进一步地,文本识别模型由输入层、bert层和输出层构成。其中,输入层为对训练文本进行输入的结构,可以是b*n的矩阵,b代表每次输入的训练文本数目,n代表文本长度;bert层为对训练文本进行解码和编码的结构,可以由多层注意力机制构成;输出层为确定训练文本的输出结果的结构,可以是全连接加softmax的结构,输出层能把句子向量降维到情感类别(即前述实施例中的文本类型)数个维度上。
在一个实施例中,将训练文本输入到预先建立的文本识别模型中进行模型训练,得到已训练的文本识别模型的步骤,包括:将训练文本输入到预先建立的文本识别模型中的编码器层中;获取句首标识在编码器层中的第一编码向量;获取掩盖对象在编码器层中的第二编码向量;根据第一编码向量和/或第二编码向量,得到训练文本在文本识别模型中的识别结果;若识别结果满足设定的条件,结束文本识别模型的训练,得到已训练的文本识别模型。
根据第一编码向量和/或第二编码向量,得到训练文本在文本识别模型中的识别结果的步骤,包括:将第一编码向量和/或第二编码向量输入到文本识别模型的输出层中;根据输出层的输出结果,确定训练文本对应于各个文本类型的概率,得到训练文本在文本识别模型中的识别结果。
其中,根据第一编码向量得到训练文本在文本识别模型中的识别结果的实现过程可以如图6所示[此时,文本识别模型可以称为SOB(Sentence-only-based)模型],其中,[CLS]表示句首标识,MASK表示标识对象。如图6所示,bert层对输入层输入的各个词进行解码,对解码后的信息(如图6中的E[CLS]、E1、E2、……、EMASK、……、En)进行分析,确定MASK与其上下文之间的关系,并结合这些信息在同一领域内的常规含义,对这些信息进行编码,得到对应的编码向量(如图6中的C、T1、T2、……、TMASK、……、Tn),并将其中的C作为分类标签(Class Lable)输入到输出层中,输出层对C进行分析,确定出该训练文本对应的识别结果。
根据第二编码向量得到训练文本在文本识别模型中的识别结果的实现过程可以如图7所示[此时,文本识别模型可以称为TOB(Target-only-based)模型],图7的实现过程可以参照图6,在此不再赘述。图7中,将其中的TMASK作为分类标签输入到输出层中,输出层对TMASK进行分析,确定出该训练文本对应的识别结果。
根据第一编码向量和第二编码向量得到训练文本在文本识别模型中的识别结果的实现过程可以如图8所示[此时,文本识别模型可以称为TSB(Target-Sentence-based)模型],图8的实现过程可以参照图6,在此不再赘述。图8中,将其中的C和TMASK作为分类标签输入到输出层中,输出层对C和TMASK进行分析,确定出该训练文本对应的识别结果。
在一些实施例中,若识别结果满足设定的条件,结束文本识别模型的训练,得到已训练的文本识别模型的步骤,包括:从识别结果中,确定第一编码向量输入到输出层对应的第一结果、第二编码向量输入到输出层对应的第二结果、以及第一编码向量和第二编码向量输入到输出层对应的第三结果;获取训练文本的实际结果;若第一结果、第二结果和第三结果中,存在与实际结果相似度满足设定的条件的目标结果,结束文本识别模型的训练;根据目标结果,得到已训练的文本识别模型。
即,可以将训练文本分别输入到图6/7/8所示的文本识别模型中,将训练结束后训练效果最好的文本识别模型作为最终用于对待识别文本进行识别的模型。同时,文本识别模型也可以包含有SOB、TOB、TSB中的两个或全部,根据这些的模型的输出来确定训练文本的识别结果。
其中,根据目标结果,得到已训练的文本识别模型的实现过程可以为:若SOB对应的识别结果为目标结果,则将SOB作为bert层得到已训练的文本识别模型;若TOB对应的识别结果为目标结果,则将TOB作为bert层得到已训练的文本识别模型;若TSB对应的识别结果为目标结果,则将TSB作为bert层得到已训练的文本识别模型。
在一个实施例中,若识别结果满足设定的条件,结束文本识别模型的训练的实现过程可以为:获取训练样本已知的文本类型,将识别结果与已知的文本类型进行比对,如果两者一致(或者相似度高于设定的阈值),则认为文本识别模型的识别准确度满足要求,结束文本识别模型的训练过程。
上述实施例中,通过对待识别文本进行构建和训练的过程,能得到准确识别待识别文本的文本识别模型,以便后续进行待识别文本的识别。
在一个实施例中,前述实施例中描述的对文本识别模型进行训练的过程可以对应到对待识别文本进行识别的过程中。具体的,对待识别文本进行识别的过程可以为:对待识别文本进行分词处理,将其中的标识对象替换为掩盖标识,并添加上句首标识和句末标识,并将掩盖标识、句首标识、句末标识以及其他词作为待识别文本,通过输入层输入到编码器层(具体为bert层)中;编码器层对待识别文本进行解码和编码,得到对应的输出向量,并将输出向量输入到输出层中;输出层对输出向量进行分析,确定待识别文本对应的识别结果,进而确定待识别文本是否为负面文本。
进一步地,S205之前,还包括:根据已训练的文本识别模型的输出,确定待识别文本对应于各个文本类型的概率;其中,文本类型中包括负面文本类型;若负面文本类型对应的概率最高,判定待识别文本为负面文本。同时,若非负面文本类型对应的概率最高,判定待识别文本为非负面文本。
上述实施例提供的负面文本的推送方法中,构建并训练了文本识别模型,并结合文本识别模型中的输入层、bert层和输出层对待识别文本进行识别,得到待识别文本是否为负面文本的文本识别结果,充分考虑到了待识别文本内各个词之间的相互影响,能得到较高的负面文本识别准确性。
在一个实施例中,获取包含有标识对象的样本文本的步骤之前,还包括:从预先划分的多个领域中,确定标识对象所在的目标领域;通过数据获取工具从网络文本中获取目标领域的多个候选文本;从多个候选文本中筛选出包含有标识对象的候选文本,作为样本文本。其中,网络文本可以指网络中出现的各种文章、标题、评论、新闻等。
其中,目标领域可以根据实际情况确定,可以是管理人员根据业务需要来确定,可以包括:游戏领域、新闻领域、娱乐领域、体育领域等等。各个领域对应的候选文本可以由人工确定,也可以通过网络爬虫等数据获取工具来获取。以标识对象为“王者荣耀”为例,可以获取游戏领域的候选文本,即获取游戏领域的各种文章、新闻、视频以及它们的评论等相关语料,从这些候选文本中选择包含有“王者荣耀”字样的文本,作为样本文本。具体的,可以获取与“王者荣耀”相关的文章、段落等语料,作为候选文本,从这些候选文本中筛选出包含有“王者荣耀”字样的句子,作为样本文本。
上述实施例提供的负面文本的推送方法,能够针对特定领域获取特定的样本文本,进而得到对应的训练文本,能使得训练得到的文本识别模型准确识别特定领域的待识别文本。
在通过文本识别模型对待识别文本进行识别之后,还可以包括对待识别文本进行调整的过程,这样的处理方式使得文本识别模型能对特定领域的待识别文本进行准确识别。
在一个实施例中,可以构建一个文本识别模型来对各个领域的包含有标识对象的文本进行识别。另外,不同领域也可以构建不同的文本识别模型,并通过对应领域的训练文本进行训练,以针对性地对待识别文本进行识别。更进一步地,不同标识对象也可以构建不同的文本识别模型,在这种情况下,文本识别模型仅识别与特定标识对象相关的待识别文本。
在一个实施例中,如图9所示,提供了一种负面文本的推送方法。以该方法应用于图1中的计算机设备端为例进行说明,包括以下步骤:
S901、确定标识对象所在的目标领域;
S902、通过数据获取工具从网络文本中获取该目标领域的多个候选文本;
S903、从多个候选文本中筛选出包含有标识对象的候选文本,作为样本文本;
S904、将样本文本中的标识对象替换为掩盖对象,得到训练文本;
S905、根据预先确定的模型搭建框架建立文本识别模型;
S906、将训练文本输入到预先建立的文本识别模型中进行模型训练,得到已训练的文本识别模型;
S907、获取包含有标识对象的待识别文本;
S908、将待识别文本输入到已训练的文本识别模型的编码器层中;
S909、获取待识别文本的句首标识在编码器层中的第一编码向量以及掩盖对象在编码器层中的第二编码向量;
S910、将第一编码向量和第二编码向量输入到已训练的文本识别模型的输出层中,根据输出层的输出得到待识别文本在已训练的文本识别模型中的输出结果;
S911、根据该输出结果确定待识别文本的文本类型,若根据该文本类型确定待识别文本为负面文本,输出负面文本推送信息。
本实施例提供的负面文本的推送方法,通过包含有编码器层的文本识别模型对待识别文本进行分析,能充分考虑到标识对象及其上下文之间的相互影响,能准确确定出待识别文本的文本类型,得到较高的负面文本的推送准确性。
为了更好地理解上述方法,如图10所示,以下详细阐述一个本发明负面文本的推送方法的应用实例。
S1001、构建语料库。针对游戏领域,从外网爬取相关数据,并构建语料库。
S1002、构建文本识别模型。在bert基础上,建立文本识别模型。
S1003、训练文本识别模型。从语料库中获取包含有“王者荣耀”字样的训练文章,确定该训练文章的样本文章标题,将样本文章标题拆分为多个词,并将样本文章标题中的“王者荣耀”替换为[MASK]标记,并在句首添加句首标识,将拆分得到的多个词、[MASK]标记以及句首标识输入到预先建立的文本识别模型的bert层中;bert层对输入的各个词进行解码和编码,得到对应的编码向量,并将其中句首标识和[MASK]标记对应的编码向量输入到输出层中;输出层根据输入的编码向量确定该训练文本对应于负面文章和非负面文章的概率;根据输出层输出的概率值确定样本文章是否为负面文章。如果多篇训练文章的识别结果与其实际结果均一致,则认为该文本识别模型的识别准确率达到要求,判定文本识别模型训练结束,得到已训练的文本识别模型。
S1004、对待识别文章进行识别。获取与“王者荣耀”相关的待识别文章的标题,将该标题拆分为多个词,并将其中的“王者荣耀”替换为[MASK]标记,并在句首添加句首标识,将拆分得到的多个词、[MASK]标记以及句首标识输入到预先建立的文本识别模型的bert层中;bert层对输入的各个词进行解码和编码,得到对应的编码向量,并将其中句首标识和[MASK]标记对应的编码向量输入到输出层中;输出层根据输入的编码向量确定该待识别文章对应于负面文章和非负面文章的概率;如果负面文章的概率高于非负面文章的概率,则判定待识别文本为负面文章,否则,判定待识别文本为非负面文章。
S1005、推送提示信息。若确定待识别文章为负面文章,向“王者荣耀”项目组对应的管理终端发送负面文本提示信息以提示管理人员对该负面文章进行处理。
本发明实施例提供的负面文本的推送方法,能通过包含有bert层的文本识别模型准确识别出待识别文本的文本类型,并输出负面文本的推送信息。
另外,将本发明实施例提供的负面文本的推送方法,与TD-LSTM、bert模型(不对标识对象进行识别)、Pretrain+Bert模型、Target-bert(TOB)和Target-bert(SOB)模型对待识别文本的识别结果(包括准确度、召回率和f1)进行比较,可知,Pretrain+Bert模型比TD-LSTM效果提升1.5%左右;进一步,引入领域预训练之后,f1进一步提高0.6%;使用有对象的模型构建策略(SOB,对标识对象进行了识别并且进行标识)后,进一步提升1.2%。和SOB相比,TOB效果略有降低。
将TOB模型和Text-CNN的识别结果进行比较,如下表所示。可知,有对象的识别不能按照无对象的方式进行,否则将会有较大的精度损失。
本发明实施例基于预训练框架bert利用领域的大量数据进行预训练,在标注语料上进行fine-tuning,充分解决了文本类型确定的非平衡问题。同时,将整个句子作为输入,利用到了标识对象所在整个句子的信息,计算方式更科学有效。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其它顺序或者同时进行。
基于与上述实施例中的负面文本的推送方法相同的思想,本发明还提供负面文本的推送装置,该装置可用于执行上述负面文本的推送方法。为了便于说明,负面文本的推送装置实施例的结构示意图中,仅仅示出了与本发明实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图11所示,本发明实施例提供一种负面文本的推送装置,包括文本获取模块1101、文本输入模块1102、结果获取模块1103、类型确定模块1104和文本识别模块1105,详细说明如下:文本获取模块1101,用于获取待识别文本;待识别文本中包含有标识对象;文本输入模块1102,用于将待识别文本输入到已训练的文本识别模型中;已训练的文本识别模型中包含有编码器层;已训练的文本识别模型根据包含有标识对象的训练文本训练得到,且在训练过程中,标识对象被替换为掩盖对象;结果获取模块1103,用于获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;类型确定模块1104,用于根据已训练的文本识别模型的输出结果,确定待识别文本的文本类型;文本识别模块1105,用于若根据文本类型确定待识别文本为负面文本,输出负面文本推送信息。本实施例,能通过包含有编码器层的文本识别模型准确识别出待识别文本的文本类型,并输出负面文本的推送信息,进而输出负面文本推送信息。
在一个实施例中,负面文本的推送装置,还包括:样本文本获取模块,用于获取包含有标识对象的样本文本;训练文本确定模块,用于将样本文本中的标识对象替换为掩盖对象,得到训练文本;模型训练模块,用于将训练文本输入到预先建立的文本识别模型中进行模型训练,得到已训练的文本识别模型;文本识别模型根据预先确定的模型搭建框架建立。
在一个实施例中,训练文本还包括句首标识;模型训练模块,包括:文本输入子模块,用于将训练文本输入到预先建立的文本识别模型中的编码器层中;第一向量获取子模块,用于获取句首标识在编码器层中的第一编码向量;第二向量获取子模块,用于获取掩盖对象在编码器层中的第二编码向量;识别结果获取子模块,用于根据第一编码向量和/或第二编码向量,得到训练文本在文本识别模型中的识别结果;训练结束判定子模块,用于若识别结果满足设定的条件,结束文本识别模型的训练,得到已训练的文本识别模型。
在一个实施例中,文本识别模型中还包含有输出层;输出层中包含有全连接层和归一化层;识别结果获取子模块,包括:向量输入单元,用于将第一编码向量和/或第二编码向量输入到文本识别模型的输出层中;识别结果确定单元,用于根据输出层的输出结果,确定训练文本对应于各个文本类型的概率,得到训练文本在文本识别模型中的识别结果。
在一个实施例中,训练结束判定子模块包括:输出结果确定单元,用于从识别结果中,确定第一编码向量输入到输出层对应的第一结果、第二编码向量输入到输出层对应的第二结果、以及第一编码向量和第二编码向量输入到输出层对应的第三结果;实际结果获取单元,用于获取训练文本的实际结果;训练结束单元,用于若第一结果、第二结果和第三结果中,存在与实际结果相似度满足设定的条件的目标结果,结束文本识别模型的训练;识别模型确定单元,用于根据目标结果,得到已训练的文本识别模型。
在一个实施例中,负面文本的推送装置,还包括:领域确定模块,用于从预先划分的多个领域中,确定标识对象所在的目标领域;候选文本获取模块,用于通过数据获取工具从网络文本中获取目标领域的多个候选文本;样本文本筛选模块,用于从多个候选文本中筛选出包含有标识对象的候选文本,作为样本文本。
在一个实施例中,本申请提供的负面文本的推送装置可以实现为一种计算机程序的形式,计算机程序可在如图1所示的计算机设备上运行。计算机设备的存储器中可存储组成该负面文本的推送装置的各个程序模块,比如,图11所示的文本获取模块、文本输入模块、类型确定模块和文本识别模块。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的负面文本的推送方法中的步骤。
例如,图1所示的计算机设备可以通过如图11所示的负面文本的推送装置中的文本获取模块执行S201,可通过文本输入模块执行S202,可通过结果获取模块执行S203,可通过类型确定模块执行S204,可通过文本识别模块执行S205。
在一个实施例中,如图12所示,提供一种负面文本的推送系统,其特征在于,包括:网络连接的文本识别单元1201和文本推送单元1202;文本识别单元1201,用于将待识别文本输入到已训练的文本识别模型中;已训练的文本识别模型中包含有编码器层;已训练的文本识别模型根据包含有标识对象的训练文本训练得到,且在训练过程中,标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据已训练的文本识别模型的输出结果,确定待识别文本的文本类型;若根据文本类型确定待识别文本为负面文本,向文本推送单元输出负面文本推送信息;文本推送单元1202,用于根据负面文本推送信息向与标识对象对应的管理终端发送负面文本提示信息;负面文本提示信息用于提示管理人员对待识别文本进行处理。
其中,文本识别单元1201和文本推送单元1202均可以通过终端设备或者服务器实现。其中,服务器可以用独立的服务器或者是多个服务器组成的服务器集群来实现,终端设备可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。
在一些实施例中,管理终端也可以替换为文本推送单元,即文本推送单元在获取到负面文本推送信息后,直接向管理人员输出负面文本提示信息。
本发明实施例通过包含有编码器层的文本识别模型对待识别文本进行分析,能充分考虑到标识对象及其上下文之间的相互影响,能得到较高的负面文本的推送准确性,进而向管理终端发送准确的负面文本提示信息。
在一个实施例中,负面文本提示信息中可以包含有待识别文本的链接,管理人员在接收到负面文本提示信息后,通过点击链接就可以打开待识别文本的所有内容,以待识别文本为文章标题为例,负面文本提示信息对对应文章的标题设置链接并据此向管理终端发送负面文本提示信息,管理人员在接收到负面文本提示信息后,通过点击文章标题就可以查看文章的完整内容,进而分析该文章是否为负面文章,所显示的文章内容可以如图13所示。
管理人员在阅读待识别文本(例如标题A)或者相关信息(例如与标题A对应的文章)后,确定出该文章是否为负面文章,并通过如图13所示的界面底端中的按键将文章推送给特定人员。假设管理人员选择了界面底端左侧的“负面”,则可以根据文章对应的标识对象(皇室战争)显示图14所示的界面。进一步地,管理人员选择图14中的“提交”按键后,可以在终端设备上显示如图15所示的界面,此后,可以将负面文章提示信息发送给对应项目组的终端设备(显示界面可以如图16所示),以使项目组人员对负面文章进行针对性的处理。
需要说明的是,本发明的负面文本的推送装置及系统与本发明的负面文本的推送方法对应,在上述负面文本的推送方法的实施例阐述的技术特征及其有益效果均适用于负面文本的推送装置及系统的实施例中,具体内容可参见本发明方法实施例中的叙述,此处不再赘述,特此声明。
此外,上述示例的负面文本的推送装置及系统的实施方式中,各程序模块的逻辑划分仅是举例说明,实际应用中可以根据需要,例如出于相应硬件的配置要求或者软件的实现的便利考虑,将上述功能分配由不同的程序模块完成,即将所述负面文本的推送装置及系统的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分功能。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述负面文本的推送方法的步骤。此处负面文本的推送方法的步骤可以是上述各个实施例的负面文本的推送方法中的步骤。
在一个实施例中,提供了一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述负面文本的推送方法的步骤。此处负面文本的推送方法的步骤可以是上述各个实施例的负面文本的推送方法中的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,该程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种负面文本的推送方法,其特征在于,包括:
获取待识别文本;所述待识别文本中包含有标识对象;
将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;
获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;
根据所述输出结果,确定所述待识别文本的文本类型;
若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
2.根据权利要求1所述的方法,其特征在于,所述将所述待识别文本输入到已训练的文本识别模型中的步骤之前,还包括:
获取包含有所述标识对象的样本文本;
将所述样本文本中的标识对象替换为掩盖对象,得到所述训练文本;
将所述训练文本输入到预先建立的文本识别模型中进行模型训练,得到所述已训练的文本识别模型;所述文本识别模型根据预先确定的模型搭建框架建立。
3.根据权利要求2所述的方法,其特征在于,所述训练文本还包括句首标识;
所述将所述训练文本输入到预先建立的文本识别模型中进行模型训练,得到所述已训练的文本识别模型的步骤,包括:
将所述训练文本输入到预先建立的文本识别模型中的编码器层中;
获取所述句首标识在所述编码器层中的第一编码向量;
获取所述掩盖对象在所述编码器层中的第二编码向量;
根据所述第一编码向量和/或第二编码向量,得到所述训练文本在所述文本识别模型中的识别结果;
若所述识别结果满足设定的条件,结束所述文本识别模型训练,得到所述已训练的文本识别模型。
4.根据权利要求2所述的方法,其特征在于,所述文本识别模型中还包含有输出层;所述输出层中包含有全连接层和归一化层;
所述根据所述第一编码向量和/或第二编码向量,得到所述训练文本在所述文本识别模型中的识别结果的步骤,包括:
将所述第一编码向量和/或所述第二编码向量输入到所述文本识别模型的输出层中;
根据所述输出层的输出结果,确定所述训练文本对应于各个文本类型的概率,得到所述训练文本在所述文本识别模型中的识别结果。
5.根据权利要求4所述的方法,其特征在于,所述若所述识别结果满足设定的条件,结束所述文本识别模型的训练,得到所述已训练的文本识别模型的步骤,包括:
从所述识别结果中,确定第一编码向量输入到输出层对应的第一结果、第二编码向量输入到输出层对应的第二结果、以及第一编码向量和第二编码向量输入到输出层对应的第三结果;
获取所述训练文本的实际结果;
若所述第一结果、第二结果和第三结果中,存在与所述实际结果相似度满足设定的条件的目标结果,结束所述文本识别模型的训练;
根据所述目标结果,得到所述已训练的文本识别模型。
6.根据权利要求2至5任一项所述的方法,其特征在于,所述获取包含有所述标识对象的样本文本的步骤之前,还包括:
从预先划分的多个领域中,确定所述标识对象所在的目标领域;
通过数据获取工具从网络文本中获取所述目标领域的多个候选文本;
从所述多个候选文本中筛选出包含有所述标识对象的候选文本,作为所述样本文本。
7.一种负面文本的推送装置,其特征在于,包括:
文本获取模块,用于获取待识别文本;所述待识别文本中包含有标识对象;
文本输入模块,用于将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;
结果获取模块,用于获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;
类型确定模块,用于根据所述输出结果,确定所述待识别文本的文本类型;
文本识别模块,用于若根据所述文本类型确定所述待识别文本为负面文本,输出负面文本推送信息。
8.一种负面文本的推送系统,其特征在于,包括:网络连接的文本识别单元和文本推送单元;
所述文本识别单元,用于将所述待识别文本输入到已训练的文本识别模型中;所述已训练的文本识别模型中包含有编码器层;所述已训练的文本识别模型根据包含有所述标识对象的训练文本训练得到,且在训练过程中,所述标识对象被替换为掩盖对象;获取所述已训练的文本识别模型的输出结果;所述输出结果根据所述编码器层输出的编码向量得到;根据所述输出结果,确定所述待识别文本的文本类型;若根据所述文本类型确定所述待识别文本为负面文本,向所述文本推送单元输出负面文本推送信息;
所述文本推送单元,用于根据所述负面文本推送信息向与所述标识对象对应的管理终端发送负面文本提示信息;所述负面文本提示信息用于提示管理人员对所述待识别文本进行处理。
9.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述的方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一项所述的方法的步骤。
CN201910746137.4A 2019-08-13 2019-08-13 负面文本的推送方法、装置、系统及计算机设备 Active CN110457585B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910746137.4A CN110457585B (zh) 2019-08-13 2019-08-13 负面文本的推送方法、装置、系统及计算机设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910746137.4A CN110457585B (zh) 2019-08-13 2019-08-13 负面文本的推送方法、装置、系统及计算机设备

Publications (2)

Publication Number Publication Date
CN110457585A true CN110457585A (zh) 2019-11-15
CN110457585B CN110457585B (zh) 2023-11-07

Family

ID=68486303

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910746137.4A Active CN110457585B (zh) 2019-08-13 2019-08-13 负面文本的推送方法、装置、系统及计算机设备

Country Status (1)

Country Link
CN (1) CN110457585B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008266A (zh) * 2019-12-06 2020-04-14 北京金山数字娱乐科技有限公司 文本分析模型的训练方法及装置、文本分析方法及装置
CN111104516A (zh) * 2020-02-10 2020-05-05 支付宝(杭州)信息技术有限公司 一种文本分类方法、装置及电子设备
CN112001152A (zh) * 2020-08-25 2020-11-27 杭州大拿科技股份有限公司 对象识别处理方法、处理装置、电子设备和存储介质
CN113342970A (zh) * 2020-11-24 2021-09-03 中电万维信息技术有限责任公司 一种多标签复杂文本分类方法
WO2022121183A1 (zh) * 2020-12-11 2022-06-16 平安科技(深圳)有限公司 文本模型的训练方法、识别方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163707A1 (en) * 2010-12-28 2012-06-28 Microsoft Corporation Matching text to images
CN108197327A (zh) * 2018-02-07 2018-06-22 腾讯音乐娱乐(深圳)有限公司 歌曲推荐方法、装置及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120163707A1 (en) * 2010-12-28 2012-06-28 Microsoft Corporation Matching text to images
CN108197327A (zh) * 2018-02-07 2018-06-22 腾讯音乐娱乐(深圳)有限公司 歌曲推荐方法、装置及存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111008266A (zh) * 2019-12-06 2020-04-14 北京金山数字娱乐科技有限公司 文本分析模型的训练方法及装置、文本分析方法及装置
CN111008266B (zh) * 2019-12-06 2023-09-26 北京金山数字娱乐科技有限公司 文本分析模型的训练方法及装置、文本分析方法及装置
CN111104516A (zh) * 2020-02-10 2020-05-05 支付宝(杭州)信息技术有限公司 一种文本分类方法、装置及电子设备
CN112001152A (zh) * 2020-08-25 2020-11-27 杭州大拿科技股份有限公司 对象识别处理方法、处理装置、电子设备和存储介质
CN113342970A (zh) * 2020-11-24 2021-09-03 中电万维信息技术有限责任公司 一种多标签复杂文本分类方法
WO2022121183A1 (zh) * 2020-12-11 2022-06-16 平安科技(深圳)有限公司 文本模型的训练方法、识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110457585B (zh) 2023-11-07

Similar Documents

Publication Publication Date Title
Wang et al. Tree-structured regional CNN-LSTM model for dimensional sentiment analysis
Abdullah et al. SEDAT: sentiment and emotion detection in Arabic text using CNN-LSTM deep learning
CN110457585A (zh) 负面文本的推送方法、装置、系统及计算机设备
CN109753566A (zh) 基于卷积神经网络的跨领域情感分析的模型训练方法
CN110032632A (zh) 基于文本相似度的智能客服问答方法、装置及存储介质
CN110534087A (zh) 一种文本韵律层级结构预测方法、装置、设备及存储介质
CN113051916B (zh) 一种社交网络中基于情感偏移感知的交互式微博文本情感挖掘方法
CN109460479A (zh) 一种基于事理图谱的预测方法、装置和系统
CN110502626A (zh) 一种基于卷积神经网络的方面级情感分析方法
CN109271493A (zh) 一种语言文本处理方法、装置和存储介质
CN113569001A (zh) 文本处理方法、装置、计算机设备及计算机可读存储介质
CN111325029A (zh) 一种基于深度学习集成模型的文本相似度计算方法
CN113032552A (zh) 一种基于文本摘要的政策要点抽取方法与提取系统
Gong et al. Towards knowledge enhanced language model for machine reading comprehension
Fu et al. Cross-domain sentiment classification based on key pivot and non-pivot extraction
CN114282528A (zh) 一种关键词提取方法、装置、设备及存储介质
Huspi et al. Sentiment Analysis on Roman Urdu Students’ Feedback Using Enhanced Word Embedding Technique
CN116414988A (zh) 基于依赖关系增强的图卷积方面级情感分类方法及系统
Agbesi et al. Attention based BiGRU-2DCNN with hunger game search technique for low-resource document-level sentiment classification
CN114970557A (zh) 基于知识增强的跨语言结构化情感分析方法
Song Distilling knowledge from user information for document level sentiment classification
Li et al. SCX-SD: semi-supervised method for contextual sarcasm detection
Li et al. EMOVA: A semi-supervised end-to-end moving-window attentive framework for aspect mining
CN113822047A (zh) 一种文本增强方法、装置、电子设备和存储介质
Zhu RNN Language Processing Model‐Driven Spoken Dialogue System Modeling Method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant