CN113449100A - 文本的评论性质识别方法、机器学习模型训练方法及装置 - Google Patents

文本的评论性质识别方法、机器学习模型训练方法及装置 Download PDF

Info

Publication number
CN113449100A
CN113449100A CN202010223513.4A CN202010223513A CN113449100A CN 113449100 A CN113449100 A CN 113449100A CN 202010223513 A CN202010223513 A CN 202010223513A CN 113449100 A CN113449100 A CN 113449100A
Authority
CN
China
Prior art keywords
comment
text
training
machine learning
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010223513.4A
Other languages
English (en)
Inventor
戴泽辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Gridsum Technology Co Ltd
Original Assignee
Beijing Gridsum Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Gridsum Technology Co Ltd filed Critical Beijing Gridsum Technology Co Ltd
Priority to CN202010223513.4A priority Critical patent/CN113449100A/zh
Priority to PCT/CN2021/079191 priority patent/WO2021190275A1/zh
Publication of CN113449100A publication Critical patent/CN113449100A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了文本的评论性质识别方法、机器学习模型训练方法及装置,可以获得构造的文本,获得与构造的文本匹配的文本向量矩阵;将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。由于本发明为待识别文本添加评论对象并将待识别文本和评论对象一起进行评论性质的识别,因此本发明将评论对象加入了评论性质的识别过程,可以有效提高文本的评论性质的识别准确率。

Description

文本的评论性质识别方法、机器学习模型训练方法及装置
技术领域
本发明涉及自然语言处理技术领域,尤其涉及文本的评论性质识别方法、机器学习模型训练方法及装置。
背景技术
随着互联网的发展,越来越多的人在互联网上进行信息浏览、评论发表等行为。
通过收集和分析用户在互联网上发表的评论等文本可以了解用户的观点。例如:从某汽车论坛上收集和分析用户对某款汽车的评论可以了解用户对该款汽车的各个方面的评论的性质,如:某评论中对该款汽车的外观持正面观点,但对该款汽车的内饰持负面观点。
现有技术只能通过人工读取评论的方式来确定评论的性质,效率较低。
发明内容
鉴于上述问题,本发明提供一种克服上述问题或者至少部分地解决上述问题的文本的评论性质识别方法、机器学习模型训练方法及装置,方案包括:
一种文本的评论性质识别方法,包括:
获得构造的文本,其中,所述构造的文本包括:待识别文本以及为所述待识别文本添加的评论对象;
获得与所述构造的文本匹配的文本向量矩阵,所述文本向量矩阵包括所述构造的文本中各字的字向量;
将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,其中,所述预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知。
可选的,所述构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。
可选的,在所述构造的文本还包括评论对象标识字符时,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
可选的,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
可选的,所述将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,包括:
将所述文本向量矩阵输入预先训练得到的机器学习模型中,以使所述预先训练得到的机器学习模型将所述文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述预先训练得到的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述待识别文本分别对添加的各所述评论对象的评论性质;
获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质。
可选的,所述构造的文本还包括:评论对象标识字符,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符,
所述目标向量矩阵中与添加的所述评论对象相关的向量包括:
添加的所述评论对象对应的向量;
和/或,
添加的所述评论对象前方且与添加的所述评论对象相邻的评论对象标识字符对应的向量。
一种机器学习模型训练方法,包括:
获得训练文本,其中,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知;
获得与所述训练文本匹配的训练向量矩阵,所述训练向量矩阵包括所述训练文本中各字的字向量;
根据所述训练向量矩阵以及所述评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中所述需训练的机器学习模型的输入为:所述训练向量矩阵,在训练过程中所述需训练的机器学习模型的输出为:所述评论文本分别对添加到所述训练文本中的各所述评论对象的评论性质。
可选的,所述根据所述训练向量矩阵以及所述评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,包括:
将所述训练向量矩阵输入所述需训练的机器学习模型中,以使所述需训练的机器学习模型将所述训练向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述需训练的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述评论文本分别对添加的各所述评论对象的评论性质;
获得所述需训练的机器学习模型输出的所述评论文本分别对添加的各所述评论对象的评论性质;
根据所述评论文本分别对添加的各所述评论对象的实际评论性质对所述需训练的机器学习模型进行调整。
一种文本的评论性质识别装置,包括:构造文本获得单元、第一矩阵获得单元和评论性质获得单元,
所述构造文本获得单元,用于获得构造的文本,其中,所述构造的文本包括:待识别文本以及为所述待识别文本添加的评论对象;
所述第一矩阵获得单元,用于获得与所述构造的文本匹配的文本向量矩阵,所述文本向量矩阵包括所述构造的文本中各字的字向量;
所述评论性质获得单元,用于将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,其中,所述预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知。
可选的,所述构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。
可选的,在所述构造的文本还包括评论对象标识字符时,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
可选的,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
可选的,所述评论性质获得单元,具体用于:
将所述文本向量矩阵输入预先训练得到的机器学习模型中,以使所述预先训练得到的机器学习模型将所述文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述预先训练得到的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述待识别文本分别对添加的各所述评论对象的评论性质;
获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质。
可选的,所述构造的文本还包括:评论对象标识字符,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符,
所述目标向量矩阵中与添加的所述评论对象相关的向量包括:
添加的所述评论对象对应的向量;
和/或,
添加的所述评论对象前方且与添加的所述评论对象相邻的评论对象标识字符对应的向量。
一种机器学习模型训练装置,包括:训练文本获得单元、第二矩阵获得单元和模型训练单元,
所述训练文本获得单元,用于获得训练文本,其中,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知;
所述第二矩阵获得单元,用于获得与所述训练文本匹配的训练向量矩阵,所述训练向量矩阵包括所述训练文本中各字的字向量;
所述模型训练单元,用于根据所述训练向量矩阵以及所述评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中所述需训练的机器学习模型的输入为:所述训练向量矩阵,在训练过程中所述需训练的机器学习模型的输出为:所述评论文本分别对添加到所述训练文本中的各所述评论对象的评论性质。
可选的,所述模型训练单元包括:输入子单元、性质获得子单元和模型调整子单元,
所述输入子单元,用于将所述训练向量矩阵输入所述需训练的机器学习模型中,以使所述需训练的机器学习模型将所述训练向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述需训练的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述评论文本分别对添加的各所述评论对象的评论性质;
所述性质获得子单元,用于获得所述需训练的机器学习模型输出的所述评论文本分别对添加的各所述评论对象的评论性质;
所述模型调整子单元,用于根据所述评论文本分别对添加的各所述评论对象的实际评论性质对所述需训练的机器学习模型进行调整。
一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述的任一种文本的评论性质识别方法和/或执行上述的任一种机器学习模型训练方法。
一种设备,所述设备包括至少一个处理器、以及与所述处理器连接的至少一个存储器、总线;其中,所述处理器、所述存储器通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的程序指令,以执行上述的任一种文本的评论性质识别方法和/或执行上述的任一种机器学习模型训练方法。
借由上述技术方案,本发明提供的文本的评论性质识别方法、机器学习模型训练方法及装置,可以获得构造的文本,获得与构造的文本匹配的文本向量矩阵;将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。由于本发明为待识别文本添加评论对象并将待识别文本和评论对象一起进行评论性质的识别,因此本发明将评论对象加入了评论性质的识别过程,可以有效提高文本的评论性质的识别准确率。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的一种文本的评论性质识别方法的流程图;
图2示出了本发明实施例提供的一种文本的评论性质识别方法中步骤S130的具体执行流程图;
图3示出了本发明实施例提供的一种机器学习模型训练方法的流程图;
图4示出了本发明实施例提供的一种机器学习模型训练方法中步骤S230的具体执行流程图;
图5示出了本发明实施例提供的一种文本的评论性质识别装置的结构示意图;
图6示出了本发明实施例提供的一种机器学习模型训练装置的结构示意图;
图7示出了本发明实施例提供的一种设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
如图1所示,本发明实施例提供的一种文本的评论性质识别方法,可以包括:
S110、获得构造的文本,其中,构造的文本包括:待识别文本以及为待识别文本添加的评论对象。
其中,待识别文本可以为用户撰写的评论文本,也可以为其他文本。可以理解的是,除用户撰写的评论文本外,很多类型的文本中都可能存在着对对象的评论。例如:一篇新闻报到中可能涉及对诸如:企业、个人、产品、国家等多种功能类型的对象的评论,因此本发明并不限定待识别文本的具体类型以及内容。其中,待识别文本可以位于网页中,也可以在于应用程序的界面中。本发明可以从应用程序或网页中爬取待识别文本。当然,本发明还可以通过其他方式获得待识别文本,本发明在此不做限定。
可选的,评论对象可以为评论的目标,例如:文本“这家店做的菜挺好吃,就是不好找”的评论对象包括:店铺、菜和店铺位置。
在一可选实施例中,评论对象可以为待识别文本中包含的文字(例如上述举例中的“菜”),也可以为待识别文本中未包含的文字(例如上述举例中的“店铺位置”)。
在一可选实施例中,评论对象可以为评论的对象本身,也可以为描述对象的角度(如:类别名称category name)。例如:文本“这辆车的方向盘太硬,不过座椅很舒服”,评论对象可以为评论的对象本身,即:“方向盘”、“座椅”;也可以为描述对象的角度,即:操纵、内饰。
本发明可以预先对评论对象进行设置,例如:为汽车设定评论对象包括:油耗、操纵、内饰、外观、价格这几个评论对象。当评论对象为描述对象的角度时,本发明还可以预先设定描述对象的角度与评论的对象本身之间的对应关系,例如:预先设定描述对象的角度包括:内饰,则可以预先设定与“内饰”对应的评论的对象本身包括:座椅、扶手、控制面板、仪表盘、化妆镜等。
可选的,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
可选的,构造的文本中的评论对象可以是人为添加的,也可以是系统自动添加的。当需要自动添加评论对象时,本发明可以根据预先设定的评论对象来将预先设定的全部或部分评论对象添加到构造的文本中。具体的,本发明可以首先确定待识别文本所涉及的领域,然后将与该领域对应的评论对象和待识别文本一起组合为上述构造的文本。在其他实施例中,本发明也可以首先确定待识别文本所评论的对象本身,然后根据预先设定描述对象的角度与评论的对象本身之间的对应关系,将与所评论的对象本身对应的描述对象的角度和待识别文本一起组合为上述构造的文本。
可选的,添加的评论对象可以位于待识别文本之后或之前。
举例1、例如:为汽车领域预先设置的评论对象包括:“操纵”、“内饰”、“油耗”三个。设待识别文本为“这辆车的方向盘太硬,不过座椅很舒服”,则本发明添加的评论对象可以为“操纵”、“内饰”、“油耗”中的全部或部分。例如:构造的文本可以为:“这辆车的方向盘太硬,不过座椅很舒服;操纵;内饰;油耗”。这里,本发明将全部3个评论对象加入待识别文本形成构造文本,并根据构造文本确定待识别文本分别对各个识别对象进行评论的概率和评论意见。由于上述举例的待识别文本实际上并没有针对“油耗”这个评论对象的评述,所以通过后面的处理将得出待识别文本对“油耗”的评述概率很低甚至为0,相应的,待识别文本对于“油耗”的评论意见则可以是“未评述”或其他类似方式表述的结果。通过对待识别文本添加多个评论对象形成构造文本,可以全面考虑待识别文本对各个评论对象的评论意见,避免遗漏,使得对于待分析文本的整体分析更加全面、精准。
可以理解的是,通过将评论对象设置于待识别文本之后或之前,使得添加的评论对象不会和待识别文本交叉在一起,避免了混淆。
进一步,为了避免添加的评论对象和待识别文本混淆以及避免添加的各评论对象之间混淆,本发明可以通过间隔符号(例如上述举例1中的分号)或其他符号(如评论对象标识字符)来将评论对象和待识别文本进行区分。
可选的,构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。其中,评论对象标识字符用于指示评论对象标识字符后方的文字为评论对象,评论对象标识字符可以为[SEP]。
可选的,在构造的文本还包括评论对象标识字符时,在构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。例如:对于上述举例1中的待识别文本和添加的评论对象,本发明构造的文本可以为:“这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗”。这样,通过评论对象标识字符就将各评论对象间隔开,并将评论对象与待识别文本间隔开。同时,评论对象标识字符与评论对象相邻又使得二者具有了较为紧密的上下文关系。
分类模型是一种用于对目标进行分类的机器学习模型,本发明的文本的评论性质识别方法可以使用分类模型来确定文本的评论性质。当然,也可以采用其他的机器学习模型,本发明在此不做限定。
待识别文本标识字符可以为[CLS]。待识别文本标识字符可以设置在待识别文本前方,以标识其后的文本为待识别文本。当然,待识别文本可以位于待识别文本标识字符与评论对象标识字符之间。
当构造的文本同时包括:评论对象标识字符和待识别文本标识字符时,对于上述举例1中的待识别文本和添加的评论对象,本发明构造的文本可以为:“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗”。
在实际应用中,本发明还可以在最后一个评论对象后方添加一个用于标识评论对象已经结束的标识,该标识可以与评论对象标识字符为相同的符号,例如:对于上述举例1中的待识别文本和添加的评论对象,本发明构造的文本可以为:“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]”。该文本中最后的“[SEP]”即为用于标识评论对象已经结束的标识。
S120、获得与构造的文本匹配的文本向量矩阵,文本向量矩阵包括构造的文本中各字的字向量。
本发明可以采用多种方法来获得与构造的文本匹配的文本向量矩阵。
下面示例性提供其中两种:
第一种方案:
该第一种方案包括:
对构造的文本进行分词,获得词汇序列;
对所述词汇序列中的每个词汇:获得该词汇的词向量及词性向量,将该词汇的词向量及词性向量拼接为该词汇的词汇向量;
按照所述词汇序列中各词汇的排列顺序对所述词汇序列中各词汇的词汇向量进行排列,获得所述词汇序列中各词汇的词汇向量构成的文本向量矩阵。
可以理解的是,一个词汇可以包括一个或多个字,一个词汇的词向量包括了构成这个词汇的各个字的向量特征。
可选的,本发明可以使用多种分词工具进行分词获得词汇序列,如哈工大LTP、jieba等。除获得词汇序列外,本发明还可以对各词汇的词性进行识别,从而获得词性序列。
例如采用哈工大LTP处理“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]”,LTP返回的分词结果可以为{[CLS],这,辆,车,的,方向盘,太,硬,不过,座椅,很,舒服,[SEP],操纵,[SEP],内饰,[SEP],油耗,[SEP]},词性序列为[wp,r,q,n,u,n,d,a,c,n,d,a,wp,n,wp,n,wp,n,wp]。
具体的,本发明可以通过wordvector技术获得词向量。如果词汇不在wordvector的词汇表中,则使用指定的预设词向量进行表达。
本发明可以使用一定维度的随机向量来表达词性,使词性特征化。例如对于共计30种词性[A1,A2,…,A30],可以用向量a1表示A1,向量a2表示A2等。其中a1、a2等的维度为一个指定的固定值,例如20维,每一个维度都是一个随机生成的接近于0的小数。
在获得词向量与词性向量后,将二者拼接即可形成词汇的向量化表达,即:词汇向量。词汇向量的维度为词向量的维度+词性向量的维度。对于构造的文本中的每个词汇,都获得其词汇向量,再将构造的文本中的每个词汇的词汇向量拼接起来,就形成一个向量矩阵。例如:当拼接后的词汇向量维度为120且评论文本中排列的词汇数量为200时,本发明可以生成一个维度为200×120的向量矩阵。本发明可以将这个向量矩阵在词汇数量方向扩充至一个特定长度(例如600,形成600×120的向量矩阵),扩充的部分通过补0进行处理。
可以理解的是,上述向量矩阵包含了构造的文本的特征信息。
在其他实施例中,向量矩阵可以仅由词向量构成,而不包括词性向量。
在其他实施例中,本发明还可以对构造的文本进行分字,并分别将每个字转换为字向量,将字向量拼接为与所述构造的文本匹配的文本向量矩阵。例如:构造的文本为:“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]”,对其进行分字获得{[CLS],这,辆,车,的,方,向,盘,太,硬,不,过,座,椅,很,舒,服,[SEP],操,纵,[SEP],内,饰,[SEP],油,耗,[SEP]}。然后将每个字转换为字向量即可,上述的[CLS]、[SEP]均分别被识别为一个字。
第二种方案:
该第二种方案包括:使用预先训练的语言模型获得与所述构造的文本匹配的文本向量矩阵。
例如:语言模型可以预先针对某个领域(如汽车领域)进行学习,该语言模型的输入为文本,输出为向量矩阵。该语言模型的类型可以为:BERT(Bidirectional EncoderRepresentation from Transformers)、XLNet、RoBERTa、ALBERT等。具体的,本发明可以首先将构造的文本进行分字,然后将分字后得到的结果输入语言模型,获得与所述构造的文本匹配的文本向量矩阵。
可以理解的是,与所述构造的文本匹配的文本向量矩阵中可以包括:构造的文本中每一个字的向量。例如:构造的文本一共是21个字,每个字的向量为1×768维度的向量,则与所述构造的文本匹配的文本向量矩阵为:21×768维度的向量矩阵。
S130、将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质,其中,预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,训练文本包括:评论文本以及为评论文本添加的评论对象,评论文本对评论对象的评论性质已知。
其中,训练文本和步骤S110获得的构造的文本的结构一致,例如:训练文本包括:训练文本1、[CLS]A品牌B型号的汽车百公里8升油耗,太多了,但是方向盘指哪儿打哪儿,驾驶感不错[SEP]操纵[SEP]内饰[SEP]油耗[SEP]。
训练文本2、[CLS]A品牌C型号的加速推背感强烈,中控台科技感十足[SEP]操纵[SEP]内饰[SEP]油耗[SEP]。
而步骤S110获得的构造的文本为:[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]。
通过对比可知,训练文本和步骤S110获得的构造的文本的结构一致,均为:[CLS]句子[SEP]操纵[SEP]内饰[SEP]油耗[SEP]。该结构中的句子即为待识别文本或评论文本。
可选的,上述预先训练得到的机器学习模型的类型可以有多种,如:长短期记忆网络(LSTM,Long Short-Term Memory)、卷积神经网络(Convolutional Neural Networks,CNN)、门控循环神经网络(gated recurrent neural network)、BERT(BidirectionalEncoder Representations from Transformers)等,本发明可以通过tensorflo、mxnet、pytorch等深度学习框架训练机器学习模型。
可以理解的是,由于本发明使用的机器学习模型在训练时,使用的训练文本包括:评论文本以及为评论文本添加的评论对象,因此本发明将为评论文本添加的评论对象(例如category name)添加到了训练文本中,这就使得机器学习模型在训练时可以学习到评论对象以及文本与评论对象的联系,从而可以更好的识别文本对各评论对象的评论性质。
可选的,如图2所示,在本发明其他实施例中,图1所示步骤S130可以具体包括:
S131、将文本向量矩阵输入预先训练得到的机器学习模型中,以使预先训练得到的机器学习模型将文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使预先训练得到的机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得待识别文本分别对添加的各评论对象的评论性质。
其中,上述文本底层特征包括:文字自身的特征、文字位置特征、上下文特征等。
由于目标向量矩阵包含了文本底层特征,因此可以通过该目标向量矩阵识别待识别文本分别对添加的各评论对象的评论性质。具体的,文本向量矩阵转换为目标向量矩阵的具体过程可以包括:文本向量矩阵与变量矩阵相乘获得目标向量矩阵,其中,文本向量矩阵的维度和目标向量矩阵的维度可以相同,例如:文本向量矩阵为21×768维度,则目标向量矩阵也为21×768维度。可选的,变量矩阵可以为包含多个变量元素的矩阵,通过调整该变量矩阵中各变量元素的取值,就可以调整获得的目标向量矩阵,进而调整识别的评论性质。本发明的模型训练过程可以包括:通过对该变量矩阵中各变量元素的取值进行调整,使文本向量矩阵与调整后的变量矩阵相乘后获得的目标向量矩阵识别的评论性质与评论文本对评论对象的评论性质相一致。具体的,目标向量矩阵中与添加的评论对象相关的向量可以包括:添加的评论对象对应的向量。
例如:本发明构造的文本为:“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]”。则目标向量矩阵中与添加的评论对象相关的向量为目标向量矩阵中分别与“操纵”、“内饰”、“油耗”对应的向量。假设构造的文本的每个字在目标向量矩阵中都对应一个1×768维度的向量,则目标向量矩阵中与添加的评论对象“操纵”相关的向量为:目标向量矩阵中与“操”对应的1×768维度的向量以及与“纵”对应的1×768维度的向量。目标向量矩阵中分别与“内饰”、“油耗”相关的向量类似,不再赘述。
可以理解的是,由于目标向量矩阵中与添加的评论对象相关的向量不仅携带了评论对象本身的向量特征,还携带了其上下文特征,因此可以通过目标向量矩阵中与添加的评论对象相关的向量对该评论对象的评论性质进行识别。例如:通过目标向量矩阵中与添加的评论对象“操纵”相关的向量识别待识别文本对“操纵”的评论性质。
具体的,机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得待识别文本分别对添加的各评论对象的评论性质的具体过程可以包括:
机器学习模型将目标向量矩阵中与添加的第一评论对象相关的第一向量转换为该第一评论对象的评论性质特征向量,其中,所述评论性质特征向量包括分别与各评论性质对应的多个元素;
将第一评论对象的评论性质特征向量中各元素转换为各评论性质的概率。
例如:假设一共有四种类型的评论性质,分别为:正面、中性、负面和未提及,则本发明可以将第一向量转换为1×4维度的评论性质特征向量,该评论性质特征向量包含四个元素,分别与正面、中性、负面和未提及对应。然后将这四个元素的取值转换为概率即可。
具体的,当目标向量矩阵中与添加的第一评论对象相关的第一向量有多个时,可以对多个第一向量进行加权运算(例如加权求和或加权平均),并将加权运算结果(加权运算结果为一个向量)转换为该第一评论对象的评论性质特征向量。
对上述举例中目标向量矩阵中与添加的评论对象“操纵”相关的两个1×768维度向量,本发明可以首先将这两个1×768维度向量进行加权求和处理或者进行加权平均处理,从而获得一个1×768维度向量。然后将该1×768维度向量转换为1×4维度的评论性质特征向量,然后将这四个元素的取值转换为概率即可。
具体的,本发明的机器学习模型的训练过程也可以包括上述加权求和处理或者加权平均处理中使用的权重的调整过程。
S132、获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。
其中,构造的文本还包括:评论对象标识字符。其中,评论对象标识字符已在上方文字中说明,不再赘述。在构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。此时,目标向量矩阵中与添加的评论对象相关的向量可以包括:
添加的评论对象对应的向量;
和/或,
添加的评论对象前方且与添加的评论对象相邻的评论对象标识字符对应的向量。
本发明还可以使用目标向量矩阵中与评论对象标识字符对应的向量进行评论性质的识别。例如:本发明构造的文本为:“[CLS]这辆车的方向盘太硬,不过座椅很舒服[SEP]操纵[SEP]内饰[SEP]油耗[SEP]”。则目标向量矩阵中与添加的评论对象相关的向量为构造的文本中的前三个“[SEP]”对应的向量。假设构造的文本的每个字在目标向量矩阵中都对应一个1×768维度的向量,则目标向量矩阵中与添加的评论对象“操纵”相关的向量为:“操纵”前方且与“操纵”相邻的“[SEP]”对应的向量。目标向量矩阵中与添加的评论对象“内饰”相关的向量为:“内饰”前方且与“内饰”相邻的“[SEP]”对应的向量。目标向量矩阵中与添加的评论对象“油耗”相关的向量为:“油耗”前方且与“油耗”相邻的“[SEP]”对应的向量。
可以理解的是,由于评论对象标识字符位于构造的文本中且与添加的评论对象相邻,因此目标向量矩阵中与评论对象标识字符对应的向量携带了评论对象自身的向量特征以及评论对象的上下文特征,因此可以通过目标向量矩阵中与评论对象标识字符对应的向量对该评论对象的评论性质进行识别。例如:通过目标向量矩阵中与“操纵”前方且与“操纵”相邻的“[SEP]”对应的向量识别待识别文本对“操纵”的评论性质。
当然,在本发明其他实施例中,还可以同时将添加的评论对象对应的向量和评论对象标识字符对应的向量作为与添加的评论对象相关的向量,一起用于识别待识别文本对评论对象的评论性质。此时,本发明可以使用加权求和/加权平均等算法将添加的第一评论对象对应的向量和第一评论对象标识字符对应的向量合并为一个向量。
本发明实施例提供的一种文本的评论性质识别方法,可以获得构造的文本,获得与构造的文本匹配的文本向量矩阵;将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。由于本发明为待识别文本添加评论对象并将待识别文本和评论对象一起进行评论性质的识别,因此本发明将评论对象加入了评论性质的识别过程,可以有效提高文本的评论性质的识别准确率。
与图1所示方法相对应,如图3所示,本发明实施例还提供了一种机器学习模型训练方法,可以包括:
S210、获得训练文本,其中,训练文本包括:评论文本以及为评论文本添加的评论对象,评论文本对评论对象的评论性质已知。
具体的,图3所示方法可以为图1所示方法使用的机器学习模型的训练方法。图3所示方法中各步骤所涉及的一些词汇、处理过程已在图1和图2所示方法中说明,不再赘述。
其中,待识别文本可以为用户撰写的评论文本,也可以为其他文本。在一可选实施例中,评论对象可以为评论的对象本身,也可以为描述对象的角度(如:类别名称categoryname)。可选的,构训练文本中的评论对象可以是人为添加的,也可以是系统自动添加的。可选的,添加的评论对象可以位于评论文本之后或之前。
可选的,所述训练文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
进一步,为了避免添加的评论对象和评论文本混淆以及避免添加的各评论对象之间混淆,本发明可以通过间隔符号(例如上述举例1中的分号)或其他符号(如评论对象标识字符)来将评论对象和评论文本进行区分。
可选的,构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。其中,评论对象标识字符用于指示评论对象标识字符后方的文字为评论对象,评论对象标识字符可以为[SEP]。
可选的,在构造的文本还包括评论对象标识字符时,在构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
S220、获得与训练文本匹配的训练向量矩阵,训练向量矩阵包括训练文本中各字的字向量。
其中,步骤S220获得文本匹配的向量矩阵的具体技术可以和图1所示步骤S120相同,不再赘述。
S230、根据训练向量矩阵以及评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中需训练的机器学习模型的输入为:训练向量矩阵,在训练过程中需训练的机器学习模型的输出为:评论文本分别对添加到训练文本中的各评论对象的评论性质。
如图4所示,图3中步骤S230可以具体包括:
S231、将训练向量矩阵输入需训练的机器学习模型中,以使需训练的机器学习模型将训练向量矩阵转换为包含文本底层特征的目标向量矩阵,并使需训练的机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得评论文本分别对添加的各评论对象的评论性质。
其中,机器学习模型将训练向量矩阵转换为包含文本底层特征的目标向量矩阵的过程可以包括:训练向量矩阵与变量矩阵相乘获得目标向量矩阵。
其中,训练向量矩阵的维度和目标向量矩阵的维度可以相同,例如:训练向量矩阵为21×768维度,则目标向量矩阵也为21×768维度。可选的,变量矩阵可以为包含多个变量元素的矩阵,通过调整该变量矩阵中各变量元素的取值,就可以调整获得的目标向量矩阵,进而调整识别的评论性质。
S232、获得需训练的机器学习模型输出的评论文本分别对添加的各评论对象的评论性质。
S233、根据评论文本分别对添加的各评论对象的实际评论性质对需训练的机器学习模型进行调整。
步骤S233可以具体包括:通过对变量矩阵中各变量元素的取值进行调整,使训练向量矩阵与调整后的变量矩阵相乘后获得的目标向量矩阵识别的评论性质与评论文本对评论对象的实际评论性质相一致。
具体的,目标向量矩阵中与添加的评论对象相关的向量可以包括:添加的评论对象对应的向量。
可以理解的是,由于目标向量矩阵中与添加的评论对象相关的向量不仅携带了评论对象本身的向量特征,还携带了其上下文特征,因此可以通过目标向量矩阵中与添加的评论对象相关的向量对该评论对象的评论性质进行识别。
具体的,机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得待识别文本分别对添加的各评论对象的评论性质的具体过程可以包括:
机器学习模型将目标向量矩阵中与添加的第一评论对象相关的第一向量转换为该第一评论对象的评论性质特征向量,其中,所述评论性质特征向量包括分别与各评论性质对应的多个元素;
将第一评论对象的评论性质特征向量中各元素转换为各评论性质的概率。
其中,训练文本还包括:评论对象标识字符。其中,评论对象标识字符已在上方文字中说明,不再赘述。
在训练文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。此时,目标向量矩阵中与添加的评论对象相关的向量可以包括:
添加的评论对象对应的向量;
和/或,
添加的评论对象前方且与添加的评论对象相邻的评论对象标识字符对应的向量。
本发明还可以使用目标向量矩阵中与评论对象标识字符对应的向量进行评论性质的识别。
本发明实施例提供的一种机器学习模型训练方法,可以获得训练文本,获得与训练文本匹配的训练向量矩阵,训练向量矩阵包括训练文本中各字的字向量;根据训练向量矩阵以及评论文本对评论对象的评论性质对需训练的机器学习模型进行训练。由于本发明为评论文本添加评论对象并使用评论文本和评论对象对机器学习模型进行训练,因此机器学习模型可以学习到评论对象的特征以及评论文本和评论对象的关系,因此本发明可以有效提高文本的评论性质的识别准确率。
与本发明提供的一种文本的评论性质识别方法实施例相对应,本发明还提供了一种文本的评论性质识别装置。
如图5所示,本发明实施例提供的一种文本的评论性质识别装置,可以包括:构造文本获得单元110、第一矩阵获得单元120和评论性质获得单元130,
构造文本获得单元110,用于获得构造的文本,其中,构造的文本包括:待识别文本以及为待识别文本添加的评论对象;
可选的,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
第一矩阵获得单元120,用于获得与构造的文本匹配的文本向量矩阵,文本向量矩阵包括构造的文本中各字的字向量;
评论性质获得单元130,用于将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质,其中,预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,训练文本包括:评论文本以及为评论文本添加的评论对象,评论文本对评论对象的评论性质已知。
可选的,构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。
可选的,在构造的文本还包括评论对象标识字符时,在构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
可选的,评论性质获得单元130,具体用于:
将文本向量矩阵输入预先训练得到的机器学习模型中,以使预先训练得到的机器学习模型将文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使预先训练得到的机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得待识别文本分别对添加的各评论对象的评论性质;
获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。
可选的,构造的文本还包括:评论对象标识字符,在构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符,
目标向量矩阵中与添加的评论对象相关的向量包括:
添加的评论对象对应的向量;
和/或,
添加的评论对象前方且与添加的评论对象相邻的评论对象标识字符对应的向量。
本发明实施例提供的一种文本的评论性质识别装置,可以获得构造的文本,获得与构造的文本匹配的文本向量矩阵;将文本向量矩阵输入预先训练得到的机器学习模型中,获得预先训练得到的机器学习模型输出的待识别文本分别对添加的各评论对象的评论性质。由于本发明为待识别文本添加评论对象并将待识别文本和评论对象一起进行评论性质的识别,因此本发明将评论对象加入了评论性质的识别过程,可以有效提高文本的评论性质的识别准确率。
与本发明提供的一种机器学习模型训练方法实施例相对应,本发明还提供了一种机器学习模型训练装置。
如图6所示,本发明实施例提供的一种机器学习模型训练装置,可以包括:训练文本获得单元210、第二矩阵获得单元220和模型训练单元230,
训练文本获得单元210,用于获得训练文本,其中,训练文本包括:评论文本以及为评论文本添加的评论对象,评论文本对评论对象的评论性质已知;
可选的,所述训练文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
第二矩阵获得单元220,用于获得与训练文本匹配的训练向量矩阵,训练向量矩阵包括训练文本中各字的字向量;
模型训练单元230,用于根据训练向量矩阵以及评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中需训练的机器学习模型的输入为:训练向量矩阵,在训练过程中需训练的机器学习模型的输出为:评论文本分别对添加到训练文本中的各评论对象的评论性质。
可选的,模型训练单元230包括:输入子单元、性质获得子单元和模型调整子单元,
输入子单元,用于将训练向量矩阵输入需训练的机器学习模型中,以使需训练的机器学习模型将训练向量矩阵转换为包含文本底层特征的目标向量矩阵,并使需训练的机器学习模型根据目标向量矩阵中与添加的评论对象相关的向量获得评论文本分别对添加的各评论对象的评论性质;
性质获得子单元,用于获得需训练的机器学习模型输出的评论文本分别对添加的各评论对象的评论性质;
模型调整子单元,用于根据评论文本分别对添加的各评论对象的实际评论性质对需训练的机器学习模型进行调整。
本发明实施例提供的一种机器学习模型训练装置,可以获得训练文本,获得与训练文本匹配的训练向量矩阵,训练向量矩阵包括训练文本中各字的字向量;根据训练向量矩阵以及评论文本对评论对象的评论性质对需训练的机器学习模型进行训练。由于本发明为评论文本添加评论对象并使用评论文本和评论对象对机器学习模型进行训练,因此机器学习模型可以学习到评论对象的特征以及评论文本和评论对象的关系,因此本发明可以有效提高文本的评论性质的识别准确率。
所述文本的评论性质识别装置包括处理器和存储器,上述构造文本获得单元、第一矩阵获得单元和评论性质获得单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
所述机器学习模型训练装置包括处理器和存储器,上述训练文本获得单元、第二矩阵获得单元和模型训练单元等均作为程序单元存储在存储器中,由处理器执行存储在存储器中的上述程序单元来实现相应的功能。
处理器中包含内核,由内核去存储器中调取相应的程序单元。内核可以设置一个或以上,通过调整内核参数来对机器学习模型进行训练和/或识别文本的评论性质。
本发明实施例提供了一种存储介质,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行上述的任一种文本的评论性质识别方法和/或执行上述的任一种机器学习模型训练方法。
本发明实施例提供了一种处理器,所述处理器用于运行程序,其中,所述程序运行时执行上述的任一种文本的评论性质识别方法和/或执行上述的任一种机器学习模型训练方法。
如图7所示,本发明实施例提供了一种设备70,设备70包括至少一个处理器701、以及与处理器701连接的至少一个存储器702、总线703;其中,处理器701、存储器702通过总线703完成相互间的通信;处理器701用于调用存储器702中的程序指令,以执行上述的任一种文本的评论性质识别方法和/或执行上述的任一种机器学习模型训练方法。
本文中的设备可以是服务器、PC、PAD、手机等。
本申请还提供了一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
获得构造的文本,其中,所述构造的文本包括:待识别文本以及为所述待识别文本添加的评论对象;
获得与所述构造的文本匹配的文本向量矩阵,所述文本向量矩阵包括所述构造的文本中各字的字向量;
将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,其中,所述预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知。
可选的,所述构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。
可选的,在所述构造的文本还包括评论对象标识字符时,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
可选的,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
可选的,所述将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,包括:
将所述文本向量矩阵输入预先训练得到的机器学习模型中,以使所述预先训练得到的机器学习模型将所述文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述预先训练得到的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述待识别文本分别对添加的各所述评论对象的评论性质;
获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质。
可选的,所述构造的文本还包括:评论对象标识字符,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符,
所述目标向量矩阵中与添加的所述评论对象相关的向量包括:
添加的所述评论对象对应的向量;
和/或,
添加的所述评论对象前方且与添加的所述评论对象相邻的评论对象标识字符对应的向量。
本申请还提供了另一种计算机程序产品,当在数据处理设备上执行时,适于执行初始化有如下方法步骤的程序:
获得训练文本,其中,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知;
获得与所述训练文本匹配的训练向量矩阵,所述训练向量矩阵包括所述训练文本中各字的字向量;
根据所述训练向量矩阵以及所述评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中所述需训练的机器学习模型的输入为:所述训练向量矩阵,在训练过程中所述需训练的机器学习模型的输出为:所述评论文本分别对添加到所述训练文本中的各所述评论对象的评论性质。
可选的,所述根据所述训练向量矩阵以及所述评论文本对评论对象的评论性质对需训练的机器学习模型进行训练,包括:
将所述训练向量矩阵输入所述需训练的机器学习模型中,以使所述需训练的机器学习模型将所述训练向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述需训练的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述评论文本分别对添加的各所述评论对象的评论性质;
获得所述需训练的机器学习模型输出的所述评论文本分别对添加的各所述评论对象的评论性质;
根据所述评论文本分别对添加的各所述评论对象的实际评论性质对所述需训练的机器学习模型进行调整。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
在一个典型的配置中,设备包括一个或多个处理器(CPU)、存储器和总线。设备还可以包括输入/输出接口、网络接口等。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM),存储器包括至少一个存储芯片。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种文本的评论性质识别方法,其特征在于,包括:
获得构造的文本,其中,所述构造的文本包括:待识别文本以及为所述待识别文本添加的评论对象;
获得与所述构造的文本匹配的文本向量矩阵,所述文本向量矩阵包括所述构造的文本中各字的字向量;
将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,其中,所述预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知。
2.根据权利要求1所述的方法,其特征在于,所述构造的文本还包括:评论对象标识字符和/或待识别文本标识字符。
3.根据权利要求2所述的方法,其特征在于,在所述构造的文本还包括评论对象标识字符时,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符。
4.根据权利要求1所述的方法,其特征在于,所述构造的文本中的评论对象为预先设置的评论对象中的全部或部分评论对象。
5.根据权利要求1至4中任一项所述的方法,其特征在于,所述将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,包括:
将所述文本向量矩阵输入预先训练得到的机器学习模型中,以使所述预先训练得到的机器学习模型将所述文本向量矩阵转换为包含文本底层特征的目标向量矩阵,并使所述预先训练得到的机器学习模型根据所述目标向量矩阵中与添加的所述评论对象相关的向量获得所述待识别文本分别对添加的各所述评论对象的评论性质;
获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质。
6.根据权利要求5所述的方法,其特征在于,所述构造的文本还包括:评论对象标识字符,在所述构造的文本中:每个评论对象前方均具有一个与该评论对象相邻的评论对象标识字符,
所述目标向量矩阵中与添加的所述评论对象相关的向量包括:
添加的所述评论对象对应的向量;
和/或,
添加的所述评论对象前方且与添加的所述评论对象相邻的评论对象标识字符对应的向量。
7.一种机器学习模型训练方法,其特征在于,包括:
获得训练文本,其中,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知;
获得与所述训练文本匹配的训练向量矩阵,所述训练向量矩阵包括所述训练文本中各字的字向量;
根据所述训练向量矩阵以及所述评论文本对所述评论对象的评论性质对需训练的机器学习模型进行训练,其中,在训练过程中所述需训练的机器学习模型的输入为:所述训练向量矩阵,在训练过程中所述需训练的机器学习模型的输出为:所述评论文本分别对添加到所述训练文本中的各所述评论对象的评论性质。
8.一种文本的评论性质识别装置,其特征在于,包括:构造文本获得单元、第一矩阵获得单元和评论性质获得单元,
所述构造文本获得单元,用于获得构造的文本,其中,所述构造的文本包括:待识别文本以及为所述待识别文本添加的评论对象;
所述第一矩阵获得单元,用于获得与所述构造的文本匹配的文本向量矩阵,所述文本向量矩阵包括所述构造的文本中各字的字向量;
所述评论性质获得单元,用于将所述文本向量矩阵输入预先训练得到的机器学习模型中,获得所述预先训练得到的机器学习模型输出的所述待识别文本分别对添加的各所述评论对象的评论性质,其中,所述预先训练得到的机器学习模型为对与训练文本匹配的文本向量矩阵进行训练得到,所述训练文本包括:评论文本以及为所述评论文本添加的评论对象,所述评论文本对所述评论对象的评论性质已知。
9.一种存储介质,其特征在于,所述存储介质包括存储的程序,其中,在所述程序运行时控制所述存储介质所在设备执行如权利要求1-6中任一所述的文本的评论性质识别方法和/或执行如权利要求7所述的机器学习模型训练方法。
10.一种设备,其特征在于,所述设备包括至少一个处理器、以及与所述处理器连接的至少一个存储器、总线;其中,所述处理器、所述存储器通过所述总线完成相互间的通信;所述处理器用于调用所述存储器中的程序指令,以执行如权利要求1-6中任一所述的文本的评论性质识别方法和/或执行如权利要求7所述的机器学习模型训练方法。
CN202010223513.4A 2020-03-26 2020-03-26 文本的评论性质识别方法、机器学习模型训练方法及装置 Pending CN113449100A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010223513.4A CN113449100A (zh) 2020-03-26 2020-03-26 文本的评论性质识别方法、机器学习模型训练方法及装置
PCT/CN2021/079191 WO2021190275A1 (zh) 2020-03-26 2021-03-05 文本的评论性质识别方法、机器学习模型训练方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010223513.4A CN113449100A (zh) 2020-03-26 2020-03-26 文本的评论性质识别方法、机器学习模型训练方法及装置

Publications (1)

Publication Number Publication Date
CN113449100A true CN113449100A (zh) 2021-09-28

Family

ID=77807073

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010223513.4A Pending CN113449100A (zh) 2020-03-26 2020-03-26 文本的评论性质识别方法、机器学习模型训练方法及装置

Country Status (2)

Country Link
CN (1) CN113449100A (zh)
WO (1) WO2021190275A1 (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170300565A1 (en) * 2016-04-14 2017-10-19 Xerox Corporation System and method for entity extraction from semi-structured text documents
CN107291696A (zh) * 2017-06-28 2017-10-24 达而观信息科技(上海)有限公司 一种基于深度学习的评论词情感分析方法及系统
CN107491531A (zh) * 2017-08-18 2017-12-19 华南师范大学 基于集成学习框架的中文网络评论情感分类方法
CN107862343A (zh) * 2017-11-28 2018-03-30 南京理工大学 基于规则和神经网络的商品评论属性级情感分类方法
CN108932637A (zh) * 2018-07-10 2018-12-04 北京邮电大学 一种方面挖掘模型的训练方法、装置及电子设备
CN109933784A (zh) * 2019-01-31 2019-06-25 北京明略软件系统有限公司 一种文本识别方法和装置
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170300565A1 (en) * 2016-04-14 2017-10-19 Xerox Corporation System and method for entity extraction from semi-structured text documents
CN107291696A (zh) * 2017-06-28 2017-10-24 达而观信息科技(上海)有限公司 一种基于深度学习的评论词情感分析方法及系统
CN107491531A (zh) * 2017-08-18 2017-12-19 华南师范大学 基于集成学习框架的中文网络评论情感分类方法
CN107862343A (zh) * 2017-11-28 2018-03-30 南京理工大学 基于规则和神经网络的商品评论属性级情感分类方法
CN108932637A (zh) * 2018-07-10 2018-12-04 北京邮电大学 一种方面挖掘模型的训练方法、装置及电子设备
CN109933784A (zh) * 2019-01-31 2019-06-25 北京明略软件系统有限公司 一种文本识别方法和装置
CN109992648A (zh) * 2019-04-10 2019-07-09 北京神州泰岳软件股份有限公司 基于词迁徙学习的深度文本匹配方法及装置
CN110517121A (zh) * 2019-09-23 2019-11-29 重庆邮电大学 基于评论文本情感分析的商品推荐方法及商品推荐装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YANG LIU等: "Text Summarization with Pretrained Encoders", ARXIV, pages 1 - 11 *

Also Published As

Publication number Publication date
WO2021190275A1 (zh) 2021-09-30

Similar Documents

Publication Publication Date Title
CN108959627B (zh) 基于智能机器人的问答交互方法及系统
CN111914568B (zh) 文本修辞句的生成方法、装置、设备及可读存储介质
CN111488931B (zh) 文章质量评估方法、文章推荐方法及其对应的装置
CN110209789B (zh) 一种用户注意力引导的多模态对话系统及方法
CN113377936B (zh) 智能问答方法、装置及设备
CN110298043B (zh) 一种车辆命名实体识别方法及系统
CN111191016A (zh) 一种多轮对话处理方法、装置及计算设备
CN110795543A (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN108573702A (zh) 具有域歧义消除的启用语音功能的系统
CN111708869B (zh) 人机对话的处理方法及装置
CN113011186B (zh) 命名实体识别方法、装置、设备及计算机可读存储介质
CN111739520B (zh) 一种语音识别模型训练方法、语音识别方法、装置
CN109767758B (zh) 车载语音分析方法、系统、存储介质以及设备
CN115525753A (zh) 面向任务的基于1+n的多轮对话方法及系统
CN108710653B (zh) 一种绘本朗读点播方法、装置及系统
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN111274822A (zh) 语义匹配方法、装置、设备及存储介质
CN113342958A (zh) 问答匹配方法、文本匹配模型的训练方法和相关设备
CN114742032A (zh) 交互式数据分析方法、装置、设备、介质及程序产品
CN114398909A (zh) 用于对话训练的问题生成方法、装置、设备和存储介质
CN111143515B (zh) 文本匹配方法及装置
CN113190692A (zh) 一种知识图谱的自适应检索方法、系统及装置
Prajwal et al. Universal semantic web assistant based on sequence to sequence model and natural language understanding
CN113449100A (zh) 文本的评论性质识别方法、机器学习模型训练方法及装置
CN111401069A (zh) 会话文本的意图识别方法、意图识别装置及终端

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination