CN117009505A - 观点识别方法、装置、设备及存储介质 - Google Patents

观点识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN117009505A
CN117009505A CN202211203590.9A CN202211203590A CN117009505A CN 117009505 A CN117009505 A CN 117009505A CN 202211203590 A CN202211203590 A CN 202211203590A CN 117009505 A CN117009505 A CN 117009505A
Authority
CN
China
Prior art keywords
training
sample
samples
model
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211203590.9A
Other languages
English (en)
Inventor
张晶
邱锴
刘阳
边增亚
张雪艳
彭星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Communications Ltd Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Communications Ltd Research Institute filed Critical China Mobile Communications Group Co Ltd
Priority to CN202211203590.9A priority Critical patent/CN117009505A/zh
Publication of CN117009505A publication Critical patent/CN117009505A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/211Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种观点识别方法、装置、设备及存储介质。其中,所述方法包括:获取第一测试样本和第二测试样本;将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。

Description

观点识别方法、装置、设备及存储介质
技术领域
本发明涉及无线通信技术领域,尤其涉及一种观点识别方法、装置、设备及存储介质。
背景技术
目前,智库研究需要集众家之所长,广泛接收社会研究机构、专家学者的观点,才能更好地让决策更科学,覆盖面更广,更有可操作性。相较于各类行业研究报告,新闻资讯中含有大量社会研究机构、学者的观点信息,能够帮助智库研究人员从多方面深入了解研究内容,具有重要的价值。通常,可以借助网络爬虫技术,实现各大网络新闻平台信息的实时获取,并采用机器学习或者深度学习强大的文本表征能力,对获取的语句信息进行观点识别,但是,在有些情况下得到的观点识别结果的准确度不高。
发明内容
有鉴于此,本发明实施例期望提供一种观点识别方法、装置、设备及存储介质。
本发明实施例的技术方案是这样实现的:
本发明的至少一个实施例提供一种观点识别方法,所述方法包括:
获取第一测试样本和第二测试样本;
将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
此外,根据本发明的至少一个实施例,所述方法还包括:
获取训练正样本集合和训练负样本集合;
基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型;
基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型。
此外,根据本发明的至少一个实施例,所述基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
基于所述训练正样本集合,构建第一组训练样本;所述第一组训练样本由所述训练正样本集合中的两个训练正样本组成;
基于所述训练正样本集合和所述训练负样本集合,构建第二组训练样本;所述第二组训练样本由所述训练正样本集合中的一个训练正样本和所述训练负样本集合中的一个训练负样本组成;
基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型。
此外,根据本发明的至少一个实施例,所述基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
通过初始的预测模型,对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列;并对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列;
基于所述第一序列和所述第二序列,计算所述第一组训练样本中的两个训练正样本之间的第一距离;并基于所述第三序列和所述第四序列,计算所述第二组训练样本中的训练正样本和训练负样本之间的第二距离;
将所述第一距离和所述第二距离作为所述第一模型的输出;
根据所述第一模型的输出,得到两个训练样本之间是否存在差异的对比结论;
基于所述第一距离和所述第一组训练样本中的两个训练正样本之间的真实距离,以及所述第二距离和所述第二组训练样本中的训练正样本和训练负样本之间的真实距离,计算损失值;
基于所述损失值对所述预测模型的参数进行更新,得到用于计算样本距离的第一模型。
此外,根据本发明的至少一个实施例,所述对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列,包括:
对所述第一组训练样本中的一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第一序列;
对所述第一组训练样本中的另一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第二序列。
此外,根据本发明的至少一个实施例,所述对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列,包括:
对所述第二组训练样本中的训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第三序列;
对所述第二组训练样本中的训练负样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第四序列。
此外,根据本发明的至少一个实施例,所述基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型,包括:
对所述训练正样本集合中的训练正样本和所述训练负样本集合中的训练负样本分别进行编码处理,得到第五序列和第六序列;
基于所述第五序列和所述训练正样本的样本标签,以及所述第六序列和所述训练样本集合中的训练负样本的样本标签,计算损失值;
基于所述损失值对所述第一模型进行训练,得到所述目标模型。
本发明的至少一个实施例提供一种观点识别装置,包括:
获取单元,用于获取第一测试样本和第二测试样本;
处理单元,用于将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
本发明的至少一个实施例提供一种电子设备,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器,
其中,所述处理器用于运行所述计算机程序时,执行上述任一项所述方法的步骤。
本发明的至少一个实施例提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任一方法的步骤。
本发明实施例提供的功能编排方法、装置、设备及存储介质,获取第一测试样本和第二测试样本;将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。采用本发明实施例提供的技术方案,利用所述目标模型,对所述第一测试样本和所述第二测试样本进行样本差异和样本观点预测,不仅能够确定两个测试样本是否存在差异,而且能够确定两个测试样本各自对应的观点识别结果,也就是说,在识别样本差异的同时识别样本对应的观点,以提高观点识别的准确性。
附图说明
图1是本发明实施例中观点识别方法的实现流程示意图;
图2是本发明实施例观点识别方法的具体实现流程示意图;
图3是本发明实施例第一阶段的模型训练示意图;
图4是本发明实施例第二阶段的模型训练示意图;
图5是本发明实施例目标模型的训练过程示意图;
图6是本发明实施例观点识别装置的组成结构示意图;
图7是本发明实施例电子设备的组成结构示意图。
具体实施方式
在对本发明实施例的技术方案进行介绍之前,先对相关技术进行说明。
相关技术中,在新时代背景下,智库研究需要集众家之所长,广泛接收社会研究机构、专家学者的观点,才能更好地让决策更科学,覆盖面更广,更有可操作性。相较于各类行业研究报告,新闻资讯往往具有更好的实效性,能够实时的对社会热点、行业动态进行跟踪,且资讯中含有大量社会研究机构、学者的观点信息,能够帮助智库研究人员从多方面深入了解研究内容,具有重要的价值。借助网络爬虫技术,已经能够实现各大网络新闻平台信息的实时获取,快速有效地识别中新闻中的观点类信息,能够极大的提升智库研究人员的工作效率。
相关技术中,观点语句识别是指从输入文本中识别出作者、研究人员、研究机构、公众人物等对于某一事件、人物、产品等主题,表达出来的主观观点句子;其中,观点句子涉及众多方面,如事件未来的发展趋势、发展方向、未来潜在风险、发展机遇等。对比学习方法是指一种常用的自监督学习方法,其关键思想是使用一个编码器,将正样本数据与负样本数据,映射到同一个高维空间,并在这个空间中,通过缩小正样本数据之间的距离,增大正样本与负样本之间距离的方式,让模型能够准确的学习到正样本与负样本之间的差异。
相关技术中,公开号为CN113722482A、发明名称为《一种新闻评论观点句识别方法》公开了以下技术特征:首先通过Textrank算法提取出新闻文本的几个关键句,将这些关键句组成一个简单摘要,再将新闻的每条评论与新闻摘要信息一起传到基于Transformer的深度双向语言表征模型(BERT模型)中获得文本融合表示,最后送入全连接层,利用softmax函数将全连接层的输出转换为是否为观点句的概率。公开号为CN111008274B、发明名称为《特征扩展卷积神经网络的案件微博观点句识别构建方法》公开了以下技术特征:构建案件微博数据库;对案件微博数据库中的评论进行标注,形成案件微博评论的训练集和测试集;对案件的多个微博原文进行关键词的抽取;从案件原文中提取出的关键词作为特征扩展和训练集案件微博评论向量化后进行拼接得到新的向量;将关键词作为特征扩展和案件微博评论向量化后进行拼接得到新的向量作为输入来训练卷积神经网络,再把测试集输入到训练好的卷积神经网络进行观点句的识别分类。本发明实现了从案件微博原文中获取关键词作为特征扩展,从获取的舆情数据中识别出所需观点句,为后续对观点句进行情感倾向性分析提供了支撑。公开号为CN111178043A、发明名称为《一种识别学术观点句的方法及系统》公布了以下技术特征:先建立显性词数据库和隐性观点句识别模型;再通过显性词数据库对待识别的句子进行显性词匹配,得到显性观点句匹配结果;通过隐性观点句识别模型对待识别的句子进行识别,得到隐性观点句识别结果,有效解决了现有技术中只能通过人工方式从学术文本中识别出学术观点句的技术问题,实现了高效地从大量的学术文本中识别出学术观点句的技术效果。
综上所述,相关技术中,主要采用机器学习或者深度学习强大的文本表征能力,直接对输入语句进行识别。还可以结合关键词匹配等传统方法对训练数据进行预处理,以此提升识别的准确率。
但是,相关技术中仍存在以下问题:第一,传统使用关键词(如显性词)进行匹配,只能根据预定义的关键词进行句子的识别,其识别范围受到较大的限制。随着互联网媒体的发展,各类新闻编辑和自媒体创作者的创作风格都不相同,使得关键词匹配方法的弊端越来越明显。第二,机器学习或者深度学习技术强大的文本表征能力,直接对输入语句进行识别的方法。这种方法需要使用大量的标记语料用于模型训练,但目前已知的公开数据集中,内容大多都是关于句子中方面级观点的提取,对于观点句子的识别,目前暂无相关数据集。人工标注数据集将耗费大量的人力资源。第三,使用机器学习或者深度学习进行识别的方法,仅从观点语句自身的信息进行建模,没有考虑新闻观点语句与非观点语句之间的区别,尤其是新闻观点和事实信息之间的区别,是导致观点语句识别效率不高的重要影响因素。
基于此,本发明实施例中,获取第一测试样本和第二测试样本;将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
图1是本发明实施例中观点识别方法的实现流程示意图,如图1所示,所述方法包括步骤101至步骤102:
步骤101:获取第一测试样本和第二测试样本。
步骤102:将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果。
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
实际应用时,所述目标模型可以通过两个阶段的模型训练得到,第一阶段,基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型;第二阶段,基于所述训练正样本集合和训练负样本集合对所述第一模型进行训练,得到所述目标模型。
基于此,在一实施例中,所述方法还包括:
获取训练正样本集合和训练负样本集合;
基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型;
基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型。
实际应用时,在第一阶段,可以对观点语句和非观点语句之间的区别进行建模。
基于此,在一实施例中,所述基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
基于所述训练正样本集合,构建第一组训练样本;所述第一组训练样本由所述训练正样本集合中的两个训练正样本组成;
基于所述训练正样本集合和所述训练负样本集合,构建第二组训练样本;所述第二组训练样本由所述训练正样本集合中的一个训练正样本和所述训练负样本集合中的一个训练负样本组成;
基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型。
可以理解的是,所述训练正样本集合可以由属于多种观点的训练正样本组成,例如,由属于专家观点的训练正样本和属于分析师观点的训练正样本组成所述训练正样本集合;所述训练负样本集合可以由不属于某种观点的训练负样本组成,例如,由不属于专家观点的训练负样本组成所述训练负样本集合,或者,由不属于分析师观点的训练负样本组成所述训练负样本集合。
表1是第一组训练样本和第二组训练样本的示意,如表1所示,训练正样本集合由属于专家观点的训练正样本和属于分析师观点的训练正样本组成,训练负样本集合由不属于专家观点的训练负样本组成,将所述训练正样本集合中属于不同观点的两个训练正样本构成所述第一组训练样本,将所述训练正样本集合中属于专家观点的训练正样本和所述训练负样本集合中不属于专家观点的训练负样本构成所述第二组训练样本。
表1
实际应用时,在第一阶段,通过构建的两组训练样本,对预测模型进行训练,得到预测两组训练样本中样本距离的第一模型,其中,第一组训练样本中训练正样本与训练样本之间的距离作为训练目标,第二组训练样本中训练正样本与训练负样本之间的距离作为训练目标。
基于此,在一实施例中,所述基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
通过初始的预测模型,对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列;并对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列;
基于所述第一序列和所述第二序列,计算所述第一组训练样本中的两个训练正样本之间的第一距离;并基于所述第三序列和所述第四序列,计算所述第二组训练样本中的训练正样本和训练负样本之间的第二距离;
将所述第一距离和所述第二距离作为所述第一模型的输出;
根据所述第一模型的输出,得到两个训练样本之间是否存在差异的对比结论;
基于所述第一距离和所述第一组训练样本中的两个训练正样本之间的真实距离,以及所述第二距离和所述第二组训练样本中的训练正样本和训练负样本之间的真实距离,计算损失值;
基于所述损失值对所述预测模型的参数进行更新,得到用于计算样本距离的第一模型。
实际应用时,在第一阶段,从句子嵌入、句式嵌入两个方面同时进行对比学习训练得到所述第一模型,能够使所述第一模型从多个不同的方面学习到观点语句与非观点语句之间的区别。
基于此,在一实施例中,所述对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列,包括:
对所述第一组训练样本中的一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第一序列;
对所述第一组训练样本中的另一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第二序列。
可以理解的是,在第一阶段的模型训练过程中,所述第一组训练样本中的其中一个训练正样本进入编码器,得到句子向量,该训练正样本进入编码器再进入循环神经网络(RNN,Recurrent Neural Network),得到句式向量;其中,句子向量可以是由句子中每一个词语计算得到;句式向量可以是由句子中每一个词语的词性计算得到。句子向量和句式向量进入深度神经网络(DNN,Deep Neural Network),得到融合后的向量;将融合后的向量作为与其中一个训练正样本对应的第一序列。第一组训练样本中的另外一个训练正样本进入编码器,得到句子向量,该训练正样本进入编码器再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与另外一个训练正样本对应的第二序列。
在一实施例中,所述对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列,包括:
对所述第二组训练样本中的训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第三序列;
对所述第二组训练样本中的训练负样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第四序列。
同样地,在第一阶段的模型训练过程中,所述第二组训练样本中的其中一个训练正样本进入编码器,得到句子向量,该训练正样本进入编码器再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与其中一个训练正样本对应的第三序列。第二组训练样本中的另外一个训练负样本进入编码器,得到句子向量,该训练负样本进入编码器再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与另外一个训练负样本对应的第四序列。
如此,对于所述第一组训练样本,计算该组内两个输入所得的融合向量之间的第一距离,对于第二组训练样本,计算该组内两个输入所得的融合向量之间的第二距离,将第一距离和第二距离作为所述第一模型的输出,并将计算的第一距离和所述第一组训练样本中两个训练样本之间的真实距离,以及计算的第二距离和所述第二组训练样本中两个训练样本之间的真实距离,代入损失函数计算损失值,基于所述损失值,更新所述预测模型的参数,得到所述第一模型。
实际应用时,第一阶段训练完成得到所述第一模型后,所述第一模型能够较好地学习到训练正样本与训练负样本之间的差异以及训练正样本与训练正样本之间的相同。在第二阶段,使用第一阶段训练好的第一模型作为编码器,对输入的训练样本集合中的两个训练样本进行编码后,基于深度神经网络DNN与sigmoid分类器进行再次训练,得到目标模型,所述目标模型能够准确区分两个训练样本是否为存在差异,以及两个训练样本各自对应的观点识别结果。
基于此,在一实施例中,所述基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型,包括:
对所述训练正样本集合中的训练正样本和所述训练负样本集合中的训练负样本分别进行编码处理,得到第五序列和第六序列;
基于所述第五序列和所述训练正样本的样本标签,以及所述第六序列和所述训练负样本的样本标签,计算损失值;基于所述损失值对所述第一模型进行训练,得到所述目标模型。
需要说明的是,所述第五序列和所述第六序列的计算过程和上述所述第一序列等的计算过程类似,在此不再赘述。
本发明实施例,具备以下优点:
(1)所述目标模型使用两阶段模型训练得到,在第一阶段,先对训练正样本和训练负样本之间的区别进行建模,在第二阶段,对第一阶段训练得到的第一模型进行再次训练,充分学习到训练正样本和训练负样本各自对应的观点识别结果,如此,在使用所述目标模型对两个测试样本进行识别时,可以识别出两个测试样本是否存在差异以及每个测试样本是否为观点语句,从而能够提高观点识别的准确性。
(2)在第一阶段,从句子、句式两个方面同时进行对比学习训练,使在第一阶段训练得到的第一模型能够在使用少量标注的观点数据与大量非观点数据的基础上,学习到观点语句和非观点语句的区别。
图2是本发明实施例观点识别方法的具体实现流程示意图,如图2所示,所述方法包括步骤201至步骤205:
步骤201:获取训练正样本集合和训练负样本集合。
这里,所述训练正样本集合中包括的两个训练正样本可以为:
“从中国机器人的市场发展和这一轮科技革命和产业变革演进的特点来看,融合协同是未来中国机器人产业技术发展的必然趋势。”
“从云游戏产业链来看,云游戏开发商和发行商、云计算供应商、云游戏服务商、网络供应商、终端设备提供商等主体,凭借各自优势快速入局,云游戏时代有望重塑游戏行业产业链,渠道竞争或将更加激烈,拥有优质游戏研发实力的厂商话语权将进一步提升。”
这里,所述训练负样本集合中包括的训练负样本可以为:
“从股市的角度来看,8月26日,市场开始有消息传出,字节跳动将斥巨资收购Pico。8月27日,歌尔股份股价的涨幅一度高达9.99%。“歌尔股份持有Pico股份,也是Pico的代工厂,与歌尔股份VR客户索尼和Oculus有业务上的冲突。”
这里,可以对所述训练正样本进行数据预处理,即,将原始数据依照制定字符(如句号,感叹号等)进行分句,得到句子集合D={S1,S2,......SL},其中L表示句子的数量。对每个句子Si进行分词与词性标注处理,得到词语/词性的集合。
这里,对于上述输入的训练正样本(用Si表示)进行分词及词性标注处理,得到的结果为SFi
['从/p','中国/ns','机器人/n','的/uj','市场/n','发展/vn','和/c','这/r','一轮/m','科技/n','革命/vn','和/c','产业/n','变革/vn','演进/v','的/uj','特点/n','来看/u',',/x','融合/vn','协同/n','是/v','未来/t','中国/ns','机器人/n','产业/n','技术/n','发展/vn','的/uj','必然趋势/l','。/x']
这里,将上述集合抽象为SFi={(word,flag)×L1},L1表示句子Si分词后的词语的数量。
这里,对于上述输入的训练负样本(用Si表示)进行分词及词性标注处理,得到的结果为SFi
['从/p','股市/n','的/uj','角度/n','来看/u',',/x','8/m','月/m','26/m','日/m',',/x','市场/n','开始/v','有/v','消息/n','传出/v',',/x','字节跳动/n','将/d','斥/v','巨资/n','收购/v','Pico/eng','。/x','8/m','月/m','27/m','日/m',',/x','歌尔/nrt','股份/n','股价/n','的/uj','涨幅/n','一度/mq','高达/nr','9.99/m','%/x','。/x','“/x','歌尔/nrt','股份/n','持有/v','Pico/eng','股份/n',',/x','也/d','是/v','Pico/eng','的/uj','代工厂/n',',/x','与/p','歌尔/nrt','股份/n','VR/eng','客户/n','索尼/nr','和/c','Oculus/eng','有/v','业务/n','上/f','的/uj','冲突/vn','。/x']
需要说明的是,对所述训练正样本和训练负样本进行分词及词性标注处理,可以在第一阶段训练第一模型的过程中,得到句式向量。其中,句式向量可以是由句子中每一个词语的词性计算得到。
这里,区别于常规对比学习训练数据集中使用近义词替换、随机增加或删除若干词语等方法,本发明实施例中,不对训练正样本与训练负样本进行增强,而是通过将训练正样本和训练负样本进行组合的方式,在不改变原始数据集大小的情况下,增加所述第一模型的训练数据集。
具体地,根据样本标签,将训练正样本数据与训练正样本组合,得到第一组训练样本,将训练正样本与训练负样本数据进行组合,得到第二组训练样本。两组训练样本构成训练数据集合S_pre,表示为:
S_pre={(S_pos,S_pos,0)×M,(S_pos,S_neg,1)×N}
其中,第一组训练样本用(S_pos,S_pos,0)表示,第二组训练样本用(S_pos,S_neg,1)表示,S_pos表示训练正样本,S_neg表示训练负样本,M,N分别表示两种组合类型的数量。0和1分别对应两种组合类型的标签,该标签表示每种组合中两个数据之间的真实距离。
表2是两组训练样本(S_pos,S_neg)和(S_pos,S_neg)的组合过程的示意。
表2
步骤202:基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型。
图3是第一阶段的模型训练示意图,如图3所示,在第一阶段中,借鉴对比学习思想,使用训练正样本集合中的训练正样本与训练负样本集合中的训练负样本的不同组合对所述第一模型进行训练。
这里,假设所述训练正样本用S_pos表示,训练负样本用S_neg表示,第一组训练样本用(S_pos,S_pos,0)表示,第二组训练样本用(S_pos,S_neg,1)表示。
这里,输入数据有两种组合类型,即,第一组训练样本和第二组训练样本,可以将第一组训练样本和第二组训练样本统一记作{(S_1),(S_2),label}。
这里,在第一阶段的模型训练过程中,所述第一组训练样本中的其中一个训练正样本(S_1)进入编码器,得到句子向量,该训练正样本进入编码器再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与其中一个训练正样本对应的第一序列。第一组训练样本中的另外一个训练正样本(S_2)进入编码器,得到句子向量,该训练正样本进入编码器再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与另外一个训练正样本对应的第二序列。
同样地,在第一阶段的模型训练过程中,所述第二组训练样本中的其中一个训练正样本(S_1)进入编码器,得到句子向量,再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与其中一个训练正样本对应的第三序列。第二组训练样本中的另外一个训练负样本(S_2)进入编码器,得到句子向量,再进入RNN网络,得到句式向量;句子向量和句式向量进入DNN网络,得到融合后的向量;将融合后的向量作为与另外一个训练负样本对应的第四序列。
如此,对于所述第一组训练样本,计算该组内两个输入所得的融合向量之间的第一距离,对于所述第二组训练样本,计算该组内两个输入所得的融合向量之间的第二距离,将第一距离和第二距离作为所述第一模型的输出,并将计算的第一距离和所述第一组训练样本中两个训练样本之间的真实距离,以及计算的第二距离和所述第二组训练样本中两个训练样本之间的真实距离,代入损失函数计算损失值,基于所述损失值,更新所述预测模型的参数,得到所述第一模型。
需要说明的是,在编码器中,从句子嵌入、句式嵌入两个方面对输入的样本数据进行编码处理。可以使用预训练语言模型(如BERT,RoBERTa等)将输入数据进行编码。
步骤203:基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型。
这里,在第一阶段的训练完成得到第一模型之后,所述第一模型具有较好的表征能力,能够正确地识别出训练正样本与训练负样本之间的差距。在第二阶段,使用样本自身的标签数据,以及样本数据,对第一阶段训练完成的第一模型进行再次训练,得到用于判断输入的是正样本还是负样本的目标模型。
这里,在第二阶段,使用第一阶段训练完成的第一模型,冻结其中的部分网络结构,只对其中的部分结构进行训练。
图4是第二阶段的模型训练示意图,如图4所示,与第一阶段相同,每一条输入语句经过分词,词性标注后,经过Encoder编码器之后,得到对应的向量,再经过若干RNN网络与DNN网络,得到模型输出。与第一阶段不同的是,训练过程中,Encoder编码器与处理句式嵌入向量的RNN网络的参数被冻结,无法在训练中进行更新。
这里,完成第二阶段的训练之后,使得目标模型能够根据正负样本的特征与标签进行判断,完成观点语句的识别。
图5是目标模型的训练过程示意图,如图5所示,所述目标模型经过两个阶段的模型训练得到。
步骤204:获取第一测试样本和第二测试样本。
步骤205:将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果。
本示例中,具备以下优点:
(1)使用两阶段模型训练的方式,在第一阶段,对观点语句和非观点语句之间的区别进行建模,充分学习到观点语句和非观点语句之间的差别,在第二节点,使用神经网络模型,对观点句子进行识别。
(2)提出一种基于对比学习的新闻观点语句识别方法。从句子、句式两个方面同时进行对比学习训练,使模型能够在使用少量标注的观点数据与大量非观点数据的基础上,
为实现本发明实施例观点识别方法,本发明实施例还提供一种观点识别装置。图6为本发明实施例观点识别装置的组成结构示意图,如图6所示,所述装置包括:
获取单元61,用于获取第一测试样本和第二测试样本;
处理单元62,用于将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
在一实施例中,所述装置还用于:
获取训练正样本集合和训练负样本集合;
基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型;
基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型。
在一实施例中,所述装置具体用于:
基于所述训练正样本集合,构建第一组训练样本;所述第一组训练样本由所述训练正样本集合中的两个训练正样本组成;
基于所述训练正样本集合和所述训练负样本集合,构建第二组训练样本;所述第二组训练样本由所述训练正样本集合中的一个训练正样本和所述训练负样本集合中的一个训练负样本组成;
基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型。
在一实施例中,所述装置具体用于:
通过初始的预测模型,对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列;并对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列;
基于所述第一序列和所述第二序列,计算所述第一组训练样本中的两个训练正样本之间的第一距离;并基于所述第三序列和所述第四序列,计算所述第二组训练样本中的训练正样本和训练负样本之间的第二距离;
将所述第一距离和所述第二距离作为所述第一模型的输出;
根据所述第一模型的输出,得到两个训练样本之间是否存在差异的对比结论;
基于所述第一距离和所述第一组训练样本中的两个训练正样本之间的真实距离,以及所述第二距离和所述第二组训练样本中的训练正样本和训练负样本之间的真实距离,计算损失值;
基于所述损失值对所述预测模型的参数进行更新,得到用于计算样本距离的第一模型。
在一实施例中,所述装置具体用于:
对所述第一组训练样本中的一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第一序列;
对所述第一组训练样本中的另一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第二序列。
在一实施例中,所述装置具体用于:
对所述第二组训练样本中的训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第三序列;
对所述第二组训练样本中的训练负样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第四序列。
在一实施例中,所述装置具体用于:
对所述训练正样本集合中的训练正样本和所述训练负样本集合中的训练负样本分别进行编码处理,得到第五序列和第六序列;
基于所述第五序列和所述训练正样本的样本标签,以及所述第六序列和所述训练负样本的样本标签,计算损失值;
基于所述损失值对所述第一模型进行训练,得到所述目标模型。
实际应用时,所述获取单元61可以由观点识别装置中的通信接口实现;所述处理单元62可以由观点识别装置中的处理器实现。
需要说明的是:上述实施例提供的观点识别装置在进行观点识别时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的观点识别装置与观点识别方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本发明实施例还提供了一种电子设备,如图7所示,包括:
通信接口71,能够与其它设备进行信息交互;
处理器72,与所述通信接口71连接,用于运行计算机程序时,执行上述电子设备侧一个或多个技术方案提供的方法。而所述计算机程序存储在存储器73上。
需要说明的是:所述处理器72和通信接口71的具体处理过程详见方法实施例,这里不再赘述。
当然,实际应用时,电子设备70中的各个组件通过总线系统74耦合在一起。可理解,总线系统74用于实现这些组件之间的连接通信。总线系统74除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图7中将各种总线都标为总线系统74。
本申请实施例中的存储器73用于存储各种类型的数据以支持电子设备70的操作。这些数据的示例包括:用于在电子设备70上操作的任何计算机程序。
上述本申请实施例揭示的方法可以应用于所述处理器72中,或者由所述处理器72实现。所述处理器72可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过所述处理器72中的硬件的集成逻辑电路或者软件形式的指令完成。上述的所述处理器72可以是通用处理器、数字数据处理器(DSP,Digital SignalProcessor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。所述处理器72可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本申请实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器73,所述处理器72读取存储器73中的信息,结合其硬件完成前述方法的步骤。
在示例性实施例中,电子设备70可以被一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,ProgrammableLogic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)、通用处理器、控制器、微控制器(MCU,Micro Controller Unit)、微处理器(Microprocessor)、或者其他电子元件实现,用于执行前述方法。
可以理解,本申请实施例的存储器(存储器73)可以是易失性存储器或者非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可擦除可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可擦除可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,ferromagnetic random access memory)、快闪存储器(FlashMemory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random Access Memory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,Synchronous Dynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random AccessMemory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random AccessMemory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本申请实施例描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
在示例性实施例中,本发明实施例还提供了一种存储介质,即计算机存储介质,具体为计算机可读存储介质,例如包括存储计算机程序的存储器,上述计算机程序可由电子设备70的处理器72执行,以完成前述电子设备侧方法所述步骤。计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁表面存储器、光盘、或CD-ROM等存储器。
需要说明的是:“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
另外,本发明实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。

Claims (10)

1.一种观点识别方法,其特征在于,所述方法包括:
获取第一测试样本和第二测试样本;
将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到样本识别结果,所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取训练正样本集合和训练负样本集合;
基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型;
基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型。
3.根据权利要求2所述的方法,其特征在于,所述基于所述训练正样本集合和所述训练负样本集合对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
基于所述训练正样本集合,构建第一组训练样本;所述第一组训练样本由所述训练正样本集合中的两个训练正样本组成;
基于所述训练正样本集合和所述训练负样本集合,构建第二组训练样本;所述第二组训练样本由所述训练正样本集合中的一个训练正样本和所述训练负样本集合中的一个训练负样本组成;
基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型。
4.根据权利要求3所述的方法,其特征在于,所述基于所述第一组训练样本和所述第二组训练样本对预测模型进行训练,得到用于计算样本距离的第一模型,包括:
通过初始的预测模型,对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列;并对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列;
基于所述第一序列和所述第二序列,计算所述第一组训练样本中的两个训练正样本之间的第一距离;并基于所述第三序列和所述第四序列,计算所述第二组训练样本中的训练正样本和训练负样本之间的第二距离;
将所述第一距离和所述第二距离作为所述第一模型的输出;
根据所述第一模型的输出,得到两个训练样本之间是否存在差异的对比结论;
基于所述第一距离和所述第一组训练样本中的两个训练正样本之间的真实距离,以及所述第二距离和所述第二组训练样本中的训练正样本和训练负样本之间的真实距离,计算损失值;
基于所述损失值对所述预测模型的参数进行更新,得到用于计算样本距离的第一模型。
5.根据权利要求4所述的方法,其特征在于,所述对所述第一组训练样本中的两个训练正样本分别进行编码处理,得到对应的第一序列和第二序列,包括:
对所述第一组训练样本中的一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第一序列;
对所述第一组训练样本中的另一个训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第二序列。
6.根据权利要求4所述的方法,其特征在于,所述对所述第二组训练样本中的训练正样本和训练负样本分别进行编码处理,得到对应的第三序列和第四序列,包括:
对所述第二组训练样本中的训练正样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第三序列;
对所述第二组训练样本中的训练负样本进行编码处理,得到对应的句子向量和句式向量;将得到的句子向量和句式向量进行融合,得到融合后的向量;将融合后的向量作为所述第四序列。
7.根据权利要求2至6任一项所述的方法,其特征在于,所述基于所述训练正样本集合和所述训练负样本集合对所述第一模型进行训练,得到用于识别样本观点的所述目标模型,包括:
对所述训练正样本集合中的训练正样本和所述训练负样本集合中的训练负样本分别进行编码处理,得到第五序列和第六序列;
基于所述第五序列和所述训练正样本的样本标签,以及所述第六序列和所述训练负样本的样本标签,计算损失值;
基于所述损失值对所述第一模型进行训练,得到所述目标模型。
8.一种观点识别装置,其特征在于,包括:
获取单元,用于获取第一测试样本和第二测试样本;
处理单元,用于将所述第一测试样本和所述第二测试样本输入预先训练的目标模型,以通过所述目标模型进行样本差异和样本观点预测,得到对应的样本识别结果;所述样本识别结果包括所述第一测试样本和所述第二测试样本是否存在差异的对比结论、所述第一测试样本对应的观点识别结果和所述第二测试样本对应的观点识别结果;
其中,所述目标模型基于训练正样本集合和训练负样本集合,对用于计算样本距离的第一模型进行训练得到;所述第一模型基于所述训练正样本集合和所述训练负样本集合,对预测模型进行训练得到。
9.一种电子设备,其特征在于,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器,
其中,所述处理器用于运行所述计算机程序时,执行权利要求1至7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
CN202211203590.9A 2022-09-29 2022-09-29 观点识别方法、装置、设备及存储介质 Pending CN117009505A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211203590.9A CN117009505A (zh) 2022-09-29 2022-09-29 观点识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211203590.9A CN117009505A (zh) 2022-09-29 2022-09-29 观点识别方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN117009505A true CN117009505A (zh) 2023-11-07

Family

ID=88566105

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211203590.9A Pending CN117009505A (zh) 2022-09-29 2022-09-29 观点识别方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN117009505A (zh)

Similar Documents

Publication Publication Date Title
CN109493166B (zh) 一种针对电子商务导购场景任务型对话系统的构建方法
CN111859960B (zh) 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质
CN111026842B (zh) 自然语言处理方法、自然语言处理装置及智能问答系统
US20180053107A1 (en) Aspect-based sentiment analysis
CN112070138B (zh) 多标签混合分类模型的构建方法、新闻分类方法及系统
CN112434535B (zh) 基于多模型的要素抽取方法、装置、设备及存储介质
CN112711953A (zh) 一种基于注意力机制和gcn的文本多标签分类方法和系统
CN117033571A (zh) 知识问答系统构建方法及系统
CN114398881A (zh) 基于图神经网络的交易信息识别方法、系统及介质
CN110377733A (zh) 一种基于文本的情绪识别方法、终端设备及介质
CN116775872A (zh) 一种文本处理方法、装置、电子设备及存储介质
CN113010683A (zh) 基于改进图注意力网络的实体关系识别方法及系统
CN114647713A (zh) 基于虚拟对抗的知识图谱问答方法、设备及存储介质
CN113705192B (zh) 文本处理方法、装置与存储介质
CN111709225A (zh) 一种事件因果关系判别方法、装置和计算机可读存储介质
CN117151222B (zh) 领域知识引导的突发事件案例实体属性及其关系抽取方法、电子设备和存储介质
CN111783425B (zh) 基于句法分析模型的意图识别方法及相关装置
CN112199954A (zh) 基于语音语义的疾病实体匹配方法、装置及计算机设备
CN110888983A (zh) 一种正负面情感分析方法、终端设备及存储介质
CN116089605A (zh) 基于迁移学习和改进词袋模型的文本情感分析方法
CN114942992A (zh) 一种基于融合网络的交易对手识别方法、装置及电子设备
CN117009505A (zh) 观点识别方法、装置、设备及存储介质
CN114492458A (zh) 一种基于多头注意力和词共现的方面级情感分析方法
CN114298023A (zh) 一种基于任务主题词驱动的用户决策需求生成方法及应用
Bharadi Sentiment Analysis of Twitter Data Using Named Entity Recognition

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination