CN111753092B - 一种数据处理方法、模型训练方法、装置及电子设备 - Google Patents

一种数据处理方法、模型训练方法、装置及电子设备 Download PDF

Info

Publication number
CN111753092B
CN111753092B CN202010624954.5A CN202010624954A CN111753092B CN 111753092 B CN111753092 B CN 111753092B CN 202010624954 A CN202010624954 A CN 202010624954A CN 111753092 B CN111753092 B CN 111753092B
Authority
CN
China
Prior art keywords
network
student
teacher
training
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010624954.5A
Other languages
English (en)
Other versions
CN111753092A (zh
Inventor
黄家水
刘雨薇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Innovation Qizhi Technology Group Co.,Ltd.
Original Assignee
Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Chuangxin Qizhi Technology Group Co ltd filed Critical Qingdao Chuangxin Qizhi Technology Group Co ltd
Priority to CN202010624954.5A priority Critical patent/CN111753092B/zh
Publication of CN111753092A publication Critical patent/CN111753092A/zh
Application granted granted Critical
Publication of CN111753092B publication Critical patent/CN111753092B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请涉及一种数据处理方法、模型训练方法、装置及电子设备,属于数据处理技术领域。该数据处理方法包括:获取网页中与指定对象相关的多条评论数据;利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果。本申请实施例中,利用基于知识蒸馏获得的神经网络模型来对评论数据进行情感分类,通过采用知识蒸馏技术,以此来提高分类结果的准确性,同时又能节约训练所需的时间。

Description

一种数据处理方法、模型训练方法、装置及电子设备
技术领域
本申请属于数据处理技术领域,具体涉及一种数据处理方法、模型训练方法、装置及电子设备。
背景技术
通过对用户在观看电影或电视剧后,在微博或播放软件上留下的评论作为分析数据,并对其进行情感分析挖掘分类,可获知用户对影片的情感认同度,使得制片方可以及时获知用户需求,从而了解影片的不足之处,可以对今后的影片进行相应的调整,从而提高影片质量,获得更多收益率。
现有传统的情感分类方法主要分为以下步骤:文本预处理、构建情感字典、分词、模型训练及其分类等。其中情感词典是情感分类的核心部分,包括积极情感词和消极情感词、否定词典以及表征程度的副词词典。但传统的分类方法存在精度问题和背景知识的问题。
精度问题在传统方法上很难得到提升,背景知识问题需要许多预处理,需提前准备好各类情感字典,这一步骤往往需要人工手动操作才能保证情感分类的准确率,适用性和扩展性都较差。同时目前传统的机器学习分类方法例如贝叶斯分类、支持向量机、K最近邻值等,此类方法多属于浅层学习,虽然有一定的效果,但无法应对短文本语义的复杂环境。
发明内容
鉴于此,本申请的目的在于提供一种数据处理方法、模型训练方法、装置及电子设备,以改善现有情感分类方法精度不高以及适用性差的问题。
本申请的实施例是这样实现的:
第一方面,本申请实施例提供了一种数据处理方法,所述方法包括:获取网页中与指定对象相关的多条评论数据;利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果。本申请实施例中,利用基于知识蒸馏获得的神经网络模型来对从网页中获取的与指定对象相关的评论数据进行情感分类,通过采用知识蒸馏技术,以此来提高分类结果的准确性,蒸馏后的网络结构更简单,能节约训练所需的时间。
结合第一方面实施例的一种可能的实施方式,在得到所述分类结果之后,所述方法还包括:筛选出分类结果为指定类型的评论数据。本申请实施例中,在得到分类结果后,还可以有针对性的筛选出分类结果为指定类型的评论数据,进而可以根据该数据采取针对性的策略。
结合第一方面实施例的一种可能的实施方式,通过以下方法训练得到所述神经网络模型:获取网页中与指定目标相关的多条评论数据,得到样本集;对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到所述神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。本申请实施例中,通过带有不同标签的样本集对初始神经网络模型进行训练,得到训练好的教师网络,然后对训练好的教师网络进行压缩,将压缩后的训练好的教师网络的模型参数以及软标签来训练学生网络,使得训练得到的结构更简单学生网络在达到结构更复杂的教师网络的精度,同时又由于缩小了网络结构,使得训练所需的时间大幅缩小。
结合第一方面实施例的一种可能的实施方式,所述预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。本申请实施例中,在训练学生网络时,采用教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及学生网络的网络隐藏层与对应的教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数作为损失函数,以此来使提高网络的精度和准确性。
结合第一方面实施例的一种可能的实施方式,所述损失函数为5.0*Lce+2.0*Lmlm+1.0*Lcos,其中,Lce为所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵,Lmlm为所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,所述Lcos为所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值。本申请实施例中,在训练学生网络时,使用的损失函数为Lce、Lmlm、Lcos这三种损失函数的线性和,同时给予不同损失函数不同的权重,且Lce、Lmlm、Lcos这三种损失函数的权重依次降低,使得基于知识蒸馏技术来训练出来的学生网络在简化了网络结构的同时,精度仍然能保持原网络的精度。
第二方面,本申请实施例还提供了一种模型训练方法,包括:获取网页中与指定目标相关的多条评论数据,得到样本集;对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。本申请实施例中,通过带有不同标签的样本集对初始神经网络模型进行训练,得到训练好的教师网络,然后对训练好的教师网络进行压缩,将压缩后的训练好的教师网络的模型参数以及软标签来训练学生网络,使得训练得到的结构更简单学生网络在达到结构更复杂的教师网络的精度,同时又由于缩小了网络结构,使得训练所需的时间大幅缩小。
第三方面,本申请实施例还提供了一种数据处理装置,所述装置包括:获取模块、分类模块;获取模块,用于获取网页中与指定对象相关的多条评论数据;分类模块,用于利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果。
第四方面,本申请实施例还提供了一种模型训练装置,包括:获取模块、标记模块、第一训练模块、分类模块以及第二训练模块;获取模块,用于获取网页中与指定目标相关的多条评论数据,得到样本集;标记模块,用于对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;第一训练模块,用于利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;分类模块,用于利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;第二训练模块,用于利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。
第五方面,本申请实施例还提供了一种电子设备,包括:存储器和处理器,所述处理器与所述存储器连接;所述存储器,用于存储程序;所述处理器,用于调用存储于所述存储器中的程序,以执行上述第一方面实施例和/或结合第一方面实施例的任一种可能的实施方式提供的方法,或者,执行上述第二方面实施例提供的方法。
第六方面,本申请实施例还提供了一种存储介质,其上存储有计算机程序,所述计算机程序被处理器运行时,执行上述第一方面实施例和/或结合第一方面实施例的任一种可能的实施方式提供的方法,或者,执行上述第二方面实施例提供的方法。
本申请的其他特征和优点将在随后的说明书阐述,并且,部分地从说明书中变得显而易见,或者通过实施本申请实施例而了解。本申请的目的和其他优点可通过在所写的说明书以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。通过附图所示,本申请的上述及其它目的、特征和优势将更加清晰。在全部附图中相同的附图标记指示相同的部分。并未刻意按实际尺寸等比例缩放绘制附图,重点在于示出本申请的主旨。
图1示出了本申请实施例提供的一种模型训练方法的流程示意图。
图2示出了本申请实施例提供的一种数据处理方法的流程示意图。
图3示出了本申请实施例提供的一种数据处理装置的模块框图。
图4示出了本申请实施例提供的一种模型训练装置的模块框图。
图5示出了本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中诸如“第一”、“第二”等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
再者,本申请中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。
鉴于现有情感分类方法存在的精度不高以及适用性差的问题,因此,本申请实施例提供了一种全新的数据处理方法,以对用户在电商平台留下的评论数据进行处理。本申请实施例采用基于知识蒸馏获得的学生网络(神经网络模型)作为情感分类模型,来对获取到的评论数据进行情感分类,以解决现有情感分类方法存在的精度不高以及适用性差的问题。下面将结合图1,对本申请实施例提供的模型训练方法进行说明。
步骤S101:获取网页中与指定目标相关的多条评论数据,得到样本集。
利用爬虫技术获得电商网页中针对指定目标的评论数据,同时利用数据转化技术,将非结构化数据转为结构数据并保存。随着网购日益流行,用户在电商平台上发表意见、表达情感的需求也愈发强烈,继而产生了海量亟待处理的商品评论文本。通过对用户在电商平台留下的评论作为分析数据,并对其进行情感分析挖掘分类,可获知用户对商品的情感认同度,因此商家可以及时获知用户需求,从而了解产品的不足之处,可以对销售策略进行相应的调整,从而提高商品收益率。
在不同的应用场景中,所指定的目标有所不同,如应用于诸如京东、淘宝、拼多多等电商平台,则该指定目标可以是某个店铺下的某一件商品;如应用于饿了么、美团等餐饮平台,则该指定目标可以是某个店铺下的某一菜品。
步骤S102:对所述样本集中的每一条评论数据进行标签标记。
在得到样本集后,对样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项。
步骤S103:利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络。
在得到标记后的样本集后,利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络。一种实施方式下,该初始神经网络模型为BERT(BidirectionalEncoder Representations from Transformers)网络。当然该初始神经网络模型也可以是其他神经网络,如BiLSTM(Bi-directional Long Short-Term Memory,双向长短记忆)词法分析模型等。
其中,在训练时,可以将标记后的样本集按照一定比例,如7:3的比例分为训练集、测试集,同时设置相关数据预处理参数,如序列长度(如maxlen=100),句子输入数(如batch_size=32,其可以根据样本集大小,根据2的次方数进行相应的调整)等,然后将数据随机打乱,将打好标签的训练集和测试集以及标签转化为模型输入格式,标签改为整数类型放在每一行的最前面,标签后排放具体的文本内容。其中,由于不同评述数据之间的长短不一以及词组各不相同,因此在将评论数据转化为模型输入格式时,可以对文本进行预处理,在预处理时,用[unused1]来表示空格类字符,不在列表的字符用[UNK]表示,通过用0填充,让每条文本的长度相同。之后加载预训练的初始神经网络模型,并设置足够小的学习率,例如为1e-5,模型训练迭代次数,例如为10次,以及设置优化算法,例如可以为Adam算法,参数设置完成后进行交叉验证训练,对预训练好的模型进行fine tunning(微调),迭代次数达到循环参数上限,模型停止fine tunning训练并保存。加载训练好的模型,对测试集进行预测,并根据打好的标签对预测结果进行准确率、F1值、正负召回率等指标的计算并保存,若指标表征模型合格,则得到训练好的教师网络,若不合适,则调整模型参数继续训练,直至模型合格为止。
步骤S104:利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本。
在得到训练好的教师网络后,利用该教师网络对样本集进行情感分类,并将分类结果作为新的训练样本。也即利用教师网络预测的soft label(软标签)作为样本的标签,从而得到新的训练样本。
步骤S105:利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型。
利用新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型。其中,对学生网络训练的过程与训练教师网络的过程类似,在此不再说明。
其中,学生网络为对教师网络进行压缩(剪枝)后得到的模型,例如,在对教师网络进行压缩时,每两层隐藏层压缩为一层。由于隐藏层维度的变化比层数的变化对计算性能来说效果相对较小,所以本申请实例中将学生网络的隐藏层层数变为之前计算层数的二分之一,例如,原本隐藏层层数有1、2、3、4、5、6层共六层,压缩后为1、3、5或者2、4、6共三层。训练时,利用教师(teacher)网络的软标签和teacher的隐藏层参数来训练student(学生)模型。
其中,一种实施方式下,对学生网络进行训练时,所使用的损失函数为:教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及学生网络的网络隐藏层与对应的教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
若用Lce表示教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵,用Lmlm表示学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,用Lcos表示学生网络的网络隐藏层与对应的教师网络的网络隐藏层的余弦相似度值,则一种实施方式下,训练时的损失函数表示为5.0*Lce+2.0*Lmlm+1.0*Lcos。
其中,教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵Lce如下:
式中,y和c分别为教师(teacher)网络和学生(student)网络的softmax层的输出值,ps代表学生网络的概率事件真实分布值,θs代表学生网络的各个参数,x表示各层输入值。
学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵Lmlm如下:
式中,y和c分别为教师(teacher)网络和学生(student)网络的softmax层的输出值,ps代表学生网络的概率事件真实分布值,pt代表教师网络的概率事件真实分布值,θs代表学生网络的各个参数,θt代表学生网络的各个参数,x表示各层输入值。
学生网络的网络隐藏层与对应的教师网络的网络隐藏层的余弦相似度值Lcos如下:
式中,h(i,j)表示student网络隐藏层中第i层第j个神经元的输出,后面这个h(i,I(j))表示teacher网络隐藏层中的第i层第j个神经元的输出。
其中,真实的one-hot标签是将对样本集进行标记时所使用的0、1、2数字标签转换为用0、1编码的one-hot标签,在one-hot标签中选择能够代表标签的位置,将其置为1,其余位置为0。
经过上述的模型训练方法,便可以得到训练好的神经网络模型(学生网络),然后利用事先训练好的神经网络模型对待处理的评论数据进行情感分类,便可得到分析结果,进而根据分析结果及时获知用户需求,从而了解产品的不足之处,可以对销售策略进行相应的调整,从而提高商品收益率。下面将结合图2,对本申请实施例提供的数据处理方法进行说明。
步骤S201:获取网页中与指定对象相关的多条评论数据。
当需要对网页中某个指定对象的相关的多条评论数据进行情感分析时,则利用爬虫技术获得网页中与指定对象相关的多条评论数据,同时利用数据转化技术,将非结构化数据转为结构数据并保存。例如,获取电商网页中A店铺下售卖的B产品相关的多条评论数据。需要说明的是,不同的应用场景下所对应的指定对象不同,例如,应用到电商网页的评论数据中来分析消费者对产品和服务的反馈意见,从而更全面的获得商品的评价信息,为运营人员和商家提供商品改进意见和运营决策指导,实现真正意义上的商品舆论分析,也可帮助平台更好的向用户推荐好评的产品以及服务。
步骤S202:利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果。
在获取到网页中与指定对象相关的多条评论数据后,利用事先训练好的神经网络模型来对多条评论数据进行情感分类,得到分类结果,该分类结果包括正面评价、负面评价和中性评价中的至少一种结果。
在利用事先训练好的神经网络模型来对多条评论数据进行情感分类时,可以对文本数据进行预处理,通过用0填充,使得每条评论数据的长度相同。其中,神经网络模型为基于知识蒸馏获得的学生网络。例如为基于知识蒸馏获得的小型BERT网络。
一种实施方式下,在得到分类结果后,该方法还包括:筛选出分类结果为指定类型的评论数据。例如,当分类结果包括正面评价、负面评价和中性评价,筛选出分类结果为指定类型的评论数据可以是:筛选出分类结果为正面评价以及负面评价的评论数据。以便于从正面评价的评论数据中找到共同点,以及从负面评价的评论数据中找到不足之处,便于之后对产品以及服务等进行改进。需要说明的是,不同的应用需求,所筛选出分类结果为指定类型的评论数据不同,例如,将本申请实施例提供的情感分析技术应用于网页的自动监控,以过滤掉垃圾、不健康、恶意等信息,以节省人力资源,维护互联网信息的健康环境。
其中,一种实施方式下,上述的事先训练好的神经网络模型可以是由第三方进行训练,使用方直接使用,当然与可以是由使用方自己训练。一种实施方式下,通过上述的模型训练方法来得到该神经网络模型,也即:获取网页中与指定目标相关的多条评论数据,得到样本集;对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到所述神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。该部分参阅前述模型训练方法中相同部分,此处不再赘述。当然,该神经网络模型也可以是通过采用其他的训练方法训练获得。
本申请实施例还提供了一种数据处理装置100,如图3所示。该数据处理装置100包括:获取模块110、分类模块120。
获取模块110,用于获取网页中与指定对象相关的多条评论数据。
分类模块120,用于利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果。
可选地,该数据处理装置100还包括:筛选模块,用于在分类模块120利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果之后,筛选出分类结果为指定类型的评论数据。
本申请实施例所提供的数据处理装置100其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
本申请实施例还提供了一种模型训练装置200,如图4所示。该模型训练装置200包括:获取模块210、标记模块220、第一训练模块230、分类模块240、第二训练模块250。
获取模块210,用于获取网页中与指定目标相关的多条评论数据,得到样本集。
标记模块220,用于对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项。
第一训练模块230,用于利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络。
分类模块240,用于利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本。
第二训练模块250,用于利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。
其中,可选地,预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
一种实施方式下,所述损失函数为5.0*Lce+2.0*Lmlm+1.0*Lcos,其中,Lce为所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵,Lmlm为所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,所述Lcos为所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值。
本申请实施例所提供的模型训练装置200其实现原理及产生的技术效果和前述方法实施例相同,为简要描述,装置实施例部分未提及之处,可参考前述方法实施例中相应内容。
如图5所示,图5示出了本申请实施例提供的一种电子设备300的结构框图。所述电子设备300包括:收发器310、存储器320、通讯总线330以及处理器340。
所述收发器310、所述存储器320、处理器340各元件相互之间直接或间接地电性连接,以实现数据的传输或交互。例如,这些元件相互之间可通过一条或多条通讯总线330或信号线实现电性连接。其中,收发器310用于收发数据。存储器320用于存储计算机程序,如存储有图3或图4中所示的软件功能模块,即图3的数据处理装置100或图4的模型训练装置200。其中,数据处理装置100或模型训练装置200包括至少一个可以软件或固件(firmware)的形式存储于所述存储器320中或固化在所述电子设备300的操作系统(operatingsystem,OS)中的软件功能模块。所述处理器340,用于执行存储器320中存储的可执行模块,例如数据处理装置100或模型训练装置200包括的软件功能模块或计算机程序。例如,处理器340执行数据处理装置100时,用于获取网页中与指定对象相关的多条评论数据;利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果。又例如,例如,处理器340执行模型训练装置200时,用于获取网页中与指定目标相关的多条评论数据,得到样本集;对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。
其中,存储器320可以是,但不限于,随机存取存储器(Random Access Memory,RAM),只读存储器(Read Only Memory,ROM),可编程只读存储器(Programmable Read-OnlyMemory,PROM),可擦除只读存储器(Erasable Programmable Read-Only Memory,EPROM),电可擦除只读存储器(Electric Erasable Programmable Read-Only Memory,EEPROM)等。
处理器340可能是一种集成电路芯片,具有信号的处理能力。上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(NetworkProcessor,NP)等;还可以是数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(FieldProgrammable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本申请实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器340也可以是任何常规的处理器等。
其中,上述的电子设备300,包括但不限于计算机、服务器等。
本申请实施例还提供了一种非易失性计算机可读取存储介质(以下简称存储介质),该存储介质上存储有计算机程序,该计算机程序被计算机如上述的电子设备300运行时,执行上述所示的数据处理方法以及模型训练方法。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,笔记本电脑,服务器,或者电子设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。

Claims (9)

1.一种数据处理方法,其特征在于,所述方法包括:
获取网页中与指定对象相关的多条评论数据;
利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果;
其中,所述神经网络模型为利用新的训练样本和预设的损失函数对学生网络进行训练得到,所述新的训练样本为利用教师网络对样本集进行情感分类得到的分类结果;所述预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
2.根据权利要求1所述的方法,其特征在于,在得到所述分类结果之后,所述方法还包括:
筛选出分类结果为指定类型的评论数据。
3.根据权利要求1所述的方法,其特征在于,通过以下方法训练得到所述神经网络模型:
获取网页中与指定目标相关的多条评论数据,得到样本集;
对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;
利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;
利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;
利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到所述神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型。
4.根据权利要求1所述的方法,其特征在于,所述损失函数为5.0*Lce+2.0*Lmlm+1.0*Lcos,其中,Lce为所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵,Lmlm为所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,所述Lcos为所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值。
5.一种模型训练方法,其特征在于,包括:
获取网页中与指定目标相关的多条评论数据,得到样本集;
对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;
利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;
利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;
利用所述新的训练样本和预设损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型;
其中,所述预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
6.一种数据处理装置,其特征在于,所述装置包括:
获取模块,用于获取网页中与指定对象相关的多条评论数据;
分类模块,用于利用事先训练好的神经网络模型来对所述多条评论数据进行情感分类,得到分类结果,所述神经网络模型为基于知识蒸馏获得的学生网络,所述分类结果包括正面评价、负面评价和中性评价中的至少一种结果;
其中,所述神经网络模型为利用新的训练样本和预设的损失函数对学生网络进行训练得到,所述新的训练样本为利用教师网络对样本集进行情感分类得到的分类结果;所述预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
7.一种模型训练装置,其特征在于,包括:
获取模块,用于获取网页中与指定目标相关的多条评论数据,得到样本集;
标记模块,用于对所述样本集中的每一条评论数据进行标签标记,其中,对每一条评论数据进行标记的标签包括代表负面评价的0、代表中性评价的1、代表正面评价的2中的任一项;
第一训练模块,用于利用标记后的样本集对初始神经网络模型进行训练,得到训练好的教师网络;
分类模块,用于利用所述教师网络对所述样本集进行情感分类,并将分类结果作为新的训练样本;
第二训练模块,用于利用所述新的训练样本和预设的损失函数对学生网络进行训练,得到训练好的神经网络模型,其中,所述学生网络为对所述教师网络进行压缩后得到的模型;
其中,所述预设的损失函数为:所述教师网络的softmax层输出的概率分布与学生网络的softmax层输出的概率分布的交叉熵、所述学生网络的softmax层输出的概率分布与真实的one-hot标签的交叉熵,以及所述学生网络的网络隐藏层与对应的所述教师网络的网络隐藏层的余弦相似度值进行加权求和得到的函数。
8.一种电子设备,其特征在于,包括:
存储器和处理器,所述处理器与所述存储器连接;
所述存储器,用于存储程序;
所述处理器,用于调用存储于所述存储器中的程序,以执行如权利要求1-4中任一项所述的方法,或者,执行如权利要求5所述的方法。
9.一种存储介质,其特征在于,其上存储有计算机程序,所述计算机程序被处理器运行时,执行如权利要求1-4中任一项所述的方法,或者,执行如权利要求5所述的方法。
CN202010624954.5A 2020-06-30 2020-06-30 一种数据处理方法、模型训练方法、装置及电子设备 Active CN111753092B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010624954.5A CN111753092B (zh) 2020-06-30 2020-06-30 一种数据处理方法、模型训练方法、装置及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010624954.5A CN111753092B (zh) 2020-06-30 2020-06-30 一种数据处理方法、模型训练方法、装置及电子设备

Publications (2)

Publication Number Publication Date
CN111753092A CN111753092A (zh) 2020-10-09
CN111753092B true CN111753092B (zh) 2024-01-26

Family

ID=72678571

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010624954.5A Active CN111753092B (zh) 2020-06-30 2020-06-30 一种数据处理方法、模型训练方法、装置及电子设备

Country Status (1)

Country Link
CN (1) CN111753092B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112116441B (zh) * 2020-10-13 2024-03-12 腾讯科技(深圳)有限公司 金融风险分类模型的训练方法、分类方法、装置及设备
CN112308237B (zh) * 2020-10-30 2023-09-26 平安科技(深圳)有限公司 一种问答数据增强方法、装置、计算机设备及存储介质
EP4227857A4 (en) * 2020-11-17 2023-12-20 Huawei Technologies Co., Ltd. MODEL DISTILLATION LEARNING METHOD AND ASSOCIATED APPARATUS, DEVICE AND READABLE STORAGE MEDIUM
CN112463947A (zh) * 2020-11-26 2021-03-09 上海明略人工智能(集团)有限公司 营销方案迭代方法、系统、计算机设备及可读存储介质
CN112927034B (zh) * 2021-01-28 2024-08-13 长沙市到家悠享网络科技有限公司 信息处理方法及装置
CN112950580B (zh) * 2021-02-25 2024-07-12 北京金山云网络技术有限公司 质量评价方法、质量评价模型的训练方法和装置
CN112926737A (zh) * 2021-03-01 2021-06-08 创新奇智(上海)科技有限公司 一种模型训练方法、数据处理方法、装置及电子设备
CN113222139B (zh) * 2021-04-27 2024-06-14 商汤集团有限公司 神经网络训练方法和装置、设备,及计算机存储介质
CN113297383B (zh) * 2021-06-22 2023-08-04 苏州大学 基于知识蒸馏的语音情感分类方法
CN114435795A (zh) * 2022-02-25 2022-05-06 湘南学院 一种垃圾分类系统
CN117351302B (zh) * 2023-10-07 2024-06-07 深圳市翻江倒海互动娱乐有限公司 一种图像生成模型的训练方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308318A (zh) * 2018-08-14 2019-02-05 深圳大学 跨领域文本情感分类模型的训练方法、装置、设备及介质
CN110232109A (zh) * 2019-05-17 2019-09-13 深圳市兴海物联科技有限公司 一种网络舆情分析方法以及系统
CN110379506A (zh) * 2019-06-14 2019-10-25 杭州电子科技大学 针对心电图数据使用二值化神经网络的心律不齐检测方法
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110807434A (zh) * 2019-11-06 2020-02-18 威海若维信息科技有限公司 一种基于人体解析粗细粒度结合的行人重识别系统及方法
CN111079406A (zh) * 2019-12-13 2020-04-28 华中科技大学 自然语言处理模型训练方法、任务执行方法、设备及系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107247989B (zh) * 2017-06-15 2020-11-24 北京图森智途科技有限公司 一种实时的计算机视觉处理方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109308318A (zh) * 2018-08-14 2019-02-05 深圳大学 跨领域文本情感分类模型的训练方法、装置、设备及介质
CN110232109A (zh) * 2019-05-17 2019-09-13 深圳市兴海物联科技有限公司 一种网络舆情分析方法以及系统
CN110379506A (zh) * 2019-06-14 2019-10-25 杭州电子科技大学 针对心电图数据使用二值化神经网络的心律不齐检测方法
CN110674880A (zh) * 2019-09-27 2020-01-10 北京迈格威科技有限公司 用于知识蒸馏的网络训练方法、装置、介质与电子设备
CN110807434A (zh) * 2019-11-06 2020-02-18 威海若维信息科技有限公司 一种基于人体解析粗细粒度结合的行人重识别系统及方法
CN111079406A (zh) * 2019-12-13 2020-04-28 华中科技大学 自然语言处理模型训练方法、任务执行方法、设备及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"自适应性多教师多学生知识蒸馏学习";宋迦陵;《中国优秀硕士学位论文全文数据库(社会科学Ⅱ辑)》(第09期);H127-50 *
基于深度特征蒸馏的人脸识别;葛仕明;赵胜伟;刘文瑜;李晨钰;;北京交通大学学报(第06期);第27-33, 41页 *

Also Published As

Publication number Publication date
CN111753092A (zh) 2020-10-09

Similar Documents

Publication Publication Date Title
CN111753092B (zh) 一种数据处理方法、模型训练方法、装置及电子设备
CN113626719B (zh) 信息推荐方法、装置、设备、存储介质及计算机程序产品
CN110162700A (zh) 信息推荐及模型的训练方法、装置、设备以及存储介质
CN110263265A (zh) 用户标签生成方法、装置、存储介质和计算机设备
CN109598387A (zh) 基于双向跨模态注意力网络模型的股价预测方法及系统
CN116720004B (zh) 推荐理由生成方法、装置、设备及存储介质
US20220366295A1 (en) Pre-search content recommendations
CN115659995B (zh) 一种文本情感分析方法和装置
Vilakone et al. Movie recommendation system based on users’ personal information and movies rated using the method of k-clique and normalized discounted cumulative gain
CN114707041B (zh) 消息推荐方法、装置、计算机可读介质及电子设备
CN117216535A (zh) 推荐文本生成模型的训练方法、装置、设备及介质
CN110275953B (zh) 人格分类方法及装置
CN116958622A (zh) 数据的分类方法、装置、设备、介质及程序产品
CN115525831A (zh) 推荐模型训练方法、推荐方法、装置及计算机可读存储介质
CN115238188A (zh) 一种对象推荐方法和系统及对象推荐模型系统
CN115186085A (zh) 回复内容处理方法以及媒体内容互动内容的交互方法
Zarzour et al. Sentiment analysis based on deep learning methods for explainable recommendations with reviews
Thomas et al. Machine learning techniques for recommender systems–a comparative case analysis
Paul et al. A weighted hybrid recommendation approach for user’s contentment using natural language processing
CN116956289B (zh) 动态调整潜在黑名单和黑名单的方法
CN113837802A (zh) 一种时序过程与手机缺陷特征深度融合的二手手机价格预测算法
CN111382232A (zh) 问答信息处理方法、装置及计算机设备
CN114429384B (zh) 基于电商平台的产品智能推荐方法及系统
Drif et al. A sentiment enhanced deep collaborative filtering recommender system
Wei et al. Sequential recommendation based on long-term and short-term user behavior with self-attention

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: Room 04, 02 / F, building 4, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN AINNOVATION TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
CB02 Change of applicant information

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant after: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Address before: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Applicant before: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Patentee after: Innovation Qizhi Technology Group Co.,Ltd.

Country or region after: China

Address before: Room 501, block a, Haier International Plaza, 939 Zhenwu Road, Jimo Economic Development Zone, Qingdao, Shandong 266200

Patentee before: Qingdao Chuangxin Qizhi Technology Group Co.,Ltd.

Country or region before: China

CP03 Change of name, title or address