CN109710763A - 一种文本数据的分类方法、装置以及系统 - Google Patents
一种文本数据的分类方法、装置以及系统 Download PDFInfo
- Publication number
- CN109710763A CN109710763A CN201811605659.4A CN201811605659A CN109710763A CN 109710763 A CN109710763 A CN 109710763A CN 201811605659 A CN201811605659 A CN 201811605659A CN 109710763 A CN109710763 A CN 109710763A
- Authority
- CN
- China
- Prior art keywords
- text data
- neural network
- training
- network model
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 238000012549 training Methods 0.000 claims abstract description 62
- 238000003062 neural network model Methods 0.000 claims abstract description 41
- 238000004891 communication Methods 0.000 claims description 11
- 230000015654 memory Effects 0.000 claims description 11
- 238000013528 artificial neural network Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 10
- 238000012360 testing method Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000007787 long-term memory Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 230000006403 short-term memory Effects 0.000 claims description 3
- 230000001537 neural effect Effects 0.000 claims description 2
- 238000003745 diagnosis Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 description 9
- 238000013527 convolutional neural network Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000013136 deep learning model Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000012216 screening Methods 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种文本数据的分类方法、装置及系统,该方法包括:获取文本数据集;对所述文本数据集进行预处理,形成训练数据集;构建深度神经网络模型;基于所述训练数据集对所述深度神经网络模型进行训练;使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别。相较于现有技术,本发明能够针对特定文本数据进行自动化分类识别,提高分类效率,降低计算成本,可以有效地辅助人们判断特定文本数据,同时提高诊断效率,降低误诊率,满足判断要求。
Description
技术领域
本发明涉及人工智能领域,特别涉及一种文本数据的分类方法、装置以及系统。
背景技术
随着计算机技术的迅猛发展,越来越多的行业开始使用计算机技术进行日常的工作以达到提高工作效率的目的。但对于医疗,金融等行业,由于其行业所具备的特性,传统的计算机技术并不能够解决大多数问题。通常由于其所使用的数据规模较大,或者个体之间差异性较强等原因,导致传统机器学习算法受限于自身的局限性,对于特异样本点和大规模的样本数据集,算法本身难以进行合理的推理预测,可扩展性较差,并且由于其中的参数普遍由人为进行设定,对于数据的特性拟合并不够完善。
深度学习技术作为一项新兴技术逐渐被广泛地应用于各个领域,它可以对于给定的文本、图表等数据集合,通过相关算法对于其数据的具体分布特性,自动的优化调节算法的内部参数,实现基于当前数据特性对于数据的可能情况进行推理预测的目的。深度学习是一种特殊的机器学习,它可以具有较高的运算性能也十分灵活便于移植使用。与传统的机器学习方法不同的是,深度学习在模型的训练阶段通常需要使用到大量的训练样本数据,通过学习一种深层非线性网络结构来实现复杂函数的逼近,与人工构造的特征相比,在大规模数据训练下生成的深度学习模型,能够更好的学习数据本身的特征。
而随着计算机技术的不断发展,文本数据也呈现爆发性的增长,通过文本数据进行样本的分类成为了一项需要耗费大量时间的工作,用户需要面对海量的文本数据并逐一筛查。而且,筛查结果也极大程度上取决于用户的个人能力水平以及当前工作状态,否则,极易出现误判和漏判的现象。
目前传统的计算机分类识别辅助工具只能适用于简单的统计以及分类计算,缺乏针对于特定文本数据的自动化诊断识别方法,而通过使用深度学习技术,对文本数据进行模型建立,最终将训练完成的模型对测试文本数据进行分类推理,输出正确的分类识别结果,从而达到提高工作效率,减轻相关工作任务量的最终目的。
发明内容
针对现有技术存在的不足,本发明旨在解决针对文本数据分类识别缺乏有效的识别方法的问题,提供一种文本数据的分类方法。装置以及系统,提高分类效率,降低计算成本,可以有效地辅助人们判断特定文本数据,同时提高诊断效率,降低误诊率,满足判断要求。
为解决上述技术问题,本发明提供了一种文本数据的分类方法,所述方法包括:
获取文本数据集;
对所述文本数据集进行预处理,形成训练数据集;
构建深度神经网络模型;
基于所述训练数据集对所述深度神经网络模型进行训练;
使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别。
优选地,所述对所述文本数据集进行预处理,包括:
提取和填补重要数据信息,去除无效或者敏感信息。
优选地,所述对所述文本数据集进行预处理,形成训练数据集,包括:
对每列数据计算其高斯分布,依据相应分布进行对应数值填充,删除缺失特征信息过多的个体,使用logistics算法进行特征筛选,融合形成训练数据集。
优选地,所述构建深度神经网络模型,包括卷积层、池化层、LSTM(Long Short-Term Memory,长短期记忆)层、全连接层:
卷积层,由4层卷积层组成,其中各个层的卷积核大小分别是1*3,3*1,3*3,1*1,步长均设置为1,所使用的激活函数为Relu;
池化层,由2层池化层组成,采用max_pooling的方式,步长设置为2,与卷积层组合使用;
LSTM层,由1层组成,隐含层节点数设置为64,加入dropout方法,处理由卷积层得到的文本数据特征向量;
全连接层,由2层组成,通道数分别为128和2,采用softmax函数进行映射,得到具体分类类别的概率。
优选地,所述基于所述训练数据集对所述深度神经网络模型进行训练,包括:
将所述训练数据集分为训练集、训练集标签、测试集、测试集标签;
在keras框架下,设定所述深度神经网络模型需要分类的num_class的值,使用所述训练数据集训练所述深度神经网络模型,迭代预设次数后停止训练;
保存迭代结束后且训练完成的深度神经网络模型。
优选地,使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别,包括:
用户选择训练完成的深度神经网络模型,输入待分类的文本数据路径;
经由训练完成的深度神经网络模型处理,输出分类结果。
为解决上述技术问题,本发明还提供了一种文本数据的分类装置,采用上述任一种文本数据的分类方法,所述装置包括:
数据载入模块,用于获取与文本数据分类对应的数据集,载入用户选择的文本数据;
模式设定模块,用于设定深度神经网络模型训练模式或深度神经网络数据推理模式;
用户输入模块,用于接收用户基于当前需求的输入,当前模式为深度神经网络模型训练模式时,接收待训练的文本数据集,当前模式为深度神经网络数据推理模式时,接收待分类的文本数据;
模型保存模块,用于保存训练完成的深度神经网络模型;
结果输出模块,用于输出对待分类的文本数据进行分类识别的结果。
优选地,所述装置还包括:
算法调用模块,用于根据设定的模式,调用对应算法进行模型训练或数据推理。
为解决上述技术问题,本发明还提供了一种文本数据的分类系统,所述系统包括:输入部分、输出部分、通信总线、处理器、存储器以及驱动器,其中,所述输入部分、输出部分、处理器、存储器以及驱动器通过通信总线进行连接;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序时实现如上任一种文本数据的分类方法的步骤。
本发明提供的文本数据的分类方法、装置以及系统,与现有技术相比,具有如下有益效果:
通过使用深度神经网络技术,能够针对特定文本数据进行自动化分类识别,提高分类效率,降低计算成本,可以有效地辅助人们判断特定文本数据,同时提高诊断效率,降低误诊率,满足判断要求。
附图说明
为了更清楚地说明本发明实施例或现有技术的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例提供的一种文本数据的分类方法的流程图;
图2为本发明实施例提供的深度神经网络模型的功能结构设计图;
图3为本发明实施例提供的一种文本数据的分类装置的结构图;
图4为本发明实施例提供的一种文本数据的分类系统的示意性框架图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了使本领域技术人员更好地理解本发明方案,下面结合附图和具体实施方式对本发明作进一步的详细说明。
如图1所示,是本发明实施例提供的一种文本数据的分类方法的流程图,所述方法包括以下步骤:
S101:获取文本数据集;
在本实施例中,文本数据集以网上公开的特定文本数据为主体,从中获取2000个个体的文本数据。
可选地,本实施例中的文本数据集可以根据用户不同的需求进行相应的更换。
S102:对所述文本数据集进行预处理,形成训练数据集;
在本实施例中,由于不同个体标注生成的文本数据具有的属性不尽相同,经常会有部分数据缺失的情况出现,因此需要对文本数据进行数据预处理,提取和填补重要的数据信息并去除其它无效或者敏感信息,整理合并形成训练数据集。
可选地,在本实施例中由于数据样本标注人员不一,在标注的指标选择上也存在一定的差别,为了统一整体数据的特性,对于每列数据计算其高斯分布,依据相应分布进行对应数值填充,同时对于缺失特征信息过多的个体进行删除处理,并使用logistics算法进行特征筛选,最终融合形成训练数据集。
S103:构建深度神经网络模型;
在本实施例中,基于卷积神经网络CNN和长短期记忆(Long Short-Term Memory,LSTM)网络进行网络模型构建,该模型主要由输入数据、CNN、LSTM以及全连接层组成。CNN包括卷积层和池化层。其中由于LSTM网络结构通常参数较多,训练速度缓慢等问题,因此设置其中的隐含层节点数为64,减少相应参数量,并在这之后使用softmax函数将输出结果进行映射,得到对应的分类类别概率。
使用CNN+LSTM模型进行分类识别的主要思想是基于当前数据集的数据分布特性,可以在不模型参数复杂度的前提下提高准确率,同时还减少了超参数的数量,在分类识别的同时,节约计算资源。如图2所示,模型具体设计如下:
a.卷积层,由4层卷积层组成,其中各个层的卷积核大小分别是1*3,3*1,3*3,1*1,步长均设置为1,所使用的激活函数为Relu;
b.池化层,由2层池化层组成,采用max_pooling的方式,步长设置为2,与卷积层组合使用;
c.LSTM层,由1层组成,隐含层节点数设置为64,加入dropout方法,处理由卷积层得到的文本数据特征向量;
d.全连接层,由2层组成,通道数分别为128和2,采用softmax函数进行映射,得到具体分类类别的概率。
S104:基于所述训练数据集对所述深度神经网络模型进行训练;
在本实施例中,基于Agx-2芯片下,使用keras框架,将训练数据分成训练集、训练集标签、测试集、测试集标签。采用反向传播算法和随机梯度下降方法,根据前向传播loss值的大小,来进行迭代更新每一层的权重。直到模型的loss值趋向于稳定时,停止训练模型。为了提高本发明模型的收敛速度,引入batch normalization的方法,对卷积之后的数据归一化,然后使其继承原数据的结构特点。这能够有效的缩短模型训练的周期,以及能够得到更好的深度学习模型。
具体实施细节如下:
(1)将所述训练数据集分为训练集、训练集标签、测试集、测试集标签;
(2)在keras框架下,设定所述深度神经网络模型需要分类的num_class的值,使用所述训练数据集训练所述深度神经网络模型,迭代预设次数后停止训练;
(3)保存迭代结束后且训练完成的深度神经网络模型。
S105:使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别。
在本实施例中,用户如果需要使用训练好的深度神经网络模型对于未知文本数据进行推理,输入到保存的深度学习模型中,提取样本的深度学习特征,采用CNN卷积神经网络,通过对文本数据进行有效特征提取后,使用LSTM对相应特征进行融合输出。
具体实施细节如下:
a.用户选择训练完成的深度神经网络模型,输入待分类的文本数据路径;
b.经由训练完成的深度神经网络模型处理,输出分类结果。
本发明实施例提供的文本数据的分类方法,通过使用深度神经网络技术,能够针对特定文本数据进行自动化分类识别,提高分类效率,降低计算成本,可以有效地辅助人们判断特定文本数据,同时提高诊断效率,降低误诊率,满足判断要求。
上文对于本发明提供的一种文本数据的分类方法的实施例进行了详细的描述,本发明还提供了一种与该方法对应的文本数据的分类装置以及系统,由于装置、系统的实施例与方法部分的实施例相互照应,因此装置、系统的实施例请参见方法部分的实施例的描述,这里暂不赘述。
如图3所示,是本发明实施例提供的一种文本数据的分类装置的结构图,应用于上述任一种文本数据的分类方法的实施例,所述装置包括:
数据载入模块301,用于获取与文本数据分类对应的数据集,载入用户选择的文本数据;
模式设定模块302,用于设定深度神经网络模型训练模式或深度神经网络数据推理模式;
用户输入模块303,用于接收用户基于当前需求的输入,当前模式为深度神经网络模型训练模式时,接收待训练的文本数据集,当前模式为深度神经网络数据推理模式时,接收待分类的文本数据;
模型保存模块304,用于保存训练完成的深度神经网络模型;
结果输出模块305,用于输出对待分类的文本数据进行分类识别的结果。
可选地,所述装置还包括:
算法调用模块306,用于根据设定的模式,调用对应算法进行模型训练或数据推理。
本发明实施例提供的文本数据的分类装置,具有上述文本数据的分类方法的有益效果。
如图4所示,是本发明实施例提供的一种文本数据的分类系统的示意性框架图,所述系统包括输入部分402、输出部分403、通信总401线、处理器CPU404、存储器405以及驱动器406,其中,所述输入部分402、输出部分403、CPU404、存储器405以及驱动器406通过通信总线401进行连接。
在本实施例中,输入部分402可以包括显示屏(Display),以及键盘(Keyboard)、鼠标,用于输入待分类的文本数据,以及用户点选操作。
在本实施例中,输出部分403可以是显示屏,用于显示分类后文本数据中个体地具体类别。
在本实施例中,通信总线401主要用于各模块间通信,包括SPI通信总线、I2C通信总线。
在本实施例中,CPU404为中央处理器,用于核心算法程序运行与逻辑处理,对输入数据以及用户输入操作进行识别,根据程序逻辑算法进行相关运算,完成对输入的标准功能,并将处理后标签数据传输至存储器405进行存储,通过通信总线401发送至输出部分403进行显示。
在本实施例中,存储器405指磁盘存储器,用来对标注后的个体进行存储。
在本实施例中,驱动器406用来提供底层驱动功能,保障上层应用程序的顺利运行。
其中,存储器405,用于存储计算机程序;
处理器CPU404,用于执行所述计算机程序时实现如上任一种文本数据的分类方法的步骤。
本发明实施例提供的文本数据的分类系统,具有上述文本数据的分类方法的有益效果。
以上对本发明所提供的文本数据的分类方法、装置以及系统进行了详细介绍。本文中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
专业人员还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
Claims (9)
1.一种文本数据的分类方法,其特征在于,所述方法包括:
获取文本数据集;
对所述文本数据集进行预处理,形成训练数据集;
构建深度神经网络模型;
基于所述训练数据集对所述深度神经网络模型进行训练;
使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别。
2.根据权利要求1所述的方法,其特征在于,所述对所述文本数据集进行预处理,包括:
提取和填补重要数据信息,去除无效或者敏感信息。
3.根据权利要求2所述的方法,其特征在于,所述对所述文本数据集进行预处理,形成训练数据集,包括:
对每列数据计算其高斯分布,依据相应分布进行对应数值填充,删除缺失特征信息过多的个体,使用logistics算法进行特征筛选,融合形成训练数据集。
4.根据权利要求1所述的方法,其特征在于,所述构建深度神经网络模型,包括卷积层、池化层、LSTM(Long Short-Term Memory,长短期记忆)层、全连接层:
卷积层,由4层卷积层组成,其中各个层的卷积核大小分别是1*3,3*1,3*3,1*1,步长均设置为1,所使用的激活函数为Relu;
池化层,由2层池化层组成,采用max_pooling的方式,步长设置为2,与卷积层组合使用;
LSTM层,由1层组成,隐含层节点数设置为64,加入dropout方法,处理由卷积层得到的文本数据特征向量;
全连接层,由2层组成,通道数分别为128和2,采用softmax函数进行映射,得到具体分类类别的概率。
5.根据权利要求1所述的方法,其特征在于,所述基于所述训练数据集对所述深度神经网络模型进行训练,包括:
将所述训练数据集分为训练集、训练集标签、测试集、测试集标签;在keras框架下,设定所述深度神经网络模型需要分类的num_class的值,使用所述训练数据集训练所述深度神经网络模型,迭代预设次数后停止训练;
保存迭代结束后且训练完成的深度神经网络模型。
6.根据权利要求5所述的方法,其特征在于,使用训练完成的深度神经网络模型,对待分类的文本数据进行分类识别,包括:
用户选择训练完成的深度神经网络模型,输入待分类的文本数据路径;
经由训练完成的深度神经网络模型处理,输出分类结果。
7.一种文本数据的分类装置,其特征在于,采用如权利要求1-6任一项所述的文本数据的分类方法,所述装置包括:
数据载入模块,用于获取与文本数据分类对应的数据集,载入用户选择的文本数据;
模式设定模块,用于设定深度神经网络模型训练模式或深度神经网络数据推理模式;
用户输入模块,用于接收用户基于当前需求的输入,当前模式为深度神经网络模型训练模式时,接收待训练的文本数据集,当前模式为深度神经网络数据推理模式时,接收待分类的文本数据;
模型保存模块,用于保存训练完成的深度神经网络模型;
结果输出模块,用于输出对待分类的文本数据进行分类识别的结果。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
算法调用模块,用于根据设定的模式,调用对应算法进行模型训练或数据推理。
9.一种文本数据的分类系统,其特征在于,所述系统包括:输入部分、输出部分、通信总线、处理器、存储器以及驱动器,其中,所述输入部分、输出部分、处理器、存储器以及驱动器通过通信总线进行连接;
所述存储器,用于存储计算机程序;
所述处理器,用于执行所述计算机程序时实现如权利要求1-6任一项所述的文本数据的分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811605659.4A CN109710763A (zh) | 2018-12-27 | 2018-12-27 | 一种文本数据的分类方法、装置以及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811605659.4A CN109710763A (zh) | 2018-12-27 | 2018-12-27 | 一种文本数据的分类方法、装置以及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109710763A true CN109710763A (zh) | 2019-05-03 |
Family
ID=66258572
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811605659.4A Withdrawn CN109710763A (zh) | 2018-12-27 | 2018-12-27 | 一种文本数据的分类方法、装置以及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109710763A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349673A (zh) * | 2019-06-27 | 2019-10-18 | 吉林大学 | 一种基于高斯混合分布的群体体质评估方法 |
CN110489550A (zh) * | 2019-07-16 | 2019-11-22 | 招联消费金融有限公司 | 基于组合神经网络的文本分类方法、装置和计算机设备 |
CN111536571A (zh) * | 2020-04-23 | 2020-08-14 | 山东建筑大学 | 一种蓄热供热系统及泄漏检测方法 |
CN111550865A (zh) * | 2020-04-23 | 2020-08-18 | 山东财经大学 | 一种太阳能集热系统及泄漏检测方法 |
CN111678366A (zh) * | 2020-04-23 | 2020-09-18 | 山东建筑大学 | 一种蓄热管壳式换热器及泄漏检测方法 |
CN111692766A (zh) * | 2020-05-06 | 2020-09-22 | 山东财经大学 | 一种云端远程监控的太阳能集热系统及泄漏检测方法 |
CN111932420A (zh) * | 2020-06-22 | 2020-11-13 | 中国计量大学 | 一种基于智能服务平台的社区邻里互助方法及系统 |
CN111985484A (zh) * | 2020-08-11 | 2020-11-24 | 云南电网有限责任公司电力科学研究院 | 基于cnn-lstm的温度仪表数字识别的方法及装置 |
CN113435513A (zh) * | 2021-06-28 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于深度学习的保险客户分群方法、装置、设备和介质 |
-
2018
- 2018-12-27 CN CN201811605659.4A patent/CN109710763A/zh not_active Withdrawn
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110349673A (zh) * | 2019-06-27 | 2019-10-18 | 吉林大学 | 一种基于高斯混合分布的群体体质评估方法 |
CN110349673B (zh) * | 2019-06-27 | 2022-08-05 | 吉林大学 | 一种基于高斯混合分布的群体体质评估方法 |
CN110489550A (zh) * | 2019-07-16 | 2019-11-22 | 招联消费金融有限公司 | 基于组合神经网络的文本分类方法、装置和计算机设备 |
CN111678366B (zh) * | 2020-04-23 | 2021-11-19 | 山东建筑大学 | 一种蓄热管壳式换热器及泄漏检测方法 |
CN111536571A (zh) * | 2020-04-23 | 2020-08-14 | 山东建筑大学 | 一种蓄热供热系统及泄漏检测方法 |
CN111550865A (zh) * | 2020-04-23 | 2020-08-18 | 山东财经大学 | 一种太阳能集热系统及泄漏检测方法 |
CN111678366A (zh) * | 2020-04-23 | 2020-09-18 | 山东建筑大学 | 一种蓄热管壳式换热器及泄漏检测方法 |
CN111692766A (zh) * | 2020-05-06 | 2020-09-22 | 山东财经大学 | 一种云端远程监控的太阳能集热系统及泄漏检测方法 |
CN111692766B (zh) * | 2020-05-06 | 2021-03-23 | 山东财经大学 | 一种云端远程监控的太阳能集热系统及泄漏检测方法 |
CN111932420A (zh) * | 2020-06-22 | 2020-11-13 | 中国计量大学 | 一种基于智能服务平台的社区邻里互助方法及系统 |
CN111985484A (zh) * | 2020-08-11 | 2020-11-24 | 云南电网有限责任公司电力科学研究院 | 基于cnn-lstm的温度仪表数字识别的方法及装置 |
CN113435513A (zh) * | 2021-06-28 | 2021-09-24 | 平安科技(深圳)有限公司 | 基于深度学习的保险客户分群方法、装置、设备和介质 |
CN113435513B (zh) * | 2021-06-28 | 2024-06-04 | 平安科技(深圳)有限公司 | 基于深度学习的保险客户分群方法、装置、设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109710763A (zh) | 一种文本数据的分类方法、装置以及系统 | |
CN109597891A (zh) | 基于双向长短时记忆神经网络的文本情感分析方法 | |
CN108229268A (zh) | 表情识别及卷积神经网络模型训练方法、装置和电子设备 | |
CN109920501A (zh) | 基于卷积神经网络和主动学习的电子病历分类方法及系统 | |
CN108874782A (zh) | 一种层次注意力lstm和知识图谱的多轮对话管理方法 | |
CN108304365A (zh) | 关键词提取方法及装置 | |
CN109800789A (zh) | 基于图网络的糖尿病视网膜病变分类方法及装置 | |
CN109947916B (zh) | 基于气象领域知识图谱的问答系统装置及问答方法 | |
CN106408562A (zh) | 基于深度学习的眼底图像视网膜血管分割方法及系统 | |
CN107704512A (zh) | 基于社交数据的金融产品推荐方法、电子装置及介质 | |
CN109344888A (zh) | 一种基于卷积神经网络的图像识别方法、装置及设备 | |
CN107870964A (zh) | 一种应用于答案融合系统的语句排序方法及系统 | |
CN110569033A (zh) | 一种数字化交易类智能合约基础代码生成方法 | |
CN109102498A (zh) | 一种宫颈涂片图像中簇型细胞核分割的方法 | |
Wu et al. | Optimized deep learning framework for water distribution data-driven modeling | |
CN110008853A (zh) | 行人检测网络及模型训练方法、检测方法、介质、设备 | |
CN112308115A (zh) | 一种多标签图像深度学习分类方法及设备 | |
CN109033356A (zh) | 为客服系统日志打标签的方法及客服系统 | |
CN106445915A (zh) | 一种新词发现方法及装置 | |
CN111339935A (zh) | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 | |
CN109214444B (zh) | 基于孪生神经网络和gmm的游戏防沉迷判定系统及方法 | |
CN110751216A (zh) | 一种基于改进卷积神经网络的裁判文书行业分类方法 | |
CN113095511A (zh) | 一种在自动化主站实现操作到位的判断方法及装置 | |
CN113268370A (zh) | 一种根因告警分析方法、系统、设备及存储介质 | |
CN108830302A (zh) | 一种图像分类方法、训练方法、分类预测方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190503 |