CN110147449A - 文本分类方法和装置 - Google Patents
文本分类方法和装置 Download PDFInfo
- Publication number
- CN110147449A CN110147449A CN201910446690.6A CN201910446690A CN110147449A CN 110147449 A CN110147449 A CN 110147449A CN 201910446690 A CN201910446690 A CN 201910446690A CN 110147449 A CN110147449 A CN 110147449A
- Authority
- CN
- China
- Prior art keywords
- text
- term vector
- initial matrix
- training
- result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明提供一种文本分类方法和装置,属于文本分类技术领域,其可至少部分解决现有的文本分类方法准确度不高的问题。本发明的文本分类方法包括:获取训练文本集,所述训练文本集包括多个初始文本,以及所述初始文本对应的文本类型;对所述初始文本进行分词;将分词得到的词段映射为第一词向量,并根据所述第一词向量构建第一初始矩阵;根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵;将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对所述训练文本集进行训练得到基分类器。
Description
技术领域
本发明属于文本分类技术领域,具体涉及一种文本分类方法和一种文本分类装置。
背景技术
文本分类,即将分析文本的类型。例如对短信的文本进行分析,确定它是垃圾短信还是非垃圾短信。又例如对客户投诉的文本分析,确定该投诉的问题属于哪一类问题。以通信行业的投诉为例,通常需要对客户投诉的内容进行分析,确定是属于网络质量的投诉还是资费问题的投诉等,从而有针对性地对服务进行改善。现有文本分类的准确度有待进一步提高。
发明内容
本发明至少部分解决现有的文本分类准确度不高的问题,提供一种文本分类方法和一种文本分类装置。
解决本发明技术问题所采用的技术方案是一种文本分类方法,包括:
获取训练文本集,所述训练文本集包括多个初始文本,以及所述初始文本对应的文本类型;
对所述初始文本进行分词;
将分词得到的词段映射为第一词向量,并根据所述第一词向量构建第一初始矩阵;
根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵;
将第一初始矩阵、第二初始矩阵分别作为TextCNN模型(文本卷积神经网络)两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对所述训练文本集进行训练得到基分类器。
可选地,所述根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二词向量得到第二初始矩阵包括:
将所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;
将所述第二词向量按照对应的顺序组成第二初始矩阵。
可选地,所述基分类器的训练过程包括:
将所述第一初始矩阵经一维卷积层得到第一卷积结果,将对应的所述第二初始矩阵经所述一维卷积层得到第二卷积结果;
将所述第一卷积结果经k维最大值池化得到第一池化结果,将对应的所述第二卷积结果经所k维最大值池化得到第二池化结果;
将所述第一池化结果和对应的所述第二池化结果经全连接层得到其对应的各分类结果的概率;
计算当前分类结果的损失函数;
针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,所述各模型参数包括所述一维卷积层中的参数和所述全连接层中的参数。
更新所述一维卷积层的参数。
可选地,所述损失函数包括:均方差函数、交叉熵函数、逻辑回归函数中的任意一项。
可选地,所述k维最大值池化中k≥2。
可选地,所述对初始文本进行分词包括:
按照字符串匹配或全切分方法对所述初始文本进行分词。
解决本发明技术问题所采用的技术方案是一种文本分类装置,包括:
获取模块,用于获取训练文本集,所述训练文本集包括多个初始文本,以及所述初始文本对应的文本类型;
分词模块,用于对所述初始文本进行分词;
映射模块,用于将分词得到的词段映射为第一词向量,并根据所述第一词向量构建第一初始矩阵,以及根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵;
训练模块,用于将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对所述训练文本集进行训练得到基分类器。
可选地,所述映射模块具体用于将所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;
将所述第二词向量按照对应的顺序组成第二初始矩阵。
可选地,所述训练模块具体用于:
将所述第一初始矩阵经一维卷积层得到第一卷积结果,将对应的所述第二初始矩阵经所述一维卷积层得到第二卷积结果;
将所述第一卷积结果经k维最大值池化得到第一池化结果,将对应的所述第二卷积结果经所述k维最大值池化得到第二池化结果;
将所述第一池化结果和对应的所述第二池化结果经全连接层得到其对应的各分类结果的概率;
计算当前分类结果的损失函数;
针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,所述各模型参数包括所述一维卷积层中的参数和所述全连接层中的参数。
解决本发明技术问题所采用的技术方案是一种文本分类装置,包括存储器和处理器,所述存储器存储指令,所述处理器运行所述指令以执行上述的方法。
附图说明
图1为本发明的实施例的一种文本分类方法的流程图;
图2为本发明的实施例的一种文本分类装置的框图;
图3为本发明的实施例的另一种文本分类装置的框图。
具体实施方式
为使本领域技术人员更好地理解本发明的技术方案,下面结合附图和具体实施方式对本发明作进一步详细描述。
实施例1:
参照图1,本实施例提供一种文本分类方法,包括以下步骤。
在步骤S1、获取训练文本集,训练文本集包括多个初始文本,以及初始文本对应的文本类型。
以下均以对电信客户投诉内容进行分类的场景为例进行说明。训练文本集可以是通过网络爬虫获取,也可从运营商自己受理的客户投诉的档案中获取。初始文本即客户投诉的文本内容,文本类型即诸如“网络问题”、“资费问题”等的分类。文本类型需要人工标注。
在步骤S2、对初始文本进行分词。
举例而言,初始文本为:“我在地铁上手机网络信号很差”。经过分词后得到的词段例如为:“我”“在”“地铁上”“手机”“网络”“信号”“很”“差”,共8个词段。
具体的分词算法例如是字符串匹配法、全切分法等。字符串匹配法例如是:反向最大匹配法、双向最大匹配法等。全切分方法为切分出与词库匹配的所有可能的词段,并将所有的可能的词段以词网格形式表示,再运用统计语言模型(例如n-gram模型)找到最优路径,决定最优的切分结果。
在步骤S3、将分词得到的词段映射为第一词向量,并根据第一词向量构建第一初始矩阵。
沿用前例,每个词段根据词向量工具分别生成对应K维的词向量。分别得到V1、V2……V8这8个K维词向量,并将这8个K维词向量按照其对应的词段所出现的顺序排列组成第一矩阵。
可采用Word2Vec算法生成词向量,具体过程如下:定义词向量维度大小K,以及文本中每个词段进行预测时上下文参考词段汇输入数量的大小2a。将分词处理后的词段作为输入,对某一个词段W前后a个共2a个词段对应的词向量求和取平均,得到隐层向量。根据分词处理后的文本语料,构建初始化的霍夫曼树,随机初始化霍夫曼树上内部节点的词向量以及模型参数值;其中隐层向量为根节点,词段W为输出节点;通过梯度上升算法来更新霍夫曼树上内部节点的词向量以使模型参数值到收敛。每个词段W的词向量为该词段从霍夫曼树根节点到该词段位置的路径编码。
在步骤S4、根据词段在训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵。
也即是基于每个词段在全部初始文本中出现的概率对每个词段对应的词向量进行重建。对于出现频率高的词段,其对于文本分类的意义也会更大。
需要说明的是,对于“的”、“啊”等语气词,其对文本分类是没有实质意义的,为避免这类词在步骤S4的处理后其词向量的模反而增大,可以在步骤S3中规定为这类词的词向量为很小的值(例如其词向量的各个分量均为0)。当然,也可以在步骤S4中对这类对文本分类无意义的词在第二初始矩阵中的词向量的各个分量都很小。即在步骤S4中可以包括对无意义词段的对应的第二词向量进行设定的子步骤。当然在步骤S1或步骤S2中,也可对训练文本集或分词结果进行处理,去除这些无意义的词段。
第二矩阵的构建构成例如如下:将词段在训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;将第二词向量按照对应的顺序组成第二初始矩阵。
沿用前例,V1、V2……V8这8个词向量分别乘以对应的比例系数,得到另外8个词相邻(k1V1、k2V2……k8V8),其中,k1-k8为对应的词段在训练文本集全部初始文本中出现的概率。从而在第二初始矩阵中,进一步增加了对分类有意义的词段的比重。
在步骤S5、将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对训练文本集进行训练得到基分类器。
由于在基分类器的训练过程中采用第一初始矩阵和第二初始矩阵,也就相当于基于每个词段与每个词段在训练文本集中出现的频率两个因素有对初始文本对应的类型进行分类,分类的结果会更加准确。
具体基分类器的训练过程如下:
在子步骤S51、将第一初始矩阵经一维卷积层得到第一卷积结果,将对应的第二初始矩阵经一维卷积层得到第二卷积结果。即分别将第一矩阵和第二矩阵作为2个通道的输入,与初始化的n个一维卷积算子(F1,F2……Fn)进行卷积运算,得到2n个一维向量。
在子步骤S52、将第一卷积结果经k维最大值池化(k-max pooling)得到第一池化结果,将对应的第二卷积结果经所k维最大值池化得到第二池化结果。即通过每个上述一维向量中取最大的k个分量,得到包含2*k*n个分量。如沿用前例,此处n=8。
可选地,k维最大值池化中k≥2。即至少在每个一维向量中,选取对文本分类贡献最大的2个分量。这样对文本分量的准确率更高。也更好地保留文本的全局信息。
在子步骤S53、将第一池化结果和对应的第二池化结果经全连接层得到其对应的各分类结果的概率。
通过全连接层(softmax)将上述2*k*n个分量按照规定的顺序组成一个2*k*n维向量M;计算该向量M对应的每个输出类别的概率。
在子步骤S54、计算当前分类结果的损失函数。具体可采用后向反馈算法计算得到当前分类结果的损失函数。损失函数例如是均方差函数、交叉熵函数、逻辑回归函数等。
在子步骤S55、针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,各模型参数包括一维卷积层中的参数和全连接层中的参数。此为根据损失函数更新一维卷积层的参数和全连接层中的参数的一种具体的实施方式。当然以上各子步骤可循环执行,直至根据优化后的一维卷积算子和全连接层中的参数对初始文本的分类的正确率达到设定阈值,训练过程结束。当然,各模型参数也可仅包括一维卷积层中的参数,或者仅包括全连接层中的参数。
实施例2:
参照图2,本实施例提供一种文本分类装置,用以实现实施例1的文本分量方法,各模块详细的工作原理可参照实施例1。该文本分量装置包括以下模块。
获取模块11,用于获取训练文本集,训练文本集包括多个初始文本,以及初始文本对应的文本类型。
分词模块12,用于对初始文本进行分词。
映射模块13,用于将分词得到的词段映射为第一词向量,并根据第一词向量构建第一初始矩阵,以及根据词段在训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵。
训练模块14,用于将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对训练文本集进行训练得到基分类器。
可选地,映射模块13具体用于:将词段在训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;将第二词向量按照对应的顺序组成第二初始矩阵。
可选地,训练模块14具体用于:将第一初始矩阵经一维卷积层得到第一卷积结果,将对应的第二初始矩阵经一维卷积层得到第二卷积结果;将第一卷积结果经k-maxpooling得到第一池化结果,将对应的第二卷积结果经k-max pooling得到第二池化结果;将第一池化结果和对应的第二池化结果经全连接层得到其对应的各分类结果的概率;计算当前分类结果的损失函数;针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,各模型参数包括一维卷积层中的参数和全连接层中的参数。
该文本训练装置可以实现更加准确的文本分类。
实施例3:
参照图3,本实施例提供一种文本分类装置,包括存储器21和处理器22,存储器21存储指令,处理器22运行该指令以执行实施例1的方法。
该文本训练装置可以实现更加准确的文本分类。
具体地,存储器21例如是只读存储器、随机存储器等任意具有存储功能的器件。处理器22例如是中央处理器、服务器等任意具有计算功能的器件。当然以上村擦21和处理器22也可以是集成在一个器件中。
可以理解的是,以上实施方式仅仅是为了说明本发明的原理而采用的示例性实施方式,然而本发明并不局限于此。对于本领域内的普通技术人员而言,在不脱离本发明的精神和实质的情况下,可以做出各种变型和改进,这些变型和改进也视为本发明的保护范围。
Claims (10)
1.一种文本分类方法,其特征在于,包括:
获取训练文本集,所述训练文本集包括多个初始文本,以及所述初始文本对应的文本类型;
对所述初始文本进行分词;
将分词得到的词段映射为第一词向量,并根据所述第一词向量构建第一初始矩阵;
根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵;
将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对所述训练文本集进行训练得到基分类器。
2.根据权利要求1所述的方法,其特征在于,
所述根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二词向量得到第二词向量包括:
将所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;
将所述第二词向量按照对应的顺序组成第二初始矩阵。
3.根据权利要求1所述的方法,其特征在于,所述基分类器的训练过程包括:
将所述第一初始矩阵经一维卷积层得到第一卷积结果,将对应的所述第二初始矩阵经所述一维卷积层得到第二卷积结果;
将所述第一卷积结果经k维最大值池化得到第一池化结果,将对应的所述第二卷积结果经所k维最大值池化得到第二池化结果;
将所述第一池化结果和对应的所述第二池化结果经全连接层得到其对应的各分类结果的概率;
计算当前分类结果的损失函数;
针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,所述各模型参数包括所述一维卷积层中的参数和所述全连接层中的参数。
4.根据权利要求3所述的方法,其特征在于,所述损失函数包括:均方差函数、交叉熵函数、逻辑回归函数中的任意一项。
5.根据权利要求3所述的方法,其特征在于,所述k维最大值池化中k≥2。
6.根据权利要求1所述的方法,其特征在于,所述对初始文本进行分词包括:
按照字符串匹配或全切分方法对所述初始文本进行分词。
7.一种文本分类装置,其特征在于,包括:
获取模块,用于获取训练文本集,所述训练文本集包括多个初始文本,以及所述初始文本对应的文本类型;
分词模块,用于对所述初始文本进行分词;
映射模块,用于将分词得到的词段映射为第一词向量,并根据所述第一词向量构建第一初始矩阵,以及根据所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量得到第二初始矩阵;
训练模块,用于将第一初始矩阵、第二初始矩阵分别作为TextCNN模型两个通道的输入,对应的文本类型作为输出,利用TextCNN模型对所述训练文本集进行训练得到基分类器。
8.根据权利要求7所述的文本分类装置,其特征在于,所述映射模块具体用于:将所述词段在所述训练文本集的初始文本中出现的概率和该词段对应的第一词向量的乘积作为第二词向量;
将所述第二词向量按照对应的顺序组成第二初始矩阵。
9.根据权利要求7所述的文本分量装置,其特征在于,所述训练模块具体用于:
将所述第一初始矩阵经一维卷积层得到第一卷积结果,将对应的所述第二初始矩阵经所述一维卷积层得到第二卷积结果;
将所述第一卷积结果经k维最大值池化得到第一池化结果,将对应的所述第二卷积结果经所述k维最大值池化得到第二池化结果;
将所述第一池化结果和对应的所述第二池化结果经全连接层得到其对应的各分类结果的概率;
计算当前分类结果的损失函数;
针对当前损失函数,对各模型参数分别求导,得到使得损失函数最小化的各模型参数值,所述各模型参数包括所述一维卷积层中的参数和所述全连接层中的参数。
10.一种文本分类装置,其特征在于,包括存储器和处理器,所述存储器存储指令,所述处理器运行所述指令以执行权利要求1-6任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910446690.6A CN110147449A (zh) | 2019-05-27 | 2019-05-27 | 文本分类方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910446690.6A CN110147449A (zh) | 2019-05-27 | 2019-05-27 | 文本分类方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110147449A true CN110147449A (zh) | 2019-08-20 |
Family
ID=67591988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910446690.6A Pending CN110147449A (zh) | 2019-05-27 | 2019-05-27 | 文本分类方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110147449A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110737773A (zh) * | 2019-10-17 | 2020-01-31 | 中国联合网络通信集团有限公司 | 一种基于神经网络的信息分类方法和系统 |
CN111353019A (zh) * | 2020-02-25 | 2020-06-30 | 上海昌投网络科技有限公司 | 一种微信公众号公号主题分类方法及装置 |
CN112214597A (zh) * | 2020-09-22 | 2021-01-12 | 合肥工业大学 | 基于多粒度建模的半监督文本分类方法和系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104778158A (zh) * | 2015-03-04 | 2015-07-15 | 新浪网技术(中国)有限公司 | 一种文本表示方法及装置 |
CN107038480A (zh) * | 2017-05-12 | 2017-08-11 | 东华大学 | 一种基于卷积神经网络的文本情感分类方法 |
CN107766426A (zh) * | 2017-09-14 | 2018-03-06 | 北京百分点信息科技有限公司 | 一种文本分类方法、装置及电子设备 |
CN109189925A (zh) * | 2018-08-16 | 2019-01-11 | 华南师范大学 | 基于点互信息的词向量模型和基于cnn的文本分类方法 |
CN109684476A (zh) * | 2018-12-07 | 2019-04-26 | 中科恒运股份有限公司 | 一种文本分类方法、文本分类装置及终端设备 |
-
2019
- 2019-05-27 CN CN201910446690.6A patent/CN110147449A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104778158A (zh) * | 2015-03-04 | 2015-07-15 | 新浪网技术(中国)有限公司 | 一种文本表示方法及装置 |
CN107038480A (zh) * | 2017-05-12 | 2017-08-11 | 东华大学 | 一种基于卷积神经网络的文本情感分类方法 |
CN107766426A (zh) * | 2017-09-14 | 2018-03-06 | 北京百分点信息科技有限公司 | 一种文本分类方法、装置及电子设备 |
CN109189925A (zh) * | 2018-08-16 | 2019-01-11 | 华南师范大学 | 基于点互信息的词向量模型和基于cnn的文本分类方法 |
CN109684476A (zh) * | 2018-12-07 | 2019-04-26 | 中科恒运股份有限公司 | 一种文本分类方法、文本分类装置及终端设备 |
Non-Patent Citations (1)
Title |
---|
王勇 等: "《Word-Vec:一种应用于CNN文本分类的词向量模型》", 《小型微型计算机系统》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110737773A (zh) * | 2019-10-17 | 2020-01-31 | 中国联合网络通信集团有限公司 | 一种基于神经网络的信息分类方法和系统 |
CN110737773B (zh) * | 2019-10-17 | 2022-06-10 | 中国联合网络通信集团有限公司 | 一种基于神经网络的信息分类方法和系统 |
CN111353019A (zh) * | 2020-02-25 | 2020-06-30 | 上海昌投网络科技有限公司 | 一种微信公众号公号主题分类方法及装置 |
CN112214597A (zh) * | 2020-09-22 | 2021-01-12 | 合肥工业大学 | 基于多粒度建模的半监督文本分类方法和系统 |
CN112214597B (zh) * | 2020-09-22 | 2022-09-06 | 合肥工业大学 | 基于多粒度建模的半监督文本分类方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102411563B (zh) | 一种识别目标词的方法、装置及系统 | |
CN107704892B (zh) | 一种基于贝叶斯模型的商品编码分类方法以及系统 | |
CN105468742B (zh) | 恶意订单识别方法及装置 | |
CN109063217B (zh) | 电力营销系统中的工单分类方法、装置及其相关设备 | |
CN108874921A (zh) | 提取文本特征词的方法、装置、终端设备及存储介质 | |
CN110147449A (zh) | 文本分类方法和装置 | |
CN105808526A (zh) | 商品短文本核心词提取方法和装置 | |
CN107436875A (zh) | 文本分类方法及装置 | |
CN104077417B (zh) | 社交网络中的人物标签推荐方法和系统 | |
CN113326377B (zh) | 一种基于企业关联关系的人名消歧方法及系统 | |
CN110149237A (zh) | 一种Hadoop平台计算节点负载预测方法 | |
CN107145516B (zh) | 一种文本聚类方法及系统 | |
CN107544982A (zh) | 文本信息处理方法、装置及终端 | |
CN107291840A (zh) | 一种用户属性预测模型构建方法和装置 | |
CN111159404B (zh) | 文本的分类方法及装置 | |
CN106202380A (zh) | 一种分类语料库的构建方法、系统及具有该系统的服务器 | |
CN106649422A (zh) | 关键词提取方法及装置 | |
CN115098650B (zh) | 基于历史数据模型的评论信息分析方法及相关装置 | |
CN108027814A (zh) | 停用词识别方法与装置 | |
CN111078876A (zh) | 一种基于多模型集成的短文本分类方法和系统 | |
CN111191442A (zh) | 相似问题生成方法、装置、设备及介质 | |
CN111143428A (zh) | 一种基于关联分析法的保护异常告警处理方法 | |
CN113449084A (zh) | 基于图卷积的关系抽取方法 | |
CN105068928A (zh) | 一种基于复杂网络理论的软件测试用例生成方法 | |
CN111092769A (zh) | 一种基于机器学习的web指纹识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190820 |
|
RJ01 | Rejection of invention patent application after publication |