CN113111183A - 一种牵引供电设备缺陷等级分类方法 - Google Patents
一种牵引供电设备缺陷等级分类方法 Download PDFInfo
- Publication number
- CN113111183A CN113111183A CN202110426623.5A CN202110426623A CN113111183A CN 113111183 A CN113111183 A CN 113111183A CN 202110426623 A CN202110426623 A CN 202110426623A CN 113111183 A CN113111183 A CN 113111183A
- Authority
- CN
- China
- Prior art keywords
- defect
- word
- text
- matrix
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007547 defect Effects 0.000 title claims abstract description 108
- 238000000034 method Methods 0.000 title claims abstract description 20
- 239000013598 vector Substances 0.000 claims abstract description 35
- 239000011159 matrix material Substances 0.000 claims abstract description 18
- 230000011218 segmentation Effects 0.000 claims abstract description 13
- 230000002950 deficient Effects 0.000 claims abstract description 5
- 238000012549 training Methods 0.000 claims abstract 10
- 238000011176 pooling Methods 0.000 claims abstract 4
- 230000006870 function Effects 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 10
- 238000011156 evaluation Methods 0.000 claims description 4
- 208000025174 PANDAS Diseases 0.000 claims description 3
- 208000021155 Paediatric autoimmune neuropsychiatric disorders associated with streptococcal infection Diseases 0.000 claims description 3
- 235000016496 Panda oleosa Nutrition 0.000 claims description 3
- 230000004913 activation Effects 0.000 claims 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims 1
- 240000000220 Panda oleosa Species 0.000 claims 1
- 230000002068 genetic effect Effects 0.000 claims 1
- 238000010200 validation analysis Methods 0.000 claims 1
- 238000012795 verification Methods 0.000 claims 1
- 238000013527 convolutional neural network Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 abstract 1
- 238000003062 neural network model Methods 0.000 abstract 1
- 238000007781 pre-processing Methods 0.000 abstract 1
- 238000005065 mining Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 240000004718 Panda Species 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000009849 deactivation Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
- G06F16/374—Thesaurus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开一种牵引供电设备缺陷等级分类方法,具体为:对牵引供电设备缺陷文本进行分词、去停用词的预处理操作,将分词所得的所有词语构成词典;对词典中的词语按词频进行编号,使每条由多个词语组成的缺陷文本向量化;通过对每个词语进行训练,得到每个词语对应的向量表示;使用预训练的词向量自定义权重矩阵,代替卷积神经网络的嵌入层;最后经过卷积层、池化层与全连接层;在对历史缺陷文本的训练过程中调整神经网络的参数,当神经网络模型训练完成后,输入待分类的缺陷文本,对各条缺陷内容进行分类,输出待分类缺陷文本的分类结果及分类准确率。本发明提高了缺陷等级分类的准确率与效率,提高了牵引供电系统的智能化程度。
Description
技术领域
本发明属自然语言处理及深度学习领域,具体涉及一种牵引供电设备缺陷等级分类方法。
背景技术
在牵引供电系统的长期运行中,积累了大量的牵引供电设备缺陷记录数据,但是缺少对缺陷记录的系统挖掘与分析。目前针对缺陷数据的研究,主要集中于电网领域的电力设备,对于牵引供电系统的牵引供电设备的研究少之又少。由于牵引供电设备的缺陷记录数据中大多数为半结构化数据与非结构化数据,如文本、图像、音频等,而通过对半结构化数据与非结构化数据的挖掘与分析,有利于维护牵引供电系统的稳定运行,因此对牵引供电设备缺陷文本的研究十分重要。
对于牵引供电系统中的大量牵引供电设备缺陷记录单,目前仍主要依靠人工分类,缺点在于分类效率较低,且由于不同运检人员的知识水平与经验水平参差不齐,可能出现误分类的情况。而通过自然语言处理的方法对缺陷记录数据进行挖掘与分析,可以提高缺陷等级分类的效率与准确率,并且训练成熟的模型可以用于相似情景下的缺陷等级分类,同时能够提高牵引供电系统的智能化程度。
发明内容
为了将待分类的牵引供电设备缺陷文本的缺陷等级进行自动分类,减轻工作人员的任务量,以及提高缺陷等级分类的准确率与效率,提高牵引供电系统的智能化程度。本发明提供一种牵引供电设备缺陷等级分类方法。
本发明的一种牵引供电设备缺陷等级分类方法,包括以下步骤:
步骤A:将牵引供电设备缺陷记录数据中的n次缺陷的缺陷内容及其相应的缺陷等级,形成一份含有n条历史缺陷文本的csv格式文件。将每条缺陷内容与其缺陷等级放在同一行,两者之间以英文逗号分隔。其中缺陷等级由轻到重依次分为一般、重大、紧急三级。
步骤B:利用python的pandas模块的read函数读取步骤A中的n条历史缺陷文本,对缺陷文本进行分词与去停用词处理。
其中,利用python的jieba模块的load函数加载牵引供电领域的专业词典,使用jieba模块的精确分词模式对缺陷内容按行进行分词处理。通过jieba模块的load函数加载停用词词典,根据停用词词典剔除缺陷内容中的停用词,利用正则表达式按行去除缺陷内容中的中英文标点符号。
步骤C:将步骤B中对缺陷文本分词得到的全部词语的集合作为词典。
利用python的Tokenizer分词器模块,使用fit_on_text函数按照词频大小对每个词语从1开始依次编号。若词典中词语的个数为x,则各个词的编号为1到x。使步骤A中的n条缺陷文本各表示为一个向量,向量中每一维的数字代表缺陷文本中的一个词语。
利用python的pad_sequences模块,通过pad_sequences函数保证得到的各个向量维数相等,均为m:若向量的维数低于m,则在向量前不足m维的位置用0填补,若向量的维数高于m,则取其后m维。其中,m为步骤B完成之后n条缺陷文本中单条缺陷文本含有的最多词语数。
步骤D:文本表示:利用python的gensim库中的word2vec模块,利用word2vec词嵌入模型对步骤B中得到的经过分词与去停用词处理的n条缺陷文本进行训练,得到步骤C词典中每个词语对应的q维向量表示,得到每条缺陷文本的表示为一个大小为m×q的矩阵。其中,矩阵列数也即词向量维数q。
步骤E:利用步骤D中训练后的word2vec自定义embedding层的训练矩阵embedding_matrix。训练矩阵embedding_matrix的大小为(x+1)×q,训练矩阵的每一行代表步骤D中的一个词。Embedding层参数num_words设置为x+1,参数EMBEDDING_DIM设置为q,参数input_length设置为m,参数weights设置为[embedding_matrix],参数trainable设置为True。
步骤F:卷积处理:采用一维卷积进行处理,具体采用了2层卷积层,进行了2次卷积。第一层卷积核数目nb_filter设置为256,第二层卷积核数目nb_filter设置为32,两层的卷积核时域长度filter_length均设置为3,padding方式均设置为same,激活函数activation均设置为relu。
步骤G:池化处理:本模型采用最大池化法,在步骤F的两层卷积层中加入一层最大池化层。池化窗口大小pool_size设置为m-5,padding方式选择same,下采样因子strides设置为3。
步骤H:通过softmax分类器进行分类,输出最终的牵引供电设备缺陷等级分类结果。设置一般缺陷的输出期望为[0,0,1],设置重大缺陷的输出期望为[0,1,0],设置紧急缺陷的输出期望为[1,0,0]。
步骤I:在步骤H中模型的基础上使用compile函数来配置训练方法,使用adam优化器,学习率为0.001,设置损失函数loss为多分类损失函数'categorical_crossentropy',标注评价指标metrics为准确率'accuracy'。
步骤J:在步骤I中模型的基础上使用fit函数来执行训练过程,设置训练集的输入为步骤C中向量化表示的缺陷文本,标签设置为步骤H中向量表示的三类缺陷等级,根据缺陷文本数量n合理设置分批参数batch_size,迭代次数epochs,设置验证集划分参数validation_split为0.2。
步骤K:新产生的λ条待分类缺陷文本的预测与评估。
将待分类文本作为步骤H中所得模型的输入,利用predcit函数预测并输出每条缺陷文本分别属于一般、重大、紧急缺陷的概率,输出记作为矩阵result。
预测:对矩阵result利用argmax函数,输出模型对各条缺陷文本对应的缺陷等级的判断结果,即result矩阵中各条缺陷文本对应的概率最大的缺陷等级。输出形式为λ维向量,每一维均为0、1、2其中的一个数字,0、1、2分别对应一般,重大,紧急三个缺陷等级。
评估:将待分类文本作为步骤H中所得模型的输入,利用evaluate函数评估缺陷文本的损失值loss及分类准确率accuracy。输出形式为二维向量,第一维是损失值loss,第二维是分类准确率accuracy。
ri=W·Ii:i+h-1(i=1,2,…,m-h+1)
式中Ii:i+h-1表示从上至下第i个矩阵块。可知共进行了m-h+1次卷积,且每次卷积运算过后所得结果需再进行非线性化处理,非线性化结果ci如下:
ci=ReLU(ri+b)
本发明的有益技术效果为:
本发明通过自然语言处理的方法对缺陷记录数据进行挖掘与分析,能够实现对牵引供电设备缺陷等级的自动分类,相比于人工分类,提高了缺陷等级分类的准确率与效率,减轻了工作人员的任务量,提高了牵引供电系统的智能化程度,降低了工作人员的知识水平与经验水平对缺陷等级分类准确率的影响。此外,在本发明中,通过将分词得到的词语自动构成词典,省去了手动建词典的工作,且使用Word2vec词嵌入模型预训练的词向量自定义了权重矩阵,代替了卷积神经网络的输入层,相比于原装的embedding层效果更好。
附图说明
图1为本发明方法的流程示意图。
具体实施方式
下面结合附图和具体实施方法对本发明做进一步详细说明。
本发明的一种牵引供电设备缺陷等级分类方法如图1所示,包括以下步骤:
步骤A:将牵引供电设备缺陷记录数据(以上海维管处2016-2019四年间牵引供电设备数据为例)中的n次缺陷的缺陷内容及其相应的缺陷等级,形成一份含有n条历史缺陷文本的csv格式文件。将每条缺陷内容与其缺陷等级放在同一行,两者之间以英文逗号分隔。其中缺陷等级由轻到重依次分为一般、重大、紧急三级。
步骤B:利用python的pandas模块的read函数读取步骤A中的n条历史缺陷文本,对缺陷文本进行分词与去停用词处理。
其中,利用python的jieba模块的load函数加载牵引供电领域的专业词典,使用jieba模块的精确分词模式对缺陷内容按行进行分词处理。通过jieba模块的load函数加载停用词词典,根据停用词词典剔除缺陷内容中的停用词,利用正则表达式按行去除缺陷内容中的中英文标点符号。
步骤C:将步骤B中对缺陷文本分词得到的全部词语的集合作为词典。
利用python的Tokenizer分词器模块,使用fit_on_text函数按照词频大小对每个词语从1开始依次编号。若词典中词语的个数为x,则各个词的编号为1到x。使步骤A中的n条缺陷文本各表示为一个向量,向量中每一维的数字代表缺陷文本中的一个词语。
利用python的pad_sequences模块,通过pad_sequences函数保证得到的各个向量维数相等,均为m:若向量的维数低于m,则在向量前不足m维的位置用0填补,若向量的维数高于m,则取其后m维。其中,m为步骤B完成之后n条缺陷文本中单条缺陷文本含有的最多词语数。
步骤D:文本表示:利用python的gensim库中的word2vec模块,利用word2vec词嵌入模型对步骤B中得到的经过分词与去停用词处理的n条缺陷文本进行训练,得到步骤C词典中每个词语对应的q维向量表示,得到每条缺陷文本的表示为一个大小为m×q的矩阵。其中,矩阵列数也即词向量维数q,一般为100左右。
步骤E:利用步骤D中训练后的word2vec自定义embedding层的训练矩阵embedding_matrix。训练矩阵embedding_matrix的大小为(x+1)×q,训练矩阵的每一行代表步骤D中的一个词。Embedding层参数num_words设置为x+1,参数EMBEDDING_DIM设置为q,参数input_length设置为m,参数weights设置为[embedding_matrix],参数trainable设置为True。
步骤F:卷积处理:采用一维卷积进行处理,具体采用了2层卷积层,进行了2次卷积。第一层卷积核数目nb_filter设置为256,第二层卷积核数目nb_filter设置为32,两层的卷积核时域长度filter_length均设置为3,padding方式均设置为same,激活函数activation均设置为relu。
ri=W·Ii:i+h-1(i=1,2,…,m-h+1)
式中Ii:i+h-1表示从上至下第i个矩阵块。可知共进行了m-h+1次卷积,且每次卷积运算过后所得结果需再进行非线性化处理,非线性化结果ci如下:
ci=ReLU(ri+b)
步骤G:池化处理:本模型采用最大池化法,在步骤F的两层卷积层中加入一层最大池化层。池化窗口大小pool_size设置为m-5,padding方式选择same,下采样因子strides设置为3。
步骤H:通过softmax分类器进行分类,输出最终的牵引供电设备缺陷等级分类结果。设置一般缺陷的输出期望为[0,0,1],设置重大缺陷的输出期望为[0,1,0],设置紧急缺陷的输出期望为[1,0,0]。
步骤I:在步骤H中模型的基础上使用compile函数来配置训练方法,使用adam优化器,学习率为0.001,设置损失函数loss为多分类损失函数'categorical_crossentropy',标注评价指标metrics为准确率'accuracy'。
步骤J:在步骤I中模型的基础上使用fit函数来执行训练过程,设置训练集的输入为步骤C中向量化表示的缺陷文本,标签设置为步骤H中向量表示的三类缺陷等级,根据缺陷文本数量n合理设置分批参数batch_size,迭代次数epochs,设置验证集划分参数validation_split为0.2。
步骤K:新产生的λ条待分类缺陷文本的预测与评估。
将待分类文本作为步骤H中所得模型的输入,利用predcit函数预测并输出每条缺陷文本分别属于一般、重大、紧急缺陷的概率,输出记作为矩阵result。
预测:对矩阵result利用argmax函数,输出模型对各条缺陷文本对应的缺陷等级的判断结果,即result矩阵中各条缺陷文本对应的概率最大的缺陷等级。输出形式为λ维向量,每一维均为0、1、2其中的一个数字,0、1、2分别对应一般,重大,紧急三个缺陷等级。
评估:将待分类文本作为步骤H中所得模型的输入,利用evaluate函数评估缺陷文本的损失值loss及分类准确率accuracy。输出形式为二维向量,第一维是损失值loss,第二维是分类准确率accuracy。
Claims (2)
1.一种牵引供电设备缺陷等级分类方法,其特征在于,包括以下步骤:
步骤A:将牵引供电设备缺陷记录数据中的n次缺陷的缺陷内容及其相应的缺陷等级,形成一份含有n条历史缺陷文本的csv格式文件;将每条缺陷内容与其缺陷等级放在同一行,两者之间以英文逗号分隔;其中缺陷等级由轻到重依次分为一般、重大、紧急三级;
步骤B:利用python的pandas模块的read函数读取步骤A中的n条历史缺陷文本,对缺陷文本进行分词与去停用词处理;
其中,利用python的jieba模块的load函数加载牵引供电领域的专业词典,使用jieba模块的精确分词模式对缺陷内容按行进行分词处理;通过jieba模块的load函数加载停用词词典,根据停用词词典剔除缺陷内容中的停用词,利用正则表达式按行去除缺陷内容中的中英文标点符号;
步骤C:将步骤B中对缺陷文本分词得到的全部词语的集合作为词典;
利用python的Tokenizer分词器模块,使用fit_on_text函数按照词频大小对每个词语从1开始依次编号;若词典中词语的个数为x,则各个词的编号为1到x;使步骤A中的n条缺陷文本各表示为一个向量,向量中每一维的数字代表缺陷文本中的一个词语;
利用python的pad_sequences模块,通过pad_sequences函数保证得到的各个向量维数相等,均为m:若向量的维数低于m,则在向量前不足m维的位置用0填补,若向量的维数高于m,则取其后m维;其中,m为步骤B完成之后n条缺陷文本中单条缺陷文本含有的最多词语数;
步骤D:文本表示:利用python的gensim库中的word2vec模块,利用word2vec词嵌入模型对步骤B中得到的经过分词与去停用词处理的n条缺陷文本进行训练,得到步骤C词典中每个词语对应的q维向量表示,得到每条缺陷文本的表示为一个大小为m×q的矩阵;其中,矩阵列数也即词向量维数q;
步骤E:利用步骤D中训练后的word2vec自定义embedding层的训练矩阵embedding_matrix;训练矩阵embedding_matrix的大小为(x+1)×q,训练矩阵的每一行代表步骤D中的一个词;Embedding层参数num_words设置为x+1,参数EMBEDDING_DIM设置为q,参数input_length设置为m,参数weights设置为[embedding_matrix],参数trainable设置为True;
步骤F:卷积处理:采用一维卷积进行处理,具体采用了2层卷积层,进行了2次卷积;第一层卷积核数目nb_filter设置为256,第二层卷积核数目nb_filter设置为32,两层的卷积核时域长度filter_length均设置为3,padding方式均设置为same,激活函数activation均设置为relu;
步骤G:池化处理:本模型采用最大池化法,在步骤F的两层卷积层中加入一层最大池化层;池化窗口大小pool_size设置为m-5,padding方式选择same,下采样因子strides设置为3;
步骤H:通过softmax分类器进行分类,输出最终的牵引供电设备缺陷等级分类结果;设置一般缺陷的输出期望为[0,0,1],设置重大缺陷的输出期望为[0,1,0],设置紧急缺陷的输出期望为[1,0,0];
步骤I:在步骤H中模型的基础上使用compile函数来配置训练方法,使用adam优化器,学习率为0.001,设置损失函数loss为多分类损失函数'categorical_crossentropy',标注评价指标metrics为准确率'accuracy';
步骤J:在步骤I中模型的基础上使用fit函数来执行训练过程,设置训练集的输入为步骤C中向量化表示的缺陷文本,标签设置为步骤H中向量表示的三类缺陷等级,根据缺陷文本数量n合理设置分批参数batch_size,迭代次数epochs,设置验证集划分参数validation_split为0.2;
步骤K:新产生的λ条待分类缺陷文本的预测与评估;
将待分类文本作为步骤H中所得模型的输入,利用predcit函数预测并输出每条缺陷文本分别属于一般、重大、紧急缺陷的概率,输出记作为矩阵result;
预测:对矩阵result利用argmax函数,输出模型对各条缺陷文本对应的缺陷等级的判断结果,即result矩阵中各条缺陷文本对应的概率最大的缺陷等级;输出形式为λ维向量,每一维均为0、1、2其中的一个数字,0、1、2分别对应一般,重大,紧急三个缺陷等级;
评估:将待分类文本作为步骤H中所得模型的输入,利用evaluate函数评估缺陷文本的损失值loss及分类准确率accuracy;输出形式为二维向量,第一维是损失值loss,第二维是分类准确率accuracy。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110426623.5A CN113111183A (zh) | 2021-04-20 | 2021-04-20 | 一种牵引供电设备缺陷等级分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110426623.5A CN113111183A (zh) | 2021-04-20 | 2021-04-20 | 一种牵引供电设备缺陷等级分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113111183A true CN113111183A (zh) | 2021-07-13 |
Family
ID=76718897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110426623.5A Pending CN113111183A (zh) | 2021-04-20 | 2021-04-20 | 一种牵引供电设备缺陷等级分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111183A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114461735A (zh) * | 2022-04-13 | 2022-05-10 | 天津中新智冠信息技术有限公司 | 工矿数据分级分类方法、装置和计算机设备 |
CN116680624A (zh) * | 2023-08-03 | 2023-09-01 | 国网浙江省电力有限公司宁波供电公司 | 一种电力系统元数据的分类方法、系统及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251059A (zh) * | 2016-07-27 | 2016-12-21 | 中国电力科学研究院 | 一种基于概率神经网络算法的电缆状态评估方法 |
CN108596470A (zh) * | 2018-04-19 | 2018-09-28 | 浙江大学 | 一种基于TensorFlow框架的电力设备缺陷文本处理方法 |
US20190095432A1 (en) * | 2017-09-26 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for building text classification model, and text classification method and apparatus |
CN110569920A (zh) * | 2019-09-17 | 2019-12-13 | 国家电网有限公司 | 一种多任务机器学习的预测方法 |
CN110895565A (zh) * | 2019-11-29 | 2020-03-20 | 国网湖南省电力有限公司 | 一种电力设备故障缺陷文本分类方法与系统 |
CN111767398A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 基于卷积神经网络的二次设备故障短文本数据分类方法 |
CN111767397A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 一种电力系统二次设备故障短文本数据分类方法 |
CN111966825A (zh) * | 2020-07-16 | 2020-11-20 | 电子科技大学 | 一种基于机器学习的电网设备缺陷文本分类方法 |
-
2021
- 2021-04-20 CN CN202110426623.5A patent/CN113111183A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251059A (zh) * | 2016-07-27 | 2016-12-21 | 中国电力科学研究院 | 一种基于概率神经网络算法的电缆状态评估方法 |
US20190095432A1 (en) * | 2017-09-26 | 2019-03-28 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method and apparatus for building text classification model, and text classification method and apparatus |
CN108596470A (zh) * | 2018-04-19 | 2018-09-28 | 浙江大学 | 一种基于TensorFlow框架的电力设备缺陷文本处理方法 |
CN110569920A (zh) * | 2019-09-17 | 2019-12-13 | 国家电网有限公司 | 一种多任务机器学习的预测方法 |
CN110895565A (zh) * | 2019-11-29 | 2020-03-20 | 国网湖南省电力有限公司 | 一种电力设备故障缺陷文本分类方法与系统 |
CN111767398A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 基于卷积神经网络的二次设备故障短文本数据分类方法 |
CN111767397A (zh) * | 2020-06-30 | 2020-10-13 | 国网新疆电力有限公司电力科学研究院 | 一种电力系统二次设备故障短文本数据分类方法 |
CN111966825A (zh) * | 2020-07-16 | 2020-11-20 | 电子科技大学 | 一种基于机器学习的电网设备缺陷文本分类方法 |
Non-Patent Citations (3)
Title |
---|
吴志伟: "《基于深度学习集成模型的情感分析研究》", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 * |
方林,陈海波: "《中国通信学会5G+行业应用培训指导用书 深度学习程序设计实战》", 31 March 2021, 机械工业出版社 * |
赵鸣,曾小健,詹炜译: "《智能系统与技术丛书 基于深度学习的自然语言处理》", 31 May 2020, 机械工业出版社 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114461735A (zh) * | 2022-04-13 | 2022-05-10 | 天津中新智冠信息技术有限公司 | 工矿数据分级分类方法、装置和计算机设备 |
CN116680624A (zh) * | 2023-08-03 | 2023-09-01 | 国网浙江省电力有限公司宁波供电公司 | 一种电力系统元数据的分类方法、系统及存储介质 |
CN116680624B (zh) * | 2023-08-03 | 2023-10-20 | 国网浙江省电力有限公司宁波供电公司 | 一种电力系统元数据的分类方法、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110597735B (zh) | 一种面向开源软件缺陷特征深度学习的软件缺陷预测方法 | |
Kumar et al. | Disease detection in coffee plants using convolutional neural network | |
CN110110080A (zh) | 文本分类模型训练方法、装置、计算机设备及存储介质 | |
CN111831824B (zh) | 一种舆情正负面分类方法 | |
CN105740349A (zh) | 一种结合Doc2vec和卷积神经网络的情感分类方法 | |
CN111767398A (zh) | 基于卷积神经网络的二次设备故障短文本数据分类方法 | |
CN113111183A (zh) | 一种牵引供电设备缺陷等级分类方法 | |
CN109918497A (zh) | 一种基于改进textCNN模型的文本分类方法、装置及存储介质 | |
CN104331442A (zh) | 视频分类方法和装置 | |
CN110895565A (zh) | 一种电力设备故障缺陷文本分类方法与系统 | |
CN110188047A (zh) | 一种基于双通道卷积神经网络的重复缺陷报告检测方法 | |
CN109977226A (zh) | 基于卷积神经网络的高精度文本分类方法和系统 | |
CN111460164B (zh) | 一种基于预训练语言模型的电信工单智能判障方法 | |
CN111860981B (zh) | 一种基于lstm深度学习的企业国民行业类别预测方法及系统 | |
CN107194617A (zh) | 一种app软件工程师软技能分类系统及方法 | |
CN111046175A (zh) | 基于自学习的电子案卷分类方法及装置 | |
CN109947864A (zh) | 一种基于tf-idf和cnn启发式短文本特征提取与分类方法 | |
CN111026870A (zh) | 一种综合文本分类和图像识别的ict系统故障分析方法 | |
CN110097096A (zh) | 一种基于tf-idf矩阵和胶囊网络的文本分类方法 | |
CN115343676B (zh) | 密封电子设备内部多余物定位技术的特征优化方法 | |
CN109063983B (zh) | 一种基于社交媒体数据的自然灾害损失实时评估方法 | |
CN106528527A (zh) | 未登录词的识别方法及识别系统 | |
CN113516097B (zh) | 一种基于改进EfficentNet-V2的植物叶片疾病识别方法 | |
CN115358481A (zh) | 一种企业外迁预警识别的方法、系统及装置 | |
CN115345458A (zh) | 业务流程合规性检查方法、计算机设备以及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210713 |
|
RJ01 | Rejection of invention patent application after publication |