CN113688244A - 基于神经网络的文本分类方法、系统、设备及存储介质 - Google Patents
基于神经网络的文本分类方法、系统、设备及存储介质 Download PDFInfo
- Publication number
- CN113688244A CN113688244A CN202111015077.2A CN202111015077A CN113688244A CN 113688244 A CN113688244 A CN 113688244A CN 202111015077 A CN202111015077 A CN 202111015077A CN 113688244 A CN113688244 A CN 113688244A
- Authority
- CN
- China
- Prior art keywords
- training
- preset
- text
- model
- training model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 85
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 58
- 238000012549 training Methods 0.000 claims abstract description 344
- 239000013598 vector Substances 0.000 claims abstract description 47
- 238000005070 sampling Methods 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 47
- 239000010410 layer Substances 0.000 claims description 42
- 238000012360 testing method Methods 0.000 claims description 28
- 239000011159 matrix material Substances 0.000 claims description 22
- 238000003062 neural network model Methods 0.000 claims description 22
- 230000008569 process Effects 0.000 claims description 22
- 238000004590 computer program Methods 0.000 claims description 17
- 239000013604 expression vector Substances 0.000 claims description 14
- 238000006243 chemical reaction Methods 0.000 claims description 11
- 238000013145 classification model Methods 0.000 claims description 4
- 239000002346 layers by function Substances 0.000 claims description 4
- 230000007423 decrease Effects 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 10
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000005457 optimization Methods 0.000 description 10
- 210000002569 neuron Anatomy 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000003058 natural language processing Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002688 persistence Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Databases & Information Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术,提出一种基于神经网络的文本分类方法、系统、设备及存储介质,该方法包括:根据待分类文本和目标预训练模型,预测每一预设类别的字向量,待分类文本符合预设模板对应的文本格式;根据每一预设类别的字向量和目标预训练模型中的参数,获取每一预设类别的概率;根据每一预设类别的概率,确定待分类文本的最终类别。本发明利用预训练模型自身的特点,利用预训练模型自身参数代替传统方法中再预训练模型外面构造的一层神经网络,从而不需要重新利用大量的样本数据进行训练,因此节约了训练时间,提高了该方法的使用效率;并且在无训练样本数据或小样本数据的情况下也都能使用,具有比较广泛的应用场景。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种基于神经网络的文本分类方法、系统、设备及存储介质。
背景技术
在现有的问题分类方法中,通常采用判别式深度学习模型进行处理,随着训练技术的发展,通过将问题输入到预训练模型中,得到其表示后,再在预训练模型后额外新增一层全连接网络就可以对问题进行分类操作了。
预训练就是现在大量通用语料库上训练模型,学习到通用的语言知识,然后再针对性地对任务进行迁移训练。预训练模型是一种迁移学习的应用,利用几乎无限的文本,学习输入句子的每个成员的上下文关系表示,学习通用的语法语义知识;且可以从开放领域学到知识迁移到下游任务,以改善低资源任务,对低资源语言处理也非常有利;另外,预训练模型在几乎所有的自然语言处理(Natural Language Processing,简称NLP)任务中都取得了目前最佳的成果。
但是,由于在预训练模型后面新增了一个全连接层,而全连接层是没有经过预训练的,该层的网络结构参数并不适合现有的分类功能,因此,需要重新利用大量样本对整个预训练模型和全连接层重新进行训练,这样导致无法充分利用预训练模型的能力,反而需要大量样本重新进行训练,丧失了小样本学习能力,从而增加了训练时间,降低了该方法的实时性和使用效率。
发明内容
本发明提供一种基于神经网络的文本分类方法、系统、设备及存储介质,其主要目的在于利用预训练语言模型自身的特点,避免再额外构造一层神经网络,有效提高方法的使用效率。
第一方面,本发明实施例提供一种基于神经网络的文本分类方法,包括:
根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
根据每一预设类别的概率,确定所述待分类文本的最终类别。
优选地,所述根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率,包括:
根据每一预设类别的字向量和所述目标预训练模型中的转换矩阵,获取每一预设类别的表示向量;
根据每一预设类别的表示向量,获取每一预设类别的概率。
优选地,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,其中:
在各轮训练中,将所述预设文本数据输入至所述预训练模型中,控制所述预训练模型对所述预设文本数据进行处理,得到所述预设文本数据中各个文本对应的分类结果;
根据所述预设文本标签和所述分类结果,计算所述预训练模型的损失函数;
根据所述损失函数计算得到所述预训练模型中各功能分层对应的梯度;
采用所述预训练模型中各功能分层的梯度和学习率对应更新各功能分层,以对所述预训练模型进行更新;
经过各轮训练后,将最终更新后的预训练模型作为所述目标预训练模型。
优选地,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,具体通过如下步骤获得:
对所述预设文本数据进行有放回抽样,并合并相同的抽样样本,获取合并抽样样本;
将合并抽样样本、所述合并抽样样本对应的预设文本标签作为训练集;
将剩余抽样样本、所述剩余抽样样本对应的预设文本标签作为测试集,所述剩余抽样样本通过所述预设文本数据中除去合并抽样样本后得到;
根据所述训练集和所述测试集,对所述预训练模型进行训练。
优选地,所述目标预训练模型为预设语料库对预设预训练神经网络模型进行训练得到,所述预设预训练神经网络模型的训练过程中,所述预设预训练神经网络模型各个功能分层的学习率从输出层往输入层方向递减。
优选地,所述目标预训练模型为微调预训练模型,具体通过如下步骤获得:
利用预设文本数据和预设文本标签对预设预训练神经网络模型进行训练,得到参考预训练模型;
将所述参考预训练模型和预设语料库结合,得到所述微调预训练模型。
优选地,所述预训练模型包括BERT、ALBERT、XLNET。
优选地,所述损失函数的计算公式如下:
FL(pt)=(-a)×(1-pt)γ×log(pt),
其中,pt表示概率值,a表示平衡权重,FL(pt)表示损失值,γ表示聚焦参数。
第二方面,本发明实施例提供一种基于神经网络的文本分类系统,包括:
向量模型,用于根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
概率模型,用于根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
分类模型,用于根据每一预设类别的概率,确定所述待分类文本的最终类别。
第三方面,本发明实施例提供一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述基于神经网络的文本分类方法的步骤。
第四方面,本发明实施例提供一种计算机存储介质,所述计算机存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述基于神经网络的文本分类方法的步骤。
本发明提出的一种基于神经网络的文本分类方法、系统、设备及存储介质,该方法利用预训练模型自身的特点,利用预训练模型自身参数代替传统方法中再预训练模型外面构造的一层神经网络,从而不需要重新利用大量的样本数据进行训练,因此节约了训练时间,提高了该方法的使用效率;并且在无训练样本数据或小样本数据的情况下也都能使用,具有比较广泛的应用场景。
附图说明
图1为本发明实施例提供的一种基于神经网络的文本分类方法的应用场景图;
图2为本发明实施例提供的一种基于神经网络的文本分类方法的流程图;
图3为本发明实施例提供的一种基于神经网络的文本分类系统的结构示意图;
图4为本发明实施例提供的一种计算机设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1为本发明实施例提供的一种基于神经网络的文本分类方法的应用场景图,如图1所示,首先在客户端中确定待分类文本和目标预训练模型,并且将待分类文本和目标预训练模型发送给服务端,服务端接收该待分类文本和目标预训练模型后,执行该基于神经网络的文本分类方法,得到该待分类文本的最终类别。
需要说明的是,服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。客户端可为智能手机、平板电脑、笔记本电脑、台式计算机等,但并不局限于此。客户端和服务端可以通过蓝牙、USB(Universal Serial Bus,通用串行总线)或者其他通讯连接方式进行连接,本发明实施例在此不做限制。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
图2为本发明实施例提供的一种基于神经网络的文本分类方法的流程图,如图2所示,该方法包括:
S210,根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
获取待分类文本,该待分类文本的格式符合预设模板,举例地,如果该分类方法是对问题进行分类,即判断一句话是正确的还是错误的。
而,预训练模型的拟合目标是判断输入的一个句子是否符合正常语言序列,假如有句子:今天天气不错,我出门了。此时将句子的前半部分:今天天气不错,输入到预训练模型中,希望模型通过生成的方式,准确的预测出句子的后半部分内容:我出门了。
基于这个原理,为了将预训练模型应用于分类中,需要对一般的输入文本进行构造,使得输入文本符合预训练模型的使用要求。假如有句子:今天天气不错,雨水把我的鞋子打湿了,将该句子输入到预训练模型中,该句子显然不符合正常的说话逻辑,该预训练模型准确的预测出句子的判断内容:错误。因此,为了将预训练模型应用到分类问题上,需要将原有的“今天天气不错,雨水把我的鞋子打湿了”构造成新句子“今天天气不错,雨水把我的鞋子打湿了,错误”。
具体地,如果该分类问题为二分类,且是为了判断输入句子是正确还是错误的,按照预设模板对输入文本进行文本构造,本发明实施例中,构造句子格式为“这是问题”+输入文本,对应的预设类别为“正确”或“错误”。假如有输入文本:“今天天气不错,我出门了”,为了判断这个输入文本是正确的还是错误的,将这个输入文本按照预设模板进行构造,得到待分类文本:“这是问题:今天天气不错,我出门了”;如果有输入文本“今天下雨了,我出门鞋子湿了”,按照预设模板进行构造,得到待分类文本“这是问题:今天下雨了,我出门鞋子湿了”,即该中情况下预设模板为原有输入文本加上“这是问题”。
上面是二分类问题,还可以是三分类、四分类等,按照对应的预设模板构建待分类文本,只不过此时预设类别有三个类别或者四个类别了。
需要说明的是,在相同预设模板下的格式是相同的,不同的预设模板格式是不同的,构造句子的过程可以是人工进行构造,也可以利用其它计算方法进行构造。
将待分类文本输入到目标预训练模型中,得到每个类别对应的字向量,以问题分类为例,每个类别的字向量即为正确类别对应的字向量和错误类别对应的字向量。字向量是通过语言模型的训练得到的一组参数阵,语言模型的训练有很多种,比如,通过预测前后两句话是否是连续,则模型通过onehot(独热编码)、全连接参数阵w、softmax函数,通过训练这样的一种任务来更新参数阵,最终,参数阵将会承受着表示字向量的任务。
需要说明的是,目前对文本进行分类的预训练模型通常是对于特定的业务场景定制化建立的,建立过程包括对文本进行分词、词嵌入、模型数据训练和在线服务部署等多个环节。其中,词嵌入环节是指将待分类文本转换为字向量的过程。因为在自然语言处理技术领域,要将自然语言交给机器学习中的算法来处理,首先需要将自然语言数学化,字向量就是将自然语言数学化表示的一种方式。
此外,早期将自然语言数学化的方式主要是基于浅层机器学习和统计学,并采用one-hot(也称one-of-V,V为词典的大小)或分配式的方式(如结合词频、共现信息、TF-IDF或熵的词袋)来给出句子的数学表示。这种表示方法的主要缺点是无法表达句子中语言单元(如字、词或短语n-grams)本身的语义及它们间的关系(例如任意两个不同词的向量内积均为0),且容易出现高维稀疏问题。所以,目前通常是采用词嵌入,即通过神经网络来训练词的数学表示。
词嵌入的主要思想是将词映射成一个连续且带语义信息的d维实数向量。现有的研究已经证明词嵌入能够更好地刻画文本的语法和语义信息,而且能够与深度神经网络相结合并进一步提高模型分类的准确性。
S220,根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
然后基于该预设类别的字向量和目标预训练模型中的自身参数,得到每个预设类别的概率。
现有技术中,通过将每个预设类别的字向量输入到全连接层网络中,以得到每个预设类别的概率,但是本发明实施例中经过研究发现,预训练模型中的自身参数可以替代现有技术中全连接层的功能,这样就不需要在预训练模型的后面再连接全连接层,不需要额外的接外接网络,这样就可以不对预训练模型重新进行训练,或者,不需要利用大量样本数据重新对预训练模型进行训练,从而降低了训练时间,提高了该方法的使用效率。
S230,根据每一预设类别的概率,确定所述待分类文本的最终类别。
根据每个预设类别的概率,比如比较正确类别的概率和错误类别的概率,将概率较大的类别作为该待分类文本的最终类别,如果正确类别的概率大于错误类别的概率,该待分类文本就是正确的,如果正确类别的概率小于错误类别的概率,该待分类文本就是错误的。
本发明实施例提供一种基于神经网络的文本分类方法,该方法利用预训练模型自身的特点,利用预训练模型自身参数代替传统方法中在预训练模型外面构造的一层神经网络的作用,确定待分类文本的最终类别,由于本发明实施例中预训练模型可以直接拿来使用,不需要重新利用大量的样本数据进行训练,因此本发明实施例省略了神经网络模型的训练过程,从而节约了训练时间,提高了该方法的使用效率。
在上述实施例的基础上,优选地,所述根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率,包括:
根据每一预设类别的字向量和所述目标预训练模型中的转换矩阵,获取每一预设类别的表示向量;
根据每一预设类别的表示向量,获取每一预设类别的概率。
具体地,本发明实施例中目标预训练模型的自身参数为目标预训练模型中的转换矩阵,将每个预设类别的字向量和目标预训练模型中的转换矩阵相乘,可以得到每个预设类别的表示向量,然后根据每个预设类别的表示向量,得到每个预设类别的概率,将每一预设类别的表示向量输入到softmax函数中,得到每一预设类别的概率。
本发明实施例中,以BERT为目标预训练模型为例进行说明,假如BERT的词表大小vocab_size=32000,那么每个词可以表示成32000维的one-hot字向量,BERT的最大长度max_length=512,也就是可以接收的最大输入句子的长度,那么每个单词的位置信息可以表示成512维的one-hot字向量,BERT的训练数据接收的是句子对,那么就可以用2维的one-hot向量表示两个不同的句子。
利用BERT进行文本分类的流程具体为:对输入的待分类文本进行分词,得到单个词;对每个词进行编码,得到字向量;通过多头注意力(Multi-Heads Attention),将字向量分为多个头,分别表示查询输入、键输入和值输入,将其乘以各自的转换矩阵,得到查询矩阵、键矩阵和值矩阵;再将所有的查询矩阵、键矩阵和值矩阵拼接起来,乘以所有的转换矩阵,最后得到最终类别。
具体地,在多头注意力输入查询输入、键输入和值输入需要经过三个转换矩阵WQ、WK、WV生成查询矩阵Q、键矩阵K、值矩阵V,需要确定三个W矩阵的维度,其中:
X×WQ=Q,
X×WK=K,
X×WV=V。
W=[WQ,WK,WV],即为本发明实施例中所指的转换矩阵。
需要说明的是,如果每个预设类别的字向量维度为d,那么转换矩阵的维度为d*N,其中,N为目标预训练模型自字典的大小,即目标预训练模型可生产所有预设类别的数量。
对字向量和转换矩阵做矩阵乘法,得到每个预设类别的表示向量,该表示向量的维度即为N,即字典中每个预设类别都对应表示向量中的一个值。
将表示向量经过softmax函数,S=exp(N)/Sum(exp(N)),得到每个预设类别对应的概率,概率的维度为N。
在上述实施例的基础上,优选地,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,其中:
在各轮训练中,将所述预设文本数据输入至所述预训练模型中,控制所述预训练模型对所述预设文本数据进行处理,得到所述预设文本数据中各个文本对应的分类结果;
根据所述预设文本标签和所述分类结果,计算所述预训练模型的损失函数;
根据所述损失函数计算得到所述预训练模型中各功能分层对应的梯度;
采用所述预训练模型中各功能分层的梯度和学习率对应更新各功能分层,以对所述预训练模型进行更新;
经过各轮训练后,将最终更新后的预训练模型作为所述目标预训练模型。
具体地,本发明实施例中目标预训练模型可以利用预设文本数据和预设文本标签对预训练模型重新进行训练得到,而预训练模型是预先早就利用预设语料库对预设神经网络模型训练好了的。
预训练模型可以是为了解决类似的分类或识别的问题所创造出来的模型,该预训练模型可能对应于本文本分类应用中,但并不是100%的对口本发明实施例中的文本分类场景,但是它可以为模型训练节省大量的时间。
预设文本数据和预设文本标签可以是为了具体应用而采集并标记的数据,但其数据量相对有限,由于预训练模型是已经经过其它的大量类似构造的数据训练过的模型,因此,对预训练模型重新训练,进行适应性的局部参数优化,并不像训练一个全新模型那样,需要海量的训练数据,使用与具体相契合的有用预设文本数据,对预训练模型稍加调整,能够使模型应用于全新的领域,并解决新的分类问题。
因此,为了使目标预训练模型中各层神经网络的权重参数更加贴合本发明实施例中的分类场景,可以重新对预训练模型进行训练,训练的样本数据可以使用少量样本数据即可,没必要使用大量的样本数据,从而对预训练模型重新进行训练后,使得目标预训练模型更加贴合实际使用场景,从而提高后面目标预训练模型的预测精度。
具体地,在各轮训练中,将预设文本数据输入至预训练模型中,控制预训练模型对预设文本数据进行处理,得到预设文本数据中各个文本对应的分类结果;
进一步地,对预训练模型可以进行多轮训练,在各轮训练中,将预设文本数据输入至预训练模型中,并控制预训练模型对预设文本数据进行处理,得到预设文本数据中各个文本对应的分类结果。需要说明的是,每一轮训练的基础是上一轮训练后的预训练模型。
根据预设文本数据中各个文本对应的分类标签和分类结果,计算预训练模型的损失函数。具体地,预训练模型的损失函数如下:
FL(pt)=(-a)×(1-pt)γ×log(pt),
其中,pt表示概率值,a表示平衡权重,FL(pt)表示损失值,γ表示聚焦参数。
基于该损失函数计算得到预训练模型中各个功能分层对应的梯度。若预训练模型包括其他部分,如后接任务模型,则基于损失函数计算后接任务模型对应的梯度。具体地,各个功能分层对应的梯度是指各个功能分层中各个参数对应的梯度,后接任务模型对应的梯度也同样是后接任务模型中各个参数对应的梯度。
采用预训练模型中各个功能分层的梯度和学习率,对应更新各功能分层。也即,对每个功能分层,采用该功能分层的梯度和学习率来更新该功能分层的参数。同样地,可采用后接任务模型的梯度和学习率来更新后接任务模型的参数。具体地,更新参数的梯度和学习率来更新参数的方式,可以参照现有机器学习模型的参数更新方式,在此不进行详细赘述。更新预训练模型中各个部分的模型参数后,至此完成一轮训练。
在对预训练模型进行多轮训练后,将最终更新后的预训练模型作为目标预训练模型。其中,可以预先设置迭代训练的停止条件,例如,可以是设置当训练轮数达到一个预设的最大轮数时停止训练,也可以是当检测到预训练模型的损失函数收敛时停止训练,还可以是当训练时长达到一个预设的最大训练时长时停止信息。
需要说明的是,该目标预训练模型属于神经网络中的一种,该目标预训练模型的训练过程可以分为三个步骤:定义目标预训练模型的结构和前向传播的输出结果;定义损失函数以及反向传播优化的算法;最后生成会话并在训练数据上反复运行反向传播优化算法。
其中,神经元是构成神经网络的最小单位,一个神经元可以有多个输入和一个输出,每个神经元的输入既可以是其它神经元的输出,也可以是整个神经网络的输入。该神经网络的输出即是所有神经元的输入加权和,不同输入的权重就是神经元参数,神经网络的优化过程就是优化神经元参数取值的过程。
神经网络的效果及优化的目标是通过损失函数来定义的,损失函数给出了神经网络的输出结果与真实标签之间差距的计算公式,监督学习为神经网络训练的一种方式,其思想就是在已知答案的标注数据集上,该神经网络给出的结果要尽量接近真实的答案(即标签)。通过调整神经网络中的参数对训练数据进行拟合,使得神经网络对未知的样本提供预测能力。
反向传播算法实现了一个迭代的过程,每次迭代开始的时候,先取一部分训练数据,通过前向传播算法得到神经网络的预测结果。因为训练数据都有正确的答案,所以可以计算出预测结果和正确答案之间的差距。基于这个差距,反向传播算法会相应的更新神经网络参数的取值,使得和真实答案更加接近。
需要说明的是,由于重新进行训练后,目标预训练模型的中各个神经元之间的权重参数与原始的预训练模型相比肯定会发生变化,因此,此种情况下目标预训练模型的自身参数为重新进行训练后的预训练模型的自身参数,即目标预训练模型的转换矩阵为重新进行训练后的预训练模型的转换矩阵。
在上述实施例的基础上,优选地,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,具体通过如下步骤获得:
对所述预设文本数据进行有放回抽样,并合并相同的抽样样本,获取合并抽样样本;
将合并抽样样本、所述合并抽样样本对应的预设文本标签作为训练集;
将剩余抽样样本、所述剩余抽样样本对应的预设文本标签作为测试集,所述剩余抽样样本通过所述预设文本数据中除去合并抽样样本后得到;
根据所述训练集和所述测试集,对所述预训练模型进行训练。
具体地,除了上述利用预设文本数据和预设文本标签对预训练模型进行训练的方法之外,本发明实施例还提供另外一种对预训练模型进行训练的方法。
先将预设文本数据作为一个数据集,对该数据集中的数据进行有抽样放回,有放回抽样是简单随机抽样的操作方式之一。对于数据集中的抽样样本,每抽取一个样本后再将它放回数据集。对于任意一次抽样而言,由于总体容量不变,所以每个样本被抽中的机会均等。
将抽取出来的抽样样本进行合并,合并是指将重复的抽样样本记为1个,其它的去掉,由此获得到合并抽样样本。然后将合并抽样样本、以及合并抽样样本对应的预设文本标签作为训练集,将数据集中除去合并抽样样本后的数据作为剩余抽样样本,剩余抽样样本以及剩余抽样样本对应的预设文本标签作为测试集。
通过训练集,对预训练模型进行训练。并根据测试集测试该目标预训练模型,获取测试结果。
利用训练集的数据,能够对预训练模型进行局部优化训练,调整预训练模型某些中间层的参数,使目标预训练模型适用于构造数据集中的数据类型,进而将目标预训练模型应用于对应数据类型的分类或识别等任务中。
然后根据测试结果对该目标预训练模型进行评估,判断测试结果是否符合预设应用需求。当测试结果符合预设的应用需求时,直接输出该目标预训练模型;当测试结果不符合预设的应用需求时,重新对数据集中的预设文本数据进行有抽样放回,并合并抽样样本,得到新的训练集,利用新的训练集重新对预训练模型进行训练,重复该过程,直到最后得到的目标预训练模型的测试结果符合预设的应用需求。
在一具体实施例中,测试结果可以是经过训练集训练后的目标预训练模型对测试集的分类正确率。当分类正确率大于或等于预设阈值,即测试结果符合预设的应用需求时,可以认为对预训练模型的局部优化已达到预期目的,该模型能够可靠应用于对应数据类型的分类或识别等任务中。
当分类正确率小于预设阈值,即测试结果不符合预设的应用需求时,说明预训练模型仍然需要继续进行优化训练。通过重复执行上述步骤,能够实现不同的训练集及其测试集对预训练模型的反复训练和测试,从而不断优化预训练模型的局部参数,最终使测试结果符合预设的应用需求,从而保证本发明实施例最终输出的预训练模型能够可靠应用于对应数据类型的分类或识别任务中。
通过抽样的方式将数据量有限的数据集划分为训练集和测试集,由于每次抽样所获得样本的不同,使得通过抽样能够在数据量有限的数据集上获得多组不同的训练集和对应的测试集,从而实现了有限的数据为基础的模型优化训练。
在上述实施例的基础上,优选地,所述目标预训练模型为预设语料库对预设预训练神经网络模型进行训练得到,所述预设预训练神经网络模型的训练过程中,所述预设预训练神经网络模型各个功能分层的学习率从输出层往输入层方向递减。
具体地,获取预设预训练神经网络模型的整体学习率,根据整体学习率确定预设预训练神经网络模型中各个功能分层的学习率,步骤为:将整体学习率作为预设预训练神经网络模型与输出层距离最近的功能分层的学习率。以与输出层距离最近的功能分层的学习率为基准,以输出层方向为上方向,以输入层方向为下方向,将各功能分层对应的上一层功能分层的学习率除以预设值得到的结果,对应作为各功能分层的学习率,其中,所述预设值大于一。
按照预设预训练神经网络模型各个功能分层的学习率对预设预训练神经网络模型进行训练,得到目标预训练模型。
由于预训练模型是已经经过其它的大量类似构造的数据训练过的模型,虽然其网络中的权重参数并不是100%的适用于新的分类场景,但是直接拿来使用的话,仍然可以完成分类任务,但是分类准确率没有重新经过训练后的目标预训练模型高。在完成一些比较简单的文本分类任务时完全可以使用。
因此,该目标预训练模型还可以为预设语料库直接对预训练神经网络模型进行训练后得到,一般地,当需要使用该目标预训练模型时,直接拿来使用即可,此种情况下,目标预训练模型的自身参数即为预训练模型经过预设语料库训练后的参数。
本发明实施例中,即时在没有样本数据的情况下,也可以利用预训练模型本身的参数完成分类任务,即时在没有样本数据的情况下也能适用,具有较强的实用性。
在上述实施例的基础上,优选地,所述目标预训练模型为微调预训练模型,具体通过如下步骤获得:
利用预设文本数据和预设文本标签对预设预训练神经网络模型进行训练,得到参考预训练模型;
将所述参考预训练模型和预设语料库结合,得到所述微调预训练模型。
目标预训练模型既可是上述实施例中重新对预训练模型进行训练之后的模型,也可以是原始的预训练模型,还可以是本发明实施例中经过微调之后的预训练模型。
具体地,先利用训练样本,对预训练神经网络模型进行训练,得到参考预训练模型,预设语料库为专用词典或识别规则,在后续使用参考预训练模型和预设语料库结合的微调预训练模型时,可以将标记文本数据输入预设语料库后,其会与预设语料库的专用词典进行匹配,并根据识别规则生成相应的特征向量。
可以理解的是,预设语料库可以按照标记文本数据所属场景类型所需的业务要求而专门定制,即每一场景类型都对应一微调预训练模型,这些微调预训练模型包含的预设语料库都不同,但包含的预训练模型相同。
在上述实施例的基础上,优选地,所述预训练模型包括BERT、ALBERT、XLNET。
需要说明的是,BERT(Bidirectional Encoder Representation fromTransformers,简称双向传输的编码器),ERT的模型架构基于多层双向转换解码,因为decoder是不能获要预测的信息的,模型的主要创新点都在预训练方法上,即用了MaskedLM和Next Sentence Prediction两种方法分别捕捉词语和句子级别的表现。
其中“双向”表示模型在处理某一个词时,它能同时利用前面的词和后面的词两部分信息,这种“双向”的来源在于BERT与传统语言模型不同,它不是在给你大牛股所有前面词的条件下预测最可能的当前词,而是随机遮掩一些词,并利用所有没被遮掩的词进行预测。
ALBERT是轻量级BERT模型,其比BERT模型参数小18倍,性能还超越了BERT。
Xlnet,自BERT预训练-微调模式开创以来,这个自然语言处理NLP中的又一重大进展。Xlnet融合了自回归(AR,单向语言模型)、自编码(AE,双向语言模型)等语言模型特征,采用最先进的transformer特征提取器(transformer-xl,利用分割循环机制和相对位置编码进行高并发-超长文本处理),开创性地提出了排列语言模型(Permutation LanguageModeling)。
综上,本发明实施例提供一种基于神经网络的文本分类方法,该方法利用预训练模型自身的特点,利用预训练模型自身参数代替传统方法中在预训练模型外面构造的一层神经网络的作用,确定待分类文本的最终类别,由于本发明实施例中预训练模型可以直接拿来使用,不需要重新利用大量的样本数据进行训练,因此本发明实施例省略了神经网络模型的训练过程,从而节约了训练时间,提高了该方法的使用效率。
并且,由于预训练模型是已经经过其它的大量类似构造的数据训练过的模型,因此,对预训练模型重新训练进行适应性的局部参数优化,并不像训练一个全新模型那样,需要海量的训练数据,使用与具体相契合的有用预设文本数据,对预训练模型稍加调整,能够使模型应用于全新的领域,并解决新的分类问题。即使在需要重新进行训练的情况下,也不必要使用大量样本数据,因此训练时间也不会太长,并且可以提高待分类文本的分类精度。
最后,即时在没有样本数据的情况下,也可以利用预训练模型本身的参数完成分类任务,即时在没有样本数据的情况下也能适用,具有较强的实用性。
图3为本发明实施例提供的一种基于神经网络的文本分类系统的结构示意图,如图3所示,该系统包括:向量模型310、概率模型320和分类模型330,其中:
向量模型310用于根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
概率模型320用于根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
分类模型330用于根据每一预设类别的概率,确定所述待分类文本的最终类别。
在上述实施例的基础上,优选地,所示概率模块包括转换单元和计算单元,其中:
所示转换单元用于根据每一预设类别的字向量和所述目标预训练模型中的转换矩阵,获取每一预设类别的表示向量;
所示计算单元用于根据每一预设类别的表示向量,获取每一预设类别的概率。
在上述实施例的基础上,优选地,还包括第一训练模块,所述第一训练模块用于利用预设文本数据和预设文本标签对预训练模型进行训练,得到所述目标预训练模型。
在上述实施例的基础上,优选地,所述第一训练模块包括抽样单元、训练集单元、测试集单元和训练单元,其中:
所述抽样单元用于对所述预设文本数据进行有放回抽样,并合并相同的抽样样本,获取合并抽样样本;
所述训练集单元用于将合并抽样样本、所述合并抽样样本对应的预设文本标签作为训练集;
所述测试集单元用于将剩余抽样样本、所述剩余抽样样本对应的预设文本标签作为测试集,所述剩余抽样样本通过所述预设文本数据中除去合并抽样样本后得到;
所述训练单元用于根据所述训练集和所述测试集,对所述预训练模型进行训练。
在上述实施例的基础上,优选地,还包括第二训练模块,所述第二训练模块用于通过预设语料库对预设预训练神经网络模型进行训练,得到所述目标预训练模型。
在上述实施例的基础上,优选地,还包括第三训练模块,所述第三训练模块包括预训练单元和微调单元,其中:
所述预训练单元用于利用预设文本数据和预设文本标签对预设预训练神经网络模型进行训练,得到目标预训练模型;
所述微调单元用于将所述目标预训练模型和预设语料库结合,得到所述微调预训练模型。
本实施例为与上述方法实施例对应的系统实施例,其具体执行过程与上述方法实施例相同,详情请参考上述方法实施例,本系统实施例在此不再赘述。
上述基于神经网络的文本分类系统中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
图4为本发明实施例提供的一种计算机设备的结构示意图,如图4所示,该计算机设备可以是服务器,该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括计算机存储介质、内存储器。该计算机存储介质存储有操作系统、计算机程序和数据库。该内存储器为计算机存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储执行基于神经网络的文本分类方法过程中生成或获取的数据,如流程节点编号、目标业务节点。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种基于神经网络的文本分类方法。
在一个实施例中,提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,处理器执行计算机程序时实现上述实施例中的基于神经网络的文本分类方法的步骤。或者,处理器执行计算机程序时实现基于神经网络的文本分类系统这一实施例中的各模块/单元的功能。
在一实施例中,提供一计算机存储介质,该计算机存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施例中基于神经网络的文本分类方法的步骤。或者,该计算机程序被处理器执行时实现上述基于神经网络的文本分类系统这一实施例中的各模块/单元的功能。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于神经网络的文本分类方法,其特征在于,包括:
根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
根据每一预设类别的概率,确定所述待分类文本的最终类别。
2.根据权利要求1所述的基于神经网络的文本分类方法,其特征在于,所述根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率,包括:
根据每一预设类别的字向量和所述目标预训练模型中的转换矩阵,获取每一预设类别的表示向量;
根据每一预设类别的表示向量,获取每一预设类别的概率。
3.根据权利要求1所述的基于神经网络的文本分类方法,其特征在于,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,其中:
在各轮训练中,将所述预设文本数据输入至所述预训练模型中,控制所述预训练模型对所述预设文本数据进行处理,得到所述预设文本数据中各个文本对应的分类结果;
根据所述预设文本标签和所述分类结果,计算所述预训练模型的损失函数;
根据所述损失函数计算得到所述预训练模型中各功能分层对应的梯度;
采用所述预训练模型中各功能分层的梯度和学习率对应更新各功能分层,以对所述预训练模型进行更新;
经过各轮训练后,将最终更新后的预训练模型作为所述目标预训练模型。
4.根据权利要求3所述的基于神经网络的文本分类方法,其特征在于,所述目标预训练模型利用预设文本数据和预设文本标签对预训练模型训练后得到,具体通过如下步骤获得:
对所述预设文本数据进行有放回抽样,合并相同的抽样样本,获取合并抽样样本;
将合并抽样样本、所述合并抽样样本对应的预设文本标签作为训练集;
将剩余抽样样本、所述剩余抽样样本对应的预设文本标签作为测试集,所述剩余抽样样本通过所述预设文本数据中除去合并抽样样本后得到;
根据所述训练集和所述测试集,对所述预训练模型进行训练。
5.根据权利要求1所述的基于神经网络的文本分类方法,其特征在于,所述目标预训练模型为预设语料库对预设预训练神经网络模型进行训练得到,所述预设预训练神经网络模型的训练过程中,所述预设预训练神经网络模型各个功能分层的学习率从输出层往输入层方向递减。
6.根据权利要求1所述的基于神经网络的文本分类方法,其特征在于,所述目标预训练模型为微调预训练模型,具体通过如下步骤获得:
利用预设文本数据和预设文本标签对预设预训练神经网络模型进行训练,得到参考预训练模型;
将所述参考预训练模型和预设语料库结合,得到所述微调预训练模型。
7.根据权利要求3所述的基于神经网络的文本分类方法,其特征在于,所述损失函数的计算公式如下:
FL(pt)=(-a)×(1-pt)γ×log(pt),
其中,pt表示概率值,a表示平衡权重,FL(pt)表示损失值,γ表示聚焦参数。
8.一种基于神经网络的文本分类系统,其特征在于,包括:
向量模型,用于根据待分类文本和目标预训练模型,预测每一预设类别的字向量,所述待分类文本符合预设模板对应的文本格式;
概率模型,用于根据每一预设类别的字向量和所述目标预训练模型中的参数,获取每一预设类别的概率;
分类模型,用于根据每一预设类别的概率,确定所述待分类文本的最终类别。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述基于神经网络的文本分类方法的步骤。
10.一种计算机存储介质,所述计算机存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述基于神经网络的文本分类方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015077.2A CN113688244B (zh) | 2021-08-31 | 2021-08-31 | 基于神经网络的文本分类方法、系统、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111015077.2A CN113688244B (zh) | 2021-08-31 | 2021-08-31 | 基于神经网络的文本分类方法、系统、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113688244A true CN113688244A (zh) | 2021-11-23 |
CN113688244B CN113688244B (zh) | 2024-09-17 |
Family
ID=78584878
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111015077.2A Active CN113688244B (zh) | 2021-08-31 | 2021-08-31 | 基于神经网络的文本分类方法、系统、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113688244B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114020922A (zh) * | 2022-01-06 | 2022-02-08 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
CN114219046A (zh) * | 2022-01-26 | 2022-03-22 | 北京百度网讯科技有限公司 | 模型训练方法、匹配方法、装置、系统、电子设备和介质 |
CN114756680A (zh) * | 2022-03-31 | 2022-07-15 | 苏州浪潮智能科技有限公司 | 一种文本分类方法、系统、电子设备及存储介质 |
CN115099242A (zh) * | 2022-08-29 | 2022-09-23 | 江西电信信息产业有限公司 | 意图识别方法、系统、计算机及可读存储介质 |
CN115169549A (zh) * | 2022-06-24 | 2022-10-11 | 北京百度网讯科技有限公司 | 人工智能模型更新方法、装置、电子设备及存储介质 |
CN115577106A (zh) * | 2022-10-14 | 2023-01-06 | 北京百度网讯科技有限公司 | 基于人工智能的文本分类方法、装置、设备和介质 |
CN115994225A (zh) * | 2023-03-20 | 2023-04-21 | 北京百分点科技集团股份有限公司 | 文本的分类方法、装置、存储介质及电子设备 |
CN116127067A (zh) * | 2022-12-28 | 2023-05-16 | 北京明朝万达科技股份有限公司 | 文本分类方法、装置、电子设备和存储介质 |
WO2023226309A1 (zh) * | 2022-05-24 | 2023-11-30 | 华为云计算技术有限公司 | 一种模型训练方法及相关设备 |
CN117668563A (zh) * | 2024-01-31 | 2024-03-08 | 苏州元脑智能科技有限公司 | 文本识别方法、装置、电子设备及可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413993A (zh) * | 2019-06-26 | 2019-11-05 | 重庆兆光科技股份有限公司 | 一种基于稀疏权值神经网络的语义分类方法、系统和介质 |
CN111625651A (zh) * | 2020-06-04 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 文本分类方法、装置、设备及计算机可读存储介质 |
CN111651603A (zh) * | 2020-06-04 | 2020-09-11 | 上海电力大学 | 一种基于lav参数微调的电力工单层次文本分类方法及系统 |
CN112353402A (zh) * | 2020-10-22 | 2021-02-12 | 平安科技(深圳)有限公司 | 心电信号分类模型的训练方法、心电信号分类方法及装置 |
WO2021051560A1 (zh) * | 2019-09-17 | 2021-03-25 | 平安科技(深圳)有限公司 | 文本分类方法和装置、电子设备、计算机非易失性可读存储介质 |
CN112632271A (zh) * | 2019-10-08 | 2021-04-09 | 中国移动通信集团浙江有限公司 | 文本分类服务部署方法、装置、设备及计算机存储介质 |
CN112905795A (zh) * | 2021-03-11 | 2021-06-04 | 证通股份有限公司 | 文本意图分类的方法、装置和可读介质 |
-
2021
- 2021-08-31 CN CN202111015077.2A patent/CN113688244B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110413993A (zh) * | 2019-06-26 | 2019-11-05 | 重庆兆光科技股份有限公司 | 一种基于稀疏权值神经网络的语义分类方法、系统和介质 |
WO2021051560A1 (zh) * | 2019-09-17 | 2021-03-25 | 平安科技(深圳)有限公司 | 文本分类方法和装置、电子设备、计算机非易失性可读存储介质 |
CN112632271A (zh) * | 2019-10-08 | 2021-04-09 | 中国移动通信集团浙江有限公司 | 文本分类服务部署方法、装置、设备及计算机存储介质 |
CN111625651A (zh) * | 2020-06-04 | 2020-09-04 | 深圳前海微众银行股份有限公司 | 文本分类方法、装置、设备及计算机可读存储介质 |
CN111651603A (zh) * | 2020-06-04 | 2020-09-11 | 上海电力大学 | 一种基于lav参数微调的电力工单层次文本分类方法及系统 |
CN112353402A (zh) * | 2020-10-22 | 2021-02-12 | 平安科技(深圳)有限公司 | 心电信号分类模型的训练方法、心电信号分类方法及装置 |
CN112905795A (zh) * | 2021-03-11 | 2021-06-04 | 证通股份有限公司 | 文本意图分类的方法、装置和可读介质 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114020922B (zh) * | 2022-01-06 | 2022-03-22 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
CN114020922A (zh) * | 2022-01-06 | 2022-02-08 | 智者四海(北京)技术有限公司 | 文本分类方法、装置及存储介质 |
CN114219046A (zh) * | 2022-01-26 | 2022-03-22 | 北京百度网讯科技有限公司 | 模型训练方法、匹配方法、装置、系统、电子设备和介质 |
CN114756680A (zh) * | 2022-03-31 | 2022-07-15 | 苏州浪潮智能科技有限公司 | 一种文本分类方法、系统、电子设备及存储介质 |
WO2023226309A1 (zh) * | 2022-05-24 | 2023-11-30 | 华为云计算技术有限公司 | 一种模型训练方法及相关设备 |
CN115169549B (zh) * | 2022-06-24 | 2023-08-22 | 北京百度网讯科技有限公司 | 人工智能模型更新方法、装置、电子设备及存储介质 |
CN115169549A (zh) * | 2022-06-24 | 2022-10-11 | 北京百度网讯科技有限公司 | 人工智能模型更新方法、装置、电子设备及存储介质 |
CN115099242A (zh) * | 2022-08-29 | 2022-09-23 | 江西电信信息产业有限公司 | 意图识别方法、系统、计算机及可读存储介质 |
CN115099242B (zh) * | 2022-08-29 | 2022-11-15 | 江西电信信息产业有限公司 | 意图识别方法、系统、计算机及可读存储介质 |
CN115577106A (zh) * | 2022-10-14 | 2023-01-06 | 北京百度网讯科技有限公司 | 基于人工智能的文本分类方法、装置、设备和介质 |
CN115577106B (zh) * | 2022-10-14 | 2023-12-19 | 北京百度网讯科技有限公司 | 基于人工智能的文本分类方法、装置、设备和介质 |
CN116127067A (zh) * | 2022-12-28 | 2023-05-16 | 北京明朝万达科技股份有限公司 | 文本分类方法、装置、电子设备和存储介质 |
CN116127067B (zh) * | 2022-12-28 | 2023-10-20 | 北京明朝万达科技股份有限公司 | 文本分类方法、装置、电子设备和存储介质 |
CN115994225A (zh) * | 2023-03-20 | 2023-04-21 | 北京百分点科技集团股份有限公司 | 文本的分类方法、装置、存储介质及电子设备 |
CN117668563A (zh) * | 2024-01-31 | 2024-03-08 | 苏州元脑智能科技有限公司 | 文本识别方法、装置、电子设备及可读存储介质 |
CN117668563B (zh) * | 2024-01-31 | 2024-04-30 | 苏州元脑智能科技有限公司 | 文本识别方法、装置、电子设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113688244B (zh) | 2024-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113688244B (zh) | 基于神经网络的文本分类方法、系统、设备及存储介质 | |
US11113479B2 (en) | Utilizing a gated self-attention memory network model for predicting a candidate answer match to a query | |
CN110032630B (zh) | 话术推荐设备、方法及模型训练设备 | |
WO2023024412A1 (zh) | 基于深度学习模型的视觉问答方法及装置、介质、设备 | |
CN118349673A (zh) | 文本处理模型的训练方法、文本处理方法及装置 | |
CN110188331A (zh) | 模型训练方法、对话系统评价方法、装置、设备及存储介质 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN111368086A (zh) | 一种基于CNN-BiLSTM+attention模型的涉案新闻观点句情感分类方法 | |
US12008739B2 (en) | Automatic photo editing via linguistic request | |
CN113468877A (zh) | 语言模型的微调方法、装置、计算设备和存储介质 | |
An et al. | Lexical and Acoustic Deep Learning Model for Personality Recognition. | |
CN115599901B (zh) | 基于语义提示的机器问答方法、装置、设备及存储介质 | |
CN113255366B (zh) | 一种基于异构图神经网络的方面级文本情感分析方法 | |
CN115687610A (zh) | 文本意图分类模型训练方法、识别方法、装置、电子设备及存储介质 | |
CN114743539A (zh) | 语音合成方法、装置、设备及存储介质 | |
US11941360B2 (en) | Acronym definition network | |
CN117037789B (zh) | 一种客服语音识别方法、装置、计算机设备及存储介质 | |
CN114692624A (zh) | 一种基于多任务迁移的信息抽取方法、装置及电子设备 | |
CN116992942B (zh) | 自然语言模型优化方法、装置、自然语言模型、设备和介质 | |
CN116863920B (zh) | 基于双流自监督网络的语音识别方法、装置、设备及介质 | |
US11941508B2 (en) | Dialog system with adaptive recurrent hopping and dual context encoding | |
CN115376214A (zh) | 情绪识别方法、装置、电子设备和存储介质 | |
US20230289533A1 (en) | Neural Topic Modeling with Continuous Learning | |
CN114333790A (zh) | 数据处理方法、装置、设备、存储介质及程序产品 | |
CN113486167A (zh) | 文本补全方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |