CN110532383A - 一种基于强化学习的专利文本分类方法 - Google Patents
一种基于强化学习的专利文本分类方法 Download PDFInfo
- Publication number
- CN110532383A CN110532383A CN201910651813.XA CN201910651813A CN110532383A CN 110532383 A CN110532383 A CN 110532383A CN 201910651813 A CN201910651813 A CN 201910651813A CN 110532383 A CN110532383 A CN 110532383A
- Authority
- CN
- China
- Prior art keywords
- model
- network
- indicate
- sentence
- structured representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000033001 locomotion Effects 0.000 claims description 16
- 238000013507 mapping Methods 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000013480 data collection Methods 0.000 claims description 12
- PGLIUCLTXOYQMV-UHFFFAOYSA-N Cetirizine hydrochloride Chemical compound Cl.Cl.C1CN(CCOCC(=O)O)CCN1C(C=1C=CC(Cl)=CC=1)C1=CC=CC=C1 PGLIUCLTXOYQMV-UHFFFAOYSA-N 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 7
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000009466 transformation Effects 0.000 claims description 4
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- 230000009193 crawling Effects 0.000 claims description 3
- 238000000844 transformation Methods 0.000 claims description 3
- 230000002035 prolonged effect Effects 0.000 claims 1
- 230000000694 effects Effects 0.000 abstract description 3
- 238000004458 analytical method Methods 0.000 description 5
- 241001269238 Data Species 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/28—Databases characterised by their database models, e.g. relational or object models
- G06F16/284—Relational databases
- G06F16/285—Clustering or classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
Landscapes
- Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及一种基于强化学习的专利文本分类方法,该方法提出的模型主要分为两个部分:策略网络,结构化表示模型。本发明通过结合结构化表示模型引入了强化学习的思想,并采用策略网络对文本进行简化,相较于传统文本分类方法该方法考虑到句子结构,本发明考虑了句子的结构化特征,并且能提取与任务相关的单词以形成纯化的句子表示,使得文本分类更加高效,对于专利文本这种领域词多、专业性强的文本分类效果更好。
Description
技术领域
本发明涉及文字处理领域,更具体地,涉及一种基于强化学习的专利文本分类方法。
背景技术
专利是现代科学的发展的重要衡量标准,一定程度上起着指向性的作用。通过研究专利的内容,挖掘专利的内容并对专利文本进行特征分析,对于研究如今的面向智能制造的产业转型升级有相当积极的作用。因此,如何对专利文本进行有效分类以及如何对专利文本进行特征分析具有重要的实际意义。
传统的分析方法一般针对专利数量的变化、词频特点进行分析,很难全方位描述专利数据所体现出的技术发展状况,Yoon等提出了提出了基于Triz的专利分析方法,并设计了基于Triz语义的专利分析系统。He等提出了一种利用创新型关联规则自动构建基于Triz的专利分析方法,该方法能发现专利文本特征的语义关系。
虽然以上这些方法一定程度上能对专利进行分析,但是由于训练样本不足,使用传统的基于深度神经网络技术的结构化表示模型,如卷积神经网络、循环神经网络等。这些结构要么作为输入提供,要么使用显性树库注释的监督进行预测,这些模型依赖于预先指定的结构,对于专利这种具有领域词汇多、结构性以及专业性强特征的文本,同时基于Triz的专利分类标签较少,传统的算法效果往往不太好。
发明内容
为了解决现有技术中对专利文本进行分析时采用的模型依赖于预先指定的结构导致分类效果差的不足,本发明提供了一种基于强化学习的专利文本分类方法。
为解决上述技术问题,本发明的技术方案如下:
一种基于强化学习的专利文本分类方法,包括以下步骤:
步骤S1:从专利网站中爬取专利数据,对专利数据进行标注构建专利数据集;
步骤S2:对专利数据集进行分词操作,并去除停用词;
步骤S3:对分词操作后得到的词语映射成索引表示,构建词汇-索引映射表,基于词汇-索引映射表生成词向量;
步骤S4:构建结构化表示模型以及策略网络;
步骤S5:基于结构化表示模型以及策略网络将词向量转化为句子的结构化表示;
步骤S6:根据句子的结构化表示对专利文本进行分类;
步骤S7:使用交叉熵来衡量分类的准确率。
优选的,步骤S1具体包括以下步骤:
从专利网站上爬取专利数据,专利数据的内容包括专利号、专利名和摘要内容,对专利数据基于Triz进行人工标注构建专利数据集。
优选的,步骤S2的具体步骤如下:
使用JIEBA分词工具对专利数据集进行分词处理,对于专利中固定出现的词,包括“一种”、“本发明”加入停用词词组,并去除停用词。
优选的,步骤S3中构建词汇-索引映射表的具体步骤如下:
采用word2vec模型的CBOW模式对专利文本进行语义学习,将经过分词处理后得到的词映射成索引表示,构建词汇-索引映射表,并保存成json的数据格式。
优选的,步骤S4中的具体步骤如下:
所述的结构化表示模型包括transformer模型以及分类网络;
所述的策略网络的状态st由当前输入和前一步骤的上下文全连接构成;动作at的动作空间为{Delete,Retain},表示是否保留当前的词,每个动作为结构化表示模型中结构选择的直接指标;在策略网络中采用随机策略,策略定义为π(at|st;θ)=σ(W*st+b),其中W和b表示策略网络的网络参数,π(at|st;θ)表示动作at的概率策略函数,σ表示sigmoid激活函数;
策略网络的目标函数基于REINFORCE算法和策略梯度方法设置为其中RL为延迟奖励;并采用随机策略CNet并使用延迟奖励来指导策略学习。
优选的,步骤S5中的具体步骤如下:
策略网络采用随机策略和延迟奖励来指导策略学习,具体为从transformer模型中获取状态st,并根据当前的状态st执行对应的动作at,同时利用每个状态st的概率对整个专利文本句子对应词向量对应的动作at进行采样以获取预测的延迟奖励;一旦整个句子中的所有动作at都被策略网络决策完毕,句子的结构化表示由结构化表示模型确定,结构化表示作为输入传递给分类网络,奖励将根据预测分布p(y|X)进行计算,运用计算的奖励再反用于策略学习;
具体的,transformer模型结合策略网络中获得的动作at将词向量转换为句子的结构化表示形式,从而训练transformer模型,具体为:
ht表示隐藏层特征向量,transformer_block(ht-1)表示tranformer模型的函数;
transformer模型的encoder部分通过h个不同的线性变换对Q,K,V进行投影,其中,K=V,表示输出向量,Q表示输入的词向量,最后将不同的attention结果拼接起来,具体如下列公式所示:
Multihead(Q,K,V)=Concat(head1,…,heads)Wo
headi=Attention(QWi Q,KWi K,VWi V)
其中W表示网络参数, dmodel表示transformer模型层数,dK=dV=dmodel/h状态对应的分类公式p(y|X)=softmax(Ws*hL+bs),策略网络对应奖励其中y∈{c1,c2,...,cK},ct-1表示已标记的数据,表示参数,d表示隐藏状态的维度,K表示类别的数量,L表示已删除的单词数,Υ表示超参数。
优选的,步骤S6中的具体步骤如下:
采用交叉熵来衡量分类模型的准确性:
其中,表示X的one-hot分布,p(y|X)表示预测分布。
与现有技术相比,本发明技术方案的有益效果是:
本发明的发明点在于结合结构化表示模型引入了强化学习的思想,并采用策略网络对文本进行简化,相较于传统文本分类方法该方法考虑到句子结构,本发明考虑了句子的结构化特征,并且能提取与任务相关的单词以形成纯化的句子表示,使得文本分类更加高效,对于专利文本这种领域词多、专业性强的文本分类效果更好。
附图说明
图1为本发明的流程图。
图2为本发明的基于强化学习的结构化表示模型的模型图。
图3为本发明的结构化表示模型
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1、图2以及图3所示,一种基于强化学习的专利文本分类方法,包括以下步骤:
步骤S1:从专利网站中爬取专利数据,对专利数据进行标注构建专利数据集;
步骤S2:对专利数据集进行分词操作,并去除停用词;
步骤S3:对分词操作后得到的词语映射成索引表示,构建词汇-索引映射表,基于词汇-索引映射表生成词向量;
步骤S4:构建结构化表示模型以及策略网络;
步骤S5:基于结构化表示模型以及策略网络将词向量转化为句子的结构化表示;
步骤S6:根据句子的结构化表示对专利文本进行分类;
步骤S7:使用交叉熵来衡量分类的准确率。
优选的,步骤S1具体包括以下步骤:
从专利网站上爬取专利数据,专利数据的内容包括专利号、专利名和摘要内容,对专利数据基于Triz进行人工标注构建专利数据集。
优选的,步骤S2的具体步骤如下:
使用JIEBA分词工具对专利数据集进行分词处理,对于专利中固定出现的词,包括“一种”、“本发明”加入停用词词组,并去除停用词。
优选的,步骤S3中构建词汇-索引映射表的具体步骤如下:
采用word2vec模型的CBOW模式对专利文本进行语义学习,将经过分词处理后得到的词映射成索引表示,构建词汇-索引映射表,并保存成json的数据格式。
优选的,步骤S4中的具体步骤如下:
所述的结构化表示模型包括transformer模型以及分类网络;
所述的策略网络的状态st由当前输入和前一步骤的上下文全连接构成;动作at的动作空间为{Delete,Retain},表示是否保留当前的词,每个动作为结构化表示模型中结构选择的直接指标;在策略网络中采用随机策略,策略定义为π(at|st;θ)=σ(W*st+b),其中W和b表示策略网络的网络参数,π(at|st;θ)表示动作at的概率策略函数,σ表示sigmoid激活函数;
策略网络的目标函数基于REINFORCE算法和策略梯度方法设置为其中RL为延迟奖励;并采用随机策略CNet并使用延迟奖励来指导策略学习。
优选的,步骤S5中的具体步骤如下:
策略网络采用随机策略和延迟奖励来指导策略学习,具体为从transformer模型中获取状态st,并根据当前的状态st执行对应的动作at,同时利用每个状态st的概率对整个专利文本句子对应词向量对应的动作at进行采样以获取预测的延迟奖励;一旦整个句子中的所有动作at都被策略网络决策完毕,句子的结构化表示由结构化表示模型确定,结构化表示作为输入传递给分类网络,奖励将根据预测分布p(y|X)进行计算,运用计算的奖励再反用于策略学习;
具体的,transformer模型结合策略网络中获得的动作at将词向量转换为句子的结构化表示形式,从而训练transformer模型,具体为:
ht表示隐藏层特征向量,transformer_block(ht-1)表示tranformer模型的函数;
transformer模型的encoder部分通过h个不同的线性变换对Q,K,V进行投影,其中,K=V,表示输出向量,Q表示输入的词向量,最后将不同的attention结果拼接起来,具体如下列公式所示:
Multihead(Q,K,V)=Concat(head1,…,heads)Wo
headi=Attention(QWi Q,KWi K,VWi V)
其中W表示网络参数, dmodel表示transformer模型层数,dK=dV=dmodel/h状态对应的分类公式p(y|X)=softmax(Ws*hL+bs),策略网络对应奖励其中y∈{c1,c2,...,cK},ct-1表示已标记的数据,表示参数,d表示隐藏状态的维度,K表示类别的数量,L表示已删除的单词数,Υ表示超参数。
优选的,步骤S6中的具体步骤如下:
采用交叉熵来衡量分类模型的准确性:
其中,表示X的one-hot分布,p(y|X)表示预测分布。
实施例2
步骤S1,制作基于Triz的数据集。
步骤S2,对专利摘要进行分词,然后去停用词。
步骤S3,使用word2vec模型将词映射成索引表示,构建词汇-索引映射表,并保存成json的数据格式。
步骤S4,参见图1,引入策略网络训练transformer模型,从transformer模型中获取状态,为句子生成一个动作序列,根据结构化表示特征进行分类,并对策略网络进行奖励计算,从而对专利文本进行分类。
下面完整叙述其具体操作步骤:
步骤一:用python从佰腾网中爬取1万条专利数据,数据内容包括专利号、专利名和摘要内容,对专利数据基于Triz进行人工标注构建数据集。同时选取8000条数据作为训练集,2000条数据作为测试集。
步骤二:使用JIEBA分词系统进行分词,对于专利中频繁出现的词,例如:“一种”、“本发明”等加入停用词词组,并去除停用词。
步骤三:采用word2vec模型的CBOW模式对专利文本进行语义学习,将词映射成索引表示,构建词汇-索引映射表,并保存成json的数据格式。
步骤四:对于策略网络,t时刻采用动作α的概率为π(at|st;θ)=σ(W*st+b),其中W和b表示策略网络的网络参数,π(at|st;θ)表示动作at的概率策略函数,st表示当前状态,σ表示sigmoid激活函数,而基于随机策略梯度方法设置目标函数为对于结构化表示模型,见图2,使用transformer从策略网络中获得的操作转换为句子的结构化表示形式,具体为
ht表示隐藏层特征向量,transformer_block(ht-1)表示tranformer模型的函数。状态表示为对应的分类公式p(y|X)=softmax(Ws*hL+bs)。其中表示参数,d表示隐藏状态的维度,K表示类别的数量策略网络对应奖励其中y∈{c1,c2,...,cK},cg表示已标记的数据,L表示已删除的单词数,Υ表示超参数。最后采用交叉熵来衡量分类模型的准确性。
表示X的one-hot分布,p(y|X)表示预测分布。
相同或相似的标号对应相同或相似的部件;
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (7)
1.一种基于强化学习的专利文本分类方法,其特征在于,包括以下步骤:
步骤S1:从专利网站中爬取专利数据,对专利数据进行标注构建专利数据集;
步骤S2:对专利数据集进行分词操作,并去除停用词;
步骤S3:对分词操作后得到的词语映射成索引表示,构建词汇-索引映射表,基于词汇-索引映射表生成词向量;
步骤S4:构建结构化表示模型以及策略网络;
步骤S5:基于结构化表示模型以及策略网络将词向量转化为句子的结构化表示;
步骤S6:根据句子的结构化表示对专利文本进行分类;
步骤S7:使用交叉熵来衡量分类的准确率。
2.根据权利要求1所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S1具体包括以下步骤:
从专利网站上爬取专利数据,专利数据的内容包括专利号、专利名和摘要内容,对专利数据基于Triz进行人工标注构建专利数据集。
3.根据权利要求2所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S2的具体步骤如下:
使用JIEBA分词工具对专利数据集进行分词处理,对于专利中固定出现的词,包括“一种”、“本发明”加入停用词词组,并去除停用词。
4.根据权利要求3所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S3中构建词汇-索引映射表的具体步骤如下:
采用word2vec模型的CBOW模式对专利文本进行语义学习,将经过分词处理后得到的词映射成索引表示,构建词汇-索引映射表,并保存成json的数据格式。
5.根据权利要求4所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S4中的具体步骤如下:
所述的结构化表示模型包括transformer模型以及分类网络;
所述的策略网络的状态st由当前输入和前一步骤的上下文全连接构成;动作at的动作空间为{Delete,Retain},表示是否保留当前的词,每个动作为结构化表示模型中结构选择的直接指标;在策略网络中采用随机策略,策略定义为π(at|st;θ)=σ(W*st+b),其中W和b表示策略网络的网络参数,π(at|st;θ)表示动作at的概率策略函数,σ表示sigmoid激活函数;
策略网络的目标函数基于REINFORCE算法和策略梯度方法设置为其中RL为延迟奖励;并采用随机策略CNet并使用延迟奖励来指导策略学习。
6.根据权利要求5所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S5中的具体步骤如下:
策略网络采用随机策略和延迟奖励来指导策略学习,具体为从transformer模型中获取状态st,并根据当前的状态st执行对应的动作at,同时利用每个状态st的概率对整个专利文本句子对应词向量对应的动作at进行采样以获取预测的延迟奖励;一旦整个句子中的所有动作at都被策略网络决策完毕,句子的结构化表示由结构化表示模型确定,结构化表示作为输入传递给分类网络,奖励将根据预测分布p(y|X)进行计算,运用计算的奖励再反用于策略学习;
具体的,transformer模型结合策略网络中获得的动作at将词向量转换为句子的结构化表示形式,从而训练transformer模型,具体为:
ht表示隐藏层特征向量,transformer_block(ht-1)表示tranformer模型的函数;
transformer模型的encoder部分通过h个不同的线性变换对Q,K,V进行投影,其中,K=V,表示输出向量,Q表示输入的词向量,最后将不同的attention结果拼接起来,具体如下列公式所示:
Multihead(Q,K,V)=Concat(head1,…,heads)Wo
headi=Attention(QWi Q,KWi K,VWi V)
其中W表示网络参数, dmodel表示transformer模型层数,dK=dV=dmodel/h状态对应的分类公式p(y|X)=softmax(Ws*hL+bs),策略网络对应奖励其中y∈{c1,c2,…,cK},ct-1表示已标记的数据, 表示参数,d表示隐藏状态的维度,K表示类别的数量,L表示已删除的单词数,Υ表示超参数。
7.根据权利要求5所述的一种基于强化学习的专利文本分类方法,其特征在于,步骤S6中的具体步骤如下:
采用交叉熵来衡量分类模型的准确性:
其中,表示X的one-hot分布,p(y|X)表示预测分布。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910651813.XA CN110532383A (zh) | 2019-07-18 | 2019-07-18 | 一种基于强化学习的专利文本分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910651813.XA CN110532383A (zh) | 2019-07-18 | 2019-07-18 | 一种基于强化学习的专利文本分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110532383A true CN110532383A (zh) | 2019-12-03 |
Family
ID=68661763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910651813.XA Pending CN110532383A (zh) | 2019-07-18 | 2019-07-18 | 一种基于强化学习的专利文本分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110532383A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723203A (zh) * | 2020-06-15 | 2020-09-29 | 苏州意能通信息技术有限公司 | 一种基于终生学习的文本分类方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102988042A (zh) * | 2012-08-30 | 2013-03-27 | 重庆电子工程职业学院 | 一种小波变换与支持向量机相融合的窦房结电图识别方法 |
CN107066599A (zh) * | 2017-04-20 | 2017-08-18 | 北京文因互联科技有限公司 | 一种基于知识库推理的相似上市公司企业检索分类方法及系统 |
US20180121533A1 (en) * | 2016-10-31 | 2018-05-03 | Wal-Mart Stores, Inc. | Systems, method, and non-transitory computer-readable storage media for multi-modal product classification |
CN109376227A (zh) * | 2018-10-29 | 2019-02-22 | 山东大学 | 一种基于多任务人工神经网络的刑期预测方法 |
WO2019075410A1 (en) * | 2017-10-13 | 2019-04-18 | Ai Technologies Inc. | DIAGNOSIS BASED ON DEEP LEARNING AND RECOMMENDATION OF OPHTHALMIC DISEASES AND DISORDERS |
-
2019
- 2019-07-18 CN CN201910651813.XA patent/CN110532383A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102988042A (zh) * | 2012-08-30 | 2013-03-27 | 重庆电子工程职业学院 | 一种小波变换与支持向量机相融合的窦房结电图识别方法 |
US20180121533A1 (en) * | 2016-10-31 | 2018-05-03 | Wal-Mart Stores, Inc. | Systems, method, and non-transitory computer-readable storage media for multi-modal product classification |
CN107066599A (zh) * | 2017-04-20 | 2017-08-18 | 北京文因互联科技有限公司 | 一种基于知识库推理的相似上市公司企业检索分类方法及系统 |
WO2019075410A1 (en) * | 2017-10-13 | 2019-04-18 | Ai Technologies Inc. | DIAGNOSIS BASED ON DEEP LEARNING AND RECOMMENDATION OF OPHTHALMIC DISEASES AND DISORDERS |
CN109376227A (zh) * | 2018-10-29 | 2019-02-22 | 山东大学 | 一种基于多任务人工神经网络的刑期预测方法 |
Non-Patent Citations (1)
Title |
---|
宁天昊: "基于方面类别的情感分析和推荐系统方法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111723203A (zh) * | 2020-06-15 | 2020-09-29 | 苏州意能通信息技术有限公司 | 一种基于终生学习的文本分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110442684B (zh) | 一种基于文本内容的类案推荐方法 | |
CN110704621B (zh) | 文本处理方法、装置及存储介质和电子设备 | |
CN109543722A (zh) | 一种基于情感分析模型的情感趋势预测方法 | |
Qi et al. | Recognizing driving styles based on topic models | |
CN110309867B (zh) | 一种基于卷积神经网络的混合气体识别方法 | |
CN113779260B (zh) | 一种基于预训练模型的领域图谱实体和关系联合抽取方法及系统 | |
CN113764037B (zh) | 模型训练、抗体改造和结合位点预测的方法与装置 | |
CN113159187B (zh) | 分类模型训练方法及装置、目标文本确定方法及装置 | |
Li et al. | Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes | |
CN113705238A (zh) | 基于bert和方面特征定位模型的方面级情感分析方法及模型 | |
Joly et al. | Overview of lifeclef 2023: evaluation of ai models for the identification and prediction of birds, plants, snakes and fungi | |
CN114756678B (zh) | 一种未知意图文本的识别方法及装置 | |
López-Cifuentes et al. | Attention-based knowledge distillation in scene recognition: the impact of a dct-driven loss | |
CN114897085A (zh) | 一种基于封闭子图链路预测的聚类方法及计算机设备 | |
CN110532383A (zh) | 一种基于强化学习的专利文本分类方法 | |
CN106448660A (zh) | 一种引入大数据分析的自然语言模糊边界确定方法 | |
CN117892915A (zh) | 基于核算单位的商品碳标签生成方法及系统 | |
CN115827878B (zh) | 语句情感分析方法、装置以及设备 | |
Li et al. | Zero-shot learning for intrusion detection via attribute representation | |
CN116432632A (zh) | 一种基于t5神经网络的可解释阅读理解模型 | |
CN113869034B (zh) | 基于强化依赖图的方面情感分类方法 | |
Obayya et al. | Optimal deep transfer learning based ethnicity recognition on face images | |
CN115759095A (zh) | 一种烟草病虫害的命名实体识别方法及其装置 | |
CN114678060A (zh) | 基于氨基酸知识图谱和主动学习的蛋白质改造方法 | |
CN111027448B (zh) | 一种基于时域推理图的视频行为类别识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
AD01 | Patent right deemed abandoned |
Effective date of abandoning: 20240119 |
|
AD01 | Patent right deemed abandoned |