CN108170736A - 一种基于循环注意力机制的文档快速扫描定性方法 - Google Patents
一种基于循环注意力机制的文档快速扫描定性方法 Download PDFInfo
- Publication number
- CN108170736A CN108170736A CN201711350432.5A CN201711350432A CN108170736A CN 108170736 A CN108170736 A CN 108170736A CN 201711350432 A CN201711350432 A CN 201711350432A CN 108170736 A CN108170736 A CN 108170736A
- Authority
- CN
- China
- Prior art keywords
- document
- label
- sentence
- training
- attention mechanism
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Abstract
本发明公开了一种基于循环注意力机制的文档快速扫描定性方法,获取训练数据集,在预处理阶段,将整个文档转换为词向量矩阵,词向量矩阵通过含有循环注意力机制的文档检测模型,包括卷积神经网络模块、最大池化模块、循环神经网络模块,利用回报函数得出回报值reward,训练循环神经网络,优化模型参数,测试模型准确率。本发明的方法基于注意力机制,引入了强化学习的训练方法,适应性更强,并且不需要对全文进行检索,而是通过处理文档中的局部信息,智能快速的预测出文档中特定的位置,在有限的次数内,快速扫描探索找出最能够代表文档特征的句子,即分类概率最大的句子,这些句子能够最大化的表示该文档的类型。
Description
技术领域
本发明涉及自然语言处理和文档分类技术领域,特别涉及一种基于循环注意力机制的文档快速扫描定性方法。
背景技术
自然语言处理(NLP)技术是计算机科学领域与人工智能领域中的一个重要方向。它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。目前NLP最流行的方法还是机器学习尤其是深度学习,比如Word Embedding(词嵌入)、RNN(循环神经网络)、LSTM(长短期记忆网络)、CNN(卷积神经网络)等主流的深度神经网络在NLP中的应用,这已经是目前主流的研究方向。目前,在文档定性分类方面,最经典的结构就是CNN(卷积神经网络),它的结构比较简单,使用长度不同的filter(滤波器)对文档矩阵进行卷积,filter的宽度等于词向量的长度,然后使用max-pooling(最大池化)对每一个filter提取的向量进行操作,最后每一个filter对应一个数字,把这些filter拼接起来,就得到了一个表征该句子的向量,最后的预测都是基于该句子的。该模型作为一个经典的模型,是很多其他领域论文里的实验参照。
但是对于文档定性,比如CNN(卷积神经网络)、LSTM(长短期记忆网络)等方法,大多数适用于短文档。但对于长文档,这些方法会导致模型变得非常庞大,并不适用。用关键词方法检索敏感信息,这种方法需要对全文进行检索,准确性不高,效率低下,缺乏了上下文的关联性,并且有些关键词并不主导文档的主要性质。
发明内容
本发明的目的在于,提出一种基于循环注意力机制的文档快速扫描定性方法,通过若干次探索找出最能够代表文档特征的句子,即分类概率最大的句子,在给定的步数里面,最快的扫描检测出含有标签的那些句子,从而对文档作定性分析。
本发明采用如下技术方案,一种基于循环注意力机制的文档快速扫描定性方法,该方法首先需要训练一个由卷积神经网络、循环神经网络以及强化学习结合起来的端到端的模型,所使用的训练数据是大量的文档及其标签(该标签即为文档的类别),训练目标是通过几次对文档的句子做探索,可以最大化的输出最能够代表该文档特征的若干句子,这些句子能够最大化的表示该文档的性质类型,其特征在于,具体步骤如下:
(1)获取训练数据集,拟定数据集中的文档的标签;
(2)在预处理阶段,将文档分成句子,再对句子进行分词,然后对每一个词使用word2vec词向量训练模型将其转化为词向量,由此将句子转化成一个由词向量组成的矩阵,从而将整个文档转换为词向量矩阵;
(3)词向量矩阵通过含有循环注意力机制的文档检测模型,包括卷积神经网络模块、最大池化模块、循环神经网络模块,具体步骤为:
31)随机选取一个位置t,利用一个一维的卷积神经网络来提取位置t的句子的每个词的语义信息特征,再经过最大池化降维,输出每个句子的特征向量;
32)将每个句子的特征向量和上个时间步骤输出的隐含状态ht-1一起输入到循环神经网络中进行编码,然后输出当前时间的隐含状态ht;
33)将循环神经网络输出的隐含状态ht输入到一个强化学习模块,输出对下一个位置的索引预测Lt+1;
34)找到下一个位置t+1,将位置t+1的句子输入一个一维的卷积神经网络,提取每个词的特征,随后经过最大池化降维得到特征向量,然后,再将上一步输出的位置索引预测Lt+1与特征向量通过一个RELU修正线性单元模块进行线性加和,再输入到循环神经网络之中;
35)循环神经网络运行到最后一步时,输出的隐含状态通过一个分类器,输出整篇文档的标签分布概率P;
(4)利用回报函数得出回报值reward;
(5)训练循环神经网络,优化文档检测模型参数;
(6)获取测试数据集,拟定测试数据集中的文档的标签,测试文档检测模型准确率。
优选地,步骤(3)中卷积神经网络的卷积核个数为256。
优选地,在步骤(4)中,回报函数的流程为:
a)步骤(3)中输出的P为一组和为1的数组,数组中较大的概率所对应的下标即为预测的文档标签,同时输出含有预测的文档标签的句子,作为代表文档特征的句子;
b)将步骤a)中得到的预测的文档标签与步骤(1)中的文档的标签作比对,如果相同则回报值reward的值为1,不同则回报值reward的值为0。
优选地,步骤(5)中的训练优化的目标是最优化目标函数,最小化代价函数,代价函数包括分类的代价函数和强化学习的代价函数,具体步骤为:
1)分类的代价函数为交叉熵函数:利用一组已知标签的样本调整分类器的参数,使代价函数即交叉熵函数最小,利用预测的文档标签和步骤(1)中文档的标签,计算出交叉熵C,其中,x表示样本,n表示样本的总数,,y为期望的输出,即文档的标签值(0或者1),a为神经元实际输出,即预测的文档标签值(拟定文档为某一类时标签为1,否则为0),训练时将交叉熵对权重的偏导数反向传播,更新文档检测模型参数;
2)强化学习的代价函数为L(θ)=logπ(a|s,θ)·(R-b),其中π(a|s)为神经网络拟合的策略,θ为参数;logπ(a|s,θ)是在状态s下输出动作a的概率的对数似然,用以表示智能体的策略,b为基线baseline,R为回报值reward;再利用自适应矩估计Adam优化器反向更新文档检测模型参数,优化强化学习的代价函数,使代价函数最小化,回报值reward最大化。
优选地,训练文档检测模型时,设置步数step为100000步,样本总数为1000,每一个分批处理mini_batch的样本数量为10,训练开始时的学习率learning rate为10-3,设置衰减因子λ,在每一次训练完全部样本之后,学习率learning rate按照衰减因子λ衰减,随着训练进行,最后学习率learning rate变为10-4。
优选地,步骤(6)中,将得出的预测的文档标签与测试数据集中的文档的标签对比,如果相同则回报值reward为1,测试文档之后得出一系列的回报值reward的加和,再除以文档数量,得到整个测试文档的分类准确率。
发明所达到的有益效果:本发明是一种基于循环注意力机制的文档快速扫描定性方法,能够解决长文档检测定性困难的问题,快速扫描定位文档中敏感信息。与目前流行的基于CNN或者RNN的文档定性分类方法不同,本发明的方法基于注意力机制,引入了强化学习的训练方法,适应性更强,并且不需要对全文进行检索,而是通过处理文档中的局部信息,智能快速的预测出文档中特定的位置,在有限的次数内,快速扫描探索找出最能够代表文档特征的句子,即分类概率最大的句子,这些句子能够最大化的表示该文档的类型。
附图说明
图1是本发明的预处理阶段流程图;
图2是本发明的含有循环注意力机制的文档检测模型的流程图;
图3是本发明的回报函数计算图;
图4是本发明的测试过程流程图。
具体实施方式
下面根据附图并结合实施例对本发明的技术方案作进一步阐述。
一种基于循环注意力机制的文档快速扫描定性方法,具体步骤如下:
步骤一:获取训练数据集。数据集由若干类型的若干个文档组成,并且已知每类文档所对应的标签值。
步骤二:图1是本发明的预处理阶段流程图。在预处理阶段,首先将文档Doc分成N个句子,每一个句子由40个词组成,不足40个词的随机填充,超多40个词的截取前40个词。再对句子进行分词,然后使用word2vec将每一个词转化为词向量,其中每一个词向量的维度都为300。最后就将句子转成一个由若干词向量组成的矩阵,从而将整个文档转换为词向量矩阵的形式。
步骤三:图2是本发明的含有循环注意力机制的文档检测模型的流程图。此时文档Doc已经转成由N个句子的词向量矩阵的形式。随机选取一个位置t,将位置t的句子S,通过一个一维的卷积神经网络,提取每个词的特征,随后经过最大池化降维,最后输出每个句子的特征向量。
步骤四:将每个句子的特征向量和上个时间步骤的输出状态ht-1一起输入到循环神经网络中进行编码,然后输出当前时间的状态ht。
步骤五:将循环神经网络的输出通过一个强化学习模块,输出对下一个位置的预测Lt+1。
步骤六:找到下一个位置t+1,将该位置的句子同样通过一个一维的卷积神经网络,提取每个词的特征,随后经过最大池化降维,然后,再将第一步输出的Lt+1与降维之后的特征向量进行一个RELU修正线性单元模块的线性加和,再输入到循环神经网络之中。
步骤七:循环神经网络运行到第T步时,输出的隐含状态要通过一个分类器,输出整篇文档的标签分布概率P。
步骤八:图3是本发明的回报函数计算图。给出一篇文档,将其经过预处理以后得到其词向量矩阵,再经过文档检测模型,检测了有限步数中的有限数量的句子,从而得到整篇文档的标签分布概率P,P为一组和为1的数组,如(0.9,0.1),再看其中比较大的概率所对应的下标,下标即为预测的文档标签。同时输出这个几个最能够代表文档特征的句子。将预测的文档标签与训练数据集中文档的标签作比对。如果相同则回报值reward的值为1,不同则为0。
步骤九:优化。通过公式L(θ)=logπ(a|s,θ)·(R-b)计算代价函数loss值,再用Adam优化器反向更新文档检测模型参数。
步骤十:图4是本发明的测试过程流程图。计算文档检测模型准确率。当预测的文档标签与测试数据集中文档的标签相同时,回报值reward为1,否则为0。检测若干文档之后,得到一系列回报值reward的加和,再除以文档数量,得到文档检测模型的准确率百分数。
需要说明的是,以上说明仅是本发明的优选实施方式,应当理解,对于本领域技术人员来说,在不脱离本发明技术构思的前提下还可以做出若干改变和改进,这些都包括在本发明的保护范围内。
Claims (6)
1.一种基于循环注意力机制的文档快速扫描定性方法,其特征在于,包括以下步骤:
(1)获取训练数据集,拟定训练数据集中的文档的标签;
(2)在预处理阶段,将文档分成句子,再对句子进行分词,然后对每一个词使用word2vec词向量训练模型转化为词向量,由此将句子转化成一个由词向量组成的矩阵,从而将整个文档转换为词向量矩阵;
(3)将词向量矩阵输入文档检测模型,所述文档检测模型包括卷积神经网络模块、最大池化模块和循环神经网络模块,具体步骤为:
31)随机选取一个位置t,利用一个一维的卷积神经网络提取位置t的句子的每个词的语义信息特征,再经过最大池化降维,输出每个句子的特征向量;
32)将每个句子的特征向量和上个时间步骤输出的隐含状态ht-1一起输入到循环神经网络中进行编码,然后输出当前时间的隐含状态ht;
33)将循环神经网络输出的隐含状态ht输入到一个强化学习模块,输出对下一个位置的索引预测Lt+1;
34)找到下一个位置t+1,将位置t+1的句子输入到一个一维的卷积神经网络,提取每个词的特征,随后经过最大池化降维得到特征向量,然后,再将上一步输出的位置索引预测Lt+1与特征向量通过一个RELU修正线性单元模块进行线性加和,再输入到循环神经网络之中;
35)循环神经网络运行到最后一步时,输出的隐含状态输入到一个分类器,输出整篇文档的标签分布概率P;
(4)利用回报函数得出回报值reward;
(5)训练循环神经网络,优化文档检测模型参数;
(6)获取测试数据集,拟定测试数据集中的文档的标签,测试文档检测模型准确率。
2.根据权利要求1所述的基于循环注意力机制的文档快速扫描定性方法,其特征在于,步骤(3)中卷积神经网络的卷积核个数为256。
3.根据权利要求1所述的基于循环注意力机制的文档快速扫描定性方法,其特征在于,在步骤(4)中,回报函数的数据处理流程为:
a)步骤(3)中输出的标签分布概率P为一组和为1的数组,数组中较大的概率值所对应的下标即为预测的文档标签,同时输出含有预测的文档标签的句子,作为代表文档特征的句子;
b)将步骤a)中得到的预测的文档标签与步骤(1)中的文档的标签作比对,如果相同则回报值reward的值为1,不同则回报值reward的值为0。
4.根据权利要求1所述的基于循环注意力机制的文档快速扫描定性方法,其特征在于,步骤(5)中的训练优化的目标是最优化目标函数,最小化代价函数,代价函数包括分类的代价函数和强化学习的代价函数,具体步骤为:
(41)分类的代价函数为交叉熵函数:利用一组已知标签的样本调整分类器的参数,使代价函数即交叉熵函数最小,利用预测的文档的标签和步骤(1)中文档的标签,计算出交叉熵C,其中,x表示样本,n表示样本的总数,y为期望的输出,即文档的标签值,a为神经元实际输出,即预测的文档标签值,训练时将交叉熵对权重的偏导数反向传播,更新文档检测模型参数;
(42)强化学习的代价函数为L(θ)=logπ(a|s,θ)·(R-b),其中π(a|s)为神经网络拟合的策略,θ为参数;logπ(a|s,θ)是在状态s下输出动作a的概率的对数似然,用以表示智能体的策略,b为基线baseline,R为回报值reward;再利用自适应矩估计Adam优化器反向更新文档检测模型参数,优化强化学习的代价函数,使代价函数最小化,回报值reward最大化。
5.根据权利要求4所述的基于循环注意力机制的文档快速扫描定性方法,其特征在于,训练文档检测模型时,设置步数step为100000步,样本总数为1000,每一个分批处理mini_batch的样本数量为10,训练开始时的学习率learning rate为10-3,设置衰减因子λ,在每一次训练完全部样本之后,学习率learning rate按照衰减因子λ衰减,随着训练进行,最后学习率learning rate变为10-4。
6.根据权利要求1所述的基于循环注意力机制的文档快速扫描定性方法,其特征在于,步骤(6)中,将得出的预测的文档标签与测试数据集中的文档的标签对比,如果相同则回报值reward为1,测试一系列文档之后得出回报值reward的加和,再除以文档数量,得到整个测试文档的分类准确率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711350432.5A CN108170736B (zh) | 2017-12-15 | 2017-12-15 | 一种基于循环注意力机制的文档快速扫描定性方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711350432.5A CN108170736B (zh) | 2017-12-15 | 2017-12-15 | 一种基于循环注意力机制的文档快速扫描定性方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108170736A true CN108170736A (zh) | 2018-06-15 |
CN108170736B CN108170736B (zh) | 2020-05-05 |
Family
ID=62522324
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711350432.5A Active CN108170736B (zh) | 2017-12-15 | 2017-12-15 | 一种基于循环注意力机制的文档快速扫描定性方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108170736B (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109145107A (zh) * | 2018-09-27 | 2019-01-04 | 平安科技(深圳)有限公司 | 基于卷积神经网络的主题提取方法、装置、介质和设备 |
CN109241287A (zh) * | 2018-09-21 | 2019-01-18 | 中山大学 | 基于强化学习和胶囊网络的文本分类模型及方法 |
CN109448850A (zh) * | 2018-10-17 | 2019-03-08 | 北京邮电大学 | 一种身体质量指数预测方法、装置、电子设备及存储介质 |
CN109492108A (zh) * | 2018-11-22 | 2019-03-19 | 上海唯识律简信息科技有限公司 | 基于深度学习的多级融合文档分类方法和系统 |
CN109522920A (zh) * | 2018-09-18 | 2019-03-26 | 义语智能科技(上海)有限公司 | 基于结合语义特征的同义判别模型的训练方法及设备 |
CN109726682A (zh) * | 2018-12-29 | 2019-05-07 | 南京信息工程大学 | 一种面向弱标签传感器数据的人体动作识别方法 |
CN109873610A (zh) * | 2019-03-19 | 2019-06-11 | 福州大学 | 基于iv特性和深度残差网络的光伏阵列故障诊断方法 |
CN110008332A (zh) * | 2019-02-13 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 通过强化学习提取主干词的方法及装置 |
CN110070119A (zh) * | 2019-04-11 | 2019-07-30 | 北京工业大学 | 一种基于二值化深度神经网络的手写数字图像识别分类方法 |
CN110069252A (zh) * | 2019-04-11 | 2019-07-30 | 浙江网新恒天软件有限公司 | 一种源代码文件多业务标签自动化分类方法 |
CN110781969A (zh) * | 2019-10-30 | 2020-02-11 | 龙岩烟草工业有限责任公司 | 基于深度强化学习的空调风量控制方法、装置以及介质 |
WO2020063524A1 (zh) * | 2018-09-30 | 2020-04-02 | 北京国双科技有限公司 | 一种法律文书的确定方法及系统 |
CN110956617A (zh) * | 2019-11-18 | 2020-04-03 | 湖北工业大学 | 基于循环注意力模型的大脑核磁共振异常图像可视化方法 |
CN110991171A (zh) * | 2019-09-30 | 2020-04-10 | 奇安信科技集团股份有限公司 | 敏感词检测方法及装置 |
CN110991694A (zh) * | 2019-10-30 | 2020-04-10 | 南京大学 | 一种基于深度学习的量刑预测方法 |
CN111414483A (zh) * | 2019-01-04 | 2020-07-14 | 阿里巴巴集团控股有限公司 | 一种文档处理设备和方法 |
CN112987664A (zh) * | 2021-02-09 | 2021-06-18 | 东北大学 | 一种基于深度强化学习的流水车间调度方法 |
CN113705730A (zh) * | 2021-09-24 | 2021-11-26 | 江苏城乡建设职业学院 | 基于卷积注意力和标签采样的手写方程式图像识别方法 |
WO2022042093A1 (zh) * | 2020-08-27 | 2022-03-03 | 朱宝 | 智能机器人及其学习方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
WO2017057921A1 (ko) * | 2015-10-02 | 2017-04-06 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
CN107229684A (zh) * | 2017-05-11 | 2017-10-03 | 合肥美的智能科技有限公司 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
-
2017
- 2017-12-15 CN CN201711350432.5A patent/CN108170736B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017057921A1 (ko) * | 2015-10-02 | 2017-04-06 | 네이버 주식회사 | 딥러닝을 이용하여 텍스트 단어 및 기호 시퀀스를 값으로 하는 복수 개의 인자들로 표현된 데이터를 자동으로 분류하는 방법 및 시스템 |
CN106372058A (zh) * | 2016-08-29 | 2017-02-01 | 中译语通科技(北京)有限公司 | 一种基于深度学习的短文本情感要素抽取方法及装置 |
CN107229684A (zh) * | 2017-05-11 | 2017-10-03 | 合肥美的智能科技有限公司 | 语句分类方法、系统、电子设备、冰箱及存储介质 |
Non-Patent Citations (2)
Title |
---|
__鸿: "《交叉熵代价函数(作用及公式推导)》", 《CSDN HTTPS://BLOG.CSDN.NET/U014313009/ARTICLE/DETAILS/51043064》 * |
草帽B-O-Y: "《深度强化学习——A3C》", 《CSDN HTTPS://BLOG.CSDN.NET/U013236946/ARTICLE/DETAILS/73195035》 * |
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109522920A (zh) * | 2018-09-18 | 2019-03-26 | 义语智能科技(上海)有限公司 | 基于结合语义特征的同义判别模型的训练方法及设备 |
CN109241287A (zh) * | 2018-09-21 | 2019-01-18 | 中山大学 | 基于强化学习和胶囊网络的文本分类模型及方法 |
CN109145107A (zh) * | 2018-09-27 | 2019-01-04 | 平安科技(深圳)有限公司 | 基于卷积神经网络的主题提取方法、装置、介质和设备 |
CN109145107B (zh) * | 2018-09-27 | 2023-07-25 | 平安科技(深圳)有限公司 | 基于卷积神经网络的主题提取方法、装置、介质和设备 |
WO2020063524A1 (zh) * | 2018-09-30 | 2020-04-02 | 北京国双科技有限公司 | 一种法律文书的确定方法及系统 |
CN109448850A (zh) * | 2018-10-17 | 2019-03-08 | 北京邮电大学 | 一种身体质量指数预测方法、装置、电子设备及存储介质 |
CN109492108A (zh) * | 2018-11-22 | 2019-03-19 | 上海唯识律简信息科技有限公司 | 基于深度学习的多级融合文档分类方法和系统 |
CN109492108B (zh) * | 2018-11-22 | 2020-12-15 | 上海唯识律简信息科技有限公司 | 基于深度学习的多级融合文档分类方法和系统 |
CN109726682A (zh) * | 2018-12-29 | 2019-05-07 | 南京信息工程大学 | 一种面向弱标签传感器数据的人体动作识别方法 |
CN111414483B (zh) * | 2019-01-04 | 2023-03-28 | 阿里巴巴集团控股有限公司 | 一种文档处理设备和方法 |
CN111414483A (zh) * | 2019-01-04 | 2020-07-14 | 阿里巴巴集团控股有限公司 | 一种文档处理设备和方法 |
CN110008332A (zh) * | 2019-02-13 | 2019-07-12 | 阿里巴巴集团控股有限公司 | 通过强化学习提取主干词的方法及装置 |
CN109873610A (zh) * | 2019-03-19 | 2019-06-11 | 福州大学 | 基于iv特性和深度残差网络的光伏阵列故障诊断方法 |
CN110070119B (zh) * | 2019-04-11 | 2021-11-26 | 北京工业大学 | 一种基于二值化深度神经网络的手写数字图像识别分类方法 |
CN110070119A (zh) * | 2019-04-11 | 2019-07-30 | 北京工业大学 | 一种基于二值化深度神经网络的手写数字图像识别分类方法 |
CN110069252B (zh) * | 2019-04-11 | 2023-04-07 | 浙江网新恒天软件有限公司 | 一种源代码文件多业务标签自动化分类方法 |
CN110069252A (zh) * | 2019-04-11 | 2019-07-30 | 浙江网新恒天软件有限公司 | 一种源代码文件多业务标签自动化分类方法 |
CN110991171A (zh) * | 2019-09-30 | 2020-04-10 | 奇安信科技集团股份有限公司 | 敏感词检测方法及装置 |
CN110991171B (zh) * | 2019-09-30 | 2023-10-13 | 奇安信科技集团股份有限公司 | 敏感词检测方法及装置 |
CN110991694A (zh) * | 2019-10-30 | 2020-04-10 | 南京大学 | 一种基于深度学习的量刑预测方法 |
CN110781969A (zh) * | 2019-10-30 | 2020-02-11 | 龙岩烟草工业有限责任公司 | 基于深度强化学习的空调风量控制方法、装置以及介质 |
CN110956617A (zh) * | 2019-11-18 | 2020-04-03 | 湖北工业大学 | 基于循环注意力模型的大脑核磁共振异常图像可视化方法 |
WO2022042093A1 (zh) * | 2020-08-27 | 2022-03-03 | 朱宝 | 智能机器人及其学习方法 |
CN112987664A (zh) * | 2021-02-09 | 2021-06-18 | 东北大学 | 一种基于深度强化学习的流水车间调度方法 |
CN113705730A (zh) * | 2021-09-24 | 2021-11-26 | 江苏城乡建设职业学院 | 基于卷积注意力和标签采样的手写方程式图像识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108170736B (zh) | 2020-05-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108170736A (zh) | 一种基于循环注意力机制的文档快速扫描定性方法 | |
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
Xiang et al. | A convolutional neural network-based linguistic steganalysis for synonym substitution steganography | |
CN110222163A (zh) | 一种融合cnn与双向lstm的智能问答方法及系统 | |
CN104598611B (zh) | 对搜索条目进行排序的方法及系统 | |
CN108717439A (zh) | 一种基于注意力机制和特征强化融合的中文文本分类方法 | |
CN109299342A (zh) | 一种基于循环生成式对抗网络的跨模态检索方法 | |
CN107844469A (zh) | 基于词向量查询模型的文本简化方法 | |
CN112990296B (zh) | 基于正交相似度蒸馏的图文匹配模型压缩与加速方法及系统 | |
CN108804677A (zh) | 结合多层级注意力机制的深度学习问题分类方法及系统 | |
CN107451278A (zh) | 基于多隐层极限学习机的中文文本分类方法 | |
CN111222318B (zh) | 基于双通道双向lstm-crf网络的触发词识别方法 | |
CN109299478A (zh) | 基于双向长短期记忆神经网络的智能自动问答方法及系统 | |
CN111400494B (zh) | 一种基于GCN-Attention的情感分析方法 | |
CN109977250A (zh) | 融合语义信息和多级相似性的深度哈希图像检索方法 | |
CN108765383A (zh) | 基于深度迁移学习的视频描述方法 | |
CN111930887A (zh) | 基于联合训练方式的多文档多答案机器阅读理解系统 | |
Shao et al. | Collaborative learning for answer selection in question answering | |
CN111581364B (zh) | 一种面向医疗领域的中文智能问答短文本相似度计算方法 | |
CN111191461B (zh) | 一种基于课程学习的远程监督关系抽取方法 | |
CN113157919A (zh) | 语句文本方面级情感分类方法及系统 | |
CN113836330A (zh) | 基于生成对抗性自动增强网络的图像检索方法及装置 | |
CN103440332B (zh) | 一种基于关系矩阵正则化增强表示的图像检索方法 | |
CN116720519B (zh) | 一种苗医药命名实体识别方法 | |
Kaensar | Analysis on the parameter of back propagation algorithm with three weight adjustment structure for hand written digit recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |