CN110046696A - 基于卷积循环神经网络的残差神经网络调整方法 - Google Patents
基于卷积循环神经网络的残差神经网络调整方法 Download PDFInfo
- Publication number
- CN110046696A CN110046696A CN201910317965.6A CN201910317965A CN110046696A CN 110046696 A CN110046696 A CN 110046696A CN 201910317965 A CN201910317965 A CN 201910317965A CN 110046696 A CN110046696 A CN 110046696A
- Authority
- CN
- China
- Prior art keywords
- neural network
- residual block
- indicates
- convolution
- residual error
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于卷积循环神经网络的残差神经网络调整方法,属于神经网络结构优化领域。本发明解决了现有的残差神经网络缺乏将特征相互融合的缺陷,利用卷积循环神经网络根据每个残差块内部特征自动选择性的保存、更新以及输出可以重复利用的特征,用输出的可重复利用的特征和残差块内部的特征相融合去调整残差块的输出。本发明赋予了残差神经网络更为丰富的表达能力,大大的提高了残差神经网络的分类精度,为目前的基于残差的网络以及变体提供了新的通用的架构。
Description
技术领域
本发明属于神经网络结构优化领域,特别涉及一种基于卷积循环神经网络的残差神经网络调整方法。
背景技术
卷积神经网络在一系列的计算机视觉问题上都取得重大突破。比如图片分类,物体识别,姿态检测,图片恢复等。残差神经网络(ResNet)以及它的变体无论在低层次和高层次的视觉任务中都取得了突出的成绩,获得了显著的关注。不仅如此,残差神经网络常常用作其他网络结构的一部分,是现在网络结构中最为常用的网络之一。残差神经网络的显著成功主要是由于其残差连接机制,使得更深层的网络训练成为可能,在这种情况下,可以避免训练过程中的梯度消失的问题。但是当残差网络层数的增加,许多层对于最后结果的影响微乎其微,可以被随意的丢弃,拥有更多层数的残差神经网络性能可能比低层的网络差。因为仅仅利用这种残差结构,在表达能力方面任有欠缺,为了进一步改善各层之间的信息流,密集连接卷积网络(DenseNet)提出通过拼接前面层的所有特征图来赋予网络更强的能力。
但是这种密集的连接会造成网络参数的快速上升,同时复用前面层的所有特征会导致冗余。
发明内容
本发明的目的在于解决现有的残差神经网络由于缺乏特征之间的融合机制,从而导致表达能力仍有些许欠缺的问题,提出了一种基于卷积循环神经网络的残差神经网络调整方法,利用卷积循环神经网络的记忆力与门控机制,根据输入选择性的自动输出特征,输出的特征用于和残差神经网络中的特征相融合,从而起到调整输出的作用,在相同层数下,预测正确率得到明显提升。
一种基于卷积循环神经网络的残差神经网络调整方法,包括以下步骤:
S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet;
S2、确定在R3esNet的残差神经网络中是否加入压缩与激励模块,加入所述压缩与激励模块后的网络为SE-R3esNet;
S3、采用BP算法对R3esNet或SE-R3esNet网络进行训练;
S4、将待预测数据输入至训练好的网络,得到分类结果。
进一步地,所述步骤S1包括:
调整残差神经网络,所述残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络的输入,当前残差块根据Ht调整输出Ot。
进一步地,所述残差块包括大数据集和小数据集两种结构。
进一步地,当所述残差块为小数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;
将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作;
将输入至当前残差块的下一模块,得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
进一步地,当所述残差块为大数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;
将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作;
将输入至当前残差块的下一模块,得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
进一步地,所述卷积循环神经网络包括卷积长短期记忆网络和卷积门控网络两种结构。
进一步地,所述卷积长短期记忆网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态, 分别表示输入、遗忘和输出门,表示记忆单元,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
进一步地,所述卷积门控网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态,表示更新门,表示重置门,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
进一步地,所述压缩与激励模块为:
输入是一个三阶张量,输出是和X相同形状的三阶张量;
z=GP(X
s=Sigmoid(W2ReLU(W1z))
Y=s·(c)X
其中,GP(·)表示全局平均池化,得到向量将向量z通过一个维度减少的全连接层一个维度增加的全连接层其中r表示压缩比率,·(c)表示信道层面的乘法,对于每个信道c,Yc=sc·Xc, 是一个标量。
本发明的有益效果:本发明提供了一种基于卷积循环神经网络的残差神经网络调整方法,本发明考虑到原始的残差神经网络简单的模块堆叠的结构缺乏对已学到的特征进行重新利用,密集神经网络将前面层所有学习到的特征拼接再利用会使得参数量随着每层的特征增加急剧增大。本发明利用ConvRNNs的记忆机制,对需要再利用的特征进行存储选择再利用,将再利用的特征和原本残差神经网络中的特征拼接融合产生新特征,从而增强了新的模型的表达能力。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的卷积循环神经网络控制的残差神经网络图。
图3为本发明实施例的卷积循环神经网络控制的残差神经网络的连接图。
图4为本发明实施例的卷积循环神经网络控制的残差神经网络的另一连接图。
具体实施方式
下面结合附图对本发明的实施例做进一步的说明。
请参阅图1,本发明提供的一种基于卷积循环神经网络的残差神经网络调整方法,通过以下步骤实现:
S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet。
本实施例中,如图2所示,调整残差神经网络,残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络的输入,当前残差块根据Ht调整输出Ot。
本实施例中,残差块包括大数据集和小数据集两种结构。
请参阅图3,当残差块为小数据集结构设计时,卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息处理得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数。
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,处理得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出。
将Ht作为下一状态ConvRNN输入的同时,输入至当前残差块的下一模块,结合处理得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作。
将输入至当前残差块的下一模块,处理得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
本实施例中,如图4所示,当残差块为大数据集结构时,卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息处理得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数。
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,当前残差块下一模块处理得到
当前状态卷积循环神经网络处理得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出。
将Ht作为下一状态ConvRNN输入的同时,输入至当前残差块的下一模块,结合得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作。
将输入至当前残差块的下一模块,处理得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
具体地,上述残差神经网络块中,卷积操作*表示如下:
Y=P*X
对于每个位置:
其中输入输出共C2个卷积核,每个卷积核K表示卷积核的大小,s表示卷积核的步长。 padding表示填充数。
拼接操作Cat[·]表示如下:
Y=Cat[X1,X2]
其中,将X1与X2沿着第三个维度(C1与C2维度)拼接在一起。
令进行一次批量梯度下降的值为其中m表示批量大小。批归一化BN(·)表示如下:
其中,γ和β是可学习参数,∈用于数值稳定,常取一个极小的常数。
线性整流函数ReLU(·)表示如下:
本实施例中,卷积循环神经网络采用两种结构:卷积长短期记忆网络(ConvLSTM)和卷积门控网络(ConvGRU)。
本实施例中,卷积长短期记忆网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态, 分别表示输入、遗忘和输出门,表示记忆单元,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
具体地,Sigmoid(·)表示如下:
tanh(·)表示如下:
卷积门控网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态,表示更新门,表示重置门,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
相比ConvLSTM,ConvGRU结构更加紧凑,仅有一个更新门以及一个重置门
将得到的新网络模型记为R3esNet(RNN-Regulated Residual Networks)。
S2、确定在R3esNet的残差神经网络中是否加入压缩与激励模块,加入压缩与激励模块后的网络为SE-R3esNet。
本实施例中,在图3或图4的A点处,即处理得到的前一模块处,根据需求决定是否加入压缩与激励模块(Squeeze-and-Excitation block,SE block),加入SE模块后能提高网络精度。
本实施例中,输入是一个三阶张量,输出是和X相同形状的三阶张量。
z=GP(X)
s=Sigmoid(W2ReLU(W1z))
Y=s·(c)X
其中,GP(·)表示全局平均池化,得到向量将向量z通过一个维度减少的全连接层一个维度增加的全连接层其中r表示压缩比率,·(c)表示信道层面的乘法,对于每个信道c,Yc=sc·Xc, 是一个标量。
本实施例中,全局平均池化GP(·)表示如下,输入输出为向量对于每一个元素z[c]:
在原网络R3esNet中加入SE模块,得到SE-R3esNet,使得原网络更具有表达能力。
S3、采用BP算法对R3esNet或SE-R3esNet网络进行训练。
本实施例中,采用BP算法对网络进行训练,也可采用其他算法对网络进行训练优化。
S4、将待预测数据输入至训练好的网络,得到分类结果。
本领域的普通技术人员将会意识到,这里的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。
Claims (9)
1.一种基于卷积循环神经网络的残差神经网络调整方法,其特征在于,包括以下步骤:
S1、调整残差神经网络,将卷积循环神经网络和残差神经网络连接,得到卷积循环神经网络控制的残差神经网络R3esNet;
S2、确定在R3esNet的残差神经网络中是否加入压缩与激励模块,加入所述压缩与激励模块后的网络为SE-R3esNet;
S3、采用BP算法对R3esNet或SE-R3esNet网络进行训练;
S4、将待预测数据输入至训练好的网络,得到分类结果。
2.如权利要求1所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述步骤S1包括:
调整残差神经网络,所述残差神经网络由残差块堆叠而成,将卷积循环神经网络和残差神经网络连接,当前状态卷积循环神经网络接收当前残差块中的信息It,通过处理得到输出Ht,Ht被输出到当前残差块的同时,作为下一状态的卷积循环神经网络状态的输入,当前残差块根据Ht调整输出Ot。
3.如权利要求2所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述残差块包括大数据集和小数据集两种结构。
4.如权利要求3所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,当所述残差块为小数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;
将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作;
将输入至当前残差块的下一模块,得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
5.如权利要求3所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,当所述残差块为大数据集结构时,所述卷积循环神经网络控制的残差神经网络R3esNet为:
当前残差块接收上一残差块信息得到
其中,t表示第t个残差块,表示第t个残差块中的第i个特征图,表示从第i个特征图映射到第j个特征图的卷积核,表示从第i个特征图映射到第j个特征图的对应的偏置,*表示卷积操作,BN(·)表示批归一化,ReLU(·)表示线性整流函数;
将输入至当前残差块下一模块的同时,输入至当前状态卷积循环神经网络中,得到
其中,ConvRNN为卷积循环神经网络,Ht-1是在前一状态ConvRNN的输出,Ht是当前状态ConvRNN的输出;
将Ht输出至下一状态ConvRNN的同时,输入至当前残差块的下一模块,结合得到
其中,Cat[·]表示把特征向量拼接在一起的拼接操作;
将输入至当前残差块的下一模块,得到
将输入至当前残差块的下一模块,得到
作为下一残差块,即(t+1)残差块的输入。
6.如权利要求2所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述卷积循环神经网络包括卷积长短期记忆网络和卷积门控网络两种结构。
7.如权利要求6所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述卷积长短期记忆网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态, 分别表示输入、遗忘和输出门,表示记忆单元,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
8.如权利要求6所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述卷积门控网络结构为:
其中,Xt表示输入的张量图,Ht-1表示上一步输出的隐藏状态,表示更新门,表示重置门,Sigmoid(·)表示S型函数,tanh(·)表示双曲正切函数,表示元素相乘。
9.如权利要求1所述的基于卷积循环神经网络的残差神经网络调整方法,其特征在于,所述压缩与激励模块为:
输入是一个三阶张量,输出是和X相同形状的三阶张量;
z=GP(X)
s=Sigmoid(W2ReLU(W1z))
Y=s·(c)X
其中,GP(·)表示全局平均池化,得到向量将向量z通过一个维度减少的全连接层一个维度增加的全连接层其中r表示压缩比率,·(c)表示信道层面的乘法,对于每个信道c,Yc=sc·Xc, sc是一个标量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910317965.6A CN110046696A (zh) | 2019-04-19 | 2019-04-19 | 基于卷积循环神经网络的残差神经网络调整方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910317965.6A CN110046696A (zh) | 2019-04-19 | 2019-04-19 | 基于卷积循环神经网络的残差神经网络调整方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110046696A true CN110046696A (zh) | 2019-07-23 |
Family
ID=67277916
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910317965.6A Pending CN110046696A (zh) | 2019-04-19 | 2019-04-19 | 基于卷积循环神经网络的残差神经网络调整方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110046696A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN113537044A (zh) * | 2021-07-14 | 2021-10-22 | 哈尔滨理工大学 | 基于STFT与改进DenseNet的航空发动机故障诊断方法 |
-
2019
- 2019-04-19 CN CN201910317965.6A patent/CN110046696A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111507998A (zh) * | 2020-04-20 | 2020-08-07 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN111507998B (zh) * | 2020-04-20 | 2022-02-18 | 南京航空航天大学 | 基于深度级联的多尺度激励机制隧道表面缺陷分割方法 |
CN113537044A (zh) * | 2021-07-14 | 2021-10-22 | 哈尔滨理工大学 | 基于STFT与改进DenseNet的航空发动机故障诊断方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | Multi-objective convolutional learning for face labeling | |
Song et al. | Training deep neural networks via direct loss minimization | |
WO2021135254A1 (zh) | 车牌号码识别方法、装置、电子设备及存储介质 | |
CN107871100A (zh) | 人脸模型的训练方法和装置、人脸认证方法和装置 | |
CN109033938A (zh) | 一种基于可区分性特征融合的人脸识别方法 | |
CN109840530A (zh) | 训练多标签分类模型的方法和装置 | |
CN107533665A (zh) | 经由偏置项在深度神经网络中纳入自顶向下信息 | |
CN112163628A (zh) | 一种适用于嵌入式设备的改进目标实时识别网络结构的方法 | |
CN107808129A (zh) | 一种基于单个卷积神经网络的面部多特征点定位方法 | |
CN110738161A (zh) | 一种基于改进生成式对抗网络的人脸图像矫正方法 | |
CN111340123A (zh) | 一种基于深度卷积神经网络的图像分数标签预测方法 | |
CN108446689A (zh) | 一种人脸识别方法 | |
CN105184298A (zh) | 一种快速局部约束低秩编码的图像分类方法 | |
CN110069959A (zh) | 一种人脸检测方法、装置及用户设备 | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN104318214B (zh) | 一种基于结构化词典域转移的交叉视角人脸识别方法 | |
CN110046696A (zh) | 基于卷积循环神经网络的残差神经网络调整方法 | |
CN111680739A (zh) | 一种目标检测和语义分割的多任务并行方法及系统 | |
CN106910202A (zh) | 一种遥感图像地物的图像分割方法及系统 | |
CN112819039A (zh) | 基于多尺度集成特征编码的纹理识别模型建立方法及应用 | |
CN106611156A (zh) | 一种自适应深度空间特征的行人识别方法和系统 | |
CN105046202A (zh) | 自适应的人脸识别光照处理方法 | |
CN112712068A (zh) | 一种关键点检测方法、装置、电子设备及存储介质 | |
CN109492610A (zh) | 一种行人重识别方法、装置及可读存储介质 | |
CN110796182A (zh) | 一种少量样本的票据分类方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190723 |