CN111160491B - 一种卷积神经网络中的池化方法和池化模型 - Google Patents
一种卷积神经网络中的池化方法和池化模型 Download PDFInfo
- Publication number
- CN111160491B CN111160491B CN202010257057.5A CN202010257057A CN111160491B CN 111160491 B CN111160491 B CN 111160491B CN 202010257057 A CN202010257057 A CN 202010257057A CN 111160491 B CN111160491 B CN 111160491B
- Authority
- CN
- China
- Prior art keywords
- pooling
- local
- feature
- parameter
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种卷积神经网络中的池化方法和池化模型,设定局部池化计算阵列参数;将图像输入到卷积层进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;若特征图的尺寸参数等于局部池化计算阵列参数,则动态分配使用平均值或最大值池化操作;若特征图的尺寸参数大于局部池化计算阵列参数,则根据局部池化计算阵列参数划分特征子图,计算特征子图特征值,判断任一个特征值是否大于其余平均值的二倍,若是,针对该局部池化采用最大值池化操作,否则采用平均值池化操作;重复上步骤直至完成逐级全局池化操作。本发明动态分配池化策略,可寻找到更好的全局池化值,使用动态分配池化策略和逐级全局池化策略后,模型准确率有较为明显的提升。
Description
技术领域
本发明涉及深度学习技术领域,特别是指一种卷积神经网络中的池化方法和池化模型。
背景技术
在卷积神经网络中,经常会应用到池化操作,池化层一般接在卷积层之后,通过池化来降低卷积层输出的特征向量,同时降低过拟合。因为图像具有一种“静态性”的属性,这也意味着在一个图像区域有用的特征极有可能在另一个区域同样适用。因此,为了描述较大的图像,一个很自然的想法就是对不同位置的特征进行聚合统计,例如,可以计算图像一个区域上的某个特定特征的平均值或最大值来代表这个区域的特征。因此在卷积神经网络中,常用的池化操作有平均值池化和最大值池化两类。
技术背景:
1.最常见的池化操作为平均值池化mean pooling和最大值池化max pooling。
2.平均值池化:计算图像区域的平均值作为该区域池化后的值。
3.最大值池化:选图像区域的最大值作为该区域池化后的值。
4.全局池化:全局池化即global pooling,就是pooling的滑窗size和整张
feature map的size一样大。这样,每个的feature map 输入就会被转化为输出。因此,其实也等同于每个位置权重都为的FC层操作,等同于输入一
个tensor,输出一个vector。global pooling在滑窗内的具体pooling方法可以是任意的,
所以就会被细分为global avg pooling、global max pooling等。
5.重叠池化:正如其名字所说的,相邻池化窗口之间会有重叠区域,此时sizeX >stride,有作者证实使用重叠池化,其他设置不变的情况下,在imagenet上top-1和top-5的错误率分别减少了0.4%和0.3%。
6.空间金字塔池化:可以把任何尺度的图像的卷积特征转化成相同的维度,这不仅可以让CNN处理任意尺度的图像,还能避免cropping和warping操作,导致一些信息的丢失,具有非常重要的意义。一般的CNN都需要输入图像的大小是固定的,这是因为全连接层的输入需要固定输入维度,但在卷积操作上是没有对图像尺度限制的,所以提出了空间金字塔池化,先让图像进行卷积操作,然后转化成维度相同的特征输入到全连接层,这个可以把CNN扩展到任意大小的图像。
对于不同的图像要得到相同大小的pooling结果,就需要根据图像的大小动态的
计算池化窗口的大小和步长。假设conv5输出的大小为a*a,需要得到n*n大小的池化结果,
可以让窗口大小sizeX为,步长为,其中表示向上取整的运算,称为
ceiling,表示向下取整的运算,称为floor。
现有的池化方法的选择是网络设计之初已经给定的,并且一个网络的主体部分,要么使用平均值池化,要么使用最大值池化。现有的池化方法并未根据训练图片的属性,动态的分配某池化层应该使用那一类池化方法,这便导致了网络的池化方法并非最优选择。需要全局池化的特征图,往往是一个较大的特征图,单纯的使用全局平均值池化和全局最大池化都不能较好的代表该特征图的信息。
发明内容
本发明提出一种卷积神经网络中的池化方法和池化模型,解决了现有技术中池化方法的选择是网络设计之初已经给定的,并且一个网络的主体部分,要么使用平均值池化,要么使用最大值池化。现有的池化方法并未根据训练图片的属性,动态的分配某池化层应该使用那一类池化方法,这便导致了网络的池化方法并非最优选择。需要全局池化的特征图,往往是一个较大的特征图,单纯的使用全局平均值池化和全局最大池化都不能较好的代表该特征图的信息的问题。
本发明的技术方案是这样实现的:
一种卷积神经网络中的池化方法,具体包括以下步骤:
步骤1,设定局部池化计算阵列参数n*n;
步骤2,将图像输入到卷积层进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;
步骤3,若特征图的尺寸参数等于局部池化计算阵列参数,则根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作;
步骤4,若特征图的尺寸参数大于局部池化计算阵列参数,则根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作;
步骤5,重复步骤4直至完成逐级全局池化操作。
作为本发明的一个优选实施例,步骤3中,根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作具体指的是
计算特征图的每个区域的特征值,判断任一个特征值是否大于特征图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作。
作为本发明的一个优选实施例,步骤1,设定局部池化计算阵列参数为2*2。
作为本发明的一个优选实施例,步骤2中图像来自ImageNet。
一种卷积神经网络中的池化模型,包括
参数设定模块,用于设定局部池化计算阵列参数n*n;
卷积运算模块,用于对输入的图像数据进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;
尺寸计算模块,用于判断特征图的尺寸参数是否等于或大于局部池化计算阵列参数,若等于局部池化计算阵列参数,则由动态池化模块进行池化操作,若大于局部池化计算阵列参数,则由逐级池化模块进行池化操作;
动态池化模块,动态分配使用平均值池化操作或最大值池化操作;
逐级池化模块,根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作,直至完成逐级全局池化操作。
作为本发明的一个优选实施例,所述参数设定模块通过人机交互设备获取局部池化计算阵列参数为2*2。
作为本发明的一个优选实施例,所述逐级池化模块进行kernel-size为2*2,stride为1的局部池化操作。
本发明的有益效果在于:
1、本策略根据图像区域的特征值,动态的决定该池化层选择平均值池化还是最大值池化。
2、提出逐级全局池化策略,该策略可以寻找到一个更好的全局池化值。
3、使用动态分配池化策略和逐级全局池化策略后,模型准确率有较为明显的提升。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一种卷积神经网络中的池化方法一个实施例的流程图;
图2为逐级全局池化的示意图;
图3为本发明一种卷积神经网络中的池化模型一个实施例的原理框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,本发明提出了一种卷积神经网络中的池化方法,具体包括以下步骤:
步骤1,设定局部池化计算阵列参数n*n;步骤1中设定局部池化计算阵列参数为2*2。
步骤2,将图像输入到卷积层进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;图像来自ImageNet。
步骤3,若特征图的尺寸参数等于局部池化计算阵列参数,则根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作;
步骤3中,根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作具体指的是
计算特征图的每个区域的特征值,判断任一个特征值是否大于特征图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作。
步骤4,若特征图的尺寸参数大于局部池化计算阵列参数,则根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作;
步骤5,重复步骤4直至完成逐级全局池化操作。
以下对本发明的实施例进行具体说明:
网络结构选择resnet50,训练数据选择ImageNet,损失函数选择softmax。显卡可
使用GTX1060。Iamgenet图像数据集始于2009年,目前总共有14197122幅图像,总共分为
21841个类别。是深度学习中被引用最多的一个数据集。使用imageNet2012,其一共包含
1000个类别。深度残差网络(deep residual network,ResNet)是何凯明等人提出的一种深
度学习网络,它的出现极大的促进了深度学习的发展。resnet50的参数量为。深度学
习中损失函数是整个网络模型的“指挥棒”,通过对预测样本和真实样本标记产生的误差反
向传播指导网络参数学习。Softmax loss 是最常用的分类损失函数。一般自用显卡多数人
选择GTX1060,显存为6GB。
假设图像的feature_map是一张7*7的特征图,本发明提出了一种新的全局池化的方法,称为step_by_step_global pooling,逐级全局池化。
逐级全局池化整个过程中使用的kernel-size均为2*2,stride均为1,称该一次池化操作为局部池化;局部池化的动态分配池化策略,判断策略如下:
由于局部池化所使用的kernel-size为2*2,因此对应到特征图feature_map上也是2*2的特征子图,称为feature_map_part;
特征子图feature_map_part的尺寸为2*2,设其四个特征值为feature_1、feature_2、feature_3、feature_4;
若feature_1、feature_2、feature_3、feature_4中的某一个大于其余三个的均值
的二倍,则局部池化使用max pooling。若feature_1、feature_2、feature_3、feature_4中
的任一个均不大于其余三个的均值的二倍,则局部池化使用mean pooling。例如:如,即使用max pooling。
对7*7的feature_map使用kernel-size为2*2,stride为1的局部池化后,可得到6*6的特征图feature_map_1,特征图尺寸计算方式如下:
再对6*6的特征图feature_map_1进行一次kernel-size为2*2,stride为1的局部池化后,得到5*5的特征图feature_map_2。不断重复第四步的操作,可完成逐级全局池化。
假设输出的最后一个卷积层是256*7*7的特征图,则经过六次逐级全局池化后得到一个256维的vector。示例图如图2所示。
本发明测试模型在imagenet上的准确率(%),结果如下:
如图3所示,本发明还提出了一种卷积神经网络中的池化模型,包括
参数设定模块,用于设定局部池化计算阵列参数n*n;
卷积运算模块,用于对输入的图像数据进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;
尺寸计算模块,用于判断特征图的尺寸参数是否等于或大于局部池化计算阵列参数,若等于局部池化计算阵列参数,则由动态池化模块进行池化操作,若大于局部池化计算阵列参数,则由逐级池化模块进行池化操作;
动态池化模块,动态分配使用平均值池化操作或最大值池化操作;
逐级池化模块,根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作,直至完成逐级全局池化操作。
参数设定模块通过人机交互设备获取局部池化计算阵列参数为2*2。逐级池化模块进行kernel-size为2*2,stride为1的局部池化操作。
本发明可应用于社交网络、交通网络、工业系统和生物学等领域的图像处理,也可应用于在视频监控、人脸识别、图像分类检索等方面,可以简化网络复杂度、减小计算量、减小内存消耗,进而降低成本。
本发明的有益效果在于:
1、本策略根据图像区域的特征值,动态的决定该池化层选择平均值池化还是最大值池化。
2、提出逐级全局池化策略,该策略可以寻找到一个更好的全局池化值。
3、使用动态分配池化策略和逐级全局池化策略后,模型准确率有较为明显的提升。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种卷积神经网络中的池化方法,其特征在于,具体包括以下步骤:
步骤1,设定局部池化计算阵列参数n*n;
步骤2,将图像输入到卷积层进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;
步骤3,若特征图的尺寸参数等于局部池化计算阵列参数,则根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作;
步骤4,若特征图的尺寸参数大于局部池化计算阵列参数,则根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作;
步骤5,重复步骤4直至完成逐级全局池化操作。
2.根据权利要求1所述的一种卷积神经网络中的池化方法,其特征在于,步骤3中,根据特定区域的特征值,动态分配使用平均值池化操作或最大值池化操作具体指的是
计算特征图的每个区域的特征值,判断任一个特征值是否大于特征图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作。
3.根据权利要求1或2所述的一种卷积神经网络中的池化方法,其特征在于,步骤1,设定局部池化计算阵列参数为2*2。
4.根据权利要求2所述的一种卷积神经网络中的池化方法,其特征在于,步骤2中图像来自ImageNet。
5.一种卷积神经网络中的池化模型,其特征在于,包括
参数设定模块,用于设定局部池化计算阵列参数n*n;
卷积运算模块,用于对输入的图像数据进行卷积运算,获取图像的特征图并得出特征图的尺寸参数;
尺寸计算模块,用于判断特征图的尺寸参数是否等于或大于局部池化计算阵列参数,若等于局部池化计算阵列参数,则由动态池化模块进行池化操作,若大于局部池化计算阵列参数,则由逐级池化模块进行池化操作;
动态池化模块,动态分配使用平均值池化操作或最大值池化操作;
逐级池化模块,根据局部池化计算阵列参数n*n划分特征子图,计算特征子图n*n个特征值,判断任一个特征值是否大于特征子图其余n*n-1个特征值的平均值的二倍,若是,则针对该局部池化采用最大值池化操作,否则采用平均值池化操作,直至完成逐级全局池化操作。
6.根据权利要求5所述一种卷积神经网络中的池化模型,其特征在于,所述参数设定模块通过人机交互设备获取局部池化计算阵列参数为2*2。
7.根据权利要求6所述一种卷积神经网络中的池化模型,其特征在于,所述逐级池化模块进行kernel-size为2*2,stride为1的局部池化操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010257057.5A CN111160491B (zh) | 2020-04-03 | 2020-04-03 | 一种卷积神经网络中的池化方法和池化模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010257057.5A CN111160491B (zh) | 2020-04-03 | 2020-04-03 | 一种卷积神经网络中的池化方法和池化模型 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111160491A CN111160491A (zh) | 2020-05-15 |
CN111160491B true CN111160491B (zh) | 2020-09-01 |
Family
ID=70567759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010257057.5A Active CN111160491B (zh) | 2020-04-03 | 2020-04-03 | 一种卷积神经网络中的池化方法和池化模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111160491B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111881854A (zh) * | 2020-07-31 | 2020-11-03 | 上海商汤临港智能科技有限公司 | 动作识别方法、装置、计算机设备及存储介质 |
CN115240249B (zh) * | 2022-07-07 | 2023-06-06 | 湖北大学 | 人脸识别的特征提取分类度量学习方法、系统及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376283A (zh) * | 2018-01-08 | 2018-08-07 | 中国科学院计算技术研究所 | 用于神经网络的池化装置和池化方法 |
CN108647780A (zh) * | 2018-04-12 | 2018-10-12 | 东南大学 | 面向神经网络的可重构池化操作模块结构及其实现方法 |
CN109858609A (zh) * | 2018-12-27 | 2019-06-07 | 中国电子科技集团公司信息科学研究院 | 一种分区块池化的方法和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3032188A1 (en) * | 2018-01-31 | 2019-07-31 | Pin-Han Ho | Deep convolutional neural network architecture and system and method for building the deep convolutional neural network architecture |
-
2020
- 2020-04-03 CN CN202010257057.5A patent/CN111160491B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108376283A (zh) * | 2018-01-08 | 2018-08-07 | 中国科学院计算技术研究所 | 用于神经网络的池化装置和池化方法 |
CN108647780A (zh) * | 2018-04-12 | 2018-10-12 | 东南大学 | 面向神经网络的可重构池化操作模块结构及其实现方法 |
CN109858609A (zh) * | 2018-12-27 | 2019-06-07 | 中国电子科技集团公司信息科学研究院 | 一种分区块池化的方法和系统 |
Non-Patent Citations (2)
Title |
---|
Generalizing Pooling Functions in CNNs: Mixed, Gated, and Tree;Chen-Yu Lee 等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;20180430;第40卷(第4期);863-875 * |
不同池化模型的卷积神经网络学习性能研究;刘万军 等;《中国图象图形学报》;20160907;第21卷(第9期);1178-1190 * |
Also Published As
Publication number | Publication date |
---|---|
CN111160491A (zh) | 2020-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110991311B (zh) | 一种基于密集连接深度网络的目标检测方法 | |
CN111192292A (zh) | 基于注意力机制与孪生网络的目标跟踪方法及相关设备 | |
CN110930296B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN110598788B (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN111160491B (zh) | 一种卷积神经网络中的池化方法和池化模型 | |
CN116147130A (zh) | 智能家居控制系统及其方法 | |
CN112381030B (zh) | 一种基于特征融合的卫星光学遥感图像目标检测方法 | |
CN112307853A (zh) | 航拍图像的检测方法、存储介质和电子装置 | |
CN112116613A (zh) | 模型训练方法、图像分割方法、图像矢量化方法及其系统 | |
CN111126459A (zh) | 一种车辆细粒度识别的方法及装置 | |
CN114841244A (zh) | 一种基于鲁棒采样和混合注意力金字塔的目标检测方法 | |
CN111611925A (zh) | 一种建筑物检测与识别方法及装置 | |
CN113487610A (zh) | 疱疹图像识别方法、装置、计算机设备和存储介质 | |
CN111008631A (zh) | 图像的关联方法及装置、存储介质和电子装置 | |
CN113888586A (zh) | 一种基于相关滤波的目标跟踪方法及装置 | |
CN113554657A (zh) | 基于注意力机制及卷积神经网络的超像素分割方法及系统 | |
CN113554653A (zh) | 基于互信息校准点云数据长尾分布的语义分割方法 | |
CN116310386A (zh) | 基于浅层自适应增强上下文的CenterNet小目标检测方法 | |
CN113327227B (zh) | 一种基于MobilenetV3的小麦头快速检测方法 | |
CN113159318B (zh) | 一种神经网络的量化方法、装置、电子设备及存储介质 | |
CN112989952B (zh) | 一种基于遮罩引导的人群密度估计方法及装置 | |
CN110796115B (zh) | 图像检测方法、装置、电子设备及可读存储介质 | |
CN109583584B (zh) | 可使具有全连接层的cnn接受不定形状输入的方法及系统 | |
CN117011655A (zh) | 基于自适应区域选择特征融合方法、目标跟踪方法及系统 | |
CN110069647B (zh) | 图像标签去噪方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |