CN110569905B - 基于生成对抗网络和注意力网络的细粒度图像分类方法 - Google Patents
基于生成对抗网络和注意力网络的细粒度图像分类方法 Download PDFInfo
- Publication number
- CN110569905B CN110569905B CN201910850959.7A CN201910850959A CN110569905B CN 110569905 B CN110569905 B CN 110569905B CN 201910850959 A CN201910850959 A CN 201910850959A CN 110569905 B CN110569905 B CN 110569905B
- Authority
- CN
- China
- Prior art keywords
- network
- image
- layer
- convolution
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于生成对抗网络和注意力网络的细粒度图像分类方法,确定图像分类类别,建立相应类别的训练图像集;设计图像细粒度分类的深度注意力卷积网络,该网络包含VGG16全卷积层、SS注意力区域生成、空间金字塔池化层ROI pooling layer、整体与局部特征结合分类全连接层四部分;设计生成对抗网络DAC‑GAN的结构,生成网络与判别网络;使用训练样本集,进行训练DAC‑GAN网络,保存判别网络模型;使用判别网络模型,进行图像类别进行分类预测。本发明提高了图像分类网络的准确度,解决了小样本量的数据不足的问题。
Description
技术领域
本发明涉及一种细粒度图像分类方法,特别是一种基于生成对抗网络和注意力网络的细粒度图像分类方法,属于图像处理领域。
背景技术
随着深度学习的技术研究深入,卷积神经网络(CNN)作为神经网络的一种,它能够提取输入的不同特征并进行分类,准确度不断提高,由80%提升到95%。CNN的网络结构由输入层、卷积层、池化层和全连接层、输出层组成。其中,卷积层通过卷积操作提取输入的不同特征,浅层的卷积层提取诸如边缘、线条的低级特征,深层的卷积层提取高级特征;池化层接在卷积层之后,对局部接受域进行池化操作以获取具有空间不变性的特征;全连接层一般位于多个卷积层和池化层之后,整合卷积层或池化层中具有类别区分性的局部信息。
卷积神经网络在图像分类上取得了良好的成果,但目前的分类比较粗,在大类下细分的子类间分类识别率较低。细粒度图像分析任务相对通用图像任务的区别和难点在于其图像所属类别的粒度更为精细。通用图像分类其任务诉求是将物体大类分开,可见无论从样貌、形态等方面,二者还是能很容易被区分;而细粒度图像分类任务则要求对一个类类别下细粒度的子类图像分辨开来。相同的子类中物体的动作姿态可能大不相同,不同的子类中物体可能又有着相同的动作姿态,这是识别的一大难点。正因同类别物种的不同子类往往仅在耳朵形状、毛色等细微处存在差异,可谓“差之毫厘,谬以千里”。不止对计算机,对普通人来说,细粒度图像任务的难度和挑战无疑也更为巨大。因此,细粒度图像识别作为现在图像分类中一个颇具挑战性的任务,它的目标是在一个大类中的数百数千个子类中正确识别目标,其的关键点在寻找一些存在细微差别的局部区域。如何有效地对前景对象进行检测,并从中发现重要的局部区域信息,成为了细粒度图像分类算法要解决的关键问题。
CN201810167949“一种基于卷积神经网络的细粒度车型识别方法”是基于常规的卷积神经网络进行分类,然而常规的卷积网络对细类物体的细小的地方差别并不敏感,因此无法捕获细类类之间的差异。同时,对于图像分类,训练集的建立的难度和成本也比较大。
专利CN201711249014“细粒度图像识别模型训练及识别方法、装置及存储介质”公开是对于每张图像,使用每个分支分别针对所述图像中的一个物体部位进行特征提取,训练完成,各分支分别学习到图像中的不同关键物体部位,以便结合各分支提取出的特征完成细粒度图像分类。但该专利使用了图像局部特征,没有阐述特征区域获取原理,如果特征区域过多,整体计算量就较大;同时,过多强调了局部图像特征,没有很好兼容整体的特征。
发明内容
本发明所要解决的技术问题是提供一种基于生成对抗网络和注意力网络的细粒度图像分类方法,提高图像分类的准确度。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于生成对抗网络和注意力网络的细粒度图像分类方法,其特征在于包含以下步骤:
步骤一:确定图像分类类别,建立相应类别的训练图像集;
步骤二:设计图像细粒度分类的深度注意力卷积网络,该网络包含VGG16全卷积层、SS注意力区域生成、空间金字塔池化层ROI pooling layer、整体与局部特征结合分类全连接层四部分;
步骤三:设计生成对抗网络DAC-GAN的结构,生成网络与判别网络;
步骤四:使用训练样本集,进行训练DAC-GAN网络,保存判别网络模型;
步骤五:使用判别网络模型,进行图像类别进行分类预测。
进一步地,所述步骤一具体为
1.1确定要分类图像类别的清单;
1.2对每个类别建立图像文件夹,向文件夹收集包含目标的图像,基本保证每种类别图像样本数至少为10000张;
1.3使用目标检测的方法,将目标从图像中检测其位置,基于位置将各个子类别图像从全局图像中分割出来。
进一步地,所述步骤二中
VGG16全卷积层:基于经典的VGG16模型,该网络一共有五段卷积,每段卷积之后紧接着最大池化层;深度网络中LRN的作用并不明显,去掉了LRN层;采用更小的卷积核3x3;池化核变小,VGG中的池化核是2x2,stride为2;VGG是一个良好的特征提取器,充分利用其卷积部分;
SS注意力区域生成:采用Selective Search策略生成200个局部区域;首先图像上n个预分割的区域,R={R1, R2, ..., Rn},计算每个region与它相邻region的相似度, 得到一个n*n的相似度矩阵;然后从矩阵中找出最大相似度值对应的两个区域, 合二为一,图像上还剩下n-1个区域;重复上面的过程,直到所有的区域合并为同一个区域;
空间金字塔池化层ROI pooling layer:在最后一个卷积层与全连接层之间,对最后一个卷积层特征进行pool操作并产生固定大小feature map,进而匹配后续的全连接层;根据空间对应关系得到相应200个局部区域的特征,维度为256;
整体与局部特征结合分类全连接层:将VGG16全卷积层特征map,经过1*1卷积,得到一维4096特征,同时将200局部特征与4096全局特征组合,从而得到55296维度特征向量;经过全连接层,进行分类得到相应类别的分值。
进一步地,所述步骤三中
生成网络,用于模拟真实的图像来生成疑似图像,一个100维度的均匀分布z映射到一个有很多特征映射的小空间范围卷积,一连串的四个微步幅卷积,将高层表征转换为227*227像素的图像;
判别网络,采用深度注意力卷积网络。
进一步地,所述步骤四具体为
4.1训练生成对抗网络DAC-GAN:定义网络参数、输入层与输出层参数;设置训练批次,批次大小参数;
4.2输入噪声,经过生成网络,生成合成图像;
4.3将合成图像与真实图像及标注,交给判别网络,进行判别;计算合成图像判别的信息熵,进而判别其真实与虚假,对于真实的,判别其类别分值;计算真实图像的类别分值;
4.4实时保存判别网络模型。
本发明与现有技术相比,具有以下优点和效果:
1. 本发明模仿人观察图像,针对不同图像,既观察整体情况,又仔细对比局部差异;创新设计了细粒度注意力卷积网络,采用全局与局部特征结合的方法,既能描绘整体图像特征,又能捕获局部的细微变化;基于注意力的机制,提取显著性高的局部区域的特征;
2. 在进行图像分类时,模型准确度不仅受网络结构影响,还受数据量及数据全面性的应用,但是在实际获取标注图像的成本太高,因此本发明创新设计了DAC-GAN网络,结合当前热门的生成对抗网络GAN,结合卷积DC-GAN与标签AC-GAN,来模拟生成目标图像和判别图像真伪与类别。
附图说明
图1是本发明的基于生成对抗网络和注意力网络的细粒度图像分类方法的细粒度注意力卷积网络结构图。
图2是本发明的基于生成对抗网络和注意力网络的细粒度图像分类方法的DAC-GAN的整体结构图。
具体实施方式
下面通过实施例对本发明作进一步的详细说明,以下实施例是对本发明的解释而本发明并不局限于以下实施例。
一种基于生成对抗网络和注意力网络的细粒度图像分类方法,包括以下步骤:
步骤一:确定图像分类类别,建立相应类别的训练图像集。
1.1确定要分类图像类别的清单。
1.2对每个类别建立图像文件夹,向文件夹收集包含目标的图像,基本保证每种类别图像样本数至少为10000张。
1.3使用目标检测的方法,将目标从图像中检测其位置,基于位置将各个子类别图像从全局图像中分割出来。
步骤二:设计图像细粒度分类的深度注意力卷积网络,该网络由VGG16全卷积层、SS注意力区域生成、空间金字塔池化层ROI pooling layer、整体与局部特征结合分类全连接层四部分。
(a)VGG16全卷积层:基于经典的VGG16模型,该网络一共有五段卷积,每段卷积之后紧接着最大池化层;深度网络中LRN的作用并不明显,去掉了LRN层;采用更小的卷积核3x3;池化核变小,VGG中的池化核是2x2,stride为2;VGG是一个良好的特征提取器,充分利用其卷积部分。
(b)SS注意力区域生成:采用Selective Search策略生成200个局部区域;首先图像上n个预分割的区域,R={R1, R2, ..., Rn},计算每个region与它相邻region的相似度,得到一个n*n的相似度矩阵(同一个区域之间和一个区域与不相邻区域之间的相似度可设为NaN);然后从矩阵中找出最大相似度值对应的两个区域, 合二为一, 图像上还剩下n-1个区域;重复上面的过程(计算新的区域与它相邻区域的新相似度,其他的不用重复计算),直到所有的区域合并为同一个区域(即此过程进行了n-1次,区域总数目最后变成了1)。
(c)空间金字塔池化层ROI pooling layer:在最后一个卷积层与全连接层之间,对最后一个卷积层特征进行pool操作并产生固定大小feature map,进而匹配后续的全连接层;根据空间对应关系得到相应200个局部区域的特征,维度为256。
(d)整体与局部特征结合分类全连接层:将(a)特征map,经过1*1卷积,得到一维4096特征,同时将200局部特征与4096全局特征组合,从而得到55296维度特征向量;经过全连接层,进行分类得到相应类别的分值。
步骤三:设计生成对抗网络DAC-GAN的结构,生成网络与判别网络。
设计生成对抗网络DAC-GAN的结构:生成网络与判别网络。
(a)生成网络,用于模拟真实的图像来生成疑似图像,一个100维度的均匀分布z映射到一个有很多特征映射的小空间范围卷积。一连串的四个微步幅卷积,将高层表征转换为227*227像素的图像。
(b)判别网络,这采用深度注意力卷积网络。
步骤四:使用训练样本集,进行训练DAC-GAN网络,保存判别网络模型。
训练生成对抗网络DAC-GAN:定义网络参数、输入层与输出层参数;设置训练批次,批次大小等参数。
(a)输入噪声,经过生成网络,生成合成图像。
(b)将合成图像与真实图像及标注,交给判别网络,进行判别;计算合成图像判别的信息熵,进而判别其真实与虚假,对于真实的,判别其类别分值;计算真实图像的类别分值。
(c)实时保存判别网络模型。
步骤 5:使用判别网络模型,进行图像类别进行分类预测。
本发明主要解决两大难题,图像分类网络的准确度和小样本量的数据不足。针对图像分类,设计图像细粒度分类的深度注意力卷积网络,该网络由VGG16全卷积层、SS注意力区域生成、空间金字塔池化层ROI pooling layer、整体与局部特征结合分类全连接层四部分;首先输入图像,经过VGG16全卷积层,生成图像特征map;然后采用selective search算法,图像过分割区域,根据色彩、纹理和尺寸的相似度,进行融合生成200个注意力区域;基于特征map和金字塔池化层获取这200个区域的特征;最后将整体特征与局部区域特征组合一个特征,经过全连接层进行分类,从而得到图像类别。针对数据不足问题,基于生成对抗网络,一方面模拟已有数据生成疑似样本,另一方面针对生成数据与真实数据,使用上面设计细粒度分类网络判断数据的真假及其类别;两者不断博弈,从而得到准确度更高的分类网络模型。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容做出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案内容,依据本发明的技术实质,在本发明的精神和原则之内,对以上实施例所作的任何简单的修改、等同替换与改进等,均仍属于本发明技术方案的保护范围之内。
Claims (3)
1.一种基于生成对抗网络和注意力网络的细粒度图像分类方法,其特征在于包含以下步骤:
步骤一:确定图像分类类别,建立相应类别的训练图像集;
步骤二:设计图像细粒度分类的深度注意力卷积网络,该网络包含VGG16全卷积层、SS注意力区域生成、空间金字塔池化层ROI pooling layer、整体与局部特征结合分类全连接层四部分;
VGG16全卷积层:基于经典的VGG16模型,该网络一共有五段卷积,每段卷积之后紧接着最大池化层;深度网络中LRN的作用并不明显,去掉了LRN层;采用更小的卷积核3x3;池化核变小,VGG中的池化核是2x2,stride为2;VGG是一个良好的特征提取器,充分利用其卷积部分;
SS注意力区域生成:采用Selective Search策略生成200个局部区域;首先图像上n个预分割的区域,R={R1, R2, ..., Rn},计算每个region与它相邻region的相似度, 得到一个n*n的相似度矩阵;然后从矩阵中找出最大相似度值对应的两个区域, 合二为一, 图像上还剩下n-1个区域;重复上面的过程,直到所有的区域合并为同一个区域;
空间金字塔池化层ROI pooling layer:在最后一个卷积层与全连接层之间,对最后一个卷积层特征进行pool操作并产生固定大小feature map,进而匹配后续的全连接层;根据空间对应关系得到相应200个局部区域的特征,维度为256;
整体与局部特征结合分类全连接层:将VGG16全卷积层特征map,经过1*1卷积,得到一维4096特征,同时将200局部特征与4096全局特征组合,从而得到55296维度特征向量;经过全连接层,进行分类得到相应类别的分值;
步骤三:设计生成对抗网络DAC-GAN的结构,生成网络与判别网络;
生成网络,用于模拟真实的图像来生成疑似图像,一个100维度的均匀分布z映射到一个有很多特征映射的小空间范围卷积,一连串的四个微步幅卷积,将高层表征转换为227*227像素的图像;
判别网络,采用深度注意力卷积网络;
步骤四:使用训练样本集,进行训练DAC-GAN网络,保存判别网络模型;
步骤五:使用判别网络模型,将图像类别进行分类预测。
2.按照权利要求1所述的基于生成对抗网络和注意力网络的细粒度图像分类方法,其特征在于:所述步骤一具体为
1.1确定要分类图像类别的清单;
1.2对每个类别建立图像文件夹,向文件夹收集包含目标的图像,基本保证每种类别图像样本数至少为10000张;
1.3使用目标检测的方法,将目标从图像中检测其位置,基于位置将各个子类别图像从全局图像中分割出来。
3.按照权利要求1所述的基于生成对抗网络和注意力网络的细粒度图像分类方法,其特征在于:所述步骤四具体为
4.1训练生成对抗网络DAC-GAN:定义网络参数、输入层与输出层参数;设置训练批次,批次大小参数;
4.2输入噪声,经过生成网络,生成合成图像;
4.3将合成图像与真实图像及标注,交给判别网络,进行判别;计算合成图像判别的信息熵,进而判别其真实与虚假,对于真实的,判别其类别分值;计算真实图像的类别分值;
4.4实时保存判别网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910850959.7A CN110569905B (zh) | 2019-09-10 | 2019-09-10 | 基于生成对抗网络和注意力网络的细粒度图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910850959.7A CN110569905B (zh) | 2019-09-10 | 2019-09-10 | 基于生成对抗网络和注意力网络的细粒度图像分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110569905A CN110569905A (zh) | 2019-12-13 |
CN110569905B true CN110569905B (zh) | 2023-04-14 |
Family
ID=68778792
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910850959.7A Active CN110569905B (zh) | 2019-09-10 | 2019-09-10 | 基于生成对抗网络和注意力网络的细粒度图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110569905B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112163465B (zh) * | 2020-09-11 | 2022-04-22 | 华南理工大学 | 细粒度图像分类方法、系统、计算机设备及存储介质 |
CN112784869B (zh) * | 2020-11-13 | 2022-08-12 | 北京航空航天大学 | 一种基于注意力感知与对抗学习的细粒度图像识别方法 |
CN112580660B (zh) * | 2020-11-17 | 2023-03-24 | 上海闻泰信息技术有限公司 | 图像处理方法、装置、计算机设备和可读存储介质 |
CN112686242B (zh) * | 2020-12-29 | 2023-04-18 | 昆明理工大学 | 一种基于多层聚焦注意力网络的细粒度图像分类方法 |
CN112686913B (zh) * | 2021-01-11 | 2022-06-10 | 天津大学 | 基于边界注意力一致性的目标边界检测和目标分割模型 |
CN113012045B (zh) * | 2021-02-23 | 2022-07-15 | 西南交通大学 | 一种用于合成医学图像的生成对抗网络 |
CN113033696B (zh) * | 2021-04-13 | 2022-06-17 | 浙江大学 | 基于对比对抗网络的小样本商品图像分类算法及其系统 |
CN113095257A (zh) * | 2021-04-20 | 2021-07-09 | 上海商汤智能科技有限公司 | 异常行为检测方法、装置、设备及存储介质 |
CN115099294A (zh) * | 2022-03-21 | 2022-09-23 | 昆明理工大学 | 一种基于特征增强和决策融合的花卉图像分类算法 |
US11915474B2 (en) | 2022-05-31 | 2024-02-27 | International Business Machines Corporation | Regional-to-local attention for vision transformers |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280490A (zh) * | 2018-02-28 | 2018-07-13 | 北京邮电大学 | 一种基于卷积神经网络的细粒度车型识别方法 |
CN108986186A (zh) * | 2018-08-14 | 2018-12-11 | 山东师范大学 | 文字转化视频的方法和系统 |
CN109543606A (zh) * | 2018-11-22 | 2019-03-29 | 中山大学 | 一种加入注意力机制的人脸识别方法 |
CN110059217A (zh) * | 2019-04-29 | 2019-07-26 | 广西师范大学 | 一种两级网络的图像文本跨媒体检索方法 |
-
2019
- 2019-09-10 CN CN201910850959.7A patent/CN110569905B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108280490A (zh) * | 2018-02-28 | 2018-07-13 | 北京邮电大学 | 一种基于卷积神经网络的细粒度车型识别方法 |
CN108986186A (zh) * | 2018-08-14 | 2018-12-11 | 山东师范大学 | 文字转化视频的方法和系统 |
CN109543606A (zh) * | 2018-11-22 | 2019-03-29 | 中山大学 | 一种加入注意力机制的人脸识别方法 |
CN110059217A (zh) * | 2019-04-29 | 2019-07-26 | 广西师范大学 | 一种两级网络的图像文本跨媒体检索方法 |
Non-Patent Citations (2)
Title |
---|
AttnGAN: Fine-Grained Text to Image Generation with Attentional Generative Adversarial Networks;Tao Xu 等;《2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition》;20180623;全文 * |
基于卷积网络的车辆定位与细粒度分类算法;柳思健;《自动化与仪表》;20180715(第07期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110569905A (zh) | 2019-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569905B (zh) | 基于生成对抗网络和注意力网络的细粒度图像分类方法 | |
Gao et al. | Automatic change detection in synthetic aperture radar images based on PCANet | |
Tang et al. | Automatic plankton image recognition | |
Sirmacek et al. | Urban-area and building detection using SIFT keypoints and graph theory | |
Won et al. | Morphological shared-weight networks with applications to automatic target recognition | |
Kim et al. | Multi-task convolutional neural network system for license plate recognition | |
CN109410184B (zh) | 基于稠密对抗网络半监督学习的直播色情图像检测方法 | |
CN111080678B (zh) | 一种基于深度学习的多时相sar图像变化检测方法 | |
CN109583452B (zh) | 一种基于赤足足迹的人身同一认定方法和系统 | |
Majd et al. | Transferable object-based framework based on deep convolutional neural networks for building extraction | |
CN114170511B (zh) | 基于Cascade RCNN的路面裂缝病害识别方法 | |
Kluger et al. | Region-based cycle-consistent data augmentation for object detection | |
CN108229434A (zh) | 一种车辆识别与细致重构的方法 | |
Naseer et al. | Pixels to precision: features fusion and random forests over labelled-based segmentation | |
Dai et al. | CAMV: Class activation mapping value towards open set fine-grained recognition | |
Lee et al. | Fast object localization using a CNN feature map based multi-scale search | |
Najibi et al. | Towards the success rate of one: Real-time unconstrained salient object detection | |
Suwais et al. | A review on classification methods for plants leaves recognition | |
Manno-Kovacs | Content based image retrieval using salient orientation histograms | |
Rong et al. | Weakly supervised text attention network for generating text proposals in scene images | |
Pedersen et al. | Model and feature selection for the classification of dark field pollen images using the classifynder system | |
Rush et al. | Feature Map Activation Analysis for Object Key-Point Detection | |
Siegmund et al. | Detection of Fiber Defects Using Keypoints and Deep Learning | |
Yildirim et al. | Gender recognition using hog with maximized inter-class difference | |
Malhotra et al. | Plant’s leaf analysis using pattern recognition algorithm |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 210000 No. 268, Hanzhoung Road, Nanjing, Jiangsu Applicant after: CLP Hongxin Information Technology Co.,Ltd. Address before: 210000 No. 268, Hanzhoung Road, Nanjing, Jiangsu Applicant before: JIANGSU HONGXIN SYSTEM INTEGRATION Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |