CN115100421A - 一种基于图像频域分解重构的对抗样本生成方法 - Google Patents
一种基于图像频域分解重构的对抗样本生成方法 Download PDFInfo
- Publication number
- CN115100421A CN115100421A CN202210714150.3A CN202210714150A CN115100421A CN 115100421 A CN115100421 A CN 115100421A CN 202210714150 A CN202210714150 A CN 202210714150A CN 115100421 A CN115100421 A CN 115100421A
- Authority
- CN
- China
- Prior art keywords
- frequency
- image
- low
- sample
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 32
- 238000000354 decomposition reaction Methods 0.000 title claims abstract description 9
- 230000004927 fusion Effects 0.000 claims abstract description 19
- 238000013528 artificial neural network Methods 0.000 claims abstract description 18
- 238000001914 filtration Methods 0.000 claims abstract description 4
- 238000001228 spectrum Methods 0.000 claims description 24
- 238000004140 cleaning Methods 0.000 claims description 7
- 101100409308 Neurospora crassa (strain ATCC 24698 / 74-OR23-1A / CBS 708.71 / DSM 1257 / FGSC 987) adv-1 gene Proteins 0.000 claims description 6
- 230000003042 antagnostic effect Effects 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 6
- 230000008447 perception Effects 0.000 abstract description 3
- 230000002708 enhancing effect Effects 0.000 abstract description 2
- 238000003062 neural network model Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 4
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/42—Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
- G06V10/431—Frequency domain transformation; Autocorrelation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于图像频域分解重构的对抗样本生成方法,包括以下步骤:输入原始干净图像样本Pclean,利用离散余弦变换将该图像拆分为低频部分高频部分从数据集中选取图像,构建待融合的低频、高频图像集合;基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合;将干净样本的低频部分与低频图像集合中的所有图像进行融合与拼接;通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分;对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本。本发明提出了对图像分解后的低频、高频两个部分分别采取基于图像增强的梯度回传、基于相似度融合等方法,增强了生成的对抗样本的攻击成功率和迁移率,降低了人眼对扰动噪声的感知效果,同时能提升对抗样本对神经网络模型的攻击效果。
Description
技术领域
本发明属于深度学习图像对抗攻击领域,具体涉及一种基于图像频域分解重构的对抗样本生成方法。
背景技术
在计算机视觉领域,深度神经网络在图像分类、目标识别等任务场景表现出优异的性能。然而,研究表明,在输入图像中添加人类难以察觉的扰动,会使得神经网络模型被误导,做出错误的决策,这些添加了扰动噪声的图像被称为对抗样本。目前,对抗攻击方法可分为两大类:获取目标模型结构、参数等完备信息的白盒攻击以及仅能获取模型输入输出信息的黑盒攻击。黑盒攻击可以在不了解目标模型的情况下产生对抗样本,更适用于现实场景,是目前的研究热点。
相关领域的学者基于深度学习的全过程提出了诸多对抗攻击方法,其中基于梯度的攻击方法最为普遍:利用神经网络的梯度反向传播,逐步改变样本的像素值,通过最大化网络损失,使得神经网络决策错误。此类方法能达到较高的白盒攻击成功率,而且能与动量、输入变换等方法相结合,提升生成对抗样本的迁移性。基于查询的攻击方法利用查询到的神经网络输出概率向量或硬标签估计梯度,通过向神经网络大量输入图像以优化扰动噪声,推动对抗样本向网络模型的决策边界靠近直至越过正确决策空间,生成的对抗样本能达到很高的攻击成功率。
虽然目前的对抗攻击方法层出不穷,但总体来看仍存在以下缺陷:(1)生成的对抗样本过拟合于原网络模型,难以对其他网络模型产生较高的攻击成功率,即迁移率差;(2)产生的扰动噪声在低频区间的幅度偏大,生成的对抗样本易被人眼感知;(3)对抗样本没有对干净样本的纹理细节区域产生针对性的扰动,难以对网络模型产生攻击效果。
发明内容
针对上述技术问题,本发明提供一种基于图像频域分解重构的对抗样本生成方法,该方法基于人类视觉系统和网络模型对不同频率扰动噪声的感知差异,对图像的低频和高频成分分别采取梯度反向传播和相似度融合的方法,增强了对抗样本的迁移性,提升了对抗样本对防御网络的攻击效果,并降低了扰动噪声的大小。
本发明采用的技术方法是:一种基于图像频域分解重构的对抗样本生成方法,其特征在于:包括以下步骤:
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean;
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他所有类别中,分别选取r张图像,组成图像集合{Padv-1,Padv-2,...,Padv-n};
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取n1、n2张图像,并将该n1+n2张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像的损失依据该损失获得f关于输入图像的损失梯度:
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤603、设定对抗样本的扰动幅度上限ξ2,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
本发明与现有技术相比,主要具有如下的优点:
第一,本发明提出了基于图像频域分解重构的对抗样本生成方法,通过利用离散余弦变换将图像分解为低频、高频两个部分,并分别对这两个部分采取基于图像增强的梯度回传、基于相似度融合等方法,增强了生成的对抗样本的攻击成功率,降低了人眼对扰动噪声的感知效果;
第二,本发明将图像融合以及图像拼接等图像增强方法与基于动量的梯度回传方法相结合,提升了低频区间扰动的迁移性,对图像高频部分对应的边缘纹理区域的扰动,使得生成的对抗样本能够对黑盒网络模型产生明显的攻击效果。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
图1为本发明的方法流程图。
具体实施方式
下面结合附图及本发明的实施例对本发明的方法作进一步详细的说明。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本发明。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
需要说明的是,本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施方式例如能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
为了便于描述,在这里可以使用空间相对术语,如“在……之上”、“在……上方”、“在……上表面”、“上面的”等,用来描述如在图中所示的一个器件或特征与其他器件或特征的空间位置关系。应当理解的是,空间相对术语旨在包含除了器件在图中所描述的方位之外的在使用或操作中的不同方位。例如,如果附图中的器件被倒置,则描述为“在其他器件或构造上方”或“在其他器件或构造之上”的器件之后将被定位为“在其他器件或构造下方”或“在其他器件或构造之下”。因而,示例性术语“在……上方”可以包括“在……上方”和“在……下方”两种方位。该器件也可以其他不同方式定位(旋转90度或处于其他方位),并且对这里所使用的空间相对描述作出相应解释。
如图1所示,以公开的ILSVRC2012图像数据集为例,说明本发明的合理性与有效性,包含具体步骤如下:
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean;
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他999个类别中,分别选取1张图像,组成图像集合{Padv-1,Padv-2,...,Padv-999};
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取2张、1张图像,并将该3张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像的损失依据该损失获得f关于输入图像的损失梯度:
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤603、设定对抗样本的扰动幅度上限ξ2=30,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
以上所述,仅是本发明的实施例,并非对本发明作任何限制,凡是根据本发明技术实质对以上实施例所作的任何简单修改、变更以及等效结构变化,均仍属于本发明技术方案的保护范围内。
Claims (1)
1.一种基于图像频域分解重构的对抗样本生成方法,其特征在于:包括以下步骤:
步骤101、对干净图像样本Pclean进行离散余弦变换,获取图像的幅度频谱Fclean;
步骤二、从数据集中选取图像,构建待融合的低频、高频图像集合:
步骤201、从干净图像Pclean所在类别以外的其他所有类别中,分别选取r张图像,组成图像集合{Padv-1,Padv-2,...,Padv-n};
步骤三、基于图像间的相似度,将干净样本的高频部分与高频图像集合中的所有图像进行融合:
步骤四、将干净样本的低频部分与低频图像集合中的所有图像分别进行融合与拼接:
步骤五、通过神经网络的梯度反向传播,利用低频融合图像集合与拼接图像集合对干净样本的低频部分施加扰动,生成对抗样本的低频部分:
步骤501、从低频融合图像集合、拼接图像集合中分别选取n1、n2张图像,并将该n1+n2张图像分别输入到预测模式的神经网络f,设置f的损失函数为交叉熵损失,得到f关于输入图像的损失依据该损失获得f关于输入图像的损失梯度:
其中λi为神经网络对每张输入图像的损失梯度分配的权重,满足:
步骤六、对获得的对抗样本的低频部分进行低通滤波,并和高频图像集合进行图像重构,构造对抗样本:
步骤603、设定对抗样本的扰动幅度上限ξ2,对重构图像的像素值进行扰动幅度限制,构造对抗样本:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210714150.3A CN115100421B (zh) | 2022-06-22 | 2022-06-22 | 一种基于图像频域分解重构的对抗样本生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210714150.3A CN115100421B (zh) | 2022-06-22 | 2022-06-22 | 一种基于图像频域分解重构的对抗样本生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115100421A true CN115100421A (zh) | 2022-09-23 |
CN115100421B CN115100421B (zh) | 2024-03-12 |
Family
ID=83292288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210714150.3A Active CN115100421B (zh) | 2022-06-22 | 2022-06-22 | 一种基于图像频域分解重构的对抗样本生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115100421B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115439377A (zh) * | 2022-11-08 | 2022-12-06 | 电子科技大学 | 一种增强对抗图像样本迁移性攻击的方法 |
CN116543268A (zh) * | 2023-07-04 | 2023-08-04 | 西南石油大学 | 基于通道增强联合变换的对抗样本生成方法及终端 |
CN117009970A (zh) * | 2023-10-07 | 2023-11-07 | 华中科技大学 | 盲特征场景下恶意软件对抗样本生成方法与电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106327413A (zh) * | 2016-08-10 | 2017-01-11 | 深圳大学 | 一种基于频域分析的图像隐写方法及系统 |
US20210089866A1 (en) * | 2019-09-24 | 2021-03-25 | Robert Bosch Gmbh | Efficient black box adversarial attacks exploiting input data structure |
CN114399630A (zh) * | 2021-12-31 | 2022-04-26 | 燕山大学 | 基于信念攻击和显著区域扰动限制的对抗样本生成方法 |
CN114463183A (zh) * | 2022-02-14 | 2022-05-10 | 中南大学 | 基于频域和空域的图像超分辨率方法 |
CN114648675A (zh) * | 2022-03-16 | 2022-06-21 | 中国工商银行股份有限公司 | 对抗训练方法、图像处理方法、装置、设备和介质 |
-
2022
- 2022-06-22 CN CN202210714150.3A patent/CN115100421B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106327413A (zh) * | 2016-08-10 | 2017-01-11 | 深圳大学 | 一种基于频域分析的图像隐写方法及系统 |
US20210089866A1 (en) * | 2019-09-24 | 2021-03-25 | Robert Bosch Gmbh | Efficient black box adversarial attacks exploiting input data structure |
CN114399630A (zh) * | 2021-12-31 | 2022-04-26 | 燕山大学 | 基于信念攻击和显著区域扰动限制的对抗样本生成方法 |
CN114463183A (zh) * | 2022-02-14 | 2022-05-10 | 中南大学 | 基于频域和空域的图像超分辨率方法 |
CN114648675A (zh) * | 2022-03-16 | 2022-06-21 | 中国工商银行股份有限公司 | 对抗训练方法、图像处理方法、装置、设备和介质 |
Non-Patent Citations (2)
Title |
---|
刘恒;吴德鑫;徐剑;: "基于生成式对抗网络的通用性对抗扰动生成方法", 信息网络安全, no. 05, 10 May 2020 (2020-05-10) * |
吴少宝;沈东升;王佳莹;: "一种抗几何攻击的数字水印算法", 信息技术, no. 07, 24 July 2018 (2018-07-24) * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115439377A (zh) * | 2022-11-08 | 2022-12-06 | 电子科技大学 | 一种增强对抗图像样本迁移性攻击的方法 |
CN116543268A (zh) * | 2023-07-04 | 2023-08-04 | 西南石油大学 | 基于通道增强联合变换的对抗样本生成方法及终端 |
CN116543268B (zh) * | 2023-07-04 | 2023-09-15 | 西南石油大学 | 基于通道增强联合变换的对抗样本生成方法及终端 |
CN117009970A (zh) * | 2023-10-07 | 2023-11-07 | 华中科技大学 | 盲特征场景下恶意软件对抗样本生成方法与电子设备 |
CN117009970B (zh) * | 2023-10-07 | 2023-12-29 | 华中科技大学 | 盲特征场景下恶意软件对抗样本生成方法与电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN115100421B (zh) | 2024-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fu et al. | Jpeg artifacts reduction via deep convolutional sparse coding | |
CN115100421B (zh) | 一种基于图像频域分解重构的对抗样本生成方法 | |
Ram et al. | Image processing using smooth ordering of its patches | |
Subbiah Parvathy et al. | A novel approach in multimodality medical image fusion using optimal shearlet and deep learning | |
CN105551010A (zh) | 基于nsct及深度信息激励pcnn的多聚焦图像融合方法 | |
CN106934775A (zh) | 一种基于低秩恢复的非局部图像去噪方法 | |
Soliman et al. | An adaptive watermarking approach for medical imaging using swarm intelligent | |
CN109523513B (zh) | 基于稀疏重建彩色融合图像的立体图像质量评价方法 | |
Jin et al. | Remote sensing image fusion method in CIELab color space using nonsubsampled shearlet transform and pulse coupled neural networks | |
Hsu et al. | A high-capacity QRD-based blind color image watermarking algorithm incorporated with AI technologies | |
Hosono et al. | Weighted tensor nuclear norm minimization for color image denoising | |
Karimi et al. | Blind stereo quality assessment based on learned features from binocular combined images | |
Yap et al. | A recursive soft-decision approach to blind image deconvolution | |
Zhao et al. | Removing adversarial noise via low-rank completion of high-sensitivity points | |
CN113763268B (zh) | 人脸图像盲修复方法及系统 | |
CN114862710A (zh) | 红外和可见光图像融合方法及装置 | |
CN109003247A (zh) | 彩色图像混合噪声的去除方法 | |
Peng et al. | Lightweight Adaptive Feature De-drifting for Compressed Image Classification | |
Tang et al. | Adaptive graph filtering with intra-patch pixel smoothing for image denoising | |
CN115731389A (zh) | 一种图像去噪方法及装置 | |
CN115131226A (zh) | 一种基于小波张量低秩正则化的图像复原方法 | |
De-Maeztu et al. | Efficient aggregation via iterative block-based adapting support-weights | |
Hajinoroozi et al. | Image enhancement with weighted histogram equalization and heap transforms | |
Thilagavathi et al. | An efficient dictionary learning algorithm for 3d Medical Image Denoising based on Sadct | |
Han | Artificial Neural Network for Processing Fingerprint Image Noise |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |