CN112668643B - 一种基于格式塔法则的半监督显著性检测方法 - Google Patents
一种基于格式塔法则的半监督显著性检测方法 Download PDFInfo
- Publication number
- CN112668643B CN112668643B CN202011579447.0A CN202011579447A CN112668643B CN 112668643 B CN112668643 B CN 112668643B CN 202011579447 A CN202011579447 A CN 202011579447A CN 112668643 B CN112668643 B CN 112668643B
- Authority
- CN
- China
- Prior art keywords
- training
- loss function
- neural network
- rule
- significance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 18
- 230000006870 function Effects 0.000 claims abstract description 82
- 238000012549 training Methods 0.000 claims abstract description 60
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 34
- 238000013507 mapping Methods 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 3
- 238000012360 testing method Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 239000000463 material Substances 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims 1
- 230000000007 visual effect Effects 0.000 abstract description 11
- 241000282414 Homo sapiens Species 0.000 abstract description 7
- 230000008447 perception Effects 0.000 abstract description 6
- 238000005457 optimization Methods 0.000 abstract description 2
- 238000013459 approach Methods 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明提供一种基于格式塔法则的半监督显著性检测方法,将训练图像输入卷积神经网络进行特征提取得到初步显著性映射,利用格式塔法则进行损失函数的定义并计算损失值,基于该损失值和初步显著性映射实现卷积神经网络的训练;利用训练完成的卷积神经网络和全连接CRF方法实现基于格式塔法则的半监督显著性检测。本发明将格式塔法则融入到损失函数和优化显著性映射的定义之中,充分考虑了人类视觉系统的知觉感知,能够有效利用先验信息;图像级标签比像素级标签更有效地收集,因此注释成本大大降低。
Description
技术领域
本发明属于图像理解与分析领域,尤其是一种基于格式塔法则的半监督显著性检测方法。
背景技术
视觉显著性即人类对于场景中显著区域或物体的度量,它体现了一个区域或者物体的显著程度,随着人类科技的不断发展和普及,视觉显著性在很多领域都有着广泛的应用,特别是在计算机视觉领域以及人工智能领域发挥了重要作用。
视觉显著性检测的发展潜力非常大,这使得很多研究人员不断地探索新的方法,尽管他们已经有相当多的成就,但是由于对象的复杂性和不稳定性,视觉显著性检测仍然存在诸多问题需要解决。正是这样,开展视觉显著性检测的研究工作才显得有价值。
目标显著性检测方法大致可分为自下而上和自上而下两类,自底向上的方法仅仅依赖于从图像中计算出的信息进行检测,通过从背景中找出物体的不同特征来寻找目标区域,尽管自底向上的方法具有普遍性,但如果对象和背景之间的差异很小,这种方法通常会失败。相比之下,自上而下的方法是类别感知的,利用目标对象类别的先验知识进行显著性检测,因此不受上述差异的限制。然而,自上而下的方法需要像素级注释形式的训练数据,这些数据通常由具有密集用户交互的工具手动绘制,因此训练数据采集的大量注释成本阻碍了自顶向下显著性检测的发展。
现如今,格式塔法则的原理已经反映在许多现有的方法中。这不仅包括人类视觉系统中重要的颜色和空间特征,还包括它们在其他关键线索上的应用,因为它们在视觉心理学中的地位非常重要,所以基于格式塔法则的视觉显著性检测时符合人类的感知。
现有的全监督的视觉显著性检测方法在检测显著对象上取得了优异的成绩,但是它们都需要昂贵的像素级注释来进行卷积神经网络的训练。现有的方法大多采取非常简单的损失函数和优化方法来更新网络或优化显著性映射,并未充分考虑人类视觉系统的知觉感知,影响了先验信息的利用效率,限制了算法的整体性能。
发明内容
本发明要解决的技术问题是:提供一种基于格式塔法则的半监督显著性检测方法,能够降低注释成本。
本发明为解决上述技术问题所采取的技术方案为:一种基于格式塔法则的半监督显著性检测方法,其特征在于:本方法包括以下步骤:
S1、将训练图像输入卷积神经网络进行特征提取得到初步显著性映射,利用格式塔法则进行损失函数的定义并计算损失值,基于该损失值和初步显著性映射实现卷积神经网络的训练;
S2、利用训练完成的卷积神经网络和全连接CRF方法实现基于格式塔法则的半监督显著性检测。
按上述方法,所述的S1具体包括:
1a、将训练图像输入卷积神经网络得到初步显著性映射,并融合格式塔法则定义四类损失函数;
1b、构建多任务共同损失函数计算得到损失值,使用反向传播方法融合所述的初步显著性映射和计算得到的损失值指导卷积神经网络训练,直到完成训练轮数。
按上述方法,所述的S2具体包括:将测试图像输入训练完成的卷积神经网络得到初步显著性图,使用全连接CRF方法对初步显著性图进行精炼优化,得到最终显著性图。
按上述方法,所述的格式塔法则包括连续性法则、相似性法则和图形与背景法则。
按上述方法,所述的S1中,参考背景图像来计算背景先验;利用基于图的正则化方法来增强显著性映射的空间一致性,生成连续的、平滑的、对象感知的显著性映射;在训练阶段,使用基于熵的正则化方法,用于平衡预测出的显著性区域与真实的显著性区域的相似性。
按上述方法,所述的将训练图像输入卷积神经网络得到初步显著性映射,具体为:
给出一组训练集其中N为训练图像数目,In是第n个训练图像,yn∈{0,1},n=1,…,N表示In的标签,yn=0表示目标对象存在,所述的卷积神经网络包含一个卷积层、5个卷积块、一个平均池化层和一个全连接层,训练图像在经过第一层卷积和之后每个卷积块之后都执行一次BN操作来调整特征图的分布规律使训练速度更快速,同时在每个卷积层后面使用Relu激活函数连接前一个卷积层,用f(·)表示显著性映射的生成器,则f(In)代表输入图像In的显著性映射函数,用Sn表示输入图像In的初步显著性映射,当显著目标存在的时候Sn所代表的区域将被高亮显示;
首先将训练图像进行缩放,然后经由卷积神经网络得到初步显著性映射Sn,并在全连接层后使用一个softmax层来进行二分类,因此显著性映射Sn中的每个像素的预测值为0或者1。
按上述方法,融合根据格式塔法则中连续性法则、相似性法则和图形与背景法则定义的四类损失函数的具体方法为:
设所述的生成器f(·)由w参数化,根据格式塔法则中连续性法则、相似性法则和图形与背景法则定义四类损失函数,即Lcon、Lsim、Lbg和Lcls,分别表示连续性损失函数、相似性损失函数、图形与背景损失函数和分类损失函数;
连续性损失函数Lcon如下:
其中μ是相邻像素的边缘集,Sn(i)显著性图Sn在像素i出的显著值,vec(·)是矢量化算子,wi,j表示相邻两个像素的边缘权重,wi,j定义如下:
其中GbPi是像素i处的广义的边界概率,σ为所有边缘权重的平均值,L代表亲和矩阵的拉普拉斯图;
相似性损失函数Lsim如下:
图形与背景损失函数Lbg如下:
分类损失函数Lcls如下:
按上述方法,其特征在于:所述的1b具体为:
1)进一步构建多任务共同损失函数;多任务共同损失函数描述如下:
式中λ为控制每项的权值为常数,由所述损失函数L(w)和训练图像计算出所述训练图像经过生成器f(·)所预测的显著图的多任务共同网络损失值,再将所述的网络损失值经过反向传播指导生成器f(·)更新所述生成器的网络参数;
2)融合多任务共同损失值和初步显著性图计算得到的显著图通过反向传播指导卷积神经网络进行训练,直到完成训练轮数。
按上述方法,所述的S2中,全连接CRF将图像中的每个像素看着一个节点,每个节点都相互连接,定义其能量函数:
式中,当xi≠xj时,μ(xi,xj)=1否则为0,式中的两个高斯核函数分别从像素i和j提取不同的特征,第一个高斯核函数依赖于像素位置p和RGB颜色I,而第二个高斯核函数只依赖于像素位置p,参数σα、σβ和σγ为权值参数。
本发明的有益效果为:将格式塔法则融入到损失函数和优化显著性映射的定义之中,充分考虑了人类视觉系统的知觉感知,能够有效利用先验信息;卷积神经网络的训练过程中只需要提供具有图像级标签的训练数据,每个标签指示图像中是否存在目标对象。图像级标签比像素级标签更有效地收集,因此注释成本大大降低。
附图说明
图1为本发明一实施例的方法流程图。
图2为本发明一实施例的方法原理图。
图3为本发明中卷积神经网络模块细节图。
图4为本发明中测试图像原图。
图5是本发明中测试图像初步显著性映射图。
图6是本发明中测试图像最终显著性结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于格式塔法则的半监督显著性检测方法,如图1和图2所示,具体包括:
步骤1:将训练图像输入卷积神经网络中,经由卷积神经网络提取训练图像的初步显著性映射,将提取的初步显著性映射作为基本处理单元,融合格式塔法则中连续性法则、相似性法则和图形与背景法则定义四类损失函数。
(1)将训练图像输入卷积神经网络进行显著性预测,得到初步显著性映射的方法为:
给出一组训练集其中N为训练图像数目,In是第n个训练图像,yn∈{0,1},n=1,…,表示In的标签,yn=0表示目标对象存在,所述的卷积神经网络主要包含一个卷积层、5个卷积块、一个平均池化层和一个全连接层。
因此调整后的特征图yi定义如下:
其中,γ和β通过反向传播学习得到,初始值分别为0和1。
同时在每个卷积层后面使用Relu激活函数连接前一个卷积层,用f(·)表示显著性映射的生成器,则f(In)代表输入图像In的显著性映射函数,用Sn表示输入图像In的显著性映射,当显著目标存在的时候Sn所代表的区域将被高亮显示;
如图3所示,首先将训练图像尺寸缩放到224×224,然后经由conv1、conv2_x、conv3_x、conv4_x、conv5_x进行降维输出,再经过全局平均池化层进行自适应平均池化下采样后输出特征图saln,输出的特征图进行暂平处理后通过全连接层输出得到初步显著性映射Sn,并在全连接接层后使用一个softmax层来进行二分类,因此显著性映射Sn中的每个像素的预测值为0或者1。
(2)融合格式塔法则中连续性法则、相似性法则和图形与背景法则定义的四类损失函数;
假设上述生成器f(·)由w参数化,所述损失函数L(w)由四类损失函数组成,即Lcon、Lsim、Lbg和Lcls,分别表示连续损失函数、相似性损失函数、图形与背景损失函数和分类损失函数。
所述四类损失函数中的连续性损失函数Lcon的目的是通过最小化来增强显著性图中空间一致性和显著区域边界的连续性,定义如下:
其中μ是相邻像素的边缘集,Sn(i)显著性图Sn在像素i出的显著值,vec(·)是矢量化算子,wi,j表示相邻两个像素的边缘权重,定义如下:
其中GbPi是像素i处的广义的边界概率,σ为所有边缘权重的平均值,L代表亲和矩阵的拉普拉斯图。这种基于图的正则化方法保持了连续性,使生成的显著性映射更加平滑。
所述四类损失函数中的相似性损失函数Lsim的目的是平衡预测出的显著性区域与真实的显著性区域的相似性,在训练集G中,因为背景像素的数目远大于显著目标的像素生成器f(·)容易生成背景的显著性映射,使用相似性损失函数可以有效避免这一情况,定义如下:
所述四类损失函数中的图形与背景损失函数Lbg的目的是防止生成器f(·)检测到背景图像中的显著区域,定义为:
所述四类损失函数中的分类损失函数Lcls的目的是通过分类得分来指导生成器f(·)的训练,定义如下:
其中,Sn=f(In)是生成器预测的显著性图,是单元乘法运算符,表示图像预测的显著性区域,分类损失函数Lcls可以帮助指导生成器f(·)预测图像In的显著区域来获得高分类得分当背景图中即1n不包含显著对象时得分最高,也就是最小。
步骤2:基于四类损失函数构建多任务共同损失函数计算得到损失值,通过反向传播融合初步显著性映射,利用训练图像标签和计算得到的损失值指导卷积神经网络的训练,直到完成训练轮数。
(1)在经过步骤1的基础上,再进一步构建多任务共同损失函数;多任务共同损失函数描述如下:
中λ为控制每项的权值为常数,由所述损失函数L(w)和训练图像计算出所述训练图像经过生成器f(·)所预测的显著图的多任务共同网络损失值,再将所述的网络损失值经过反向传播指导生成器f(·)更新所述生成器的网络参数。
(2)融合多任务共同损失值和初步显著性图计算得到的显著图通过反向传播指导卷积神经网络进行训练,直到完成训练轮数。
由所述损失函数L(w)和训练图像计算出所述训练图像经过生成器f(·)所预测的显著图的网络损失值,再将所述的网络损失值经过反向传播指导生成器f(·)更新所述生成器的网络参数,进而降低损失值,输出有效的显著图。
步骤3:将测试图像输入训练完成的卷积神经网络得到初步显著性结果图,融合格式塔法则中的闭合性法则使用全连接CRF方法精炼得到的初步显著性结果,得到最终的显著性结果图。
将待检测图像输入网络,在经过生成器得到显著性映射,基于格式塔法则的闭合性法则指导下,采用全连接CRF模型来提高显著区域的闭合程度,优化粗糙的区域和边界,其能量函数定义如下:
式中,当xi≠xj时,μ(xi,xj)=1否则为0,式中的两个高斯核函数分别从像素i和j提取不同的特征,第一个高斯核函数依赖于像素位置p和RGB颜色I,而第二个高斯核函数只依赖于像素位置p,参数σα、σβ和σγ为权值参数。
本发明提出的方法,只需要提供图像级的训练数据,每个标签表示图像中是否存在显著目标对象,由于图像级标签比像素级标签更易于收集,因此训练成本大大降低。格式塔法是描述知觉感知机制的主要理论,本发明在进行卷积神经网络的显著性图生成和优化时,充分考虑了背景和目标之间的感知组合线索,根据格式塔法则中的连续性法则、相似性法则和图形与背景法则定义损失函数来更新卷积神经网络,并根据格式塔法则中的闭合性法则来优化生成的显著性图,得到最终的显著性结果。
图4为本发明中测试图像原图,图5是本发明中测试图像初步显著性映射图,图6是本发明中测试图像最终显著性结果图,从图中可以看出,本方法适用于复杂场景下的显著性检测,在鲁棒性和准确性上都优于传统方法,同时融合了半监督学习的优势,能够有效解决训练样本标注成本高的问题。
Claims (3)
1.一种基于格式塔法则的半监督显著性检测方法,其特征在于:本方法包括以下步骤:
S1、将训练图像输入卷积神经网络进行特征提取得到初步显著性映射,利用格式塔法则进行损失函数的定义并计算损失值,基于该损失值和初步显著性映射实现卷积神经网络的训练;
S2、利用训练完成的卷积神经网络和全连接CRF方法实现基于格式塔法则的半监督显著性检测;所述的S2具体包括:将测试图像输入训练完成的卷积神经网络得到初步显著性图,使用全连接CRF方法对初步显著性图进行精炼优化,得到最终显著性图;
所述的S1具体包括:
1a、将训练图像输入卷积神经网络得到初步显著性映射,并融合格式塔法则定义四类损失函数;
1b、构建多任务共同损失函数计算得到损失值,使用反向传播方法融合所述的初步显著性映射和计算得到的损失值指导卷积神经网络训练,直到完成训练轮数;
所述的格式塔法则包括连续性法则、相似性法则和图形与背景法则;
所述的将训练图像输入卷积神经网络得到初步显著性映射,具体为:
给出一组训练集其中N为训练图像数目,In是第n个训练图像,yn∈{0,1},n=1,…,N,yn表示In的标签,yn=0表示目标对象存在,所述的卷积神经网络包含一个卷积层、5个卷积块、一个平均池化层和一个全连接层,训练图像在经过第一层卷积和之后每个卷积块之后都执行一次BN操作来调整特征图的分布规律使训练速度更快速,同时在每个卷积层后面使用Relu激活函数连接前一个卷积层,用f(·)表示显著性映射的生成器,则f(In)代表输入图像In的显著性映射函数,用Sn表示输入图像In的初步显著性映射,当显著目标存在的时候Sn所代表的区域将被高亮显示;
首先将训练图像进行缩放,然后经由卷积神经网络得到Sn,并在全连接层后使用一个softmax层来进行二分类,因此Sn中的每个像素的预测值为0或者1;
利用格式塔法则进行损失函数的定义具体包括:
根据格式塔法则中连续性法则、相似性法则和图形与背景法则定义四类损失函数,即Lcon、Lsim、Lbg和Lcls,Lcon、Lsim、Lbg和Lcls分别表示连续性损失函数、相似性损失函数、图形与背景损失函数和分类损失函数;
连续性损失函数Lcon如下:
其中μ是相邻像素的边缘集,Sn(i)是Sn在像素i处的显著值,vec(·)是矢量化算子,wi,j表示相邻两个像素的边缘权重,wi,j定义如下:
其中GbPi是像素i处的广义的边界概率,σ为所有边缘权重的平均值,L代表亲和矩阵的拉普拉斯图;
相似性损失函数Lsim如下:
图形与背景损失函数Lbg如下:
分类损失函数Lcls如下:
所述的1b具体为:
1)进一步构建多任务共同损失函数;多任务共同损失函数描述如下:
式中λ为控制每项的权值,其值为常数,由所述损失函数L(w)和训练图像计算出所述训练图像经过生成器f(·)所预测的初步显著性映射的多任务共同网络损失值,再将所述的网络损失值经过反向传播指导生成器f(·)更新所述生成器的网络参数;
2)融合多任务共同损失值和初步显著性映射计算得到的显著图通过反向传播指导卷积神经网络进行训练,直到完成训练轮数。
2.根据权利要求1所述的方法,其特征在于:所述的S1中,参考背景图像来计算背景先验;利用基于图的正则化方法来增强显著性映射的空间一致性,生成连续的、平滑的、对象感知的显著性映射;在训练阶段,使用基于熵的正则化方法,用于平衡预测出的显著性区域与真实的显著性区域的相似性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011579447.0A CN112668643B (zh) | 2020-12-28 | 2020-12-28 | 一种基于格式塔法则的半监督显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011579447.0A CN112668643B (zh) | 2020-12-28 | 2020-12-28 | 一种基于格式塔法则的半监督显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112668643A CN112668643A (zh) | 2021-04-16 |
CN112668643B true CN112668643B (zh) | 2022-10-21 |
Family
ID=75410730
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011579447.0A Active CN112668643B (zh) | 2020-12-28 | 2020-12-28 | 一种基于格式塔法则的半监督显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112668643B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113781402B (zh) * | 2021-08-19 | 2024-03-26 | 中国电子产品可靠性与环境试验研究所((工业和信息化部电子第五研究所)(中国赛宝实验室)) | 芯片表面划痕缺陷的检测方法、装置和计算机设备 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111144497B (zh) * | 2019-12-28 | 2023-04-28 | 天津大学 | 基于美学分析的多任务深度网络下的图像显著性预测方法 |
CN111461139B (zh) * | 2020-03-27 | 2023-04-07 | 武汉工程大学 | 一种复杂场景下的多目标视觉显著性分层检测方法 |
-
2020
- 2020-12-28 CN CN202011579447.0A patent/CN112668643B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN112668643A (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guo et al. | Scene-driven multitask parallel attention network for building extraction in high-resolution remote sensing images | |
CN111310773B (zh) | 一种高效的卷积神经网络的车牌定位方法 | |
Zhou et al. | BOMSC-Net: Boundary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery | |
Luo et al. | Cross-spatiotemporal land-cover classification from VHR remote sensing images with deep learning based domain adaptation | |
CN111125406A (zh) | 一种基于自适应聚类学习的视觉关系检测方法 | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
Qin et al. | A robust framework combined saliency detection and image recognition for garbage classification | |
CN115631369A (zh) | 一种基于卷积神经网络的细粒度图像分类方法 | |
CN115019039A (zh) | 一种结合自监督和全局信息增强的实例分割方法及系统 | |
Dong et al. | Learning regional purity for instance segmentation on 3d point clouds | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 | |
Zuo et al. | A remote sensing image semantic segmentation method by combining deformable convolution with conditional random fields | |
Xiang et al. | Crowd density estimation method using deep learning for passenger flow detection system in exhibition center | |
CN112668643B (zh) | 一种基于格式塔法则的半监督显著性检测方法 | |
Jiao et al. | Non-local duplicate pooling network for salient object detection | |
Wang et al. | NAS-ASDet: An adaptive design method for surface defect detection network using neural architecture search | |
Zheng et al. | Category-wise fusion and enhancement learning for multimodal remote sensing image semantic segmentation | |
CN117830986A (zh) | 自动驾驶视觉联合感知方法、装置及介质 | |
CN116935249A (zh) | 一种无人机场景下三维特征增强的小目标检测方法 | |
Li et al. | A new algorithm of vehicle license plate location based on convolutional neural network | |
CN116453192A (zh) | 一种基于分块的自注意力遮挡人脸识别方法 | |
CN116386042A (zh) | 一种基于三维池化空间注意力机制的点云语义分割模型 | |
CN115761552A (zh) | 面向无人机机载平台的目标检测方法、系统、设备及介质 | |
Li et al. | Prediction model of urban street public space art design indicators based on deep convolutional neural network | |
Zhou | Lip print recognition algorithm based on convolutional network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |