CN110889459B - 一种基于边缘和Fisher准则的学习方法 - Google Patents
一种基于边缘和Fisher准则的学习方法 Download PDFInfo
- Publication number
- CN110889459B CN110889459B CN201911240022.4A CN201911240022A CN110889459B CN 110889459 B CN110889459 B CN 110889459B CN 201911240022 A CN201911240022 A CN 201911240022A CN 110889459 B CN110889459 B CN 110889459B
- Authority
- CN
- China
- Prior art keywords
- foreground
- loss
- edge
- background
- learning method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于边缘和Fisher准则的学习方法,属于神经网络学习技术领域。本方法对同一物体的不同角度拍摄,采集N张图片;对得到的N张图片通过深度网络进行编码,获取N张图片的特征图;再对特征图进行解码,得到双通道掩码图;两个通道上的每个点分别代表采集的N张图片对应位置上前景和背景的概率;再用真实前景平均概率与真实背景平均概率的距离作为类间距离;用方差作为度量真实前景区域和真实背景区域的类内距离。对前景边缘邻近区域和背景边缘邻近区域加入不同的权重,达到理想的分割边缘效果。所述学习方法使得图像理想分割边缘及学习模型更加稳定,实现了完全自动且高效、高可靠的物体抠取及准确、快速而高精度的分割。
Description
技术领域
本发明涉及一种基于边缘和Fisher准则的学习方法,属于神经网络学习技术领域。
背景技术
近年来,深度学习在解决图片处理问题上引起了广泛的关注,并取得了良好的效果。在这些方法中,学习方法是学习成功的一个重要因素。交叉熵和Diceloss是目前基于深度学习的图片分割方法中两个主要的学习方法。交叉熵的目的是将图片中的每个像素正确地分类为前景对象或背景对象。它从单个像素的角度来度量分割的质量,却忽略了前景和背景的完整性。因此,即使对大部分像素进行了正确的分类,而有少量的像素点错误分类,网络则很难继续优化,分割质量也很难进一步提高。这个问题与类别不平衡问题相关联在一起。如果感兴趣的物体只占图片的一小部分,就会在CE损失的基础上得到不满意的分割结果。
Diceloss考虑了前景和背景的完整性,它计算了groundtruth和prediction的重叠率,以评估分割的质量。它通常带来比CE损失更好的结果。Diceloss也被称为IoU或Jacarrd指数。但是Diceloss有个缺点,即Rezatofighi等人所指出的,如果groundtruth和prediction两个前景对象不重叠,IOU值将为零,这样就不会反映这两个形状之间的距离。在不重叠对象的情况下,如果使用IoU作为损失,其梯度将为0,不能通过反向求导的方式继续优化。
发明内容
本发明的目的在于现有神经网络关于图片处理的学习方法存在忽略了图片边缘以及模型稳定性的问题,提出了一种基于边缘和Fisher准则的学习方法,可应用于图片分割、图片匹配等各种需要图片处理。
本发明是基于以下技术方案实现的。
所述基于边缘和Fisher准则的学习方法依托于U型深度网络;
其中,该深度网络包括编码器和解码器;
编码器得到一组图片的特征图;
解码器将特征图解码为掩码,并输出分割掩码图;
所述基于边缘和Fisher准则的学习方法,包括如下步骤:
步骤1、通过用摄像机对同一物体的不同角度拍摄,采集N张图片;
步骤2、对步骤1得到的N张图片通过深度网络进行编码,获取N张图片对应的特征图;
步骤3、通过深度网络对步骤2得到的特征图进行解码,得到N张每张双通道掩码图;两个通道上的每个点分别代表采集的N张图片对应位置上属于前景和背景的概率;
步骤4、分别计算步骤3得到的每张掩码图中真实前景和真实背景的平均概率;
用1减去真实前景对应的平均概率作为学习方法的损失项losspos,真实背景的平均概率直接作为学习方法的另一个损失项lossneg;
其中,损失项losspos用公式(1)计算,损失项lossneg由公式(2)实现:
其中,Nf为真实前景像素的个数,pi为将第i个前景像素分类到前景的概率;Nb为真实背景像素的个数,pj为第j个背景像素进入前景的概率;
步骤5、将步骤4得到的两个损失项losspos和lossneg通过公式(3)进行求平均得到类间距离损失项losse:
步骤6、分别在前景和背景区域中划分出物体三个像素宽的边缘邻近区域,并对前景边缘邻近区域和背景边缘邻近区域分别施加不同的权重,以获得理想的分割边缘效果,得到加入边缘权重的类间距离损失项losse如公式(4):
其中,wi和wj分别表示前景边缘邻近区域和背景边缘邻近区域对应的权重值;wi和wj的范围均是[1,1.1];
而除了边缘邻近区域的其他区域的权重均设为1;
步骤7、分别计算前景和背景的方差,且在计算方差的过程时也加上了边缘权重,计算方差时加入权重的方法与步骤6相同,即:对前景边缘邻近区域和背景边缘邻近区域分别乘上不同的权重值,得到加入边缘权重的类内距离损失项lossv,具体由公式(5)计算实现:
其中,mf和mb分别为前景和背景像素的平均分类概率;
步骤8、对步骤6和步骤7得到的两个损失项由公式(6)加权求和,得到网络的学习方法,即:
EW-Fisher=λ*losse+(1-λ)*lossv (6)
其中,λ是调节两个损失项的超参数,λ的范围是λ∈[0,1];
步骤9、用步骤8得到的学习方法对网络进行学习,得到N张掩码图;
步骤10、用argmax的方法对步骤9得到的N张掩码图的每个像素点进行分类,得到N张分割掩码图,完成前景扣取过程。
有益效果
本发明所提的一种基于边缘和Fisher准则的学习方法,在图片协同分割上与现有学习方法相比,具有以下有益效果:
1.所述学习方法将图片边缘加入学习方法中,使得分割出来的结果更加贴切人们所预期的边缘效果;
2.所述学习方法加入了Fisher准则思想,其中类内距离度量使用方差的形式。这种度量方式使得模型训练的更快、训练出来的模型更稳定;
3.所述学习方法在图片协同分割上的正确率高于现有的学习方法学习出来的结果;
4.能实现快速、高精度、高可靠、完全自动的图片物体抠取功能,在固定背景下,对于各种不同物体,均能提取出令人满意的物体区域。
附图说明
图1是本发明一种基于边缘和Fisher准则的学习方法的实施例流程图;
图2是本发明一种基于边缘和Fisher准则的学习方法的分割网络结构示意图;
图3是确定边缘邻域像素权重的方法示意图;
图4是引入方差损失前后的效果示意图。
具体实施方式
根据上述发明内容中所述的技术方案,下面通过附图及具体实施例对本发明所述的一种基于边缘和Fisher准则的学习方法进行详细说明。
实施例1
本实施例叙述了使用本发明所述的一种基于边缘和Fisher准则的学习方法在步骤1到步骤5中得到的学习方法进行图片协同分割的具体实施。
本实例采用本发明提出的基于边缘和Fisher准则的学习方法在商品展示中的商品前景抠取场景下实施,图1是本发明一种基于边缘和Fisher准则的学习方法的实施例流程图,其具体实施步骤如下:
步骤a、将商品放在云台上,使其随云台进行360度旋转,在此过程中,从固定位置处对该商品拍摄若干张图片,比如18张、36张等,以下假定拍摄18张图片。
用1减去真实前景对应的平均概率作为学习方法的一项,真实背景的平均概率直接作为学习方法的一项。得到两个损失项losspos和lossneg;
其中,损失项losspos用公式(1)计算,损失项lossneg由公式(2)实现;
其中,Nf为真实前景像素的个数,pi为将第i个前景像素分类到前景的概率;Nb为真实背景像素的个数,pj为第j个背景像素进入前景的概率;
步骤g、将步骤f得到的两个损失项losspos和lossneg通过公式(3)进行求平均得到类间距离损失项losse;
步骤h、分别在前景和背景区域中划分出物体三个像素宽的边缘邻近区域,并对前景边缘邻近区域和背景边缘邻近区域分别施加不同的权重,以获得理想的分割边缘效果,得到加入边缘权重的类间距离损失项losse如公式(4);
其中,wi和wj分别表示前景边缘邻近区域和背景边缘邻近区域对应的权重值;wi和wj的值分别是1.04,1.06;
而除了边缘邻近区域的其他区域的权重均设为1;
步骤i、分别计算前景和背景的方差,且在计算方差的过程时也加上了边缘权重。计算方差时加入权重的方法与步骤h相同,即:对前景边缘邻近区域和背景边缘邻近区域分别乘上不同的权重值,由公式(5)计算得到加入边缘权重的类内距离损失项lossv;
步骤j、对步骤h和步骤i得到的两个损失项由公式(6)加权求和,即:
EW-Fisher=λ*losse+(1-λ)*lossv (6)
其中,λ是调节两个损失项的超参数,λ的值是0.7。
在商品三维成像中,需要拍摄一组旋转物体进行商品展示,此处具体实施对应于发明内容中步骤1以及前述实施步骤中的步骤a。
拍摄完商品展示后,再将同一商品从不同角度拍摄得到的图片进行组合,此处具体实施对应于发明内容中使用步骤1得到的图片进行组合以及前述实施步骤中的步骤b。
得到图片的组合后,对图片进行编码,得到特征图,此处具体实施对应于发明内容中步骤2以及前述实施步骤中的步骤c。
得到特征图后,对每组特征图进行相关性计算,得到相关性特征图,此处具体实施对应于前述实施步骤中的步骤c。
得到相关性特征图后,对每个特征图进行解码,得到掩码图,此处具体实施对应于发明内容中步骤9以及前述实施步骤中的步骤e。
得到掩码图后,用学习方法对网络进行学习,得到最终正确的掩码图,此处学习方法的具体实施对应于发明内容中步骤8以及前述实施步骤中的步骤j。
得到分割的掩码图后,用argmax的方式,对掩码图上的每个像素点进行分类,完成物体抠取过程,此处具体实施对应于发明内容中步骤10以及前述实施步骤中的步骤l。
此时,就完成了步骤1采集及步骤b组合输出的图片进行协同分割,分割过程中,使用类Fisher准则并且加入边缘权重,具体对应发明内容中的步骤4到步骤8以及前述实施步骤中的步骤f到步骤j,也是本发明的核心保护及创新点。
为提高分割精度、提高模型稳定性并且使得分割结构更贴切人们所期望的边缘效果,本发明有效提升了分割性能。
为了达到使用上述的学习方法进行图片协同分割的目的,本发明选用了改进的U型孪生深度网络。
图2是整个网络框架。分割网络整体结构为U形孪生网络,其中,U型孪生网络,属于发明内容中提到的U型网络中的一种,采用该网络实施本发明所述方法时,与发明内容中所述内容的差异在于增加第二部分相关性层。
第一部分编码器及第三部份解码器与前述发明内容所述一致。
编码器使用基于resnet50的siamese双通道网络,网络分为三部分。第一部分是编码器,编码得到一组图片的特征图;第二部分是相关性层,通过相关性计算,得到一组图片的相关性特征图;最后一部分是解码器,其将相关性特征图解码为掩码,最终输出分割掩码图。A和B表示一组特征图。右侧A'和B'表示一组相关性特征图。
图3是确定边缘邻域像素权重的方法,此处具体实施对应于发明内容中步骤6和步骤7以及前述实施步骤中的步骤h和步骤i。图中Foreground edge area和Background edgearea分别表示前景边缘邻近区域和背景边缘邻近区域。Actual edge表示图片中前景的真实边缘。
图4是引入方差损失后的效果,此处具体实施对应于发明内容中步骤7以及前述实施步骤中的步骤i。图中(a)表示加入方差损失项(lossv)前,(b)表示加入方差损失项之后。可见,lossv能够使得模型训练出来的样本点类内距离更小。
通过实施本技术,可快速、高精度、高可靠、全自动地从固定背景下的多幅图片中去除背景,获得仅包含物体的图片。实测数据表明:通过使用本发明的技术方法,对于各种不同类型商品,图片背景去除的精确度平均达99%以上;在当前主流GPU计算服务器上,平均每幅图片的处理时间<=1秒。
需要强调的是,对于本领域技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进,这些也应视为属于本发明的保护范围。
Claims (6)
1.一种基于边缘和Fisher准则的学习方法,其特征在于:依托于U型深度网络;该深度网络包括编码器和解码器;编码器得到一组图片的特征图;解码器将特征图解码为掩码,并输出分割掩码图;
所述基于边缘和Fisher准则的学习方法,包括如下步骤:
步骤1、通过用摄像机对同一物体的不同角度拍摄,采集N张图片;
步骤2、对步骤1得到的N张图片通过深度网络进行编码,获取N张图片对应的特征图;
步骤3、通过深度网络对步骤2得到的特征图进行解码,得到N张双通道掩码图;两个通道上的每个点分别代表采集的N张图片对应位置上属于前景和背景的概率;
步骤4、分别计算步骤3得到的每张掩码图中真实前景和真实背景的平均概率;
用1减去真实前景对应的平均概率作为学习方法的损失项losspos,真实背景的平均概率直接作为学习方法的另一个损失项lossneg;
步骤5、将步骤4得到的两个损失项losspos和lossneg进行求平均得到类间距离损失项losse;
步骤6、分别在前景和背景区域中划分出物体三个像素宽的边缘邻近区域,并对前景边缘邻近区域和背景边缘邻近区域分别施加不同的权重,以获得理想的分割边缘效果,得到加入边缘权重的类间距离损失项losse;
步骤7、分别计算前景和背景的方差,且在计算方差的过程时也加上了边缘权重,计算方差时加入权重的方法与步骤6相同,即:对前景边缘邻近区域和背景边缘邻近区域分别乘上不同的权重值,得到加入边缘权重的类内距离损失项lossv;
步骤8、对步骤6和步骤7得到的两个损失项加权求和,得到网络的学习方法;
步骤9、用步骤8得到的学习方法对网络进行学习,得到N张掩码图;
步骤10、用argmax的方法对步骤9得到的N张掩码图的每个像素点进行分类,得到N张分割掩码图,完成前景扣取过程。
6.根据权利要求1所述的一种基于边缘和Fisher准则的学习方法,其特征在于:步骤8对步骤6和步骤7得到的两个损失项由公式(6)加权求和,得到网络的学习方法,即:
EW-Fisher=λ*losse+(1-λ)*lossv (6)
其中,λ是调节两个损失项的超参数,λ的范围是λ∈[0,1]。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911240022.4A CN110889459B (zh) | 2019-12-06 | 2019-12-06 | 一种基于边缘和Fisher准则的学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911240022.4A CN110889459B (zh) | 2019-12-06 | 2019-12-06 | 一种基于边缘和Fisher准则的学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110889459A CN110889459A (zh) | 2020-03-17 |
CN110889459B true CN110889459B (zh) | 2023-04-28 |
Family
ID=69750780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911240022.4A Active CN110889459B (zh) | 2019-12-06 | 2019-12-06 | 一种基于边缘和Fisher准则的学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110889459B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113012158B (zh) * | 2021-03-09 | 2023-11-24 | 北京深境智能科技有限公司 | 基于深度稠密网络与边缘距离图加权的图像协同分割方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063876A (zh) * | 2014-01-10 | 2014-09-24 | 北京理工大学 | 一种交互式图像分割方法 |
CN107564025A (zh) * | 2017-08-09 | 2018-01-09 | 浙江大学 | 一种基于深度神经网络的电力设备红外图像语义分割方法 |
EP3273387A1 (en) * | 2016-07-19 | 2018-01-24 | Siemens Healthcare GmbH | Medical image segmentation with a multi-task neural network system |
CN108010034A (zh) * | 2016-11-02 | 2018-05-08 | 广州图普网络科技有限公司 | 商品图像分割方法及装置 |
CN108475417A (zh) * | 2016-01-04 | 2018-08-31 | 科磊股份有限公司 | 针对半导体应用由低分辨率图像产生高分辨率图像 |
CN108564528A (zh) * | 2018-04-17 | 2018-09-21 | 福州大学 | 一种基于显著性检测的肖像照片自动背景虚化方法 |
CN109559329A (zh) * | 2018-11-28 | 2019-04-02 | 陕西师范大学 | 一种基于深度去噪自动编码器的粒子滤波跟踪方法 |
CN110363728A (zh) * | 2019-07-25 | 2019-10-22 | 上海尊溢商务信息咨询有限公司 | 一种基于语义分割的图像trimap生成方法 |
CN110443842A (zh) * | 2019-07-24 | 2019-11-12 | 大连理工大学 | 基于视角融合的深度图预测方法 |
-
2019
- 2019-12-06 CN CN201911240022.4A patent/CN110889459B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104063876A (zh) * | 2014-01-10 | 2014-09-24 | 北京理工大学 | 一种交互式图像分割方法 |
CN108475417A (zh) * | 2016-01-04 | 2018-08-31 | 科磊股份有限公司 | 针对半导体应用由低分辨率图像产生高分辨率图像 |
EP3273387A1 (en) * | 2016-07-19 | 2018-01-24 | Siemens Healthcare GmbH | Medical image segmentation with a multi-task neural network system |
CN108010034A (zh) * | 2016-11-02 | 2018-05-08 | 广州图普网络科技有限公司 | 商品图像分割方法及装置 |
CN107564025A (zh) * | 2017-08-09 | 2018-01-09 | 浙江大学 | 一种基于深度神经网络的电力设备红外图像语义分割方法 |
CN108564528A (zh) * | 2018-04-17 | 2018-09-21 | 福州大学 | 一种基于显著性检测的肖像照片自动背景虚化方法 |
CN109559329A (zh) * | 2018-11-28 | 2019-04-02 | 陕西师范大学 | 一种基于深度去噪自动编码器的粒子滤波跟踪方法 |
CN110443842A (zh) * | 2019-07-24 | 2019-11-12 | 大连理工大学 | 基于视角融合的深度图预测方法 |
CN110363728A (zh) * | 2019-07-25 | 2019-10-22 | 上海尊溢商务信息咨询有限公司 | 一种基于语义分割的图像trimap生成方法 |
Non-Patent Citations (3)
Title |
---|
Object-Location-Aware Hashing for Multi-Label Image Retrieval via Automatic Mask Learning;Chang-Qin Huang 等;《IEEE Transactions on Image Processing》;20180930;第27卷(第9期);第4490-4502页 * |
基于卷积神经网络的图像场景分类方法研究;战春儒;《中国优秀硕士学位论文全文数据库信息科技辑》;20190115(第01期);第I138-3185页 * |
基于图像三元组挖掘的无监督视觉表示学习;何果财 等;《计算机学报》;20181231;第41卷(第12期);第2787-2803页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110889459A (zh) | 2020-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862698B (zh) | 基于k均值聚类的光场前景分割方法及装置 | |
CN110378931A (zh) | 一种基于多摄像头的行人目标移动轨迹获取方法及系统 | |
Rhemann et al. | A perceptually motivated online benchmark for image matting | |
JP4898800B2 (ja) | イメージセグメンテーション | |
US11748894B2 (en) | Video stabilization method and apparatus and non-transitory computer-readable medium | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN104504745B (zh) | 一种基于图像分割和抠图的证件照生成方法 | |
CN102609950B (zh) | 一种二维视频深度图的生成方法 | |
CN104376334B (zh) | 一种多尺度特征融合的行人比对方法 | |
Zhu et al. | Joint depth and alpha matte optimization via fusion of stereo and time-of-flight sensor | |
CN107330861B (zh) | 基于扩散距离高置信度信息的图像显著性物体检测方法 | |
CN108460792B (zh) | 一种基于图像分割的高效聚焦立体匹配方法 | |
WO2018053952A1 (zh) | 一种基于场景样本库的影视图像深度提取方法 | |
CN108320294B (zh) | 一种二代身份证照片的人像背景智能全自动替换方法 | |
CN107944437B (zh) | 一种基于神经网络和积分图像的人脸定位方法 | |
CN104517095A (zh) | 一种基于深度图像的人头分割方法 | |
CN108470356A (zh) | 一种基于双目视觉的目标对象快速测距方法 | |
CN109035196A (zh) | 基于显著性的图像局部模糊检测方法 | |
CN108010075A (zh) | 一种基于多特征联合的局部立体匹配方法 | |
CN110889459B (zh) | 一种基于边缘和Fisher准则的学习方法 | |
CN101710426B (zh) | 一种深度图像跟踪方法 | |
CN109344758B (zh) | 基于改进局部二值模式的人脸识别方法 | |
CN103337082B (zh) | 基于统计形状先验的视频分割方法 | |
CN112884795A (zh) | 一种基于多特征显著性融合的输电线路巡检前景与背景分割方法 | |
CN112906675A (zh) | 一种固定场景中的无监督人体关键点检测方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |