CN114067316B - 一种基于细粒度图像分类的快速识别方法 - Google Patents

一种基于细粒度图像分类的快速识别方法 Download PDF

Info

Publication number
CN114067316B
CN114067316B CN202111390166.5A CN202111390166A CN114067316B CN 114067316 B CN114067316 B CN 114067316B CN 202111390166 A CN202111390166 A CN 202111390166A CN 114067316 B CN114067316 B CN 114067316B
Authority
CN
China
Prior art keywords
contribution
training
feature map
classification
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111390166.5A
Other languages
English (en)
Other versions
CN114067316A (zh
Inventor
李国强
邱新雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202111390166.5A priority Critical patent/CN114067316B/zh
Publication of CN114067316A publication Critical patent/CN114067316A/zh
Application granted granted Critical
Publication of CN114067316B publication Critical patent/CN114067316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于细粒度图像分类的快速识别方法,属于深度学习及图像分类技术领域,包括从网络爬取目标图片,制作数据集,用于网络训练和测试,一张图片中实际只有二分之一的区域甚至是四分之一的区域是用于细粒度图像分类,其余部分都是背景区域和干扰噪音,并且图片中不同区域对分类结果的贡献度是不同的,运用Grad‑CAM注意力机制获取高贡献度区域和低贡献度区域,进行框定和裁剪,分别将高贡献度区域和低贡献度区域进行特征融合,将两个计算结果同时送入贡献度模块,通过不同的贡献度影响值计算分类结果。本发明填补了细粒度图像分类在快速识别领域的应用空白。

Description

一种基于细粒度图像分类的快速识别方法
技术领域
本发明涉及深度学习及图像分类技术领域,尤其是一种基于细粒度图像分类的快速识别方法。
背景技术
近年来,人工智能技术飞速发展,神经网络和计算机视觉研究更是取得了重大突破,各种新型网络及其改进型相继提出,细粒度图像分类的精确度因此不断提高。随着精确度的提高,细粒度图像分类技术被广泛投入实际应用,极大的方便了人们的生活和工作。细粒度图像分类应用领域十分广泛,在动物保护方面,细粒度图像分类可以在相机拍摄到动物照片之后,自动识别出属于哪个种类,不需要人为辨认,节省了人力资源和降低了人眼识别的错误率;在产品质量检测方面,可以自动识别出产品的裂纹等瑕疵,提高了生产效率。
但是细粒度图像分类技术在医疗器械领域的应用十分匮乏,主要原因有以下几点:一、细粒度图像分类技术正处于快速发展阶段,研究成果少且精确度低,技术状态不稳定;二、医疗是关乎生命的大事,因此对精确度的要求相当高,在此之前细粒度图像分类的精度达不到标准。
发明内容
本发明需要解决的技术问题是提供一种基于细粒度图像分类的快速识别方法,将细粒度图像分类技术应用在快速识别领域,可以填补蛇类咬伤快速识别领域的空白,为医生精准判断病情提供有力的支持,能够缩短伤者的救治时间,提高伤者的生存率。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于细粒度图像分类的快速识别方法,包括以下步骤:
步骤1,从网络爬取目标图片,制作数据集,并按比例划分为训练集、验证集和测试集;
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络;
步骤3,打乱训练集,并每次从中随机抽取相同数量的图片,然后输入改进后的双线性神经网络;
步骤4,开始训练参数,框定高贡献区域并裁剪,进行特征融合,通过贡献度模块计算分类结果;
步骤5,在验证集上验证分类精度,保存训练参数;
步骤6,训练结束,选择在训练中分类精度最高的模型载入改进后的双线性神经网络,使用测试集测试分类精度。
本发明技术方案的进一步改进在于:在步骤2中,特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重其公式如下:
式中,gc是该特征图关于标签类别c的反向传播梯度值,是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,/>是偏导数;
得到贡献度权重之后,与特征图进行加权相乘,使其线性表示,然后通过ReLU层,得到关于标签类别c贡献度图Lc,其公式如下:
式中,Mm是具有所有像素点的特征图激活值;
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
本发明技术方案的进一步改进在于:在步骤3中,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
本发明技术方案的进一步改进在于:在步骤4中,开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果;
特征融合公式为:
F=f(LA)Tf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图;
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果。
本发明技术方案的进一步改进在于:在步骤5中,每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
本发明技术方案的进一步改进在于:在步骤6中,已训练完的模型中包含了目标图片的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于目标图片的概率,选择最大概率的目标,输出目标的种类。
由于采用了上述技术方案,本发明取得的技术进步是:
1、本发明从实际用途角度分析,蛇类咬伤,尤其是毒蛇有毒性发作快,毒性强,毒素多样性等特点,使用本快速识别方法可以填补蛇类咬伤快速识别领域的空白,为医生精准判断病情提供有力的支持,能够缩短伤者的救治时间,提高伤者的生存率。
2、本发明从技术角度分析,使用Grad-CAM注意力模块可以识别高贡献度的区域,减少了低贡献度区域对分类结果的干扰,提高分类精确度。但是低贡献度区域对于提高分类精度还是有一定帮助,不能将这部分舍弃,因此引入贡献度模块,可有效降低低贡献度区域对分类精度的影响。
附图说明
图1是本发明对双线性卷积神经网络改进的总体方案图;
图2是本发明双线性卷积神经网络原结构图;
图3是本发明所用的Grad-CAM模块图;
图4是本发明所用的贡献度模块图。
具体实施方式
下面结合附图及实施例对本发明做进一步详细说明:
本发明对比几个常用分类网络之后,选择使用双线性卷积神经网络算法用于细粒度图像分类,该算法分类精度高,在该算法基础上改进可以得到更好的分类效果。对该网络的改进思路有:第一,在原双线性卷积神经网络结构中,是直接提取整张图片的特征用于特征融合,可是一张图片中实际只有二分之一的区域甚至是四分之一的区域是用于细粒度图像分类,其余部分都是背景区域和干扰噪音,并且图片中不同区域对分类结果的贡献度是不同的。因此,在原网络(如图2所示)的基础上,加入Grad-CAM注意力机制,用于确定分类目标图像所在的实际区域。第二,因为图像的每一部分对细粒度分类结果的影响不同,如果低贡献区域的特征和高贡献区域的特征以相同贡献度计算在分类结果中,会导致分类精度不佳,所以不同区域采用不同贡献度进行计算。
如图1、3、4所示,一种基于细粒度图像分类的快速识别方法,主要涉及蛇类图像、数据增强、双线性特征融合、注意力机制等,在双线性神经网络中引入Grad-CAM注意力模块和贡献度机制的细粒度图像分类快速识别方法,能够应用在蛇类(尤其是毒蛇)咬伤后进行快速辅助识别领域中,主要目的是缩短医生识别判断蛇类种类的时间,以进行有效的处理,提高被咬伤者的生存率;具体包括以下步骤:
步骤1,从网络爬取目标图片,所述目标图片以清晰蛇类图片为例,其种类有:尖吻蝮、眼镜蛇、短尾蝮、竹叶青、银环蛇、金环蛇、青环海蛇、圆斑蝰等图片总计10000张,并标注相关信息。将爬取的目标图片的像素转换成448×448,并按8:1:1的比例随机划分为训练集、验证集和测试集。
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络。特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重其公式如下:
式中,gc是该特征图关于标签类别c的反向传播梯度值,是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,/>是偏导数;
得到贡献度权重之后,与特征图进行加权相乘,使其可以线性表示,然后通过ReLU层,可得到关于标签类别c贡献度图Lc,其公式如下:
式中,Mm是具有所有像素点的特征图激活值。
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
相对于高贡献度区域对提高分类精度有巨大的帮助,低贡献度区域对分类精度提高作用有限,但是其对分类精度也是有作用的,不可完全舍弃,因此引入贡献度模块,提高高贡献度区域在分类结果的影响值δ,降低低贡献度区域对分类结果的影响值μ,影响值为超参数。
步骤3,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将目标图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
步骤4,开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果。
特征融合公式为:
F=f(LA)Tf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图。
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果。
步骤5:每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
步骤6:训练结束,选择在训练中分类精度最高的模型载入网络,使用测试集测试分类精度。已训练完的模型中包含了八种蛇类的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于八种蛇类的概率,选择最大概率的蛇类,输出蛇的种类。
综上所述,本发明在双线性神经网络中引入Grad-CAM注意力模块和贡献度机制的基于细粒度图像分类的快速识别方法,能够在被蛇类咬伤后,依据网络图片快速识别出蛇的种类,能够有效的缩短医生的诊疗时间,提高患者的生存率。

Claims (5)

1.一种基于细粒度图像分类的快速识别方法,其特征在于:包括以下步骤:
步骤1,从网络爬取目标图片,制作数据集,并按比例划分为训练集、验证集和测试集;
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络;
步骤3,打乱训练集,并每次从中随机抽取相同数量的图片,然后输入改进后的双线性神经网络;
步骤4,开始训练参数,框定高贡献区域并裁剪,进行特征融合,通过贡献度模块计算分类结果;
具体包括:
开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果;
特征融合公式为:
F=f(LA)Τf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图;
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果,δ为高贡献度系数,μ为低贡献度系数;
步骤5,在验证集上验证分类精度,保存训练参数;
步骤6,训练结束,选择在训练中分类精度最高的模型载入改进后的双线性神经网络,使用测试集测试分类精度。
2.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤2中,特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重其公式如下:
式中,gc是该特征图关于标签类别c的反向传播梯度值,是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,/>是偏导数;
得到贡献度权重之后,与特征图进行加权相乘,使其线性表示,然后通过ReLU层,得到关于标签类别c贡献度图Lc,其公式如下:
式中,Mm是具有所有像素点的特征图激活值;
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
3.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤3中,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
4.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤5中,每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
5.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤6中,已训练完的模型中包含了目标图片的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于目标图片的概率,选择最大概率的目标,输出目标的种类。
CN202111390166.5A 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法 Active CN114067316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111390166.5A CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111390166.5A CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Publications (2)

Publication Number Publication Date
CN114067316A CN114067316A (zh) 2022-02-18
CN114067316B true CN114067316B (zh) 2024-05-03

Family

ID=80279065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111390166.5A Active CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Country Status (1)

Country Link
CN (1) CN114067316B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169959A (ja) * 2017-03-30 2018-11-01 株式会社Jsol 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN110009679A (zh) * 2019-02-28 2019-07-12 江南大学 一种基于多尺度特征卷积神经网络的目标定位方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112861970A (zh) * 2021-02-09 2021-05-28 哈尔滨工程大学 一种基于特征融合的细粒度图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169959A (ja) * 2017-03-30 2018-11-01 株式会社Jsol 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN110009679A (zh) * 2019-02-28 2019-07-12 江南大学 一种基于多尺度特征卷积神经网络的目标定位方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112861970A (zh) * 2021-02-09 2021-05-28 哈尔滨工程大学 一种基于特征融合的细粒度图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
全卷积多并联残差神经网络;李国强;张露;;小型微型计算机系统;20200115(第01期);全文 *
基于Grad-CAM与B-CNN的细粒度图像分类方法研究;邓绍伟;张伯泉;计算机科学与应用;20201231(第005期);全文 *

Also Published As

Publication number Publication date
CN114067316A (zh) 2022-02-18

Similar Documents

Publication Publication Date Title
Lakshminarayanan et al. Deep Learning-Based Hookworm Detection in Wireless Capsule Endoscopic Image Using AdaBoost Classifier.
CN106650795B (zh) 酒店房型图像的排序方法
CN107016406A (zh) 基于生成式对抗网络的病虫害图像生成方法
CN108416314B (zh) 图片重要人脸检测方法
CN109087298B (zh) 一种阿尔兹海默病mri图像分类方法
CN114399763B (zh) 一种单样本与小样本微体古生物化石图像识别方法及系统
CN113610842B (zh) 基于CAS-Net的OCT图像视网膜脱离和劈裂自动分割方法
CN114549470B (zh) 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法
CN114913327A (zh) 一种基于改进U-Net的下肢骨骼CT图像分割算法
CN112052877A (zh) 一种基于级联增强网络的图片细粒度分类方法
CN112348808A (zh) 屏幕透图检测方法及装置
CN114897884A (zh) 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法
Sallam et al. Diabetic retinopathy grading using resnet convolutional neural network
CN114067316B (zh) 一种基于细粒度图像分类的快速识别方法
CN114155551A (zh) 基于YOLOv3改进的复杂环境下的行人检测方法及装置
CN113192108A (zh) 一种针对视觉跟踪模型的人在回路训练方法及相关装置
CN113112482A (zh) 一种基于注意力机制网络的pcb缺陷检测方法
Pillai et al. A Deep Learning Approach for Detection and Classification of Ten Species of Monkeys
CN111479107A (zh) 基于自然音视频统计的无参考音视频联合质量评价方法
Okawa et al. Detection of abnormal fish by image recognition using fine-tuning
CN113496485B (zh) 卫星遥感图像质量评价方法及装置
CN115661094A (zh) 基于改进yolox模型的工业瑕疵检测方法
Mehta et al. Unleashing the Potential of Federated Learning and CNNs in Potato Leaf Disease Detection and Severity Evaluation
Azad et al. Improving FHB Screening in Wheat Breeding Using an Efficient Transformer Model
CN111047597A (zh) 一种基于深度学习的多回波水脂分离方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant