CN112132771B - 一种基于光场成像的多聚焦图像融合方法 - Google Patents

一种基于光场成像的多聚焦图像融合方法 Download PDF

Info

Publication number
CN112132771B
CN112132771B CN202011201016.0A CN202011201016A CN112132771B CN 112132771 B CN112132771 B CN 112132771B CN 202011201016 A CN202011201016 A CN 202011201016A CN 112132771 B CN112132771 B CN 112132771B
Authority
CN
China
Prior art keywords
image
layer
refocusing
pyramid
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011201016.0A
Other languages
English (en)
Other versions
CN112132771A (zh
Inventor
闫斌斌
张通
江奕蕾
刘双喜
庞明慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202011201016.0A priority Critical patent/CN112132771B/zh
Publication of CN112132771A publication Critical patent/CN112132771A/zh
Application granted granted Critical
Publication of CN112132771B publication Critical patent/CN112132771B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10052Images from lightfield camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种基于光场成像的多聚焦图像融合方法,首先得到光场图像的子孔径图像,再通过光场相机的主透镜、微透镜阵列、传感器及成像平面之间的位置关系搭建重聚焦模型,并利用线面之间的三角关系推出重聚焦系数;然后通过调整重聚焦系数使图像中不同的目标分别聚焦至清晰度最高处;再由图像清晰度评价函数——Tenengrad评价函数将重聚焦图像划分为多个部分,根据划分部分建立mask掩膜并以此表示融合位置;利用拉普拉斯金字塔融合算法将经过上述处理后的图像进行融合。该方法能保证飞行器可以获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。

Description

一种基于光场成像的多聚焦图像融合方法
技术领域
本发明属于图像处理技术领域,具体涉及一种图像融合方法。
背景技术
图像制导由于信息丰富、实时性强、制导精度高等优点成为精确制导系统中常用的制导方式之一,在航空、航天领域得到广泛的应用。导引头处安装的摄像机实时获取目标信息,并分析处理相应的图像序列,从而解算出跟踪目标在实际背景中的相应位置信息。目前图像制导系统中大多使用单目相机,单目相机结构简单且成本低,但由于其只能拍摄二维图像导致大量可利用的光线深度信息被摒弃;且在面对多个非合作目标时,传统的先聚焦后拍照模式使单目相机无法在一张图像中将多个目标对焦至正确深度、导致目标信息缺失、无法满足制导过程中对准确性的要求,多个不同的目标拍摄不同聚焦深度的图像又会使后续的图像处理的步骤较为繁杂、无法满足制导对实时性的要求;且多张图像会使多个非合作目标之间的相对信息产生较大变化、导致后续数据处理的工作量增加,这些都限制了图像制导的发展。
由于光场相机在主透镜和传感器平面之间加入的微透镜阵列能够让光线二次折射,使二维空间信息和二维角度信息同时被记录,四维数据使光场相机拥有先拍照后聚焦的特性。重聚焦处理不仅可以避免失焦现象,还可以使图像内的多个目标分别达到其清晰度最高的聚焦位置。
发明内容
为了克服现有技术的不足,本发明提供了一种基于光场成像的多聚焦图像融合方法,首先得到光场图像的子孔径图像,再通过光场相机的主透镜、微透镜阵列、传感器及成像平面之间的位置关系搭建重聚焦模型,并利用线面之间的三角关系推出重聚焦系数;然后通过调整重聚焦系数使图像中不同的目标分别聚焦至清晰度最高处;再由图像清晰度评价函数——Tenengrad评价函数将重聚焦图像划分为多个部分,根据划分部分建立mask掩膜并以此表示融合位置;利用拉普拉斯金字塔融合算法将经过上述处理后的图像进行融合。该方法能保证飞行器可以获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
有益效果:
本发明提出的一种基于光场成像的多聚焦图像融合方法,在于解决飞行器捕捉多个非合作目标时传统相机造成的失焦和多次聚焦拍摄造成的背景变换复杂、目标间相对信息缺失等问题。该方法可以将飞行器面对的每个非合作目标聚焦至最佳深度、并融合成一张清晰度较高且能体现出各个目标相对位置关系的图像,避免了传统成像的失焦现象以及减少了处理多幅图像时算法的复杂性,能保证飞行器获得不同非合作目标最清晰的特征信息,并减少背景变换给后续图像处理工作带来的干扰,能更好的满足制导系统对准确性的要求。
附图说明
图1为本发明方法搭建的重聚焦模型。
图2为本发明实施例提取的子孔径图像。
图3为本发明实施例设置不同的聚焦系数α时的重聚焦图像,图(a)为聚焦玩具,图(b)为聚焦杯子。
图4为采用本发明实施例中进行拉普拉斯金字塔融合后得到的结果。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
一种基于光场成像的多聚焦图像融合方法,包括如下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
具体实施例:
1.光场相机图像用4D的光场信息L(x,y,u,v)来表征,其中(u,v)为二维角度信息、(x,y)为二维空间信息。为了简化重聚焦模型,将L(x,y,u,v)压缩成2D的形式L(x,u),如图1所示,根据成像平面和光线之间的三角相似关系可以得出在仅用二维数据来表征光场信息的情况下,光场相机传感器平面上的成像点和重聚焦平面上的成像点之间的位置关系,如式(1)所示:
Figure GDA0003457951000000041
其中,
Figure GDA0003457951000000042
为光场相机传感器平面上的成像点,x′2u为重聚焦平面上的成像点,
Figure GDA0003457951000000043
定义为距离系数,
Figure GDA0003457951000000044
定义为重聚焦系数,F为主透镜到传感器平面的距离,F′为主透镜到重聚焦平面的距离,m为预设参数,f光场相机传感器焦距。
将2D的光场信息扩展成4D,则扩展后的重聚角公式如(2)所示:
Figure GDA0003457951000000045
其中,(x′,y′)为扩展后的二维空间信息,L0(·)为扩展函数。
将光场的所有角度信息经过相加后得到(3)式即为光场的重聚角公式:
Figure GDA0003457951000000046
通过(3)式可得将4D光场信息中所有角度像素对应的空间像素求和,则可获得在重聚焦平面上每点的像素值,即重聚焦后的二维图像。由此可知,通过改变聚焦系数α可以使不同目标物体达到其正确聚焦深度。
本实施例用光场相机拍摄含有杯子和玩具两个目标物体的图片,利用Matlab中的光场工具箱LFToolbox0.4、通过对相机自带白图像进行解码获得相机成像平面原始图像,再选取合适的角度像素位置提取相应的子孔径图像,如图2所示。本实施例选取角度像素为(5,2)处的子孔径图像。用Matlab和C++混合编译重聚焦程序,通过不断调整重聚焦系数确定让杯子聚焦至正确深度的系数为α=1.025、使玩具聚焦至正确深度的系数为α=1.003。由此,获得两张背景信息一致,且目标信息清晰丰富的重聚焦图像,如图3所示,图(a)为聚焦玩具,图(b)为聚焦杯子。
2.Tenengrad函数是利用梯度的不同来对图像是否清晰进行判断的评价函数,利用Sobel算子对水平方向和竖直方向的梯度值进行提取,如式(4)所示:
Figure GDA0003457951000000051
式中Gx、Gy为Sobel卷积核,I(x,y)为图像在点(x,y)处的梯度值。定义Tenengrad函数如式(5)所示:
Figure GDA0003457951000000052
其中,n为图像总像素数。
由于聚焦至正确深度的图像中边缘比模糊图像更为清晰、更为尖锐,故清晰图片的梯度函数值比模糊图像的梯度函数值大。同理,在一张图像中,清晰部分的Tenengrad函数值也要大于模糊部分的。根据图像中的目标个数和分布,将本发明使用的图片在像素为(179,0)位置处纵向分为左右两部分;根据Tenengrad来确定两张重聚焦图像清晰和模糊部分为后续图像融合做准备,本发明中目标物所属图像部分的Tenengrad评价函数值如下表所示:
表1 Tenengrad评价函数表
图像左侧 图像右侧
α=1.003 1.38344 1.05679
α=1.025 0.48725 1.14597
3.建立两张重聚焦图像的高斯金字塔和拉普拉斯金字塔,根据图像大小和融合效果选择金字塔层数为3层;根据Tenengrad函数的评价结果,建立mask掩膜,将两张图像得分高的部分记为1、得分低的部分记为0,同时建立该掩膜图像的高斯金字塔。根据步骤4到步骤7的方法对图像进行处理,最终所得图像即为拉普拉斯金字塔融合结果。

Claims (1)

1.一种基于光场成像的多聚焦图像融合方法,其特征在于,包括以下步骤:
步骤1:对光场相机拍摄图像提取子孔径图像,子孔径图像中有N个目标物;
步骤2:设置子孔径图像中每个目标物的重聚焦系数,生成N幅聚焦深度不同的重聚焦图像,每幅重聚焦图像聚焦一个目标物;
步骤3:将子孔径图像按照目标物的位置分割成N个部分,每部分包含一个目标物;再按照和子孔径图像相同的分割方法将N幅重聚焦图像进行分割;对每一幅重聚焦图像,采用清晰度评价Tenengrad函数得到每个分割部分的Tenengrad函数值;在每一幅重聚焦图像中,将Tenengrad函数值最高的部分权值记为1,其余部分权值记为0;
步骤4:根据Tenengrad函数值建立子孔径图像的mask掩模图像,采用子孔径图像的mask掩模图像建立每幅重聚焦图像的高斯金字塔;再由高斯金字塔得到每幅重聚焦图像的拉普拉斯金字塔;高斯金字塔和拉普拉斯金字塔均有M层,记两个金字塔的最底层为第1层,最高层为第M层;
步骤5:用高斯金字塔的第i层减去第i-1层经过上采样和高斯卷积处理后的图像,得到第i-1层的差分图像,再将高斯金字塔的第1层进行上采样和高斯卷积后分别与第i-1层的差分图像相加得到第i-1层的重构图像,从而得到每一层新的高斯金字塔图像,把新的高斯金字塔图像所有层叠加,得到重聚焦图像重构图像;
步骤6:建立重聚焦图像重构图像的mask掩模图像;然后建立拉普拉斯金字塔每一层的差分图像,将每一层的差分图像中对应重聚焦图像中权值为1的部分保留,权值为0的部分去除,再分别与重聚焦图像重构图像的mask掩模图像叠加;得到拉普拉斯金字塔每一层的掩模差分图像;
步骤7:对拉普拉斯金字塔的第M层进行上采样和高斯卷积后,分别与拉普拉斯金字塔每一层的掩模差分图像相加,得到M个结果图像,再将这M个结果图像相加,得到最终的多聚焦图像融合结果。
CN202011201016.0A 2020-11-02 2020-11-02 一种基于光场成像的多聚焦图像融合方法 Active CN112132771B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011201016.0A CN112132771B (zh) 2020-11-02 2020-11-02 一种基于光场成像的多聚焦图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011201016.0A CN112132771B (zh) 2020-11-02 2020-11-02 一种基于光场成像的多聚焦图像融合方法

Publications (2)

Publication Number Publication Date
CN112132771A CN112132771A (zh) 2020-12-25
CN112132771B true CN112132771B (zh) 2022-05-27

Family

ID=73852482

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011201016.0A Active CN112132771B (zh) 2020-11-02 2020-11-02 一种基于光场成像的多聚焦图像融合方法

Country Status (1)

Country Link
CN (1) CN112132771B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012174B (zh) * 2021-04-26 2024-02-09 中国科学院苏州生物医学工程技术研究所 一种图像融合方法、系统及设备
CN116681633B (zh) * 2023-06-06 2024-04-12 国网上海市电力公司 一种多波段成像及融合方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778616A (zh) * 2012-10-22 2014-05-07 中国科学院研究生院 基于区域的对比度金字塔图像融合方法
CN104463949A (zh) * 2014-10-24 2015-03-25 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
CN107424155A (zh) * 2017-04-17 2017-12-01 河海大学 一种面向光场重聚焦图像的聚焦分割方法
CN108337434A (zh) * 2018-03-27 2018-07-27 中国人民解放军国防科技大学 一种针对光场阵列相机的焦外虚化重聚焦方法
CN109447930A (zh) * 2018-10-26 2019-03-08 太原科技大学 小波域光场全聚焦图像生成算法
CN110824689A (zh) * 2019-11-01 2020-02-21 南京理工大学 全自动显微图像景深拓展系统及其方法
CN111260712A (zh) * 2020-02-07 2020-06-09 清华大学深圳国际研究生院 一种基于重聚焦极线图邻域分布的深度估计方法和装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8978984B2 (en) * 2013-02-28 2015-03-17 Hand Held Products, Inc. Indicia reading terminals and methods for decoding decodable indicia employing light field imaging
US9519972B2 (en) * 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
CN107343130B (zh) * 2017-08-17 2019-07-05 中国人民解放军国防科技大学 一种基于dmd动态分光的高动态成像模块

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778616A (zh) * 2012-10-22 2014-05-07 中国科学院研究生院 基于区域的对比度金字塔图像融合方法
CN104463949A (zh) * 2014-10-24 2015-03-25 郑州大学 一种基于光场数字重聚焦的快速三维重建方法及其系统
CN107424155A (zh) * 2017-04-17 2017-12-01 河海大学 一种面向光场重聚焦图像的聚焦分割方法
CN108337434A (zh) * 2018-03-27 2018-07-27 中国人民解放军国防科技大学 一种针对光场阵列相机的焦外虚化重聚焦方法
CN109447930A (zh) * 2018-10-26 2019-03-08 太原科技大学 小波域光场全聚焦图像生成算法
CN110824689A (zh) * 2019-11-01 2020-02-21 南京理工大学 全自动显微图像景深拓展系统及其方法
CN111260712A (zh) * 2020-02-07 2020-06-09 清华大学深圳国际研究生院 一种基于重聚焦极线图邻域分布的深度估计方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Achromatic metalens array for full-colour light-field imaging;Ren Jie Lin 等;《Nature Nanotechnology》;20191231;第1-6页 *
Evaluation of focus measures in multi-focus image fusion;Wei Huang 等;《Pattern Recognition Letters》;20070331;第28卷(第4期);第493-500页 *
基于小波域清晰度评价的光场全聚焦图像融合;谢颖贤 等;《北京航空航天大学学报》;20190930;第45卷(第9期);第1848-1854页 *
微透镜阵列式光场成像模型及其标定方法;张旭 等;《光学学报》;20141231;第34卷(第12期);第1-13页 *

Also Published As

Publication number Publication date
CN112132771A (zh) 2020-12-25

Similar Documents

Publication Publication Date Title
US11361459B2 (en) Method, device and non-transitory computer storage medium for processing image
CN108981672A (zh) 基于单目机器人与测距传感器结合的舱门实时定位方法
US8928737B2 (en) System and method for three dimensional imaging
CN107025660B (zh) 一种确定双目动态视觉传感器图像视差的方法和装置
CN112132771B (zh) 一种基于光场成像的多聚焦图像融合方法
CN103473743B (zh) 一种获取图像深度信息的方法
CN111107337B (zh) 深度信息补全方法及其装置、监控系统和存储介质
CN108427961B (zh) 基于卷积神经网络的合成孔径聚焦成像深度评估方法
CN108564620B (zh) 一种针对光场阵列相机的场景深度估计方法
CN110503620B (zh) 一种基于傅立叶频谱提取的图像融合方法
CN106296811A (zh) 一种基于单光场相机的目标物三维重构方法
CN109064505A (zh) 一种基于滑动窗口张量提取的深度估计方法
CN109949354B (zh) 一种基于全卷积神经网络的光场深度信息估计方法
CN110060304B (zh) 一种生物体三维信息采集方法
CN112907573B (zh) 一种基于3d卷积的深度补全方法
CN109255809A (zh) 一种光场图像深度估计方法及装置
CN103177432A (zh) 一种用编码孔径相机获取全景图方法
CN106023189A (zh) 一种基于匹配优化的光场数据深度重建方法
JP6285686B2 (ja) 視差画像生成装置
CN114612352A (zh) 多聚焦图像融合方法、存储介质和计算机
CN108830804B (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
CN112002008A (zh) 一种整合光学和视觉智能技术的三维物体检测装置和方法
CN112288669B (zh) 一种基于光场成像的点云地图获取方法
CN113225484B (zh) 快速获取屏蔽非目标前景的高清图片的方法及装置
CN115841668A (zh) 一种双目视觉苹果识别以及精准定位的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant