CN111784619B - 一种红外和可见光图像的融合方法 - Google Patents
一种红外和可见光图像的融合方法 Download PDFInfo
- Publication number
- CN111784619B CN111784619B CN202010629990.0A CN202010629990A CN111784619B CN 111784619 B CN111784619 B CN 111784619B CN 202010629990 A CN202010629990 A CN 202010629990A CN 111784619 B CN111784619 B CN 111784619B
- Authority
- CN
- China
- Prior art keywords
- fusion
- layer
- self
- image
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 14
- 230000004927 fusion Effects 0.000 claims abstract description 58
- 238000000354 decomposition reaction Methods 0.000 claims abstract description 20
- 238000000034 method Methods 0.000 claims abstract description 16
- 230000005855 radiation Effects 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract description 7
- 238000010586 diagram Methods 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 3
- 238000007499 fusion processing Methods 0.000 abstract description 2
- 239000000463 material Substances 0.000 abstract description 2
- 239000011159 matrix material Substances 0.000 abstract description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 230000004044 response Effects 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于图像处理技术领域,具体涉及一种红外和可见光图像的融合方法。本发明提供的基于混合l1‑l0分解模型与自编码器的红外和可见光图像融合方法,使用混合l1‑l0分解模型将图像分解结果作为双层自编码网络的输出,使得双层自编码网络自备层分解能力。将图像特征分解到基础层特征和细节层特征,对不同层次定制不同的融合策略能够保有更多的纹理信息和热辐射信息。利用l1范数策略补偿显著性检测忽略的热辐射信息,提高了基础层融合的鲁棒性。网络采用端到端的方式简化训练过程,降低了模型复杂度。通过矩阵运算,降低了特征融合处理时耗,进而提升融合框架的响应速度。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种红外和可见光图像的融合方法。
背景技术
红外和可见光融合是图像融合技术的一个重要分支,红外技术已被广泛的应用于生物、医疗、军事及安防等领域。虽然红外图像能提供较好的热辐射信息帮助人们检测诊断,但是由于其分辨率较低、缺少大量的纹理信息使其在应用层面的价值大打折扣,因此人们希望利用图像融合技术将可见光图像的纹理空间信息注入到红外图像中使得融合图像既保留红外辐射信息又持有丰富的纹理信息,从而提高其应用价值。
目前最为常见的红外和可见光图像融合方法是基于多尺度变换的融合方法,它需要确定基函数和分解层次。然而如何灵活选择基函数使得源图像能够被最佳表示和如何自适应的选择分解层次仍然是待解决的问题。基于稀疏表示的融合方法采用基于块的方法,但是忽略了块间相关性,往往会导致细节信息的丢失。随着深度学习的兴起,许多基于深度学习的融合方法被提出,利用卷积神经网络(CNN)获得图像特征,并对融合后的图像进行重构。在这些基于CNN的融合方法中,一般性策略是利用特征提取网络的最后一层结果作为图像特征,这种策略会丢失网络中间层所包含的大量信息,影响融合结果。
香港理工大学Zhetong Liang等人提出混合l1-l0分解模型对基础层使用l1约束使得基础层可以保留较大梯度,且是分段光滑的,对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变,是一种鲁棒的层分解模型。自编码器是前馈非循环神经网络,具有非常好的提取数据特征表示的能力,利用编码器提取特征,利用解码器重构,天然的适合做特征级的融合实现。基于此,本发明提出基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法。
发明内容
本发明的目的在于提供一种基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法,将热辐射信息和纹理信息的提取和融合拆分到不同网络中进行,使得融合策略更具有针对性,进而实现更好的融合效果。
本发明的技术方案为:一种红外和可见光图像的融合方法,包括以下步骤:
S1、获取训练数据集:采用混合l1-l0分解模型将网络输入图像S分解为基础层B和细节层S-B,作为训练数据集:
其中p表示像素点,N表示像素总数,表示沿i方向的偏导运算,λ1、λ2表示l1范数和l0范数的权值系数,第一项(Sp-Bp)2使得基础层在像素级别上趋近于源图像,第二项对基础层使用l1约束使得基础层可以保留较大梯度,因此基础层是分段光滑的,第三项对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变;
S2、构建自编码融合网络模型,如图1所示,具体为:
S11、自编码融合网络模型包括两个独立且结构相同的自编码器,分别定义为BaseNet和DetailNet,如图2所示,自编码器的编码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数都为16,第一层卷积层后添加ReLU激活层,每层卷积层都会和后面所有卷积层作级联;自编码器的解码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数依次为64、32、16和1,前三层卷积层后添加ReLU激活层;为了避免信息损失,自编码器中不包含下采样层。
其中和分别代表自编码器的编码器和解码器,base和detail分别表示BaseNet和DetailNet,MSE表示均方误差;通过最小化均方误差使得BaseNet和DetailNet的联合体具有层分解能力。
其中SSIM表示结构相似度,它表示两图像的结构相似性。这种方式是对分层解码的一次校正,使得整体框架具有正常的解码功能;利用像素损失和结构损失构建最终损失函数:
loss=losspixel+λlossssim
其中λ为结构损失的权值参数,用以调整两项损失在训练过程中的数量级差异;
S3、采用训练数据集对构建的自编码融合网络模型进行训练,如图3所示,训练方法为通过反向传播算法最小化损失函数进行,获得训练好的自编码融合网络模型;
S4、将需要融合的红外和可见光图像送入训练好的自编码融合网络模型,即BaseNet和DetailNet编码器,编码器对图像的分解如图4所示,从左至右依次为源图像、基础层、细节层,分别对BaseNet和DetailNet提取的特征做特征融合,具体为:
S41、基础层特征融合,引入显著性检测得到红外图像的显著图SM,得到BaseNet的初步特征融合策略:
φm(x,y)=SM×φir m(x,y)+(1-SM)×φvis m(x,y)
式中vis表示可见光图像,ir表示红外图像,其中即编码器输出特征图,m表示第m张特征图;该融合策略的融合效果取决于显著性检测方法是否能精准的检测出高热辐射区域,一般在同一场景中出现多个热辐射区域可能会导致部分区域热辐射信息丢失。
利用l1范数策略弥补显著性检测忽略的热辐射信息,修正BaseNet的特征融合策略;
l1范数融合策略:
其中表示图像i的特征权值, (r为邻域半径)分别表示为表示图像各点的l1范数和各点l1范数的邻域均值;l1范数融合策略可以自适应地调整不同位置的权值,在热辐射高的区域,红外特征图对应的权值大于可见光特征图对应的权值,在热辐射低的区域,一般可见光特征图对应的权值大于红外特征图对应的权值,所以能够融合热辐射信息和空间纹理信息,而对于基础层只关注它的热辐射信息。
修正后的融合策略:
S42、细节层特征融合,采用加权平均融合策略融合DetailNet特征:
S5、将步骤S4得到的两层网络特征融合结果经各自的解码器解码后相加得到最终融合图像:
本发明的有益效果是:
本发明提供的基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法,使用混合l1-l0分解模型将图像分解结果作为双层自编码网络的输出,使得双层自编码网络自备层分解能力。将图像特征分解到基础层特征和细节层特征,对不同层次定制不同的融合策略能够保有更多的纹理信息和热辐射信息。利用l1范数策略补偿显著性检测忽略的热辐射信息,提高了基础层融合的鲁棒性。网络采用端到端的方式简化训练过程,降低了模型复杂度。通过矩阵运算,降低了特征融合处理时耗,进而提升融合框架的响应速度。
附图说明
图1为本发明的双层自编码融合网络模型结构示意图;
图2为本发明的自编码器结构示意图;
图3为本发明的基于混合l1-l0分解模型的训练框架示意图;
图4为本发明的双层自编码图像分解结果示意图;
图5为本发明最终融合结果图。
具体实施方式
在发明内容部分已经对本发明的方案进行了详细描述,下面结合测试以进一步证明本发明的实用性。
采用本发明的方案,对标准红外和可见光图像做融合测试,其部分融合结果如图5所示,从左至右依次为红外图像、可见光图像、融合图像;使用本发明的融合方法以及其他6种融合算法对20对标准红外和可见光融合测试图像做融合,使用信息熵、互信息和结构相似度等指标进行量化评估,结果如表1:
表1量化评估
测试表明,得益于分层融合思想和提出的融合策略,本发明的融合方法具有更好的融合效果与量化指标。
Claims (1)
1.一种红外和可见光图像的融合方法,其特征在于,包括以下步骤:
S1、获取训练数据集:采用混合l1-l0分解模型将网络输入图像S分解为基础层B和细节层S-B,作为训练数据集:
其中p表示像素点,N表示像素总数,表示沿i方向的偏导运算,λ1、λ2表示l1范数和l0范数的权值系数,第一项(Sp-Bp)2使得基础层在像素级别上趋近于源图像,第二项对基础层使用l1约束使得基础层可以保留较大梯度,因此基础层是分段光滑的,第三项对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变;
S2、构建自编码融合网络模型,具体为:
S11、自编码融合网络模型包括两个独立且结构相同的自编码器,分别定义为BaseNet和DetailNet,自编码器的编码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数都为16,第一层卷积层后添加ReLU激活层,每层卷积层都和后面所有卷积层作级联;自编码器的解码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数依次为64、32、16和1,前三层卷积层后添加ReLU激活层;
其中SSIM表示结构相似度;利用像素损失和结构损失构建最终损失函数:
loss=losspixel+λlossssim
其中λ为结构损失的权值参数;
S3、采用训练数据集对构建的自编码融合网络模型进行训练,训练方法为通过反向传播算法最小化损失函数进行,获得训练好的自编码融合网络模型;
S4、将需要融合的红外和可见光图像送入训练好的自编码融合网络模型,即BaseNet和DetailNet编码器,分别对BaseNet和DetailNet提取的特征做特征融合,具体为:
S41、基础层特征融合,引入显著性检测得到红外图像的显著图SM,得到BaseNet的初步特征融合策略:
φm(x,y)=SM×φir m(x,y)+(1-SM)×φvis m(x,y)
利用l1范数策略弥补显著性检测忽略的热辐射信息,修正BaseNet的特征融合策略;
l1范数融合策略:
修正后的融合策略:
S42、细节层特征融合,采用加权平均融合策略融合DetailNet特征:
S5、将步骤S4得到的两层网络特征融合结果经各自的解码器解码后相加得到最终融合图像:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010629990.0A CN111784619B (zh) | 2020-07-03 | 2020-07-03 | 一种红外和可见光图像的融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010629990.0A CN111784619B (zh) | 2020-07-03 | 2020-07-03 | 一种红外和可见光图像的融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111784619A CN111784619A (zh) | 2020-10-16 |
CN111784619B true CN111784619B (zh) | 2023-04-28 |
Family
ID=72758385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010629990.0A Active CN111784619B (zh) | 2020-07-03 | 2020-07-03 | 一种红外和可见光图像的融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111784619B (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112183561B (zh) * | 2020-11-09 | 2024-04-30 | 山东中医药大学 | 一种用于图像特征提取的联合融减自动编码器算法 |
CN112949579A (zh) * | 2021-03-30 | 2021-06-11 | 上海交通大学 | 一种基于密集卷积块神经网络的目标融合检测系统及方法 |
CN113139585B (zh) * | 2021-03-30 | 2022-03-29 | 太原科技大学 | 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法 |
CN113379661B (zh) * | 2021-06-15 | 2023-03-07 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络装置 |
CN113487529B (zh) * | 2021-07-12 | 2022-07-26 | 吉林大学 | 一种基于Yolo的气象卫星云图目标检测方法 |
CN113592018B (zh) * | 2021-08-10 | 2024-05-10 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
CN113706407B (zh) * | 2021-08-11 | 2023-07-18 | 武汉大学 | 基于分离表征的红外可见光图像融合方法 |
CN113763367B (zh) * | 2021-09-13 | 2023-07-28 | 中国空气动力研究与发展中心超高速空气动力研究所 | 一种大尺寸试件红外检测特征综合判读方法 |
CN114693578A (zh) * | 2022-04-28 | 2022-07-01 | 中国人民公安大学 | 图像融合方法、装置、终端设备以及存储介质 |
CN116091372B (zh) * | 2023-01-03 | 2023-08-15 | 江南大学 | 基于层分离和重参数的红外和可见光图像融合方法 |
CN117809146B (zh) * | 2023-12-11 | 2024-07-23 | 江南大学 | 一种基于特征解纠缠表示的红外与可见光图像融合方法 |
CN118090743A (zh) * | 2024-04-22 | 2024-05-28 | 山东浪潮数字商业科技有限公司 | 一种基于多模态图像识别技术的瓷质酒瓶质量检测系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251355A (zh) * | 2016-08-03 | 2016-12-21 | 江苏大学 | 一种融合可见光图像与对应夜视红外图像的检测方法 |
CN106897987A (zh) * | 2017-01-18 | 2017-06-27 | 江南大学 | 基于平移不变剪切波和栈式自编码的图像融合方法 |
CN107230196A (zh) * | 2017-04-17 | 2017-10-03 | 江南大学 | 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法 |
CN108874960A (zh) * | 2018-06-06 | 2018-11-23 | 电子科技大学 | 一种在线学习中基于降噪自编码器混合模型的课程视频推荐算法 |
CN110084773A (zh) * | 2019-03-25 | 2019-08-02 | 西北工业大学 | 一种基于深度卷积自编码网络的图像融合方法 |
CN110097617A (zh) * | 2019-04-25 | 2019-08-06 | 北京理工大学 | 基于卷积神经网络与显著性权重的图像融合方法 |
CN110533620A (zh) * | 2019-07-19 | 2019-12-03 | 西安电子科技大学 | 基于aae提取空间特征的高光谱和全色图像融合方法 |
CN111145131A (zh) * | 2019-11-28 | 2020-05-12 | 中国矿业大学 | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102461144B1 (ko) * | 2015-10-16 | 2022-10-31 | 삼성전자주식회사 | 영상 연무 제거 장치 |
-
2020
- 2020-07-03 CN CN202010629990.0A patent/CN111784619B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251355A (zh) * | 2016-08-03 | 2016-12-21 | 江苏大学 | 一种融合可见光图像与对应夜视红外图像的检测方法 |
CN106897987A (zh) * | 2017-01-18 | 2017-06-27 | 江南大学 | 基于平移不变剪切波和栈式自编码的图像融合方法 |
CN107230196A (zh) * | 2017-04-17 | 2017-10-03 | 江南大学 | 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法 |
CN108874960A (zh) * | 2018-06-06 | 2018-11-23 | 电子科技大学 | 一种在线学习中基于降噪自编码器混合模型的课程视频推荐算法 |
CN110084773A (zh) * | 2019-03-25 | 2019-08-02 | 西北工业大学 | 一种基于深度卷积自编码网络的图像融合方法 |
CN110097617A (zh) * | 2019-04-25 | 2019-08-06 | 北京理工大学 | 基于卷积神经网络与显著性权重的图像融合方法 |
CN110533620A (zh) * | 2019-07-19 | 2019-12-03 | 西安电子科技大学 | 基于aae提取空间特征的高光谱和全色图像融合方法 |
CN111145131A (zh) * | 2019-11-28 | 2020-05-12 | 中国矿业大学 | 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法 |
CN111275655A (zh) * | 2020-01-20 | 2020-06-12 | 上海理工大学 | 一种多聚焦多源图像融合方法 |
Non-Patent Citations (3)
Title |
---|
K.Vanitha 等.Multimodal Medical Image Fusion Based on Hybrid L1- L0 Layer Decomposition Method.2019 10th International Conference on Computing, Communication and Networking Technologies (ICCCNT).2019,1-5. * |
张慧 等.基于方向导波增强的红外与可见光图像融合.激光与红外.2020,第50卷(第04期),507-512. * |
罗晓清 等.基于全子带栈式稀疏自编码的水果图像融合.现代计算机(专业版).2017,(第14期),57-63. * |
Also Published As
Publication number | Publication date |
---|---|
CN111784619A (zh) | 2020-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111784619B (zh) | 一种红外和可见光图像的融合方法 | |
CN109741256B (zh) | 基于稀疏表示和深度学习的图像超分辨率重建方法 | |
Zhang et al. | Image restoration: From sparse and low-rank priors to deep priors [lecture notes] | |
CN109949217B (zh) | 基于残差学习和隐式运动补偿的视频超分辨率重建方法 | |
Chen et al. | MICU: Image super-resolution via multi-level information compensation and U-net | |
CN107123089A (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN106845471A (zh) | 一种基于生成对抗网络的视觉显著性预测方法 | |
CN111787187B (zh) | 利用深度卷积神经网络进行视频修复的方法、系统、终端 | |
CN113283444B (zh) | 一种基于生成对抗网络的异源图像迁移方法 | |
CN115131214B (zh) | 基于自注意力的室内老人图像超分辨率重构方法及系统 | |
CN106447632B (zh) | 一种基于稀疏表示的raw图像去噪方法 | |
CN115484410B (zh) | 基于深度学习的事件相机视频重建方法 | |
CN113762277B (zh) | 一种基于Cascade-GAN的多波段红外图像融合方法 | |
CN104408697B (zh) | 基于遗传算法和正则先验模型的图像超分辨重建方法 | |
CN116051947A (zh) | 一种变压器多源异构数据多尺度特征融合方法 | |
CN110992414A (zh) | 一种基于卷积神经网络的室内单目场景深度估计的方法 | |
CN116363034A (zh) | 轻量级红外与可见光图像融合方法、系统、设备和介质 | |
CN109615576A (zh) | 基于级联回归基学习的单帧图像超分辨重建方法 | |
CN116664435A (zh) | 一种基于多尺度人脸解析图融入的人脸复原方法 | |
CN114511484B (zh) | 基于多级LatLRR的红外和彩色可见光图像快速融合方法 | |
CN116977809A (zh) | 一种基于深度学习的端到端多模态图像融合框架 | |
CN108596831B (zh) | 一种基于AdaBoost实例回归的超分辨率重建方法 | |
CN116740515A (zh) | 一种基于cnn的强度图像与偏振图像融合增强方法 | |
CN115131205B (zh) | 基于域迁移融合网络的多摄像头人脸超分辨率方法及系统 | |
Cao et al. | Super-resolution algorithm through neighbor embedding with new feature selection and example training |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |