CN114693712A - 一种基于深度学习的暗视觉及低照度图像边缘检测方法 - Google Patents
一种基于深度学习的暗视觉及低照度图像边缘检测方法 Download PDFInfo
- Publication number
- CN114693712A CN114693712A CN202210366311.4A CN202210366311A CN114693712A CN 114693712 A CN114693712 A CN 114693712A CN 202210366311 A CN202210366311 A CN 202210366311A CN 114693712 A CN114693712 A CN 114693712A
- Authority
- CN
- China
- Prior art keywords
- edge
- feature
- low
- iota
- illumination image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005286 illumination Methods 0.000 title claims abstract description 81
- 238000003708 edge detection Methods 0.000 title claims abstract description 70
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013135 deep learning Methods 0.000 title claims abstract description 19
- 230000004438 eyesight Effects 0.000 title claims abstract description 18
- 230000004296 scotopic vision Effects 0.000 claims abstract description 57
- 230000004927 fusion Effects 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 25
- 230000000694 effects Effects 0.000 claims abstract description 18
- 230000008569 process Effects 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims description 97
- 239000002131 composite material Substances 0.000 claims description 24
- 230000003044 adaptive effect Effects 0.000 claims description 21
- 238000010606 normalization Methods 0.000 claims description 19
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims 1
- 230000006870 function Effects 0.000 description 103
- 230000004913 activation Effects 0.000 description 47
- 230000007246 mechanism Effects 0.000 description 9
- 238000004422 calculation algorithm Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于深度学习的暗视觉及低照度图像边缘检测方法,所述方法包括获取暗视觉/低照度图像;将暗视觉/低照度图像输入到预训练后的初级子网中,提取出多个边缘特征图,并形成第一边缘特征;将暗视觉/低照度图像与第一边缘特征输入到边缘增强模块中;将边缘增强后的暗视觉/低照度图像输入到次级子网中,提取出多个边缘特征图;将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果;本发明可在训练过程中,结合实时参数,对暗视觉/低照度图像的边缘增强效果进行动态调整,能有效地拉伸图像灰度级分布范围,较好地保留暗视觉/低照度图像的边缘特征。
Description
技术领域
本发明涉及图像处理、计算机视觉及深度学习领域,尤其是一种基于深度学习的暗视觉及低照度图像边缘检测方法。
背景技术
边缘检测设计常用于图像中目标物体的形状或者种类的定位和识别,是图像处理、图像分析、模式识别、计算机视觉以及人类视觉的基本步骤之一,广泛应用于视觉导航、医学诊断等多个领域。
现有的边缘检测方法可分为传统边缘检测算法和基于深度学习的边缘检测算法。传统边缘检测算法,例如Canny算子、Sobel算子等,该类方法仅依赖图像梯度变化等单尺度特征进行边缘检测,在处理类似于暗视觉或者低照度图像这样低对比度和低梯度的高噪声图像时,会出现边缘模糊和边缘大面积丢失等问题。深度学习能自动建立图像底层特征间的依赖关系,将底层像素信息抽象成包含多尺度特征的语义和概念,结合多尺度特征的相关性来筛选边缘,例如DeepEdge、HED和CED等方法,不需要手动设计,仅通过修改子网结构就能获得不同尺度的边缘特征。相比传统方法,基于深度学习的边缘检测算法的准确率更高,且泛化能力更强。
在暗视觉或者低照度场景下,由于周围环境亮度较低,采集的图像像素差异小,噪声大,边缘信息容易被强背景淹没。执行该类图像的边缘检测任务,要求算法对像素差异有良好的感知能力。而在现有的边缘检测方法中,关于正常光照图像的研究有很多,却很少有人针对上述问题提出完善的解决方案。且现有的边缘检测数据集所包含场景存在局限性,导致训练出来的边缘检测模型在暗视觉或者低照度环境下难以获得良好的表现,因此需要进一步探索适用于暗视觉及低照度环境的边缘检测方法。
发明内容
有鉴于此,为了提升检测模型对像素差异的敏感度,本发明在边缘检测模型中引入自注意力机制。卷积主要通过大小受限的感受野和权重共享来感受特征,因此卷积天生带有局部性和平移等效性,无法获取到图像的全局语境,全局语境对目标特征的辨认必不可少,而自注意力机制通过引入像素的位置信息,使特征之间具有长程交互能力,即每个位置都有关于同一图像中任何其他特征的信息,通过替换或者与卷积结合,可以获得比常规卷积更大的接受域,增强卷积的特征提取能力。提取不同尺度的边缘特征图进行融合,可以避免特征随着网络的加深而被丢失,有利于较好地保留边缘细节。对于输出多尺度特征图的边缘检测模型来说,随着网络深度的逐渐增加,特征图的感受野不断变大,各个模块所关注边缘特征的尺度不同,使用不同尺度的特征图和同一个边缘label计算损失是不合理的,因此在所述边缘检测方法中,引入了通道自注意力机制来学习不同阶段的边缘特征对应的边缘尺度。同时,改进了加权交叉熵损失,在原本的加权交叉熵损失中,网络输出的多个单尺度边缘特征和边缘标签之间的损失会按照手工设定的权重进行融合,而不合理的手工权重会对模型的检测效果产生较大的影响,为了避免这一问题,本发明先利用Dice系数计算出单尺度特征和边缘标签之间的相似度,并将相似度作为多尺度边缘损失的融合权重。其次,为了增加边缘像素和非边缘像素的梯度差异,本发明提出了基于像素相似度的边缘特征增强方法。先利用层数较少的神经网络从暗视觉/低照度图像中提取出初级边缘特征图,然后通过计算像素欧氏距离来衡量初级边缘特征图和暗视觉/低照度图像的像素相似度,在暗视觉/低照度图像中,和边缘特征图相似度最高的部分是暗视觉/低照度图像中的边缘特征,以相似度作为评价标准,那么暗视觉/低照度图像中的边缘特征会获得较高的相似度分数,非边缘特征会获得较低的相似度分数。将相似度矩阵和暗视觉图像融合,可以增强暗视觉图像中的边缘特征,抑制非边缘特征。
本发明的目的在于提供一种基于深度学习的暗视觉及低照度图像边缘检测方法,主要步骤如下:
获取暗视觉/低照度图像,并对所述取暗视觉/低照度图像进行预处理;
将暗视觉/低照度图像输入到预训练后的初级子网中进行边缘检测,提取出多个边缘特征图,并经过上采样后形成第一边缘特征;
将所述暗视觉/低照度图像与对应的所述第一边缘特征输入到边缘增强模块中,对所述暗视觉/低照度图像边缘增强;
将边缘增强后的暗视觉/低照度图像输入到次级子网中进行边缘检测,提取出多个边缘特征图;
将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果。
本发明的有益效果:
本发明通过提取不同尺度的特征图进行融合,同时在卷积中结合了空间自注意力机制使得网络能在浅层关注到全局特征信息,提升了网络的特征提取能力,以及对像素差异的敏感性,利用通道自注意力机制来自适应学习不同层级的边缘特征对应的边缘尺度。并对加权交叉熵损失函数进行了改进,使用单尺度边缘特征和边缘标签的相似度作为损失融合权重,避免不合理的手工权重对网络检测效果的影响,提升模型的训练效率。其次,提出了基于相似度的边缘特征增强方法,通过该方法可利用训练过程的实时参数对边缘特征增强效果进行动态调整,随着损失的下降,该方法对边缘特征的定位精准度会逐渐提高,有助于提升暗视觉/低照度环境下边缘检测模型的检测效果,提取出的边缘连续性得到增强,小粒度信息更加丰富。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面对实施例中需要使用的附图做简单的介绍,显而易见地,下面描述中的附图仅仅是本发明的一部分实施例,对于本领域普通技术人员来说,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的一种基于深度学习的暗视觉及低照度边缘检测方法的网络架构图;
图2是本发明的一种基于深度学习的暗视觉及低照度图像边缘检测方法的系统流程图;
图3是本发明预训练后的初级子网对暗视觉图像的边缘检测效果图;
图4是本发明第一边缘特征和暗视觉/低照度图像的相似度计算流程;
图5是本发明所述边缘特征增强方法的效果图;
图6是本发明所述方法和其他边缘检测模型在暗视觉及低照度图像边缘检测的效果对比。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
图1是本发明实施例的一种基于深度学习的暗视觉及低照度图像边缘检测方法的其中一个实施例的网络架构图,如图1所示,在本发明实施例中,该网络架构包括一个初级子网、边缘增强模块以及一个次级子网,其中,初级子网中包括初级特征提取模块、复合特征提取模块以及深度特征融合模块,次级子网中包括复合特征提取模块以及深度特征融合模块;通过初次子网、边缘增强模块以及次级子网的共同作用,得出最终的边缘检测结果。
基于上述实施例的网络架构,图2是本发明提供的一种基于深度学习的暗视觉及低照度图像边缘检测方法的系统流程图,具体包括以下步骤:
S1:获取暗视觉/低照度图像,并对所述取暗视觉/低照度图像进行预处理;
其中,暗视觉/低照度图像是指使用图像采集设备在环境亮度低于0.001cd/m2时的成像环境中采集的原始图像,所述原始图像的平均背景灰度在0到47之间,本发明可以对所述原始图像的内容不做出限制。
其中,可以使用标注完善的暗视觉/低照度边缘检测数据集,也可以使用自建的暗视觉/低照度边缘检测数据集,本实施例使用的暗视觉/低照度边缘检测数据集分为训练集和测试集,训练集为LOL数据集(选出50张暗视觉和50张低照度图像)和自建数据集(选出50张暗视觉和50张低照度图像),标注并生成边缘label,测试集为LOL数据集(选出20张暗视觉图像和20张低照度图像)和自建数据集(选出20张暗视觉图像和20张低照度图像),标注并生成边缘label。所述训练集再经过翻转、裁剪、缩放等预处理操作,可以增强形成57600张训练样本。
可以理解的是,在本发明实施例中,所述暗视觉/低照度图像既可以是已知边缘label的训练集图像,也可以是未知边缘label的待测图像;当暗视觉/低照度图像为已知边缘label的训练集图像时,可以作为训练集对初级子网进行预训练,也可以对预训练后的初级子网、未经训练的边缘增强模块和未经训练的次级子网所构成的边缘检测网络进行再次训练;当暗视觉/低照度图像为未知边缘label的待测图像时,可以利用训练完成后的边缘检测网络对其进行检测识别,预测得到该待测图像的边缘label。
S2:将暗视觉/低照度图像输入到预训练后的初级子网中进行边缘检测,提取出多个边缘特征图,并经过上采样后形成第一边缘特征;
在本发明实施例中,首先需要对初级子网进行训练,其中可以使用暗视觉/低照度边缘检测数据集来训练初级子网,网络训练轮数25轮,初始学习率设置为0.0001,优化器设置为Adam,训练次数、学习率和优化器均是可选的。
图3是所述初级子网完成预训练后的边缘检测效果,如图3所示,可以看出。由于初级子网卷积层数少,特征图感受野较小,边缘检测结果中对局部图案的边缘细节描述较多。
当所述初级子网预训练完成后,可以用于对暗视觉/低照度图像的边缘检测,从而提取出暗视觉/低照度图像在不同尺度上的边缘特征图,对这些不同尺度的边缘特征图进行上采样后,就可以形成第一边缘特征。
具体的,在本发明实施例中,在所述初级子网中,包含有ι1个初级特征提取模块和ι2个复合特征提取模块,一个深度特征融合模块和ι1+ι2+1个自适应边缘尺度提取模块,初级子网的ι1个初级特征提取模块和ι2个复合特征提取模块产生ι1+ι2个边缘特征,将ι1+ι2个边缘特征输入自适应边缘尺度提取模块,提取每个边缘特征的自适应边缘尺度,并融合尺度和相应的边缘特征,从而得到ι1+ι2个边缘特征图,对ι1+ι2个边缘特征图上采样后,按照通道拼接输入深度特征融合模块,就可以得到第一边缘特征。其中,ι1和ι2是正整数。
在本发明的一个具体实施例中,假设初级子网包含1个初级特征提取模块、2个复合特征提取模块、1个深度特征融合模块和4个自适应边缘尺度提取模块,如表1所示。
表1初级子网各层的详细参数
在上述实施例中,所述初级特征提取模块:初级特征提取模块一共包括2个卷积层,第一个卷积层的卷积核尺寸是3*3,通道数是3,个数是32,步长是2,填充方式是SAME,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是3*3,通道数是32,个数是64,步长是1,填充是1,激活函数是ReLU函数,传入激活函数之前先执行批归一化,综上得到初级边缘特征conv1_1。
在上述实施例中,第一个复合边缘特征提模块:输入是conv1_1,共包括一个局部特征提取网络和一个全局特征提取网络。局部特征提取网络包含4个卷积层,最后一个卷积层用作下采样,第一个卷积层的卷积核尺寸是3*3,通道数是64,个数是128,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是1,填充是1,激活函数是ReLU函数;第三个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是1,填充是1;第四个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是2,填充是1,激活函数是ReLU函数。此外,conv1_1会经过一个1*1卷积将通道数调整为128,然后映射到第一个复合边缘特征提取模块尾部和第四个卷积层的输出相加得到特征图conv2_2。
其中,全局特征提取网络的输入是conv1_1,共包括一个空间自注意力层,全局特征提取网络的输出会以残差的形式映射到局部特征提取网络中,分别和局部特征提取网络的第一个、第二个和第三个卷积层的输出相加,作为下一个卷积层的输入,第三个卷积层的输出为复合边缘特征conv2_1。
在上述实施例中,第二个复合边缘特征提取模块:输入是conv2_2,共包括一个局部特征提取网络和一个全局特征提取网络。局部特征提取网络包含4个卷积层,第一个卷积层的卷积核尺寸是3*3,通道数是128,个数是256,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是3*3,通道数是256,个数是256,步长是1,填充是1;第三个卷积层的卷积核尺寸是3*3,通道数是256,个数是256,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第四个卷积层的卷积核尺寸是3*3,通道数是256,个数是256,步长是1,填充是1,输出是复合边缘特征conv3_1。此外,conv2_2会经过一个1*1卷积将通道数调整为256,然后映射到第二个复合边缘特征提取模块尾部和第四个卷积层的输出相加得到特征图conv3_2。
其中,全局特征提取网络的输入是conv2_2,共包括一个空间自注意力层,全局特征提取网络的输出会以残差的形式映射到局部特征提取网络中,分别和局部特征提取网络的第一个到第三个卷积层的输出相加,作为第四个卷积层的输入。
在上述实施例中,深度特征融合模块:conv1_1、conv2_1和conv3_2经自适应边缘尺度模块处理后尺寸上采样到400*400,按通道拼接后作为深度特征融合模块的输入。深度特征融合模块一共包含4个卷积层,第一个卷积层的卷积核尺寸是3*3,通道数是3,个数是10,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是3*3,通道数是10,个数是20,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化,第三个卷积层的卷积核尺寸是3*3,通道数是20,个数是20,步长是;填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化,第四个卷积层的卷积核尺寸是3*3,通道数是20,个数是1,步长是1,填充是1,输出是第一边缘特征fuse_1。
S3:将所述暗视觉/低照度图像与对应的所述第一边缘特征输入到边缘增强模块中,对所述暗视觉/低照度图像边缘增强;
在本发明实施例中,利用所述第一边缘特征可以对原始输入的所述暗视觉/低照度图像进行边缘增强,其中,边缘增强模块对所述暗视觉/低照度图像边缘增强的过程包括:
利用梯度算子提取出暗视觉/低照度图像沿水平方向和垂直方向的梯度图;
利用梯度算子提取出第一边缘特征沿水平方向和垂直方向的梯度图;
基于对应方向的梯度图分别计算出第一边缘特征和暗视觉/低照度图像像素之间的相似度,得到相似度矩阵;
将相似度矩阵和暗视觉/低照度图像逐像素相乘,得到增强边缘后的暗视觉/低照度图像。
其中,基于对应方向的梯度图分别计算出第一边缘特征和暗视觉/低照度图像像素之间的相似度,得到相似度矩阵包括:
Similarity(X1,X2)=1-Fnorm(Distance(X1,X2))
其中,Distance(·)为像素的欧式距离,X1和X2表示计算相似度的两个像素,x表示像素沿水平方向的梯度,y表示像素沿垂直方向的梯度,Similarity(X1,X2)表示像素X1和X2的相似度,Fnorm表示归一化。
为了进一步说明边缘增强模块对所述暗视觉/低照度图像边缘增强的过程,如图4所示,本实施例选取了Prewwit边缘检测算子的两个滤波器模板来提取第一边缘特征和暗视觉/低照度图像沿水平方向和垂直方向的梯度图,如下所示:
使用Gx和Gy对fuse_1和暗视觉/低照度图像进行步长为1的卷积,可获得两者沿水平方向和垂直方向的梯度图。按照像素相似度计算公式计算两者的相似度矩阵,将相似度矩阵和暗视觉/低照度图像逐像素相乘,得到增强边缘后的暗视觉/低照度图像EEM,其中效果图可以参考如图5所示。
S5:将边缘增强后的暗视觉/低照度图像输入到次级子网中进行边缘检测,提取出多个边缘特征图;
在本发明实施例中,需要将预训练后的初级子网、未经训练的边缘增强模块以及未经训练的次级子网构成边缘检测网络一起进行训练,训练的过程需要保证损失函数收敛,使得最终预测得到的结果是准确的。
当所述边缘检测网络训练完成后,可以用于对暗视觉/低照度图像的边缘检测,利用初级子网来提取出第一边缘特征和多个不同尺度的边缘特征图,利用边缘增强模块来对暗视觉/低照度图像进行图像增强,再利用次级子网来提取出图像增强后的多个不同尺度的边缘特征图,最终可以将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果。
所述次级子网包含ι3个复合特征提取模块、一个深度特征融合模块和ι3+1个自适应边缘尺度提取模块;次级子网的ι3个复合特征提取模块产生ι3个边缘特征,将ι3个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι3个边缘特征图;其中,ι3是正整数。
在本发明的一个具体实施例中,假设次级子网包含3个复合特征提取模块,1个深度特征融合模块和3个自适应边缘尺度模块,如表2所示。
表2次级子网各层的详细参数
在上述实施例中,第一个复合边缘特征提取模块:输入是EEM,共包括一个局部特征提取网络和一个全局特征提取网络。局部特征提取网络包含8个卷积层。第一个卷积层的卷积核尺寸是3*3,通道数是3,个数是16,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是1*1,通道数是16,个数是16,步长是1,填充是0,激活函数是ReLU函数;第三个卷积层的卷积核尺寸是3*3,通道数是16,个数是16,步长是2,填充是1;第四个卷积层的卷积核尺寸是1*1,通道数是16,个数是32,步长是1,填充是0,激活函数是ReLU函数;第五个卷积层的卷积核尺寸是1*1,通道数是32,个数是32,步长是1,填充是0,激活函数是ReLU函数;第六个卷积层的卷积核尺寸是3*3,通道数是32,个数是32,步长是1,填充是1;第七个卷积层的卷积核尺寸是1*1,通道数是32,个数是64,步长是1,填充是0,激活函数是ReLU函数;第八个卷积层的卷积核尺寸是3*3,通道数是64,个数是128,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;此外,EEM会经过一个1*1卷积将通道数调整为128,然后映射到第一个复合边缘特征提取模块尾部和第四个卷积层的输出相加得到特征图conv4_2。
在上述实施例中,全局特征提取网络的输入是EEM,共包括一个空间自注意力层,全局特征提取网络的输出会以残差的形式映射到局部特征提取网络中,分别和局部特征提取网络的第一个、第四个和第七个卷积层的输出相加,作为下一个卷积层的输入,第八个卷积层的输出为复合边缘特征conv4_1。
在上述实施例中,第二个复合边缘特征提取模块:输入是conv4_2,共包括一个局部特征提取网络和一个全局特征提取网络。局部特征提取网络包含9个卷积层,第一个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是1*1,通道数是128,个数是128,步长是1,填充是0,激活函数是ReLU函数;第三个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是2,填充是1;第四个卷积层的卷积核尺寸是1*1,通道数是128,个数是256,步长是1,填充是0,激活函数是ReLU函数;第五个卷积层的卷积核尺寸是3*3,通道数是256,个数是256,步长是1,填充是1;第六个卷积层的卷积核尺寸是1*1,通道数是256,个数128,步长是1,填充是0,激活函数是ReLU函数;第七个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是1,填充是1;第八个卷积层的卷积核尺寸是1*1,通道数是128,个数是256,步长是1,填充是0,激活函数是ReLU函数;第九个卷积层的卷积核尺寸是3*3,通道数是256,个数是512,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;此外,conv_4_2会经过一个1*1卷积将通道数调整为512,然后映射到第一个复合边缘特征提取模块尾部和第四个卷积层的输出相加得到特征图conv5_2。
其中,全局特征提取网络的输入是conv4_2,共包括一个空间自注意力层,全局特征提取网络的输出会以残差的形式映射到局部特征提取网络中,分别和局部特征提取网络的第一个、第四个、第五个和第八个卷积层的输出相加,作为下一个卷积层的输入。第九个卷积层的输出为复合边缘特征conv5_1。
在上述实施例中,第三个复合边缘特征提取模块:输入是conv5_2,共包括一个局部特征提取网络和一个全局特征提取网络。局部特征提取网络包含8个卷积层。第一个卷积层的卷积核尺寸是3*3,通道数是512,个数是256,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是1*1,通道数是256,个数是128,步长是1,填充是0,激活函数是ReLU函数;第三个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是2,填充是1;第四个卷积层的卷积核尺寸是1*1,通道数是128,个数是256,步长是1,填充是0,激活函数是ReLU函数;第五个卷积层的卷积核尺寸是1*1,通道数是256,个数是128,步长是1,填充是0,激活函数是ReLU函数;第六个卷积层的卷积核尺寸是3*3,通道数是128,个数是128,步长是1,填充是1;第七个卷积层的卷积核尺寸是1*1,通道数是128,个数是256,步长是1,填充是0,激活函数是ReLU函数;第八个卷积层的卷积核尺寸是3*3,通道数是256,个数是128,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;此外,conv5_2会经过一个1*1卷积将通道数调整为128,然后映射到第一个复合边缘特征提取模块尾部和第四个卷积层的输出相加得到特征图conv6_2。
其中,全局特征提取网络的输入是conv5_2,共包括一个空间自注意力层,全局特征提取网络的输出会以残差的形式映射到局部特征提取网络中,分别和局部特征提取网络的第一个、第四个和第七个卷积层的输出相加。
S5:将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果。
在本发明实施例中,在所述初级子网中,ι1个初级特征提取模块和ι2个复合特征提取模块产生ι1+ι2个边缘特征,将ι1+ι2个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι1+ι2个边缘特征图,对ι1+ι2个边缘特征图上采样后,按照通道拼接输入深度特征融合模块,得到第一边缘特征;在所述次级子网中,ι3个复合特征提取模块产生ι3个边缘特征,将ι3个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι3个边缘特征图;将初级子网产生的ι1+ι2个边缘特征图以及第一边缘特征,以及次级子网产生的ι3个边缘特征图,也即ι1+ι2+1+ι3个边缘特征图上采样的结果,按通道拼接后,输入次级子网的深度特征融合模块,得到深度边缘特征;基于边缘损失函数分别计算ι1+ι2+1+ι3个边缘特征图和所述深度边缘特征与边缘label之间的边缘损失;当所述边缘损失收敛时,次级子网的深度特征融合模块的输出为最终的边缘检测结果。
具体的,利用次级子网的深度特征融合模块,将初级子网和次级子网产生的边缘特征图融合。conv1_1、conv2_1、conv3_2、conv4_1、conv5_1、conv6_2和fuse_1经自适应边缘尺度模块处理后尺寸上采样到400*400,按通道拼接后作为深度特征融合模块的输入。深度特征融合模块一共包含4个卷积层,第一个卷积层的卷积核尺寸是3*3,通道数是7,个数是16,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化;第二个卷积层的卷积核尺寸是3*3,通道数是16,个数是32,步长是1,填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化,第三个卷积层的卷积核尺寸是3*3,通道数是32,个数是16,步长是;填充是1,激活函数是ReLU函数,传入ReLU函数之前先执行批归一化,第四个卷积层的卷积核尺寸是3*3,通道数是16,个数是1,步长是1,填充是1,输出是fuse_2。
其中,本实施例所述初级特征提取模块、复合特征提取模块和深度特征融合模块的卷积层个数、卷积核尺寸、步长、填充方式以及激活函数是可选的,可以根据具体使用场景来决定。
其中,本实施例所述空间自注意力层选用的是空间自注意力机制模型BoTNet,也可以选用其他空间自注意力机制模型,比如ViT、External Attention等。
其中,本实施例所述自适应边缘尺度模块选用的是通道自注意力机制模型SENet,也可以选用其他通道自注意力机制模型,比如金字塔分割自注意力模块、ECAnet等。
在第二阶段的训练中,所述初级子网、边缘增强模块串联在一起,组成一个完整的暗视觉及低照度边缘检测网络,该网络训练迭代次数设置为150000次,初始学习率设置为0.0001,优化器设置为Adam,训练次数、学习率和优化器均是可选的。
在本实施例中,所述暗视觉及低照度边缘检测网络以及初级子网的边缘损失函数是基于加权交叉熵损失改进而来,也可以选择其他损失函数,比如Focal损失、tversky损失等,也可以自行设计边缘损失函数,改进后的加权交叉熵损失函数如下:
每个尺度水平下的损失函数是:
ιn(W,ωn)=A+B
其中:
β=|Y-|/|Y++Y-|
(1-β)=|Y+|/|Y++Y-|
总损失函数是:
其中,Dice系数的计算公式如下:
yn∩ylabel表示单尺度边缘特征yn和边缘标签ylabel的交集,可用点乘近似计算,|·|表示矩阵逐元素相加,σ表示sigmoid函数,yn表示第n个模块输出的单尺度边缘特征,ylabel表示边缘标签,W是全部参数的集合,ω是第n个模块的参数,Y-和Y+代表边缘label中的边缘和非边缘。使用所述训练集将所述边缘损失训练到收敛,此时,所述fuse_2即为最终的边缘检测结果。
在训练过程中,随着损失的收敛,模型各模块的边缘检测能力会逐步增强,所述第一边缘特征图中包含的非边缘信息也会逐渐减少,在进行边缘增强时,会趋向于只增强边缘特征,进而提升模型的边缘检测精度。
图6是所述实施例中的网络模型和另外两种边缘检测模型(BDCN和DexiNed)在暗视觉以及低照度图像上的边缘检测效果,三种网络都是使用所述训练集进行训练。
表1分别是所述实施例中的网络模型和另外两种边缘检测模型(BDCN和DexiNed)基于自建暗视觉及低照度边缘检测数据聚集和LOL数据集计算出来的客观评价指标对比,本实施例选用的是峰值信噪比(PSNR,越大越好)、均方误差(MSE,越小越好)和结构相似性(SSIM,越大越好)。
表3客观评价指标对比
其中,由图6和表3可以得出,相较于其他模型,所述一种基于深度学习的暗视觉及低照度图像边缘检测方法能较好的保留边缘细节,且检测出来的边缘较薄,连续性较好,且收敛更快。
在本发明的描述中,需要理解的是,术语“同轴”、“底部”、“一端”、“顶部”、“中部”、“另一端”、“上”、“一侧”、“顶部”、“内”、“外”、“前部”、“中央”、“两端”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
在本发明中,除非另有明确的规定和限定,术语“安装”、“设置”、“连接”、“固定”、“旋转”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系,除非另有明确的限定,对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。
Claims (10)
1.一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述方法步骤包括:
获取暗视觉/低照度图像,并对所述取暗视觉/低照度图像进行预处理;
将暗视觉/低照度图像输入到预训练后的初级子网中进行边缘检测,提取出多个边缘特征图,并经过上采样后形成第一边缘特征;
将所述暗视觉/低照度图像与对应的所述第一边缘特征输入到边缘增强模块中,对所述暗视觉/低照度图像边缘增强;
将边缘增强后的暗视觉/低照度图像输入到次级子网中进行边缘检测,提取出多个边缘特征图;
将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果。
2.根据权利要求1所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述将暗视觉/低照度图像输入到预训练后的初级子网中进行边缘检测,提取出多个边缘特征图,并经过上采样后形成第一边缘特征包括在所述初级子网中,ι1个初级特征提取模块和ι2个复合特征提取模块产生ι1+ι2个边缘特征,将ι1+ι2个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι1+ι2个边缘特征图,对ι1+ι2个边缘特征图上采样后,按照通道拼接输入深度特征融合模块,得到第一边缘特征。
3.根据权利要求1所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述将边缘增强后的暗视觉/低照度图像输入到次级子网中进行边缘检测,提取出多个边缘特征图包括在所述次级子网中,ι3个复合特征提取模块产生ι3个边缘特征,将ι3个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι3个边缘特征图。
4.根据权利要求1所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述将初次子网产生的第一边缘特征和多个边缘特征图与次级子网产生的多个边缘特征图进行特征图融合,得到暗视觉/低照度图像的边缘检测效果包括在所述初级子网中,ι1个初级特征提取模块和ι2个复合特征提取模块产生ι1+ι2个边缘特征,将ι1+ι2个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι1+ι2个边缘特征图,对ι1+ι2个边缘特征图上采样后,按照通道拼接输入深度特征融合模块,得到第一边缘特征;在所述次级子网中,ι3个复合特征提取模块产生ι3个边缘特征,将ι3个边缘特征输入自适应边缘尺度提取模块,提取边缘特征的自适应边缘尺度,并融合尺度和边缘特征,得到ι3个边缘特征图;将初级子网产生的ι1+ι2个边缘特征图以及第一边缘特征,以及次级子网产生的ι3个边缘特征图,也即ι1+ι2+1+ι3个边缘特征图上采样的结果,按通道拼接后,输入次级子网的深度特征融合模块,得到深度边缘特征;基于边缘损失函数分别计算ι1+ι2+1+ι3个边缘特征图和所述深度边缘特征与边缘label之间的边缘损失;当所述边缘损失收敛时,次级子网的深度特征融合模块的输出为最终的边缘检测结果。
5.根据权利要求2-4任一所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述复合特征提取模块由全局特征提取网络和局部特征提取网络组成,所述局部特征提取网络的输入以残差的形式映射到当前复合特征提取模块的尾部,或者其他复合特征提取模块的尾部和输出相加;所述全局特征提取网络的输出以残差的形式映射到所述局部特征提取网络内部的不同位置,分别和所述局部特征提取网络的多个中间输入相加;基于所述全局特征提取网络提取输入特征图的全局特征,基于所述局部特征提取网络提取输入特征图的局部特征,所述局部特征提取网络由ι4个卷积层组成,其中ι4是正整数,所述全局特征提取网络由ι5个空间自注意力层组成,其中ι5是正整数。
6.根据权利要求2-4任一所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述自适应边缘尺度提取模块由ι6个通道自注意力层组成,用于提取任意边缘特征所对应的边缘尺度,融合所述边缘尺度和对应的边缘特征,得到边缘特征图;其中ι6为正整数。
7.根据权利要求2-4任一所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,所述深度特征融合模块由ι7个卷积层组成,用于将输入的多尺度边缘特征图整合成深度边缘特征,其中ι7是正整数。
8.根据权利要求1所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,边缘增强模块对所述暗视觉/低照度图像边缘增强的过程包括:
利用梯度算子提取出暗视觉/低照度图像沿水平方向和垂直方向的梯度图;
利用梯度算子提取出第一边缘特征沿水平方向和垂直方向的梯度图;
基于对应方向的梯度图分别计算出第一边缘特征和暗视觉/低照度图像像素之间的相似度,得到相似度矩阵;
将相似度矩阵和暗视觉/低照度图像逐像素相乘,得到增强边缘后的暗视觉/低照度图像。
10.根据权利要求1所述的一种基于深度学习的暗视觉及低照度图像边缘检测方法,其特征在于,将预训练后的初级子网、边缘增强模块串联在一起,组成一个完整的暗视觉及低照度边缘检测网络,计算出每个单尺度边缘特征和边缘标签之间的Dice相似度,将该Dice相似度作为自适应参数构建出加权交叉熵损失,直至所述加权交叉熵损失收敛,完成对暗视觉及低照度边缘检测网络的训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210366311.4A CN114693712A (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的暗视觉及低照度图像边缘检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210366311.4A CN114693712A (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的暗视觉及低照度图像边缘检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114693712A true CN114693712A (zh) | 2022-07-01 |
Family
ID=82143687
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210366311.4A Pending CN114693712A (zh) | 2022-04-08 | 2022-04-08 | 一种基于深度学习的暗视觉及低照度图像边缘检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114693712A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704473A (zh) * | 2023-05-24 | 2023-09-05 | 禾多科技(北京)有限公司 | 障碍物信息检测方法、装置、电子设备和计算机可读介质 |
-
2022
- 2022-04-08 CN CN202210366311.4A patent/CN114693712A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704473A (zh) * | 2023-05-24 | 2023-09-05 | 禾多科技(北京)有限公司 | 障碍物信息检测方法、装置、电子设备和计算机可读介质 |
CN116704473B (zh) * | 2023-05-24 | 2024-03-08 | 禾多科技(北京)有限公司 | 障碍物信息检测方法、装置、电子设备和计算机可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Liu et al. | MLFcGAN: Multilevel feature fusion-based conditional GAN for underwater image color correction | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN112184577B (zh) | 基于多尺度自注意生成对抗网络的单幅图像去雾方法 | |
CN110956581B (zh) | 一种基于双通道生成-融合网络的图像模态变换方法 | |
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 | |
CN110910413A (zh) | 一种基于U-Net的ISAR图像分割方法 | |
CN111931857B (zh) | 一种基于mscff的低照度目标检测方法 | |
CN113420794B (zh) | 一种基于深度学习的二值化Faster R-CNN柑橘病虫害识别方法 | |
CN113449691A (zh) | 一种基于非局部注意力机制的人形识别系统及方法 | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN115620141A (zh) | 一种基于加权可变形卷积目标检测方法和装置 | |
CN115526801A (zh) | 基于条件对抗神经网络的遥感影像自动匀色方法和装置 | |
CN114782298A (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN115713462A (zh) | 超分辨模型训练方法、图像识别方法、装置及设备 | |
CN114693712A (zh) | 一种基于深度学习的暗视觉及低照度图像边缘检测方法 | |
CN114926826A (zh) | 场景文本检测系统 | |
CN114639002A (zh) | 一种基于多模式特征的红外与可见光图像融合方法 | |
CN113901928A (zh) | 一种基于动态超分辨率的目标检测方法、输电线路部件检测方法及系统 | |
CN116452469B (zh) | 一种基于深度学习的图像去雾处理方法及装置 | |
CN116189160A (zh) | 一种基于局部对比度机制的红外弱小目标检测方法 | |
CN115810123A (zh) | 基于注意力机制和改进特征融合的小目标害虫检测方法 | |
CN112800932B (zh) | 海上背景下显著船舶目标的检测方法及电子设备 | |
CN112927250B (zh) | 一种基于多粒度注意力分层网络的边缘检测系统和方法 | |
CN115035429A (zh) | 一种基于复合主干网络和多预测头的航拍目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |