CN111259957A - 基于深度学习的能见度监测和模型训练方法、装置、终端及介质 - Google Patents
基于深度学习的能见度监测和模型训练方法、装置、终端及介质 Download PDFInfo
- Publication number
- CN111259957A CN111259957A CN202010042073.2A CN202010042073A CN111259957A CN 111259957 A CN111259957 A CN 111259957A CN 202010042073 A CN202010042073 A CN 202010042073A CN 111259957 A CN111259957 A CN 111259957A
- Authority
- CN
- China
- Prior art keywords
- reference object
- visibility
- definition
- image
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 77
- 238000013135 deep learning Methods 0.000 title claims abstract description 67
- 238000012544 monitoring process Methods 0.000 title claims abstract description 59
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013145 classification model Methods 0.000 claims abstract description 12
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 31
- 238000004590 computer program Methods 0.000 claims description 25
- 238000005286 illumination Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 238000012806 monitoring device Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000003491 array Methods 0.000 description 5
- 238000003062 neural network model Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000002093 peripheral effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 235000019800 disodium phosphate Nutrition 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请提供基于深度学习的能见度监测和模型训练方法、装置、终端及介质,其包括:采集能见度监测区域内的参照物图像并进行图像预处理;将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。本发明的优势在于始终执行原始的能见度定义标准不受人的主观影响,且能够做到实时监测,将观测人员从每半小时一次的繁琐工作中解放出来,大大提升了监测的效率和精准度。
Description
技术领域
本申请涉及深度学习技术领域,特别是涉及基于深度学习的能见度监测和模型训练方法、装置、终端及介质。
背景技术
在航空气象领域,能见度是一个非常重要的指标,关系到飞机航班的能否正常航行。目前的能见度主要靠观测人员每半小时一次的肉眼观察,在当地机场附近的观测站依据周围标志性建筑的肉眼可见清晰程度来判断整体的能见度。
但是,现有技术中的能见度定义标准极大程度地受到人的主观影响,而且无法做到实时监测,也无法摆脱监测中的人为失误。因此,本领域亟需一种能够智能又高效且不受人的主观影响的能见度监测方案。
申请内容
鉴于以上所述现有技术的缺点,本申请的目的在于提供基于深度学习的能见度监测和模型训练方法、装置、终端及介质,用于解决现有技术中的问题。
为实现上述目的及其他相关目的,本申请的第一方面提供一种基于深度学习的能见度监测方法,其包括:采集能见度监测区域内的参照物图像并进行图像预处理;将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
于本申请的第一方面的一些实施例中,所述图像预处理包括图像归一化处理,其包括:通过预设的参照物位置信息截取参照物所在区域的图像;将所截取图像中的每个像素点的三个色彩通道数据分别减去对应的预设通道数据,并缩放至预设像素尺寸。
于本申请的第一方面的一些实施例中,所述根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值,其包括:获取所述参照物与图像采集地点位置之间的实际距离信息;获取与所述参照物图像的清晰度类别相对应的最大能见度系数;将所述最大能见度系数作为所述参照物与图像采集地点位置之间实际距离的权重系数,据以得到所述参照物图像所反映的能见度值。
为实现上述目的及其他相关目的,本申请的第二方面提供一种基于深度学习的模型训练方法,用于训练本发明的第一方面中所涉及的清晰度分类模型;所述方法包括:采集多张不同能见度及不同光照条件下的参照物图像数据;为每张图像中的参照物标记参照物的位置数据和清晰度标签类别数据;构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
于本申请的第二方面的一些实施例中,所述以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛,其包括:对参照物图像进行归一化处理;将归一化处理后的参照物图像数据及其对应的位置数据和清晰度标签类别数据输入所述分类网络模型中,并计算二值交叉熵损失值;其中,在所述二值交叉熵损失值小于预设损失值的情况下,确定所述分类网络模型收敛。
为实现上述目的及其他相关目的,本申请的第三方面提供一种基于深度学习的能见度监测装置,其包括:图像采集模块,用于采集能见度监测区域内的参照物图像并进行图像预处理;图像处理模块,用于将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;能见度计算模块,用于根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
为实现上述目的及其他相关目的,本申请的第四方面提供一种基于深度学习的模型训练装置,其包括:训练数据采集模块,用于采集多张不同能见度及不同光照条件下的参照物图像数据;标签标注模块,用于为每张图像中的参照物标注参照物的位置数据和清晰度标签类别数据;模型训练模块,用于构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
为实现上述目的及其他相关目的,本申请的第五方面提供一种计算机可读存储介质,其上存储有第一计算机程序和/或第二计算机程序,所述第一计算机程序被处理器执行时实现本发明的第一方面所述的基于深度学习的能见度监测方法;所述第二计算机程序被处理器执行时实现本发明的第二方面所述的基于深度学习的模型训练方法。
为实现上述目的及其他相关目的,本申请的第六方面提供一种基于深度学习的能见度监测终端,其包括处理器及存储器;所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行本发明的第一方面所述的基于深度学习的能见度监测方法。
为实现上述目的及其他相关目的,本申请的第七方面提供一种基于深度学习的模型训练终端,其包括处理器及存储器;所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行本发明的第二方面所述的基于深度学习的模型训练方法。
如上所述,本申请的基于深度学习的能见度监测和模型训练方法、装置、终端及介质,具有以下有益效果:本发明旨在通过采集周围建筑物图像,并利用深度学习技术分析建筑物图像的清晰程度,从而推导出能见度。本发明的优势在于始终执行原始的能见度定义标准不受人的主观影响,且能够做到实时监测,将观测人员从每半小时一次的繁琐工作中解放出来,大大提升了监测的效率和精准度。
附图说明
图1显示为本申请一实施例中基于深度学习的能见度监测方法的流程示意图。
图2显示为本申请一实施例中基于深度学习的模型训练方法的流程示意图。
图3显示为本申请一实施例中基于深度学习的能见度监测装置的结构示意图。
图4显示为本申请一实施例中基于深度学习的模型训练装置的结构示意图。
图5显示为本申请一实施例中基于深度学习的能见度监测终端的结构示意图。
图6显示为本申请一实施例中基于深度学习的模型训练终端的结构示意图。
具体实施方式
以下通过特定的具体实例说明本申请的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本申请的其他优点与功效。本申请还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本申请的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,在下述描述中,参考附图,附图描述了本申请的若干实施例。应当理解,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
针对现有技术中的能见度定义标准极大程度地受到人的主观影响,而且无法做到实时监测,也无法摆脱监测中的人为失误等问题,本发明提出了相应的解决方案,其旨在通过采集周围建筑物图像,并利用深度学习技术分析建筑物图像的清晰程度,从而推导出能见度。本发明的优势在于始终执行原始的能见度定义标准不受人的主观影响,且能够做到实时监测,将观测人员从每半小时一次的繁琐工作中解放出来,大大提升了监测的效率和精准度。
为了使本发明的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本发明实施例中的技术方案的进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定发明。
实施例一
如图1所示,展示了本发明一实施例中基于深度学习的能见度监测方法的流程示意图。本实施例的能见度监测方法主要包括步骤S101~S103。
步骤S101:采集能见度监测区域内的参照物图像并进行图像预处理。
本发明中所述能见度是指正常的人能将目标物从背景中识别出来的最大距离,例如:白天以靠近地平线的天空为背景,能清楚看出视角大于20度的地面灰暗目标物的轮廓并辨认出它是什么物体,夜间能清楚看见目标灯的发光点,能见度通常采用m(米)为单位。能见度的大小通常与目标物与背景之间的亮度差异以及大气透明度相关;目标物与背景之间的亮度差异越大则能见度越高,大气透明度越好则能见度越高。
需说明的是,本发明中所述能见度包括地面能见度和空中能见度。所述地面能见度反映的是近地面水平方向能见距离的情况,航行活动中主要掌握跑道上的地面能见度以及某方位的最小能见度;所述空中能见度是指飞行能见度,飞行能见度决定了航空器起飞、着陆时按目视飞行规则或按仪表飞行规则操作的重要依据。
在本实施例的较佳实施方式中,选用一观测站为图像采集地点,并选用该观测站的周围区域作为能见度监测区域。具体而言,可在观测站附近架设图像采集装置,采集观测站周围参照物的图像信息。
其中,所述图像采集装置包括但不限于视频摄像机、照相机、集成有光学系统或CCD芯片的摄像模块、集成有光学系统和CMOS芯片的摄像模块等设备。能见度监测区域是指选用距观测站预设范围内的区域进行能见度监测,该监测区域的面积大小可自行设定,本实施例不作限定。所述参照物优选为标志性建筑,如航站楼、灯塔、酒店等等,但也可选用非建筑物作为参照物,本实施例不作限定。
在本实施例的较佳实施方式中,所述图像预处理包括图像归一化处理。归一化处理是将有量纲的数据转变为无量纲数据,并把数据映射到(0,1)或者(-1,1)等范围内。具体而言,本实施例中的图像预处理主要是通过预先设置的建筑物位置信息截取标志性建筑区域的图像,将所截取图像中的每个像素点的三个色彩通道数据分别减去对应的预设通道数据,并缩放至预设像素尺寸;例如:将整张图像每个像素点的3个通道数据分别减去104、117、124,将该图像缩放到224×224之后输入清晰度分类网络。
步骤S102:将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别。
具体而言,将预处理后的参照物图像输入经深度学习训练的清晰度分类模型后得到一组多维数组,数组中第i个数据代表参照物图像属于第i类别清晰度的置信度值。将该参照物图像所对应的各个清晰度类别的置信度值做比较,选取其中的最大值作为该参照物图像的清晰度类别。
例如:若有清晰度类别0、清晰度类别1、清晰度类别2、清晰度类别3共四个清晰度类别,那么将预处理后的参照物图像输入经深度学习训练的清晰度分类模型后会得到一组4维数组[k0,k1,k2,k3],其中k0代表参照物图像属于清晰度类别0的置信度,k1代表参照物图像属于清晰度类别1的置信度,k2代表参照物图像属于清晰度类别2的置信度,k3代表参照物图像属于清晰度类别3的置信度。选取这4个k值中的最大值作为这一参照物图像的清晰度类别。
步骤S103:根据所述参照物与图像采集地点位置之间的距离信息以及参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
其中,计算该参照物图像所能反映的能见度值的方式包括:获取所述参照物与图像采集地点位置之间的实际距离信息以及与所述参照物图像的清晰度类别相对应的最大能见度系数;将所述最大能见度系数作为所述参照物与图像采集地点位置之间的实际距离的权重系数,据以得到所述参照物图像所反映的能见度值。
具体而言,可根据正常观测选取多个标志性建筑并测量这些标志性建筑与观测站之间的实际距离d。应理解的是,标志性建筑与观测站之间的实际距离d与图像中两者的图像距离是有不同的概念,实际距离d可通过实际测量或者一些预设的制图数据中获取,本实施例不作限定。
然后获取每一清晰度类别对应的最大能见度系数,仍以上文中清晰度类别0、清晰度类别1、清晰度类别2、清晰度类别3这四个清晰度类别为例,这四类清晰度类别的最大能见度系数分别是0、1.0、1.5、2.5。
在获取到最大能见度系数以及参照物与图像采集地点位置之间的实际距离信息之后,将所述最大能见度系数作为所述参照物与图像采集地点位置之间的实际距离的权重系数,据以得到所述参照物图像所反映的能见度值。举例来说:若参照物图像归属于清晰度类别2,那么对应的最大能见度系数为1.5,所以(d×1.5)的计算结果值便可作为该参照物图像所反映的能见度值。
在本实施例的较佳实施方式中,所述方法还包括:选取同一时刻所采集的多个参照物图像的能见度最大值作为该时刻的能见度值。具体的,选取同一时刻所有建筑物图片的能见度值的最大值作为该时刻能见度的实际值。
需说明的是,本实施例提供的基于深度学习的能见度监测方法可应用于多种类型的硬件设备。所述硬件设备例如是ARM(Advanced RISC Machines)控制器、FPGA(FieldProgrammable Gate Array)控制器、SoC(System on Chip)控制器、DSP(Digital SignalProcessing)控制器、或者MCU(Micorcontroller Unit)控制器等等。所述硬件设备也可例如是包括存储器、存储控制器、一个或多个处理单元(CPU)、外设接口、RF电路、音频电路、扬声器、麦克风、输入/输出(I/O)子系统、显示屏、其他输出或控制设备,以及外部端口等组件的计算机;所述计算机包括但不限于如台式电脑、笔记本电脑、平板电脑、智能手机、智能电视、个人数字助理(Personal Digital Assistant,简称PDA)等个人电脑。在另一些实施方式中,所述硬件设备还可例如是服务器,所述服务器可以根据功能、负载等多种因素布置在一个或多个实体服务器上,也可以由分布的或集中的服务器集群构成,本实施例不作限定。
实施例二
如图2所示,展示了本发明一实施例中基于深度学习的模型训练方法的流程示意图。本实施例中基于深度学习的模型训练方法主要用于训练前文实施例一中所述的清晰度分类模型,所述基于深度学习的模型训练方法包括步骤S201~S203。
步骤S201:采集多张不同能见度及不同光照条件下的参照物图像数据。
可选的,为确保训练数据的通用性和有效性,本实施例通过视频摄像机、照相机、集成有光学系统或CCD芯片的摄像模块、集成有光学系统和CMOS芯片的摄像模块等装置采集多张不同能见度及不同光照条件下的参照物图像数据。
在本实施例的较佳实施方式中,在一观测站附近架设图像采集装置,采集观测站周围参照物的图像信息。所述参照物优选为标志性建筑,如航站楼、灯塔、酒店等等,但也可选用非建筑物作为参照物,本实施例不作限定。
步骤S202:为每张图像中的参照物标记参照物的位置数据和清晰度标签类别数据。
具体而言,选取观测站周围的建筑物作为参照物,为提升模型训练的效率和分类准确度,优选标志性建筑物为本实施例的参照物。根据正常观测选取多个标志性建筑并测量建筑与观测站的实际距离,人工标记每张图中的标志性建筑位置:[x,y,width,height]以及标志性建筑物的清晰程度类别标签k,并记录到标签文件中。
可选的,将清晰度分为如下几个类别:不可见、轮廓可见、外观可见及清晰可见,并分别记录为清晰度类别0、清晰度类别1、清晰度类别2和清晰度类别3。通常而言,在图像采集地固定且采集角度固定的情况下,每个标志性建筑的位置只需标注一次即可。
步骤S203:构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
可选的,本实施例中的分类网络模型可选用卷积神经网络模型,如LeNet神经网络模型、AlexNet神经网络模型、VggNet神经网络模型、或者ResNet神经网络模型等等。以其中的ResNet神经网络模型为例,其可包括:21个卷积层、21个batchnorm层、21个scale层、17个relu激活层、8个eltwise层、2个池化层、1个全连接层。
其中,eltwise层是逐像素操作,包括点乘(product)、求和(sum)、取最大值(max)三种类型的操作,本发明中设置为逐像素相加;batchnorm层是对网络数据进行归一化操作的网络层;Scale层是对网络数据进行比例缩放和移位的网络层。
在本实施例可选的实现方式中,所述以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛,其具体包括:对参照物图像进行归一化处理;归一化处理后的参照物图像数据及其对应的位置数据和清晰度标签类别数据输入所述分类网络模型中,并计算二值交叉熵损失值;其中,在所述二值交叉熵损失值小于预设损失值的情况下,确定所述分类网络模型收敛。
归一化处理是将有量纲的数据转变为无量纲数据,并把数据映射到(0,1)或者(-1,1)等范围内。举例来说,可将云状图像中的每个像素点的三个色彩通道数据分别减去对应的预设通道数据,并缩放至预设像素尺寸。
具体的,在模型训练时根据预设的标志性建筑位置信息裁剪相应位置的图像,并对裁剪出来的图像做归一化处理;例如:将整张图像每个像素点的RGB三通道数据分别减去104、117、124,并且缩放至224×224的像素尺寸。
在训练分类网络模型时将归一化处理后的参照物图像数据及其对应的位置数据和清晰度标签类别数据输入所述分类网络模型中,据以计算二值交叉熵损失值。二值交叉熵损失值的计算公式如下式1所示:
其中,C表示清晰度类别的总数,例如本实施例中设置4个清晰度类别,则C取4;Si表示参照物图像基于清晰度分类网络模型所得到的属于第i类清晰度类别的预测概率;Ti表示参照物图像属于第i类清晰度类别的实际概率。
根据损失计算反向传播,迭代更新网络参数,当损失趋于稳定且小于预设损失值(如0.01)时,便可确定分类模型收敛。需说明的是,本实施例中的预设损失值并不限于取值0.01,事实上可按照经验值来设定,或也可先设定一随机值再根据模型的反馈结果进行趋势性调试直至获得合理的预设损失值。
需说明的是,本实施例提供的基于深度学习的模型训练方法可应用于多种类型的硬件设备。所述硬件设备例如是ARM(Advanced RISC Machines)控制器、FPGA(FieldProgrammable Gate Array)控制器、SoC(System on Chip)控制器、DSP(Digital SignalProcessing)控制器、或者MCU(Micorcontroller Unit)控制器等等。所述硬件设备也可例如是包括存储器、存储控制器、一个或多个处理单元(CPU)、外设接口、RF电路、音频电路、扬声器、麦克风、输入/输出(I/O)子系统、显示屏、其他输出或控制设备,以及外部端口等组件的计算机;所述计算机包括但不限于如台式电脑、笔记本电脑、平板电脑、智能手机、智能电视、个人数字助理(Personal Digital Assistant,简称PDA)等个人电脑。在另一些实施方式中,所述硬件设备还可例如是服务器,所述服务器可以根据功能、负载等多种因素布置在一个或多个实体服务器上,也可以由分布的或集中的服务器集群构成,本实施例不作限定。
实施例三
如图3所示,展示了本发明一实施例中的基于深度学习的能见度监测装置的结构示意图。本实施例的能见度监测装置包括图像采集模块31、图像处理模块32及能见度计算模块33。
图像采集模块31,用于采集能见度监测区域内的参照物图像并进行图像预处理;图像处理模块32用于将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;能见度计算模块33用于根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
应理解的是,本实施例中所述能见度是指正常的人能将目标物从背景中识别出来的最大距离,例如:白天以靠近地平线的天空为背景,能清楚看出视角大于20度的地面灰暗目标物的轮廓并辨认出它是什么物体,夜间能清楚看见目标灯的发光点,能见度通常采用m(米)为单位。能见度的大小通常与目标物与背景之间的亮度差异以及大气透明度相关;目标物与背景之间的亮度差异越大则能见度越高,大气透明度越好则能见度越高。
需说明的是,本实施例中所述能见度包括地面能见度和空中能见度。所述地面能见度反映的是近地面水平方向能见距离的情况,航行活动中主要掌握跑道上的地面能见度以及某方位的最小能见度;所述空中能见度是指飞行能见度,飞行能见度决定了航空器起飞、着陆时按目视飞行规则或按仪表飞行规则操作的重要依据。
在本实施例的较佳实施方式中,选用一观测站为图像采集地点,并选用该观测站的周围区域作为能见度监测区域。具体而言,可在观测站附近架设图像采集装置,采集观测站周围参照物的图像信息。
因本实施例中基于深度学习的能见度监测装置的实施方式,与前文实施例一中基于深度学习的能见度监测方法的实施方式类似,故不再赘述。
应理解的是,以上的能见度监测装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,图像处理模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上图像处理模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital signal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
实施例四
如图4所示,展示了本发明一实施例中的基于深度学习的模型训练装置的结构示意图。本实施例的模型训练装置包括训练数据采集模块41、标签标注模块42及模型训练模块43。
训练数据采集模块41用于采集多张不同能见度及不同光照条件下的参照物图像数据;标签标注模块42用于为每张图像中的参照物标注参照物的位置数据和清晰度标签类别数据;模型训练模块43于构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
因本实施例中基于深度学习的模型训练装置的实施方式,与前文实施例二中基于深度学习的模型训练方法的实施方式类似,故不再赘述。
应理解的是,以上的模型训练装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,模型训练模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上模型训练模块的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital signal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现
实施例五
如图5所示,展示了本发明一实施例中的基于深度学习的能见度监测终端的结构示意图。本实施例的能见度监测终端包括:处理器51、存储器52、通信器53;存储器52通过系统总线与处理器51和通信器53连接并完成相互间的通信,存储器52用于存储计算机程序,通信器53用于和其他设备进行通信,处理器51用于运行计算机程序,使云状识别终端执行如上基于深度学习的能见度监测方法的各个步骤。
因本实施例中基于深度学习的能见度监测终端的实施方式,与前文实施例一中基于深度学习的能见度监测方法的实施方式类似,故不再赘述。
需说明的是,上述提到的系统总线可以是外设部件互连标准(PeripheralComponent Interconnect,简称PCI)总线或扩展工业标准结构(Extended IndustryStandard Architecture,简称EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
实施例六
如图6所示,展示了本发明一实施例中的基于深度学习的模型训练终端的结构示意图。本实施例的模型训练终端包括:处理器61、存储器62、通信器63;存储器62通过系统总线与处理器61和通信器63连接并完成相互间的通信,存储器62用于存储计算机程序,通信器63用于和其他设备进行通信,处理器61用于运行计算机程序,使云状识别终端执行如上基于深度学习的模型训练方法的各个步骤。
因本实施例中基于深度学习的模型训练终端的实施方式,与前文实施例二中基于深度学习的模型训练方法的实施方式类似,故不再赘述。
需说明的是,上述提到的系统总线可以是外设部件互连标准(PeripheralComponent Interconnect,简称PCI)总线或扩展工业标准结构(Extended IndustryStandard Architecture,简称EISA)总线等。该系统总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。通信接口用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信。存储器可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
实施例七
本实施例提供一种计算机可读存储介质,其上存储有第一计算机程序和/或第二计算机程序,所述第一计算机程序被处理器执行时实现前文实施例一所述的基于深度学习的能见度监测方法;所述第二计算机程序被处理器执行时实现前文实施例二所述的基于深度学习的模型训练方法。
本领域普通技术人员可以理解:实现上述各方法实施例的全部或部分步骤可以通过计算机程序相关的硬件来完成。前述的计算机程序可以存储于一计算机可读存储介质中。该程序在执行时,执行包括上述各方法实施例的步骤;而前述的存储介质包括:ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
综上所述,本申请提供基于深度学习的能见度监测和模型训练方法、装置、终端及介质,其旨在通过采集周围建筑物图像,并利用深度学习技术分析建筑物图像的清晰程度,从而推导出能见度。本发明的优势在于始终执行原始的能见度定义标准不受人的主观影响,且能够做到实时监测,将观测人员从每半小时一次的繁琐工作中解放出来,大大提升了监测的效率和精准度。所以,本申请有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本申请的原理及其功效,而非用于限制本申请。任何熟悉此技术的人士皆可在不违背本申请的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本申请所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本申请的权利要求所涵盖。
Claims (10)
1.一种基于深度学习的能见度监测方法,其特征在于,包括:
采集能见度监测区域内的参照物图像并进行图像预处理;
将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;
根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
2.根据权利要求1所述的能见度监测方法,其特征在于,所述图像预处理包括图像归一化处理,其包括:
通过预设的参照物位置信息截取参照物所在区域的图像;
将所截取图像中的每个像素点的三个色彩通道数据分别减去对应的预设通道数据,并缩放至预设像素尺寸。
3.根据权利要求1所述的能见度监测方法,其特征在于,所述根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值,其包括:
获取所述参照物与图像采集地点位置之间的实际距离信息;
获取与所述参照物图像的清晰度类别相对应的最大能见度系数;
将所述最大能见度系数作为所述参照物与图像采集地点位置之间实际距离的权重系数,据以得到所述参照物图像所反映的能见度值。
4.一种基于深度学习的模型训练方法,其特征在于,用于训练权利要求1中所述的清晰度分类模型;所述方法包括:
采集多张不同能见度及不同光照条件下的参照物图像数据;
为每张图像中的参照物标记参照物的位置数据和清晰度标签类别数据;
构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
5.根据权利要求4所述的模型训练方法,其特征在于,所述以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛,其包括:
对参照物图像进行归一化处理;
将归一化处理后的参照物图像数据及其对应的位置数据和清晰度标签类别数据输入所述分类网络模型中,并计算二值交叉熵损失值;其中,在所述二值交叉熵损失值小于预设损失值的情况下,确定所述分类网络模型收敛。
6.一种基于深度学习的能见度监测装置,其特征在于,包括:
图像采集模块,用于采集能见度监测区域内的参照物图像并进行图像预处理;
图像处理模块,用于将预处理后的参照物图像输入经深度学习训练的清晰度分类模型中,据以输出所述参照物图像对应于多个清晰度类别的归类置信度,并以其中归类置信度最高的清晰度类别作为所述参照物图像的清晰度类别;
能见度计算模块,用于根据所述参照物与图像采集地点位置之间的距离信息以及所述参照物图像的清晰度类别信息,计算该参照物图像所能反映的能见度值。
7.一种基于深度学习的模型训练装置,其特征在于,包括:
训练数据采集模块,用于采集多张不同能见度及不同光照条件下的参照物图像数据;
标签标注模块,用于为每张图像中的参照物标注参照物的位置数据和清晰度标签类别数据;
模型训练模块,用于构建一分类网络模型,并以参照物的位置数据和清晰度标签类别数据作为训练数据来训练所述分类网络模型直至其收敛。
8.一种计算机可读存储介质,其上存储有第一计算机程序和/或第二计算机程序,其特征在于,所述第一计算机程序被处理器执行时实现权利要求1至3中任一项所述基于深度学习的能见度监测方法;所述第二计算机程序被处理器执行时实现权利要求4或5所述基于深度学习的模型训练方法。
9.一种基于深度学习的能见度监测终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行如权利要求1至3中任一项所述基于深度学习的能见度监测方法。
10.一种基于深度学习的模型训练终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序;
所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行如权利要求4或5所述基于深度学习的模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010042073.2A CN111259957A (zh) | 2020-01-15 | 2020-01-15 | 基于深度学习的能见度监测和模型训练方法、装置、终端及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010042073.2A CN111259957A (zh) | 2020-01-15 | 2020-01-15 | 基于深度学习的能见度监测和模型训练方法、装置、终端及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111259957A true CN111259957A (zh) | 2020-06-09 |
Family
ID=70953194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010042073.2A Pending CN111259957A (zh) | 2020-01-15 | 2020-01-15 | 基于深度学习的能见度监测和模型训练方法、装置、终端及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259957A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111736237A (zh) * | 2020-07-31 | 2020-10-02 | 上海眼控科技股份有限公司 | 辐射雾检测方法、装置、计算机设备和可读存储介质 |
CN111754474A (zh) * | 2020-06-17 | 2020-10-09 | 上海眼控科技股份有限公司 | 一种基于图像清晰度的能见度识别的方法及设备 |
CN111899309A (zh) * | 2020-07-31 | 2020-11-06 | 上海眼控科技股份有限公司 | 上坡雾检测方法、装置、计算机设备和可读存储介质 |
CN111898693A (zh) * | 2020-08-06 | 2020-11-06 | 上海眼控科技股份有限公司 | 能见度分类模型的训练方法、能见度估计方法、装置 |
CN111914933A (zh) * | 2020-07-31 | 2020-11-10 | 中国民用航空华东地区空中交通管理局 | 降雪检测方法、装置、计算机设备和可读存储介质 |
CN113158971A (zh) * | 2021-05-11 | 2021-07-23 | 北京易华录信息技术股份有限公司 | 一种事件检测模型训练方法及事件分类方法、系统 |
CN113793336A (zh) * | 2021-11-17 | 2021-12-14 | 成都西交智汇大数据科技有限公司 | 一种检测血细胞的方法、装置、设备及可读存储介质 |
WO2023173699A1 (zh) * | 2022-03-18 | 2023-09-21 | 合众新能源汽车股份有限公司 | 基于机器学习的辅助驾驶方法、装置和计算机可读介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002014038A (ja) * | 2000-06-29 | 2002-01-18 | Koito Ind Ltd | 視認状況測定装置 |
US20030197867A1 (en) * | 1999-03-12 | 2003-10-23 | Kwon Taek Mu | Video camera-based visibility measurement system |
CN102162788A (zh) * | 2010-10-19 | 2011-08-24 | 北方工业大学 | 基于高清视频的能见度检测方法 |
CN103954542A (zh) * | 2014-05-12 | 2014-07-30 | 中国计量学院 | 基于无参考图像清晰度评价的pm2.5浓度检测仪 |
CN105512623A (zh) * | 2015-12-02 | 2016-04-20 | 吉林大学 | 基于多传感器雾天行车视觉增强与能见度预警系统及方法 |
CN105825511A (zh) * | 2016-03-18 | 2016-08-03 | 南京邮电大学 | 一种基于深度学习的图片背景清晰度检测方法 |
CN106803248A (zh) * | 2016-12-18 | 2017-06-06 | 南京邮电大学 | 模糊车牌图像模糊度评价方法 |
CN107909546A (zh) * | 2017-09-28 | 2018-04-13 | 北京华航无线电测量研究所 | 一种雾天降质图像清晰化处理方法 |
CN109383289A (zh) * | 2018-10-19 | 2019-02-26 | 湖北亿咖通科技有限公司 | 汽车限速控制方法、装置、电子设备及可读存储介质 |
CN110378865A (zh) * | 2019-04-28 | 2019-10-25 | 湖南师范大学 | 一种复杂背景下的雾天能见度智能分级识别方法及系统 |
-
2020
- 2020-01-15 CN CN202010042073.2A patent/CN111259957A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030197867A1 (en) * | 1999-03-12 | 2003-10-23 | Kwon Taek Mu | Video camera-based visibility measurement system |
JP2002014038A (ja) * | 2000-06-29 | 2002-01-18 | Koito Ind Ltd | 視認状況測定装置 |
CN102162788A (zh) * | 2010-10-19 | 2011-08-24 | 北方工业大学 | 基于高清视频的能见度检测方法 |
CN103954542A (zh) * | 2014-05-12 | 2014-07-30 | 中国计量学院 | 基于无参考图像清晰度评价的pm2.5浓度检测仪 |
CN105512623A (zh) * | 2015-12-02 | 2016-04-20 | 吉林大学 | 基于多传感器雾天行车视觉增强与能见度预警系统及方法 |
CN105825511A (zh) * | 2016-03-18 | 2016-08-03 | 南京邮电大学 | 一种基于深度学习的图片背景清晰度检测方法 |
CN106803248A (zh) * | 2016-12-18 | 2017-06-06 | 南京邮电大学 | 模糊车牌图像模糊度评价方法 |
CN107909546A (zh) * | 2017-09-28 | 2018-04-13 | 北京华航无线电测量研究所 | 一种雾天降质图像清晰化处理方法 |
CN109383289A (zh) * | 2018-10-19 | 2019-02-26 | 湖北亿咖通科技有限公司 | 汽车限速控制方法、装置、电子设备及可读存储介质 |
CN110378865A (zh) * | 2019-04-28 | 2019-10-25 | 湖南师范大学 | 一种复杂背景下的雾天能见度智能分级识别方法及系统 |
Non-Patent Citations (2)
Title |
---|
HAZAR CHAABANI等: "A Neural network approach to visibility range estimation under foggy weather conditions", 《PROCEDIA COMPUTER SCIENCE》, vol. 113, pages 466 - 471, XP085177111, DOI: 10.1016/j.procs.2017.08.304 * |
张晗等: "基于图像处理的空气污染程度判断模型仿真", 《计算机仿真》, vol. 32, no. 2, pages 452 - 455 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111754474A (zh) * | 2020-06-17 | 2020-10-09 | 上海眼控科技股份有限公司 | 一种基于图像清晰度的能见度识别的方法及设备 |
CN111736237A (zh) * | 2020-07-31 | 2020-10-02 | 上海眼控科技股份有限公司 | 辐射雾检测方法、装置、计算机设备和可读存储介质 |
CN111899309A (zh) * | 2020-07-31 | 2020-11-06 | 上海眼控科技股份有限公司 | 上坡雾检测方法、装置、计算机设备和可读存储介质 |
CN111914933A (zh) * | 2020-07-31 | 2020-11-10 | 中国民用航空华东地区空中交通管理局 | 降雪检测方法、装置、计算机设备和可读存储介质 |
CN111898693A (zh) * | 2020-08-06 | 2020-11-06 | 上海眼控科技股份有限公司 | 能见度分类模型的训练方法、能见度估计方法、装置 |
CN113158971A (zh) * | 2021-05-11 | 2021-07-23 | 北京易华录信息技术股份有限公司 | 一种事件检测模型训练方法及事件分类方法、系统 |
CN113158971B (zh) * | 2021-05-11 | 2024-03-08 | 北京易华录信息技术股份有限公司 | 一种事件检测模型训练方法及事件分类方法、系统 |
CN113793336A (zh) * | 2021-11-17 | 2021-12-14 | 成都西交智汇大数据科技有限公司 | 一种检测血细胞的方法、装置、设备及可读存储介质 |
WO2023173699A1 (zh) * | 2022-03-18 | 2023-09-21 | 合众新能源汽车股份有限公司 | 基于机器学习的辅助驾驶方法、装置和计算机可读介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259957A (zh) | 基于深度学习的能见度监测和模型训练方法、装置、终端及介质 | |
US11328506B2 (en) | Crop identification method and computing device | |
CN111507399A (zh) | 基于深度学习的云状识别和模型训练方法、装置、终端及介质 | |
CN112966587A (zh) | 目标检测模型的训练方法、目标检测方法及相关设备 | |
JP2018072938A (ja) | 目的物個数推定装置、目的物個数推定方法及びプログラム | |
CN113177968A (zh) | 目标跟踪方法、装置、电子设备及存储介质 | |
US20220004740A1 (en) | Apparatus and Method For Three-Dimensional Object Recognition | |
CN112489099A (zh) | 点云配准方法、装置、存储介质及电子设备 | |
CN112668461B (zh) | 一种具有野生动物识别的智能监管系统 | |
JP2014032623A (ja) | 画像処理装置 | |
CN115719436A (zh) | 模型训练方法、目标检测方法、装置、设备以及存储介质 | |
CN116503399A (zh) | 基于yolo-afps的绝缘子污闪检测方法 | |
CN116128883A (zh) | 一种光伏板数量统计方法、装置、电子设备及存储介质 | |
CN114299242A (zh) | 高精地图中图像处理方法、装置、设备以及存储介质 | |
CN106960188B (zh) | 天气图像分类方法及装置 | |
Osuna-Coutiño et al. | Structure extraction in urbanized aerial images from a single view using a CNN-based approach | |
CN111104965A (zh) | 车辆目标识别的方法及装置 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN116029440A (zh) | 光伏电站超短期功率预测方法和装置 | |
CN113362227B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113554057B (zh) | 图的分割方法、装置及电子设备 | |
CN114298229A (zh) | 作物类别确定方法、装置、电子设备及存储介质 | |
CN116630139A (zh) | 数据生成的方法、装置、设备和存储介质 | |
CN113610856A (zh) | 训练图像分割模型和图像分割的方法和装置 | |
CN112351181A (zh) | 基于cmos芯片和zynq体系的智能相机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |