CN113052210B - 一种基于卷积神经网络的快速低光照目标检测方法 - Google Patents
一种基于卷积神经网络的快速低光照目标检测方法 Download PDFInfo
- Publication number
- CN113052210B CN113052210B CN202110263181.7A CN202110263181A CN113052210B CN 113052210 B CN113052210 B CN 113052210B CN 202110263181 A CN202110263181 A CN 202110263181A CN 113052210 B CN113052210 B CN 113052210B
- Authority
- CN
- China
- Prior art keywords
- image
- network
- resolution
- low
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 73
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 31
- 238000005286 illumination Methods 0.000 claims abstract description 38
- 230000004927 fusion Effects 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims description 17
- 238000000034 method Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 17
- 238000013528 artificial neural network Methods 0.000 claims description 13
- 238000012360 testing method Methods 0.000 claims description 7
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 230000008569 process Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 2
- 238000011176 pooling Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 230000000452 restraining effect Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 2
- 238000003384 imaging method Methods 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 4
- 239000003086 colorant Substances 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004575 stone Substances 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4053—Super resolution, i.e. output image resolution higher than sensor resolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
一种基于卷积神经网络的快速低光照目标检测方法属于深度学习领域。本发明通过对卷积神经网络的网络结构及特征图进行研究,使用三层金字塔结构的卷积神经网络作为低光照增强网络,将高分辨率的低光照图像转换为低分辨率的光照增强图像,实现了在恢复低光照图像光照亮度和色彩等细节的同时大幅减小计算资源消耗,提高成像速度。结合基于单像素注意力的轻量化超分辨率网络将低分辨率的增强图像上采样至高分辨图像,增强图像的纹理细节,提高检测精度。使用基于多尺度融合的目标检测网络融合了不同尺度图像的特征信息,有效地提高了检测精度。在Zurich RAW to RGB数据集下验证了本发明的有效性。
Description
技术领域
本发明属于深度学习、图像增强和目标检测领域,具体涉及一种基于卷积神经网络的快速低光照目标检测方法。
背景技术
目标检测技术有很多应用,如人脸识别、自动驾驶、故障诊断等。然而,现实环境中各种复杂的光照条件,如夜间、阴雨、雾霾等,都会影响图像质量,进而影响目标检测的准确性。在低光照条件下,大多数现有的目标检测方法都会受到影响,检测性能会降低,甚至导致检测失败。由于光照条件的复杂性,低光照目标检测一直是图像处理和计算机视觉中的一个难题。
目前,低光照目标检测的主要方法是两步法。第一步是增强低光照图像的亮度,恢复图像的颜色、轮廓和细节特征。第二步是检测增强图像上的目标。在传统的低光照图像增强方法中,无论是直方图均衡化方法还是基于Retinex的方法都侧重于对比度增强,但无法恢复图像的细节和颜色,因此不适用于低光照目标检测。近年来发展起来的基于卷积神经网络的低光照增强模型提取了高层语义,学习颜色、对比度和光照特征,产生了更具表现力的效果。早期的目标检测的方法分为一阶段检测器和二阶段检测器。二阶段检测器首先对所有图像区域进行分割,提取出可能的检测对象,然后对其进行分类定位。但是,二阶段检测器的运行时间太长,占用了大量的计算资源。相反,一阶段检测器在回归过程中直接对目标进行分类,显著提高了检测速度。目前,基于卷积神经网络的低光照目标检测方法已经取得了较好的增强和检测效果。然而,这些方法需要4480*4480分辨率以上的高分辨率原始图像作为学习数据集,消耗大量的计算和存储资源。此外,单级检测器对整个图像进行回归,导致大量的负样本,导致检测精度不够。针对上述问题的一种可行的解决方案是首先进行光照增强并输出 992*720以下的低分辨率图片,然后引入注意机制的轻量化超分辨率网络来增强图像的分辨率至1984*1440以上,丰富图像细节特征,最后使用多尺度融合的目标检测网络实现对低光照目标的快速检测。
发明内容
本发明提供一种基于卷积神经网络的快速低光照目标检测方法,本发明通过对卷积神经网络的网络结构及特征图进行研究,设计了一种多尺度卷积神经网络,使用三层金字塔结构的卷积神经网络作为低光照增强网络,将4480*4480分辨率以上的高分辨率的低光照图像转换为992*720以下的低分辨率光照增强图像,实现了在恢复低光照图像光照亮度和色彩等细节的同时大幅减小计算资源消耗,提高成像速度。结合基于单像素注意力的轻量化超分辨率网络将992*720以下的低分辨率增强图像上采样至1984*1440以上,增强图像的纹理细节,提高检测精度。使用基于多尺度融合的目标检测网络融合了不同尺度图像的特征信息,有效地提高了检测精度。
本发明所要解决的技术问题有两个,一是现有的基于卷积网络的低光照目标检测中低光照增强模块法需要4480*4480分辨率以上的高分辨率原始图像作为学习数据集,消耗了大量的计算和存储资源,造成模型运行速度缓慢,并且难以在低配置硬件系统上实现的问题;二是现有的轻量级目标检测模型在检测任务中存在检测精度和回归率不高的问题。针对这两个问题,本发明提出一种基于金字塔卷积的卷积神经网络用于低分辨率下的低光照图像增强,结合单像素注意力机制的轻量化超分辨网络实现对低光照图像的细节增强,最后结合多尺度融合的目标检测网络进行目标检测,不仅实现了加快网络模型的运行速度,而且具有良好的目标检测精度与回归率。
本发明采用的技术方案如下:
一种基于卷积神经网络的快速低光照目标检测方法,包括以下步骤:
步骤1、构建由金字塔卷积神经网络(低光照增强网络)、轻量化单像素注意力网络(图像超分辨率网络)和多尺度融合卷积网络(目标检测网络)组成的目标检测模型。其中,基于三层金字塔状的卷积神经网络用于低光照图像的光照增强,注意力网络用于提高低光照图像的分辨率,多尺度融合卷积网络用于进行目标类别与定位预测;
步骤2、收集大量的图像作为数据集,将收集到的图像进行预处理,调整图像分辨率以适应网络输入,将数据集进行基于正负样本数目的优化划分得到训练集和测试集;
步骤3、对模型进行训练。利用处理好的训练数据集作为金字塔卷积神经网络的输入,增强光照。注意力网络利用金字塔卷积神经网络增强后的图像进行超分辨率增强,将增强后的高分辨率图像送入多尺度融合卷积网络进行目标的定位与分类,最终得到检测图像。
其中,步骤1所述的金字塔卷积神经网络由三个不同分辨率的卷积层组成,每个卷积层可以从不同分辨率上学习颜色和光照特征。每个分辨率层含有个数不同的密集连接卷积块。
本发明使用金字塔卷积网络的理由在于通过将图像降低至不同大小的分辨率可以获得图像的全局和局部信息。图像被下采样至三个不同大小的分辨率层上,在最低的分辨率层上,通过三个3*3卷积块可以良好恢复图像的全局光照信息,在较高分辨率层上,通过六个不同大小的卷积块,可以良好恢复图像的局部颜色和纹理信息,从而输出具有光照增强效果的图片。
本发明使用轻量化单像素注意力网络的理由在于原数据集中图像分辨率很高,在高分辨率图像中使用金字塔结构会极大增加计算量,从而严重拖缓模型运行时间。针对这些问题,在使用金字塔卷积网络输出低分辨率增强图像之后,本发明使用了轻量化单像素注意力网络,在超分辨网络中引入单像素注意力,提高了图像细节,有效地减小了参数量,加快模型运行效率,并且提高了目标检测的准确率。
步骤1所述的金字塔卷积神经网络的卷积块结构中,卷积后除了第一层最后使用了Tanh激活函数,在各分辨率层的每一个卷积层都应用了LeakyReLU激活函数,避免梯度消失,并增加网络稀疏性以避免过拟合,并使用实例归一化处理每一层的卷积层。
步骤1所述的金字塔卷积神经网络的损失函数由感知损失函数和均方误差函数组成,其中感知损失函数由特征损失和风格损失组成。
步骤1所述的轻量化图像超分辨网络将金字塔卷积神经网络输出的低分辨率图片施行超分辨操作,提高图像细节,将超分辨后的高分辨率图片送入目标检测网络。
步骤1所述的多尺度融合卷积网络对超分辨图进行处理,得到图像中预测目标的检测信息,所述检测信息包括目标位置信息和目标类别信息。
本发明提供的技术方案的有益效果是:
1、采用金字塔卷积网络来增强光照效果,降低图像分辨率,减少计算资源消耗。
2、设计了一个基于单像素注意力模块的轻量化超分辨率网络,将低分辨率增强图像还原为具有丰富细节的高分辨率图像,增强目标检测效果和目标定位精度。
3、集成了金字塔低光照增强网络、单像素注意力超分辨率网络和目标检测网络,实现了端到端的低光照图像目标检测。
附图说明
图1基于卷积神经网络的快速低光照目标检测流程示意图图2本发明中快速低光照目标检测模型示意图;
图3(a)YOLOv3网络模型的检测结果;图3(b)本发明的检测结果。
具体实施方式
为了使本发明方法的目的,技术方案以及优点更加清楚明白,以下结合附图及实例解释本发明,并不用于限定本发明:
实施例1
如图1所示,本发明提供一种卷积神经网络的快速低光照目标检测方法,包括以下步骤:
步骤1、构建由金字塔卷积神经网络(低光照增强网络)、轻量化单像素注意力网络(图像超分辨率网络)和多尺度融合卷积网络(目标检测网络)组成的目标检测模型。其中,基于三层金字塔状的卷积神经网络用于低光照图像的光照增强,注意力网络用于提高低光照图像的分辨率,多尺度融合卷积网络用于进行目标类别与定位预测;
步骤2、收集大量的图像作为数据集,将收集到的图像进行预处理,调整图像分辨率以适应网络输入,将数据集进行基于正负样本数目的优化划分得到训练集和测试集;
步骤3、对模型进行训练。利用处理好的训练数据集作为金字塔卷积神经网络的输入,增强光照。注意力网络利用金字塔卷积神经网络增强后的图像进行超分辨率增强,将增强后的高分辨率图像送入多尺度融合卷积网络进行目标的定位与分类,最终得到检测图像。
步骤1所述的目标检测模型构建如图2所示,具体如下:
金字塔卷积神经网络由三个不同分辨率的卷积层组成,每个卷积层可以从不同分辨率上学习颜色和光照特征。每个分辨率层含有个数不同的密集连接卷积块。轻量化图像超分辨网络将金字塔卷积神经网络输出的低分辨率图片施行超分辨操作,提高图像细节,将超分辨后的高分辨率图片送入目标检测网络。多尺度融合卷积网络对超分辨图进行处理,得到图像中预测目标的检测信息,所述检测信息包括目标位置信息和目标类别信息。
步骤2所述的对收集到的图像进行预处理,具体如下:
首先使用DSLR的图像对齐算法将从相机捕获的RAW图像与 RGB图像对齐,然后计算并匹配图像上的SIFT关键点确定重叠区域,将两个图像都裁剪到相交部分,从而得到具有相同分辨率的两个图像表示同一场景。然后使用不重叠的滑动窗口从匹配后的图像中提取 448*448大小的图像块,以供低光照增强网络训练和验证。
步骤3所述的模型训练过程具体如下:
低光照图像增强部分(金字塔卷积神经网络):
输入图像被调整为224*224*4大小的图像块,然后分别进行三次卷积和池化操作,使图像分布在三个不同的比例的层级中进行处理。网络从最底层(第三层)开始训练,通过3个步长为1,卷积核为3*3 的卷积层,并且相邻层密集连接、两两叠加,经过最后一个卷积层计算后获得的图像经过转置卷积层上采样和concat至上一个层级(第二层)的第一个和最后一个的卷积层前,每一层处理后的特征图与上一个层级的特征图堆叠以此获得更好的全局信息。第二层由4个步长为 1,卷积核为3*3的卷积层和3个步长为1,卷积核为5*5的卷积层组成,同样地使相邻卷积层相加、末尾卷积块上采样。第一层由6个3*3卷积、5个5*5卷积、3个9*9卷积构成,最后输出992*720大小的光照增强图像。
金字塔卷积神经网络的目标损失函数由感知损失函数和均方误差函数组成,其中感知损失函数由特征损失和风格损失组成。
Loss=Perceptual Loss+MSELoss (1)
Perceptual Loss=Loss_feature+Loss_style (2)
其中,j代表网络的第j层,CjHjWj代表第j层的特征图的长宽和通道数,是整体CNN网络,公式(3)计算的是特征损失,特征损失是风格来源和目标图像通过/>处理后的欧氏距离。G是Gram矩阵, Gram矩阵的功能是通过矩阵乘法删除卷积特征图上的空间结构信息,并保留整个图像共有的语义信息。公式(4)计算的是风格损失,风格损失是Gram矩阵的欧式距离差值。
轻量化图像超分辨部分(单像素注意力网络):
将金字塔卷积网络中输出的992*720大小的光照增强图片进行图像超分辨。首先将图片经过由1*1卷积和3*3卷积组成的单像素注意力非线性映射模块,接着通过由最近邻上采样层和单像素注意力模块组成的分辨率重建模块,最后输出1984*1440大小的高分辨率图片。
目标检测部分(多尺度融合网络):
多尺度融合卷积网络分为骨干网络、特征融合网络和定位预测网络。首先由图像超分辨网络得到的分辨率为1984*1440大小的图片由骨干网络被下采样至七个不同分辨率大小的图像,然后将得到的各分辨率特征图输入BIFPN特征融合网络,最后输入定位预测网络,使用非极大值抑制对多个预测框内的目标类别置信度及预测框相对默认框的位置偏移量进行抑制,得到最终的预测框内的目标类别及预测框相对默认框的位置偏移量,并根据位置偏移量求出预测框的位置坐标。
实施例2
本发明提供一种卷积神经网络的快速低光照目标检测方法,本例中以模型在Zurich RAW to RGB数据集下的实验结果说明本发明的技术效果。Zurich RAW to RGB数据集是一个低光照图像数据集,包含两万张低光照图片,由训练/验证/测试集三部分组成。以其中18800 张图像进行训练,使用1200张图像进行测试。
实验步骤:
1、分别使用YOLOV3网络模型和本发明的网络模型在数据集 Zurich RAW to RGB训练集上训练模型。
2、分别使用1中训练好YOLOV3网络模型和本发明的网络模型在Zurich RAW toRGB测试数据集上进行测试,得到网络模型的模型大小、平均精度和检测速度如表1所示。
3、分别使用训练好的YOLOv3网络模型和本发明模型在一张含有多目标的图片上依次进行目标检测,YOLOv3网络模型的检测结果如图3(a),本发明的检测结果如图3(b)。
实验结果:
表1.实验结果对比
如实验所示,本发明模型在检测速度和准确度方面都超过了 YOLOv3,并且模型尺寸也更小,检测效果如图3所示。
如图3所示,YOLOv3对所有图像的检测精度不够,图像右侧无法识别行人。本发明对小目标的性能远好于YOLOv3,可以识别出远处行人,准确识别石凳。此外,本发明通过使用降低分辨率再进行超分辨的图像增强方式很好的恢复了低光照图像。
以上对本发明的具体实施进行了详尽的描述。需要理解的是个别细节并不局限于上述特定的实施方式,本领域技术人员可以在权利要求的范围内做出各种变形或修改,并不影响本发明的实质内容。
Claims (5)
1.一种基于卷积神经网络的快速低光照目标检测方法,其特征在于,包括以下步骤:
步骤1、构建由金字塔卷积神经网络、轻量化单像素注意力网络和多尺度融合卷积网络组成的目标检测模型;其中,基于三层金字塔状的卷积神经网络用于低光照图像的光照增强,注意力网络用于提高低光照图像的分辨率,多尺度融合卷积网络用于进行目标类别与定位预测;低光照照度为1~3LUX;金字塔卷积神经网络由三个从低到高三个不同分辨率的卷积层组成,网络从第三层和第二层的低分辨率图像上学习颜色和光照特征,从第一层的高分辨率图像上学习细节和纹理特征,每个分辨率层含有个数不同的密集连接卷积块;第三层低分辨率图像大小为124*90,第二层低分辨图像大小为496*360,第一层高分辨率图像大小为992*720;金字塔卷积神经网络除了第一层的末尾使用Tanh激活函数,在每个卷积层的每一个卷积块后都应用了LeakyReLU激活函数,并在每个卷积层的末尾使用归一化;
步骤2、收集低光照图像作为数据集,将收集到的图像进行预处理,调整图像分辨率以适应网络输入,将数据集进行基于正负样本数目的优化划分得到训练集和测试集;
步骤3、对模型进行训练;利用处理好的训练数据集作为金字塔卷积神经网络的输入,增强光照;注意力网络利用金字塔卷积神经网络增强后的图像进行超分辨率增强,将增强后的的图像送入多尺度融合卷积网络进行目标的定位与分类,最终得到检测图像;
步骤3所述的模型训练具体如下:
1)输入图像被调整为224*224*4大小的图像块,然后分别进行三次卷积和池化操作,使图像分布在三个不同的比例的层级中进行处理;网络从最底层即第三层开始训练,通过3个步长为1,卷积核为3*3的卷积层,并且相邻层密集连接、两两叠加,经过最后一个卷积层计算后获得的图像经过转置卷积层上采样和concat至上一个层级即第二层的第一个和最后一个的卷积层前,每一层处理后的特征图与上一个层级的特征图堆叠以此获得更好的全局信息;第二层由4个步长为1,卷积核为3*3的卷积层和3个步长为1,卷积核为5*5的卷积层组成,同样地使相邻卷积层相加、末尾卷积块上采样;第一层由6个3*3卷积、5个5*5卷积、3个9*9卷积构成,最后输出光照增强图像;
2)轻量化图像超分辨网络选取1)中得到的光照增强图片进行图像超分辨;首先将图片经过由1*1卷积和3*3卷积组成的单像素注意力非线性映射模块,接着通过由最近邻上采样层和单像素注意力模块组成的分辨率重建模块,最后输出超分辨率图片;
3)多尺度融合卷积网络分为骨干网络、特征融合网络和定位预测网络;首先由2)得到的图片由骨干网络被下采样至七个不同分辨率大小的图像,然后将得到的各分辨率特征图输入BIFPN特征融合网络,最后输入定位预测网络,使用非极大值抑制对多个预测框内的目标类别置信度及预测框相对默认框的位置偏移量进行抑制,得到最终的预测框内的目标类别及预测框相对默认框的位置偏移量,并根据位置偏移量求出预测框的位置坐标。
2.如权利要求1所述的基于卷积神经网络的快速低光照目标检测方法,其特征在于,步骤1的轻量化图像超分辨网络将金字塔卷积神经网络输出的图片实行超分辨操作,将超分辨后的图像送入多尺度融合卷积网络。
3.如权利要求1所述的基于卷积神经网络的快速低光照目标检测方法,其特征在于,步骤1所述的多尺度融合卷积网络对超分辨图进行处理,得到图像中预测目标的检测信息,所述检测信息包括目标位置信息和目标类别信息。
4.如权利要求1所述的卷积神经网络的快速低光照目标检测方法,其特征在于,步骤2所述的预处理具体如下:
首先使用DSLR的图像对齐算法将从相机捕获的RAW图像与RGB图像对齐,然后计算并匹配图像上的SIFT关键点确定重叠区域,将两个图像都裁剪到相交部分,从而得到具有相同分辨率的两个图像表示同一场景;然后使用不重叠的滑动窗口从匹配后的图像中提取图像块,以供低光照增强网络训练和验证。
5.如权利要求1所述的基于卷积神经网络的快速低光照目标检测方法,其特征在于,金字塔卷积神经网络的目标损失函数由感知损失函数和均方误差函数组成,其中感知损失函数由特征损失和风格损失组成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110263181.7A CN113052210B (zh) | 2021-03-11 | 2021-03-11 | 一种基于卷积神经网络的快速低光照目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110263181.7A CN113052210B (zh) | 2021-03-11 | 2021-03-11 | 一种基于卷积神经网络的快速低光照目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113052210A CN113052210A (zh) | 2021-06-29 |
CN113052210B true CN113052210B (zh) | 2024-04-26 |
Family
ID=76511301
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110263181.7A Active CN113052210B (zh) | 2021-03-11 | 2021-03-11 | 一种基于卷积神经网络的快速低光照目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113052210B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113780152B (zh) * | 2021-09-07 | 2024-04-05 | 北京航空航天大学 | 一种基于目标感知的遥感图像船只小目标检测方法 |
CN113837039B (zh) * | 2021-09-13 | 2023-10-24 | 常州大学 | 一种基于卷积神经网络的果实生长形态视觉辨识方法 |
CN113628152B (zh) * | 2021-09-15 | 2023-11-17 | 南京天巡遥感技术研究院有限公司 | 一种基于多尺度特征选择性融合的暗光图像增强方法 |
CN115880162A (zh) * | 2021-09-28 | 2023-03-31 | 深圳市中兴微电子技术有限公司 | 图像增强模型训练的方法、图像增强的方法、可读介质 |
CN114065838B (zh) * | 2021-10-22 | 2023-07-14 | 中国科学院深圳先进技术研究院 | 一种低光照障碍物检测方法、系统、终端以及存储介质 |
CN114565860B (zh) * | 2022-03-01 | 2022-11-11 | 安徽大学 | 一种多维度增强学习合成孔径雷达图像目标检测方法 |
CN114821194B (zh) * | 2022-05-30 | 2023-07-25 | 深圳市科荣软件股份有限公司 | 一种设备运行状态识别方法及装置 |
CN114819109B (zh) * | 2022-06-22 | 2022-09-16 | 腾讯科技(深圳)有限公司 | 双目图像的超分辨率处理方法、装置、设备及介质 |
CN116758617B (zh) * | 2023-08-16 | 2023-11-10 | 四川信息职业技术学院 | 一种低光照度场景下的校园学生签到方法和校园签到系统 |
CN117011194B (zh) * | 2023-10-07 | 2024-01-30 | 暨南大学 | 一种基于多尺度双通道注意力网络的低光图像增强方法 |
CN117475498B (zh) * | 2023-12-28 | 2024-03-15 | 苏州元脑智能科技有限公司 | 自适应目标检测方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN110415170A (zh) * | 2019-06-24 | 2019-11-05 | 武汉大学 | 一种基于多尺度注意力卷积神经网络的图像超分辨率方法 |
CN111666836A (zh) * | 2020-05-22 | 2020-09-15 | 北京工业大学 | M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法 |
-
2021
- 2021-03-11 CN CN202110263181.7A patent/CN113052210B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344821A (zh) * | 2018-08-30 | 2019-02-15 | 西安电子科技大学 | 基于特征融合和深度学习的小目标检测方法 |
CN110415170A (zh) * | 2019-06-24 | 2019-11-05 | 武汉大学 | 一种基于多尺度注意力卷积神经网络的图像超分辨率方法 |
CN111666836A (zh) * | 2020-05-22 | 2020-09-15 | 北京工业大学 | M-f-y型轻量化卷积神经网络的高分辨率遥感影像目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113052210A (zh) | 2021-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113052210B (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN111210443B (zh) | 基于嵌入平衡的可变形卷积混合任务级联语义分割方法 | |
CN109241982B (zh) | 基于深浅层卷积神经网络的目标检测方法 | |
CN111639692B (zh) | 一种基于注意力机制的阴影检测方法 | |
CN110287849B (zh) | 一种适用于树莓派的轻量化深度网络图像目标检测方法 | |
CN111915530B (zh) | 一种基于端到端的雾霾浓度自适应神经网络图像去雾方法 | |
CN112150493B (zh) | 一种基于语义指导的自然场景下屏幕区域检测方法 | |
CN110766020A (zh) | 一种面向多语种自然场景文本检测与识别的系统及方法 | |
CN112801027A (zh) | 基于事件相机的车辆目标检测方法 | |
CN113850324B (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN110807384A (zh) | 低能见度下的小目标检测方法和系统 | |
CN115439743A (zh) | 一种泊车场景下精确提取视觉slam静态特征的方法 | |
CN113486712B (zh) | 一种基于深度学习的多人脸识别方法、系统和介质 | |
CN114332942A (zh) | 基于改进YOLOv3的夜间红外行人检测方法及系统 | |
CN116385401B (zh) | 一种高精度纺织品缺陷可视化检测方法 | |
CN116363535A (zh) | 基于卷积神经网络的无人机航拍影像中的船舶检测方法 | |
CN112446292B (zh) | 一种2d图像显著目标检测方法及系统 | |
CN116258664A (zh) | 一种基于深度学习的光伏电池片智能缺陷检测方法 | |
CN111539248B (zh) | 一种红外线人脸检测方法、装置及其电子设备 | |
CN115035429A (zh) | 一种基于复合主干网络和多预测头的航拍目标检测方法 | |
CN114494827A (zh) | 一种用于检测航拍图片的小目标检测方法 | |
CN112487947A (zh) | 基于图像融合与目标检测网络的低照度图像目标检测方法 | |
CN116580364A (zh) | 一种基于改进YOLO V5-s的多目标检测与跟踪方法 | |
CN117994573A (zh) | 一种基于超像素和可形变卷积的红外弱小目标检测方法 | |
Chen et al. | Video-Based and Mobile-Terminal Intelligence Perception Method of Car License Plate |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |