CN115546074A - 一种图像目标检测方法及相关设备 - Google Patents
一种图像目标检测方法及相关设备 Download PDFInfo
- Publication number
- CN115546074A CN115546074A CN202211534301.3A CN202211534301A CN115546074A CN 115546074 A CN115546074 A CN 115546074A CN 202211534301 A CN202211534301 A CN 202211534301A CN 115546074 A CN115546074 A CN 115546074A
- Authority
- CN
- China
- Prior art keywords
- image
- low
- illumination
- neural network
- enhanced
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000005286 illumination Methods 0.000 claims abstract description 67
- 238000003062 neural network model Methods 0.000 claims abstract description 34
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000006243 chemical reaction Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 22
- 238000000605 extraction Methods 0.000 claims description 12
- 238000000034 method Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 239000000126 substance Substances 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/94—Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种图像目标检测方法,包括:步骤1,获取待检测的低照度图像;步骤2,通过改进后的Retinex模型对低照度图像进行亮度分量去除处理,得到增强图像;步骤3,将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;采用改进的Retinex模型对低照度图像进行增强,通过对图像的色彩空间转换使亮度信息与色彩信息分离,以便模型对彩色图像增强时彩色分量的信息更加完整,最后采用GoogLeNet神经网络模型进行目标检测,可以更好挖掘目标特征,提高了在能见度低的环境下对目标检测的准确率。
Description
技术领域
本发明涉及图像识别技术领域,特别涉及一种图像目标检测方法及相关设备。
背景技术
随着智慧海关的建设不断推进,图像目标检测技术成为了海关智能监管服务不可或缺的组成元素。图像目标检测技术应用于海关的视频监控系统,具体实现包括集装箱箱号检测在内的物流监管、异常人员与车辆的识别与跟踪以及简单商品的辨别等,图像目标检测可在多个方面提升海关的工作效率和效能。
但是在现实中,由于海关这一应用场景的复杂性,目标检测的效果仍待提升,如在阴、雨、雾、夜等不同自然环境下,监控拍摄会因为环境能见度低、光照不足、视线遮挡等,影响拍摄图像的清晰度、亮度、色彩对比度等,影响目标检测的准确率。所以,视线对图像降低噪声影响、提升亮度和色彩信息等的图像增强处理对目标检测具有重要作用,而目前传统图像增强方法大多是直接将用于灰度图像的增强方法扩展到低照度图像中,没有充分考虑到彩色图像中多种色彩通道信息的复杂性,不能获得较为满意的效果。
发明内容
本发明提供了一种图像目标检测方法及相关设备,其目的是为了提高在能见度低的环境下对目标检测的准确率。
为了达到上述目的,本发明提供了一种图像目标检测方法,包括:
步骤1,获取待检测的低照度图像;
步骤2,通过改进后的Retinex模型对低照度图像进行亮度分量去除处理,得到增强图像;
步骤3,将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
第一卷积层的输入端为GoogLeNet神经网络模型的输入端,第一卷积层的输出端与第二卷积层的输入端连接,第二卷积层的输出端与第一池化层的输入端连接,第一池化层的输出端与GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
进一步来说,步骤2包括:
通过改进后的Retinex模型对低照度图像进行亮度分量去除处理,得到增强图像;
改进后的Retinex模型为:
进一步来说,步骤2包括:
将低照度图像从RGB颜色空间转换至LMS空间:
将低照度图像从LMS空间转换为以10为底的对数空间:
进一步来说,步骤2还包括:
进一步来说,在步骤3之前还包括:
进一步来说,在步骤4之前还包括:
本发明还提供了一种图像目标检测装置,包括:
获取模块,用于获取待检测的低照度图像;
处理模块,用于通过改进后的Retinex模型对所述低照度图像进行亮度分量去除处理,得到增强图像;
检测模块,用于将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
第一卷积层的输入端为GoogLeNet神经网络模型的输入端,第一卷积层的输出端与第二卷积层的输入端连接,第二卷积层的输出端与第一池化层的输入端连接,第一池化层的输出端与GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
本发明还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现图像目标检测方法。
本发明还提供了一种图像目标检测设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现图像目标检测方法。
本发明的上述方案有如下的有益效果:
本发明获取的待检测的低照度图像,通过改进后的Retinex模型对所述低照度图像进行亮度分量去除处理,得到增强图像,将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;采用改进的Retinex模型对低照度图像进行增强,通过对图像的色彩空间转换使亮度信息与色彩信息分离,以便模型对彩色图像增强时彩色分量的信息更加完整,最后采用GoogLeNet神经网络模型进行目标检测,可以更好挖掘目标特征,提高了在能见度低的环境下对目标检测的准确率。
本发明的其它有益效果将在随后的具体实施方式部分予以详细说明。
附图说明
图1为本发明实施例的方法流程图;
图2为本发明实施例中网络的初始特征提取模块连接图;
图3为本发明实施例中网络结构图;
图4为本发明实施例中网络的组合子网(3a)的内部连接图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本发明的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是锁定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本发明针对现有的问题,提供了一种图像目标检测方法及相关设备。
如图1所示,本发明的实施例提供了一种图像目标检测方法,包括:
步骤1,获取待检测的低照度图像;
步骤2,通过改进后的Retinex模型对低照度图像进行亮度分量去除处理,得到增强图像;
步骤3,将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
第一卷积层的输入端为GoogLeNet神经网络模型的输入端,第一卷积层的输出端与第二卷积层的输入端连接,第二卷积层的输出端与第一池化层的输入端连接,第一池化层的输出端与GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
将低照度图像从RGB颜色空间转换至LMS空间,转换公式如下:
为了使数据分布更加聚敛,且更符合人类对颜色的感知,需要进一步将低照度图像从LMS空间转换为以10为底的对数空间:
具体来说,步骤2还包括:
具体来说,步骤3包括:
首先,确定确定改进后的Retinex模型为:
本发明实施例中Retinex的基本思想是入射光决定了一幅图像中的所有像素点的动态范围的大小,而物体的颜色是由物体表面的反射属性决定,与光照情况无关。算法物理意义即观察到的低照度图像可分解为所需增强图像与光照图像,Retinex模型旨在通过数学方法去除图像中的光照图像,而获得其增强图像,因此需要先得到光照图像。
与传统Retinex算法相比,本发明实施例中的Retinex模型不是直接由图像的RGB值来估计光照图像,而是将图像由RGB颜色空间通过式(1)-(3)转到颜色空间,提取分量作为光照图像。因为与RGB颜色空间相比,颜色空间具有可以将亮度信号与色差信号、分离的特性,这样提取的光照图像分离了色彩分量,在求其反射图象或反射分量时,颜色信息更加完整。
具体来说,为了使得到的增强图像能突出显示图像的细节,使目标检测更为准确,本发明实施例在步骤4之前,还需要对增强图像进行锐化过滤处理,过程如下:
具体来说,在步骤4之前还包括:
在本发明实施例中,为了减少训练时间,实现良好的训练效果,同时考虑到GoogLNet神经网络的模型参数较少、过拟合的风险较低的特点,因此选择使用基于GoogLeNet神经网络作为主干网络来构建神经网络实现数据集的训练;为了尽可能保留更多特征信息以及更好更快地实现初步的特征提取,故而选择VGG的前两个卷积层和第一池化层来实现初始图像的第一步的特征信息提取,如图2所示,具体的GoogLeNet神经网络模型的结构如图3所示,其模型参数统计如下表所示:
训练前分别读取训练数据和验证数据,其中训练集采用的是网络搜集的模糊图片及个别视频分帧得到的人像目标检测图片,总计10864张,再采取4个测试集,每个测试集包含1800左右张图片。模型训练过程如下:
将训练集的图像大小调整为224×224×3,且都进行零均值化处理,及图像的每个像素减去均值,输入如图3所示的GoogLeNet神经网络中,使用3×3的第一卷积层和第二卷积层,滑动步长2,64通道,输出为112×112×64,卷积后进行ReLU操作,经过3×3的第一最大池化层,步长为2,输出为((112-3+1)/2)+1=56,即56×56×64,再进行ReLU操作后输入使用3×3的第三卷积层、第四卷积层,滑动步长为2,192通道,输出为56×56×192,卷积后进行ReLU操作,经过3×3的第二最大池化层,步长为2,输出为((56-3+1)/2)+1=28,即28×28×192,再进行ReLU操作,再输入组合子网(3a)中,分为四个分支,采用不同尺度的卷积核来进行处理;
(1)64个1×1的卷积核,然后RuLU,输出28×28×64;
(2)96个1×1的卷积核,作为3×3卷积核之前的降维,变成28×28×96,然后进行ReLU计算,再进行128个3×3的卷积(padding为1),输出28×28×128;
(3)16个1×1的卷积核,作为5×5卷积核之前的降维,变成28×28×16,进行ReLU计算后,再进行32个5×5的卷积(padding为2),输出28×28×32;
(4)pool层,使用3×3的核(padding为1),输出28×28×192,然后进行32个1×1的卷积,输出28×28×32。
将四个结果进行连接,对这四部分输出结果的第三维并联,即64+128+32+32=256,最终输出为256×28×28,然后输入组合子网(3b)进行处理:
(1)128个1×1的卷积核,然后RuLU,输出28×28×128;
(2)128个1×1的卷积核,作为3×3卷积核之前的降维,变成28×28×128,进行ReLU,再进行192个3×3的卷积(padding为1),输出28×28×192;
(3)32个1×1的卷积核,作为5×5卷积核之前的降维,变成28×28×32,进行ReLU计算后,再进行96个5×5的卷积(padding为2),输出28×28×96;
(4)pool层,使用3×3的核(padding为1),输出28×28×256,然后进行64个1×1的卷积,输出28×28×64。
将四个结果进行连接,对这四部分输出结果的第三维并联,即128+192+96+64=480,最终输出为28×28×480。
其中,组合子网(4a、4b、4c、4d、4e)、组合子网(5a,5b)与3a类似,结构也相同,包括四个1*1的卷积层、一个3*3的最大池化层、一个5*5的卷积层、一个3*3的卷积层和一个聚合层,输出维度如上表所示,具体连接关系如图4所示。
将四个结果进行连接,对这四部分输出结果的第三维并联,即64+128+32+32=256,最终输出28×28×256。
设计组合子网的目的是为了方便添加和修改结构。
本发明实施例中改进的GoogLeNet神经网络的主干网络主要有以下几个特点:
(1)26层的深度网络结构;
(2)前3层结构来进行初步特征提取的迁移学习;
(3)通过GoogLeNet神经网络的后21层来完成后续的图像的特征提取。
本发明实施例首先获取的待检测的低照度图像,通过改进后的Retinex模型对所述低照度图像进行亮度分量去除处理,得到增强图像,将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;采用改进后的Retinex模型对低照度图像进行增强,通过对图像的色彩空间转换使亮度信息与色彩信息分离,以便模型对彩色图像增强时彩色分量的信息更加完整,最后采用GoogLeNet神经网络模型进行目标检测,可以更好挖掘目标特征,提高了在能见度低的环境下对目标检测的准确率。对于大多地处沿海地区的海关,在所面临的雨、雾、阴、夜等环境下,仍可适应海关图像目标的精准检测,如对货运集装箱的编号、对异常人员与车辆的检测、对大小商品的监测记录,均可精准识别,有利于智能海关的建设。
本发明实施例还提供了一种图像目标检测装置,包括:
获取模块,用于获取待检测的低照度图像;
处理模块,用于通过改进后的Retinex模型对低照度图像进行亮度分量去除处理,得到增强图像;
检测模块,用于将增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
第一卷积层的输入端为GoogLeNet神经网络模型的输入端,第一卷积层的输出端与第二卷积层的输入端连接,第二卷积层的输出端与第一池化层的输入端连接,第一池化层的输出端与GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
本发明实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现图像目标检测方法。
本发明实施例还提供了一种图像目标检测设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现图像目标检测方法。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (9)
1.一种图像目标检测方法,其特征在于,包括:
步骤1,获取待检测的低照度图像;
步骤2,通过改进后的Retinex模型对所述低照度图像进行亮度分量去除处理,得到增强图像;
步骤3,将所述增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
所述GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
所述第一卷积层的输入端为所述GoogLeNet神经网络模型的输入端,所述第一卷积层的输出端与所述第二卷积层的输入端连接,所述第二卷积层的输出端与所述第一池化层的输入端连接,所述第一池化层的输出端与所述GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
7.一种图像目标检测装置,其特征在于,包括:
获取模块,用于获取待检测的低照度图像;
处理模块,用于通过改进后的Retinex模型对所述低照度图像进行亮度分量去除处理,得到增强图像;
检测模块,用于将所述增强图像输入GoogLeNet神经网络模型进行目标检测,得到检测结果;
所述GoogLeNet神经网络模型的初始特征提取模块包括第一卷积层、第二卷积层和第一池化层;
所述第一卷积层的输入端为所述GoogLeNet神经网络模型的输入端,所述第一卷积层的输出端与所述第二卷积层的输入端连接,所述第二卷积层的输出端与所述第一池化层的输入端连接,所述第一池化层的输出端与所述GoogLeNet神经网络模型中的局部响应归一化层的输入端连接。
8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6任一项所述的图像目标检测方法。
9.一种图像目标检测设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6任一项所述的图像目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211534301.3A CN115546074A (zh) | 2022-12-02 | 2022-12-02 | 一种图像目标检测方法及相关设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211534301.3A CN115546074A (zh) | 2022-12-02 | 2022-12-02 | 一种图像目标检测方法及相关设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115546074A true CN115546074A (zh) | 2022-12-30 |
Family
ID=84722670
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211534301.3A Pending CN115546074A (zh) | 2022-12-02 | 2022-12-02 | 一种图像目标检测方法及相关设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115546074A (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708615A (zh) * | 2022-04-02 | 2022-07-05 | 西安电子科技大学广州研究院 | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 |
-
2022
- 2022-12-02 CN CN202211534301.3A patent/CN115546074A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114708615A (zh) * | 2022-04-02 | 2022-07-05 | 西安电子科技大学广州研究院 | 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质 |
Non-Patent Citations (2)
Title |
---|
张杰 等: "基于方向性全变分Retinex的低照度图像增强", 《计算机辅助设计与图形学学报》 * |
郝骏 等: "基于Yolo与残差网络算法改进的运动目标检测", 《光电子.激光》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wang et al. | Single image dehazing based on the physical model and MSRCR algorithm | |
CN108549874B (zh) | 一种目标检测方法、设备及计算机可读存储介质 | |
CN109872285B (zh) | 一种基于变分约束的Retinex低照度彩色图像增强方法 | |
CN113065558A (zh) | 一种结合注意力机制的轻量级小目标检测方法 | |
CN108090886B (zh) | 一种高动态范围红外图像的显示与细节增强方法 | |
CN107403134B (zh) | 基于局部梯度三边的图域多尺度红外弱小目标检测方法 | |
CN111369605B (zh) | 一种基于边缘特征的红外与可见光图像的配准方法和系统 | |
CN111079764B (zh) | 一种基于深度学习的低照度车牌图像识别方法及装置 | |
CN110428389B (zh) | 基于msr理论和曝光融合的微光图像增强方法 | |
CN108875623B (zh) | 一种基于图像特征融合对比技术的人脸识别方法 | |
CN107657619A (zh) | 一种低照度林火图像分割方法 | |
CN110766708B (zh) | 基于轮廓相似度的图像比较方法 | |
CN111222564B (zh) | 基于图像通道相关性的图像鉴别系统、方法、装置 | |
CN116681636B (zh) | 基于卷积神经网络的轻量化红外与可见光图像融合方法 | |
CN111612741A (zh) | 一种基于失真识别的精确无参考图像质量评价方法 | |
CN115393225A (zh) | 一种基于多层次特征提取融合的低光照图像增强方法 | |
CN112465708A (zh) | 基于暗通道改进的图像去雾方法 | |
CN114049566B (zh) | 一种逐步细化的陆地卫星影像云和云阴影检测方法及装置 | |
CN114581318A (zh) | 一种低照明度图像增强方法及系统 | |
CN110647813A (zh) | 一种基于无人机航拍的人脸实时检测识别方法 | |
CN111311503A (zh) | 一种夜晚低亮度图像增强系统 | |
CN111476739B (zh) | 水下图像增强方法、系统及存储介质 | |
CN113129300A (zh) | 一种降低误检率的排水管道缺陷检测方法、装置、设备及介质 | |
CN117422631A (zh) | 基于自适应滤波分层的红外图像增强方法 | |
CN116883303A (zh) | 基于特征差分补偿与融合的红外与可见光图像融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20221230 |
|
RJ01 | Rejection of invention patent application after publication |