CN117218029B - 基于神经网络的夜间暗光图像智能处理方法 - Google Patents
基于神经网络的夜间暗光图像智能处理方法 Download PDFInfo
- Publication number
- CN117218029B CN117218029B CN202311243238.2A CN202311243238A CN117218029B CN 117218029 B CN117218029 B CN 117218029B CN 202311243238 A CN202311243238 A CN 202311243238A CN 117218029 B CN117218029 B CN 117218029B
- Authority
- CN
- China
- Prior art keywords
- edge
- region
- interest
- pixel points
- degree
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 22
- 238000003672 processing method Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 31
- 238000012549 training Methods 0.000 claims description 15
- 230000002708 enhancing effect Effects 0.000 abstract description 5
- 238000012545 processing Methods 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000003708 edge detection Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及图像数据处理技术领域,提出了基于神经网络的夜间暗光图像智能处理方法,包括:获取暗光灰度图,根据暗光灰度图中像素点的灰度值获取局部对比度,获取全局对比度,根据局部对比度和全局对比度获取差异程度得到感兴趣区域;获取二值图像,根据二值图像中感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度;在感兴趣区域中获取边缘链,根据边缘链长度获取长度不一致程度,根据边缘像素点的梯度方向获取边缘分布杂乱度,根据长度不一致程度、边缘分布杂乱度获取边缘轮廓的混乱程度,并结合区域增强度获取增强特征图;根据增强特征图对夜间暗光图像进行增强。本发明加强模型识别边缘特征的能力,增加模型方法的准确度。
Description
技术领域
本发明涉及图像数据处理技术领域,具体涉及基于神经网络的夜间暗光图像智能处理方法。
背景技术
夜间暗光图像是在夜晚时由于光线不足或者光线不均匀拍摄造成的,会使拍摄到的图像或视频中的黑色区块较多,包含的细节很少,甚至看不到任何细节。导致得到的图像或视频质量低下,影响后续一系列的操作。如夜间的交通监管系统中的监视系统,若得到的视频质量不够好会导致整个系统的决策机制出现误判的情况。
自动驾驶技术依赖机器视觉系统感知环境和处理图像信息。在夜间驾驶中,夜间暗光图像的质量对自动驾驶的安全性和可靠性至关重要。智能化增强夜间暗光图像数据,使数据清晰优质,可以获取更加准确和及时的信息,提高自动驾驶系统在夜间环境下的性能。传统图像增强处理方法有直方图均衡化等方法容易导致色彩失真、缺少考虑局部区域,以及边缘信息的丢失,同时人工提取特征的方式不能充分提取图像的特征,限制了实际应用的效果和范围。基于卷积神经网络图像增强算法有强大的特征提取能力,可自适应调整参数,通过深度学习技术改善图像质量和提取细节信息,效率更高。
发明内容
本发明提供基于神经网络的夜间暗光图像智能处理方法,以解决边缘信息的丢失的问题,所采用的技术方案具体如下:
本发明一个实施例提供了基于神经网络的夜间暗光图像智能处理方法,该方法包括以下步骤:
采集原始图像,根据原始图像获取训练集中的夜间暗光图像;
根据夜间暗光图像获取暗光灰度图,根据暗光灰度图中像素点的灰度值获取每个像素点的局部对比度,获取暗光灰度图的全局对比度,根据像素点的局部对比度和全局对比度获取像素点的差异程度,根据像素点的差异程度对所有像素点聚类得到感兴趣区域;
根据暗光灰度图获取二值图像,根据二值图像中每个感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度;
在感兴趣区域中获取若干边缘链,根据边缘链长度和所有边缘链长度均值的差异获取感兴趣区域的长度不一致程度,根据边缘像素点的梯度方向和所有边缘像素点的梯度方向均值的差异获取感兴趣区域的边缘分布杂乱度,根据感兴趣区域的长度不一致程度、边缘分布杂乱度以及边缘像素点数量获取感兴趣区域的边缘轮廓混乱程度,根据感兴趣区域的区域增强度和边缘轮廓的混乱程度获取增强特征图;
根据增强特征图进行训练,根据训练结果对夜间暗光图像进行增强。
优选的,所述根据暗光灰度图中像素点的灰度值获取每个像素点的局部对比度的方法为:
对于每个像素点获取一个预设大小的邻域窗口,计算邻域窗口内像素点的灰度值的标准差作为像素点的局部对比度。
优选的,所述获取暗光灰度图的全局对比度,根据像素点的局部对比度和全局对比度获取像素点的差异程度的方法为:
在暗光灰度图中获取最大灰度值和最小灰度值,将最大灰度值和最小灰度值的和记为第一特征,将最大灰度值和最小灰度值的差记为第二特征,将第一特征和第二特征的比值作为暗光灰度图的全局对比度;
令每个像素点的局部对比度与全局对比度的比值归一化后的值作为像素点对应的差异程度。
优选的,所述根据像素点的差异程度对所有像素点聚类得到感兴趣区域的方法为:
获取暗光灰度图中任意两个像素点之间的欧氏距离并归一化,将此归一化后的值记为第一距离,将两个像素点之间的差异程度的差值记为第二距离,将第一距离和第二距离的和作为DBSCAN聚类的聚类距离得到若干聚类簇,计算每个聚类簇内像素点对应的差异程度的均值,将均值大于预设大小的聚类簇记为感兴趣区域。
优选的,所述根据二值图像中每个感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度的方法为:
对于二值图像中每个感兴趣区域的边缘像素点获取一个预设大小的对比窗口,根据边缘像素点所在边缘线将对比窗口分为内区域和外区域,计算内区域和外区域的灰度均值,令内区域和外区域的灰度均值的差异作为边缘像素点的内外轮廓对比度差异;
将在感兴趣区域中的边缘像素点记为一类边缘点,根据一类边缘点的内外轮廓对比度差异以及局部对比度和全局对比度的比值得到感兴趣区域的区域增强度。
优选的,所述根据一类边缘点的内外轮廓对比度差异以及局部对比度和全局对比度的比值得到感兴趣区域的区域增强度的方法为:
式中,ce,r表示第e个感兴趣区域中第r个一类边缘点的内外轮廓对比度差异,He表示第e个感兴趣区域中一类边缘点的数量,De表示第e个感兴趣区域中所有像素点的局部对比度和全局对比度的比值的均值,exp()表示以自然常数为底的指数函数,ge表示第e个感兴趣区域的区域增强度。
优选的,所述在感兴趣区域中获取若干边缘链的方法为:
在每一个感兴趣区域中,对于每个一类边缘点,获取其八邻域的像素点,若一类边缘点的八邻域像素点中存在边缘像素点,那么将一类边缘点与一个边缘像素点构成一条边缘线,将与边缘线相邻的像素点都与边缘线连接,直到边缘线相邻的像素点都不是边缘像素点为止,在获取此边缘线后,若边缘线存在分支,保留分支最长的部分,删除其余分支,直到边缘线没有分支为止得到边缘链,一类边缘点所在的部分为主干,主干不论长度必须保留。
优选的,所述根据边缘链长度和所有边缘链长度均值的差异获取感兴趣区域的长度不一致程度的方法为:
式中,le,a表示第e个感兴趣区域中第a条边缘链的长度,le,avg表示第e个感兴趣区域中所有边缘链的长度均值,me表示第e个感兴趣区域中边缘链的数量,he表示第e个感兴趣区域中的边缘长度不一致程度。
优选的,所述根据边缘像素点的梯度方向和所有边缘像素点的梯度方向均值的差异获取感兴趣区域的边缘分布杂乱度的方法为:
式中,θe,r表示第e个感兴趣区域中第r个一类边缘点的梯度方向,θe,avg表示第e个感兴趣区域中所有一类边缘点的梯度方向的均值,He表示第e个感兴趣区域中一类边缘点的数量,ρe表示第e个感兴趣区域的边缘分布杂乱度。
优选的,所述根据感兴趣区域的长度不一致程度、边缘分布杂乱度以及边缘像素点数量获取感兴趣区域的边缘轮廓混乱程度的方法为:
在每个感兴趣区域中获取一类边缘点和所有像素点的比值记为第一比值,将每个感兴趣区域的长度不一致程度、边缘分布杂乱度以及第一比值的均值作为感兴趣区域的边缘轮廓混乱程度。
本发明的有益效果是:本发明通过使用神经网络技术将夜间暗光图像通过图像增强得到更加清晰质量更高的图像。使用U-net全卷积神经网络作为增强模型进行训练,为了保证暗光图像增强时关键信息不丢失,根据边缘信息特征设计新的图像特征参与训练,将暗光图片中的细节信息可以有效识别出来,并加强模型识别边缘特征的能力,同时增加模型方法的准确度。
附图说明
图1为本发明一个实施例所提供的基于神经网络的夜间暗光图像智能处理方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1,其示出了本发明一个实施例提供的基于神经网络的夜间暗光图像智能处理方法流程图,该方法包括以下步骤:
步骤S001,采集原始图像,根据原始图像获取训练集中的夜间暗光图像。
本实施例针对暗光图像进行处理,通过图像采集设备采集大量夜间暗光图像用以训练,夜间暗光图像的亮度较暗,对比度较低,因此在输入到神经网络之前,需要对所有夜间暗光图像进行降噪处理,在本实施例中,使用高斯滤波器,通过应用高斯函数对图像进行平滑,抑制高频噪声,保留图像的主要特征,并平滑图像的纹理,提高图像的质量和清晰度,至此获取了训练集。
至此,获取了训练集中的夜间暗光图像。
步骤S002,根据夜间暗光图像获取暗光灰度图,根据暗光灰度图中像素点的灰度值获取每个像素点的局部对比度,获取暗光灰度图的全局对比度,根据像素点的局部对比度和全局对比度获取像素点的差异程度,根据像素点的差异程度对所有像素点聚类得到感兴趣区域。
分析场景发现,暗光图像的全局对比度较低而图像中一些重要区域,如车辆、树木、房屋等,区域对比度往往更高,因为它们的边缘存在明显的亮度和颜色变化,边缘的明暗变化较为明显。因此,局域对比度高的区域,更可能是暗光图像中的细节区域,也就是需要重点关注的区域。
在下面图像增强的过程中,为了保证夜间暗光图像增强之后有更高的质量,以及防止全局增强亮度导致过曝,对夜间暗光图像中对比度大的区域分别进行增强,将夜间暗光图像中区域对比度大的像素划分在一起。
具体的,将所得到训练集中的夜间暗光图像转换为灰度图像得到暗光灰度图。
在暗光灰度图中,对于每个像素点,以自身为中心获取一个a1×a1的窗口记为邻域窗口,在本实施例中令a1=3,获取邻域窗口内所有像素点的灰度值均值,根据邻域窗口内每个像素点的灰度值与灰度值均值的差异获取每个像素点的局部对比度,公式如下:
式中,li,j表示第i个像素点的邻域窗口内的第j个像素点的灰度值,li,avg表示第i个像素点的邻域窗口内所有像素点的灰度均值,ni表示第i个像素点邻域窗口内像素点的数量,ci表示第i个像素点的局部对比度。
其中若像素点的邻域窗口内存在像素点不在暗光灰度图中,则只计算存在于暗光灰度图中的像素点的灰度均值,以及根据在暗光灰度图中的像素点获取局部对比度。
遍历暗光灰度图中所有像素点的局部对比度,根据暗光灰度图中最大灰度值与最小灰度值获取暗光灰度图的全局对比度,公式如下:
C=(Lmax-Lmoin)/(Lmax+Lmin)
式中,Lmax表示暗光灰度图中的最大灰度值,Lmin表示暗光灰度图中的最小灰度值,C表示暗光灰度图的全局对比度。
根据每个像素点的局部对比度以及暗光灰度图的全局对比度获取差异程度,所述差异程度为局部对比度与全局对比度的比值,并将比值进行线性归一化得到的值。
获取暗光灰度图中任意两个像素点之间的欧氏距离并归一化,将此归一化后的值记为第一距离,将两个像素点之间的差异程度的差值记为第二距离,将第一距离和第二距离的和作为DBSCAN聚类的聚类距离,由此获取若干聚类簇,计算每个聚类簇内像素点对应的差异程度的均值,将所有聚类簇中差异程度的均值大于0.5的聚类簇记为感兴趣区域。
至此,获取了感兴趣区域。
步骤S003,根据暗光灰度图获取二值图像,根据二值图像中每个感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度。
由于暗光灰度图内边缘点和非边缘点的灰度分布差别是比较大的,为了进一步获取暗光灰度图中的细节边缘信息,对暗光灰度图使用Canny算子进行边缘检测,边缘检测后的图像为二值图像,其中边缘像素点的像素值为1,其余像素点的像素值为0,将使用边缘检测得到图像记为二值图像,所述Canny算子为公知技术,在此不多做赘述。
在二值图像中,遍历所有边缘像素点,根据其边缘像素点的邻域对比度差异来明确增强力度。
具体的,对于二值图像的每个边缘像素点,以每个边缘像素点为中心获取a2×a2的对比窗口,在本实施例中令a2=5,对于每个边缘像素点的对比窗口,由于边缘像素点在边缘线中,因此将对比窗口内被边缘线分割的两部分分别记为内区域和外区域,获取内区域和外区域的灰度均值,根据内区域和外区域的灰度均值差异记为内外轮廓对比度差异,公式如下:
式中,表示第i个像素点的对比窗口中内区域的灰度均值,/>表示第i个像素点的对比窗口中外区域的灰度均值,ci表示第i个边缘像素点的内外轮廓对比度差异。
对于二值图像中的所有边缘像素点计算内外轮廓对比度差异后,将所有边缘像素点进行分类,将属于感兴趣区域的边缘像素点记为一类边缘点,对于每一个感兴趣区域,根据其中一类边缘点的内外轮廓对比度差异以及局部对比度和全局对比度的比值的均值得到感兴趣区域的区域增强度,公式如下:
式中,ce,r表示第e个感兴趣区域中第r个一类边缘点的内外轮廓对比度差异,He表示第e个感兴趣区域中一类边缘点的数量,De表示第e个感兴趣区域中所有像素点的局部对比度和全局对比度的比值的均值,exp()表示以自然常数为底的指数函数,ge表示第e个感兴趣区域的区域增强度。
至此,获取了感兴趣区域的区域增强度。
步骤S004,在感兴趣区域中获取若干边缘链,根据边缘链长度和所有边缘链长度均值的差异获取感兴趣区域的长度不一致程度,根据边缘像素点的梯度方向和所有边缘像素点的梯度方向均值的差异获取感兴趣区域的边缘分布杂乱度,根据感兴趣区域的长度不一致程度、边缘分布杂乱度以及边缘像素点数量获取感兴趣区域的边缘轮廓混乱程度,根据感兴趣区域的区域增强度和边缘轮廓的混乱程度获取增强特征图。
由此得到了每个感兴趣区域的区域增强度,除此之外,在暗光灰度图中,边缘像素点处包含更多的细节信息,而若是边缘点连接成为了边缘线,要对边缘线进行重点分析,在每一个感兴趣区域中,对于每个一类边缘点,获取其八邻域的像素点,若一类边缘点的八邻域像素点中存在边缘像素点,那么将一类边缘点与一个边缘像素点构成一条边缘线,将与边缘线相邻的像素点都与边缘线连接,直到边缘线相邻的像素点都不是边缘像素点为止,在获取此边缘线后,若边缘线存在分支,那么删除分支较短的部分,保留分支较长的部分,直到边缘线没有分支为止,值得说明的是一类边缘点所在的为主干,由此得到了一类边缘点对应的边缘线,对于感兴趣区域的所有一类边缘点使用同样的方法检测边缘线,若存在多条相同的边缘线,则只保留一条,将每个一类边缘点得到的边缘线记为边缘链,统计每条边缘链的长度。
在每个感兴趣区域中获取所有边缘链的长度均值,根据每条边缘链的长度和边缘链长度均值的差获取长度不一致程度,公式如下:
式中,le,c表示第e个感兴趣区域中第a条边缘链的长度,le,avg表示第e个感兴趣区域中所有边缘链的长度均值,me表示第e个感兴趣区域中边缘链的数量,he表示第e个感兴趣区域中的边缘长度不一致程度。
对于一类边缘点使用sobel算子可以得到其梯度方向,根据每个一类边缘点的梯度方向与所有一类边缘点的梯度方向的均值差异获取边缘分布杂乱度,公式如下:
式中,θe,r表示第e个感兴趣区域中第r个一类边缘点的梯度方向,θe,avg表示第e个感兴趣区域中所有一类边缘点的梯度方向的均值,He表示第e个感兴趣区域中一类边缘点的数量,ρe表示第e个感兴趣区域的边缘分布杂乱度。
其中除以π/2为了保证数值在0到1之间,结果越接近0,角度越相似,越接近1角度越不相似。当边缘角度方向完全一致时ρe=0,ρe=1表示边缘方向分布杂乱度最大。
根据感兴趣区域中的长度不一致程度、边缘分布杂乱度以及一类边缘点的数量获取边缘轮廓的混乱程度,公式如下:
式中,he表示第e个感兴趣区域中的边缘长度不一致程度,ρe表示第e个感兴趣区域的边缘分布杂乱度,He表示第e个感兴趣区域中一类边缘点的数量,Ge表示第e个感兴趣区域中所有像素点的数量,due表示第e个感兴趣区域的边缘轮廓混乱程度。
边缘轮廓混乱程度du反映了暗光图像中区域边缘轮廓混乱程度,当区域内边缘点越多,边缘长度不一致程度越大且边缘方向分布杂乱度越大时,混乱程度du也相应增大。当混乱程度越大时,表示该区域边缘分布情况越复杂,边缘点的增强系数就要越大。
根据所得到的感兴趣区域的区域增强度以及感兴趣区域中的边缘轮廓的混乱程度获取不同像素点的增强程度,令感兴趣区域中边缘像素点的增强程度为感性区域中边缘轮廓的混乱程度,令感兴趣区域中非边缘像素点的增强程度为感兴趣区域的区域增强度。
由此获取了感兴趣区域中每个像素点的增强程度,将暗光灰度图中像素点的增强程度进行标记获取增强特征图。
至此,获取了增强特征图。
步骤S005,根据增强特征图进行训练,根据训练结果对夜间暗光图像进行增强。
根据暗光灰度图所获得的增强特征图和夜间暗光图像输送近神经网络当中,使用U-net全卷积神经网络模型进行训练,U-net模型有强大的特征提取能力,自动学习特征表示,并且自动学习图像中不同层次的特征,捕捉不同尺度的特征信息,保留图像细节,且允许输入不同分辨率的图像进行处理。
为了避免在后续卷积的过程中,图片越来越小和数据丢失,因此在输入到卷积神经网络之前先将图片进行镜像扩大,网络的输入为镜像扩大的夜间暗光图像和增强特征图,网络输出为增强后的图像。
其中,U-net对输入图像分别进行四次下采样和四次上采样,浅层网络提取图像颜色、轮廓等特征,深层网络提取出图像中的抽象特征。
使用均方误差、结构性相似度联合损失函数,计算公式如下:
Loss=α×LMSE+β×LSSIM
其中,LMSE表示均方误差,LSSIM表示结构性相似度损失,α和β是权重,在实际实验中得到,在本实施例中令α取0.5,β取0.5。
最后,在验证数据集上使用交叉验证方法,评估训练好的模型,并进行调优,提升模型方法的性能和泛化能力。使用训练好的模型对实际图像进行增强操作。将夜间暗光图像输入训练好的U-net模型中,得到经过增强处理的高质量清晰图像。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.基于神经网络的夜间暗光图像智能处理方法,其特征在于,该方法包括以下步骤:
采集原始图像,根据原始图像获取训练集中的夜间暗光图像;
根据夜间暗光图像获取暗光灰度图,根据暗光灰度图中像素点的灰度值获取每个像素点的局部对比度,获取暗光灰度图的全局对比度,根据像素点的局部对比度和全局对比度获取像素点的差异程度,根据像素点的差异程度对所有像素点聚类得到感兴趣区域;
根据暗光灰度图获取二值图像,根据二值图像中每个感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度;
在感兴趣区域中获取若干边缘链,根据边缘链长度和所有边缘链长度均值的差异获取感兴趣区域的长度不一致程度,根据边缘像素点的梯度方向和所有边缘像素点的梯度方向均值的差异获取感兴趣区域的边缘分布杂乱度,根据感兴趣区域的长度不一致程度、边缘分布杂乱度以及边缘像素点数量获取感兴趣区域的边缘轮廓混乱程度,根据感兴趣区域的区域增强度和边缘轮廓的混乱程度获取增强特征图;
根据增强特征图进行训练,根据训练结果对夜间暗光图像进行增强。
2.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据暗光灰度图中像素点的灰度值获取每个像素点的局部对比度的方法为:对于每个像素点获取一个预设大小的邻域窗口,计算邻域窗口内像素点的灰度值的标准差作为像素点的局部对比度。
3.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述获取暗光灰度图的全局对比度,根据像素点的局部对比度和全局对比度获取像素点的差异程度的方法为:在暗光灰度图中获取最大灰度值和最小灰度值,将最大灰度值和最小灰度值的和记为第一特征,将最大灰度值和最小灰度值的差记为第二特征,将第一特征和第二特征的比值作为暗光灰度图的全局对比度;令每个像素点的局部对比度与全局对比度的比值归一化后的值作为像素点对应的差异程度。
4.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据像素点的差异程度对所有像素点聚类得到感兴趣区域的方法为:获取暗光灰度图中任意两个像素点之间的欧氏距离并归一化,将此归一化后的值记为第一距离,将两个像素点之间的差异程度的差值记为第二距离,将第一距离和第二距离的和作为DBSCAN聚类的聚类距离得到若干聚类簇,计算每个聚类簇内像素点对应的差异程度的均值,将均值大于预设大小的聚类簇记为感兴趣区域。
5.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据二值图像中每个感兴趣区域的边缘像素点的邻域特征获取感兴趣区域的区域增强度的方法为:对于二值图像中每个感兴趣区域的边缘像素点获取一个预设大小的对比窗口,根据边缘像素点所在边缘线将对比窗口分为内区域和外区域,计算内区域和外区域的灰度均值,令内区域和外区域的灰度均值的差异作为边缘像素点的内外轮廓对比度差异;将在感兴趣区域中的边缘像素点记为一类边缘点,根据一类边缘点的内外轮廓对比度差异以及局部对比度和全局对比度的比值得到感兴趣区域的区域增强度。
6.根据权利要求5所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据一类边缘点的内外轮廓对比度差异以及局部对比度和全局对比度的比值得到感兴趣区域的区域增强度的方法为:
式中,ce,r表示第e个感兴趣区域中第r个一类边缘点的内外轮廓对比度差异,He表示第e个感兴趣区域中一类边缘点的数量,De表示第e个感兴趣区域中所有像素点的局部对比度和全局对比度的比值的均值,exp()表示以自然常数为底的指数函数,ge表示第e个感兴趣区域的区域增强度。
7.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述在感兴趣区域中获取若干边缘链的方法为:在每一个感兴趣区域中,对于每个一类边缘点,获取其八邻域的像素点,若一类边缘点的八邻域像素点中存在边缘像素点,那么将一类边缘点与一个边缘像素点构成一条边缘线,将与边缘线相邻的像素点都与边缘线连接,直到边缘线相邻的像素点都不是边缘像素点为止,在获取此边缘线后,若边缘线存在分支,保留分支最长的部分,删除其余分支,直到边缘线没有分支为止得到边缘链,一类边缘点所在的部分为主干,主干不论长度必须保留。
8.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据边缘链长度和所有边缘链长度均值的差异获取感兴趣区域的长度不一致程度的方法为:
式中,le,a表示第e个感兴趣区域中第a条边缘链的长度,le,avg表示第e个感兴趣区域中所有边缘链的长度均值,me表示第e个感兴趣区域中边缘链的数量,he表示第e个感兴趣区域中的边缘长度不一致程度。
9.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据边缘像素点的梯度方向和所有边缘像素点的梯度方向均值的差异获取感兴趣区域的边缘分布杂乱度的方法为:
式中,θe,r表示第e个感兴趣区域中第r个一类边缘点的梯度方向,θe,avg表示第e个感兴趣区域中所有一类边缘点的梯度方向的均值,He表示第e个感兴趣区域中一类边缘点的数量,ρe表示第e个感兴趣区域的边缘分布杂乱度。
10.根据权利要求1所述的基于神经网络的夜间暗光图像智能处理方法,其特征在于,所述根据感兴趣区域的长度不一致程度、边缘分布杂乱度以及边缘像素点数量获取感兴趣区域的边缘轮廓混乱程度的方法为:在每个感兴趣区域中获取一类边缘点和所有像素点的比值记为第一比值,将每个感兴趣区域的长度不一致程度、边缘分布杂乱度以及第一比值的均值作为感兴趣区域的边缘轮廓混乱程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311243238.2A CN117218029B (zh) | 2023-09-25 | 2023-09-25 | 基于神经网络的夜间暗光图像智能处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311243238.2A CN117218029B (zh) | 2023-09-25 | 2023-09-25 | 基于神经网络的夜间暗光图像智能处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117218029A CN117218029A (zh) | 2023-12-12 |
CN117218029B true CN117218029B (zh) | 2024-03-01 |
Family
ID=89036826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311243238.2A Active CN117218029B (zh) | 2023-09-25 | 2023-09-25 | 基于神经网络的夜间暗光图像智能处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117218029B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117522719B (zh) * | 2024-01-05 | 2024-03-22 | 自贡市第一人民医院 | 基于机器学习的支气管镜图像辅助优化系统 |
CN117893533B (zh) * | 2024-03-14 | 2024-05-28 | 自贡市第一人民医院 | 基于图像特征的心胸比智能检测方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020038124A1 (zh) * | 2018-08-21 | 2020-02-27 | 深圳创维-Rgb电子有限公司 | 图像对比度增强方法、装置、设备及存储介质 |
CN114463310A (zh) * | 2022-02-10 | 2022-05-10 | 深圳市安健科技股份有限公司 | 一种dr图像增强方法及装置 |
CN115239701A (zh) * | 2022-09-15 | 2022-10-25 | 江苏鑫缘医疗科技有限公司 | 一种用于医用纱布表面异物检测的方法 |
CN115880674A (zh) * | 2023-03-01 | 2023-03-31 | 上海伯镭智能科技有限公司 | 一种基于无人驾驶矿车的避障转向矫正方法 |
CN116269467A (zh) * | 2023-05-19 | 2023-06-23 | 中国人民解放军总医院第八医学中心 | 一种创伤患者清创术前信息采集系统 |
CN116758083A (zh) * | 2023-08-21 | 2023-09-15 | 浙江莫克智造有限公司 | 基于计算机视觉的金属洗脸盆缺陷快速检测方法 |
-
2023
- 2023-09-25 CN CN202311243238.2A patent/CN117218029B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020038124A1 (zh) * | 2018-08-21 | 2020-02-27 | 深圳创维-Rgb电子有限公司 | 图像对比度增强方法、装置、设备及存储介质 |
CN114463310A (zh) * | 2022-02-10 | 2022-05-10 | 深圳市安健科技股份有限公司 | 一种dr图像增强方法及装置 |
CN115239701A (zh) * | 2022-09-15 | 2022-10-25 | 江苏鑫缘医疗科技有限公司 | 一种用于医用纱布表面异物检测的方法 |
CN115880674A (zh) * | 2023-03-01 | 2023-03-31 | 上海伯镭智能科技有限公司 | 一种基于无人驾驶矿车的避障转向矫正方法 |
CN116269467A (zh) * | 2023-05-19 | 2023-06-23 | 中国人民解放军总医院第八医学中心 | 一种创伤患者清创术前信息采集系统 |
CN116758083A (zh) * | 2023-08-21 | 2023-09-15 | 浙江莫克智造有限公司 | 基于计算机视觉的金属洗脸盆缺陷快速检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117218029A (zh) | 2023-12-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN117218029B (zh) | 基于神经网络的夜间暗光图像智能处理方法 | |
CN113313657B (zh) | 一种用于低光照图像增强的非监督学习方法和系统 | |
CN108304813B (zh) | 一种智能识别圆形交通信号灯状态的方法 | |
CN111539247B (zh) | 一种超光谱人脸识别方法、装置、电子设备及其存储介质 | |
CN111079764B (zh) | 一种基于深度学习的低照度车牌图像识别方法及装置 | |
CN112767369A (zh) | 小五金的缺陷识别检测方法、装置及计算机可读存储介质 | |
CN112200160A (zh) | 基于深度学习的直读水表读数识别方法 | |
CN116740070A (zh) | 基于机器视觉的塑料管道外观缺陷检测方法 | |
CN113888536B (zh) | 一种基于计算机视觉的印刷品重影检测方法及系统 | |
CN110969164A (zh) | 基于深度学习端对端的低照度成像车牌识别方法及装置 | |
CN115511907B (zh) | 一种用于led屏幕的划痕检测方法 | |
CN115063331B (zh) | 基于多尺度块lbp算子无鬼影多曝光图像融合方法 | |
CN112419163B (zh) | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 | |
CN114998356A (zh) | 一种基于图像处理的车桥缺陷检测方法 | |
CN116030396A (zh) | 一种用于视频结构化提取的精确分割方法 | |
CN107730476A (zh) | 一种基于压缩感知的图像增强方法及装置 | |
CN111027564A (zh) | 基于深度学习一体化的低照度成像车牌识别方法及装置 | |
CN115033721A (zh) | 基于大数据的图像检索方法 | |
CN113378672A (zh) | 基于改进YOLOv3的输电线缺陷多目标检测方法 | |
CN117197438A (zh) | 一种基于视觉显著性的目标检测方法 | |
CN109241865B (zh) | 一种弱对比度交通场景下的车辆检测分割算法 | |
CN116740572A (zh) | 一种基于改进yolox的海上船舰目标检测方法和系统 | |
CN110633705A (zh) | 一种低照度成像车牌识别方法及装置 | |
CN113537154B (zh) | 无人机建筑航拍图神经网络自动校色方法 | |
CN111950409B (zh) | 一种道路标记线智能识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |