CN107506729A - 一种基于深度学习的能见度检测方法 - Google Patents
一种基于深度学习的能见度检测方法 Download PDFInfo
- Publication number
- CN107506729A CN107506729A CN201710732921.0A CN201710732921A CN107506729A CN 107506729 A CN107506729 A CN 107506729A CN 201710732921 A CN201710732921 A CN 201710732921A CN 107506729 A CN107506729 A CN 107506729A
- Authority
- CN
- China
- Prior art keywords
- visibility
- image
- mrow
- characteristic vector
- kinds
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于深度学习的能见度检测方法,包括图像训练部分和能见度检测部分:图像训练部分:输入已标记好能见度的图像,对所述图像进行尺度变换以获得三种不同尺度的图像,并分别输入三个深度卷积网络中,以能见度值作为目标函数进行训练,当训练误差收敛后,保存训练好的深度卷积网络;能见度检测部分:对图像进行多尺度变换,获得三种不同尺度的图像,将三种不同尺度的图像分别输入到三个训练好的深度卷积网络中并提取特征向量,将三个特征向量加权相加获得总的特征向量,根据总的特征向量利用softmax函数进行分类,最终输出能见度值。本发明针对不同天气情况,能根据拍摄的图像检测其对应的能见度,无需人工辅助手段,检测的准确率高且速度快。
Description
技术领域
本发明涉及一种基于深度学习的能见度检测方法,属于大气水平能见度技术领域。
背景技术
大气水平能见度是气象观测的常规项目,它是表征大气透明程度的一个重要的物理 量。大气能见度的概念最早来源于气象部门,在气象部门中称为气象能见度。近几年来,雾霾在我国各大城市愈演愈烈,部分地方甚至全年大部分时间都笼罩在雾霾下。雾霾较 大时,能见度降低,会严重影响交通运输,给人们的出行造成困扰。
由于大气能见度与人们的日常生活密切相关,与大气低能见度相伴随的恶劣天气往 往会导致交通事故,妨碍海陆空交通运输,造成人们的生命和财产损失,因此对大气能见度检测的研究受到广泛关注。
探测大气能见度最常用的是仪器测量。目前探测大气能见度的仪器按探测原理可分 为透射式能见度仪和散射式能见度仪2大类,其中透射式大气能见度仪和散射式大气能见度仪中的前向散射仪应用最为广泛。由于常用的能见度仪器成本较高,价格昂贵,使 用和安装都很复杂,因此,最近几十年,随着计算机技术和数字摄像技术的发展,用数 字摄像法测量大气能见度的研究受到广泛地研究。
文章[1]提出了采用双亮度差法来测量大气能见度,通过用照相机拍摄距离不同的两 个黑色目标物,然后设法从图片中求得目标物与背景的相对亮度比,并以此来推算大气 能见度值。此法测量能见度有较高的准确率,但是操作复杂,需要人工辅助放置目标物。
文章[2]研究了一种利用内置车载外传感器来测量大气能见度的行车辅助系统,并且 应用晴天及雾天拍摄的视频序列检测气象能见度,并可以检测出障碍物及大雾。这种方 法适用场景有限且测量的范围较短(几百米以内),仅适用于指导汽车驾驶。
文章[3]提出采用机器学习的方法预测拍摄图像的大气消光系数,进而评估其能见度 情况,他们首先利用暗原色先验理论和卷积神经网络分别计算图像的透射率和深度图, 然后以透射率和深度为输入参数学习对应的能见度,由于精度较低,他们仅将能见度简 单分为三个等级:clear,light,heavy,显然这种评估结果比较粗糙。
文章[4]提出了一种无需人工标记的能见度检测方法,此法通过分析车道分割线来提 取兴趣域以确保目标像素的高度一致,对比各像素与其四邻的对比度并将其最大值与给 定阈值比较获得符合人眼可辨的像素,结合摄像机标定计算距离最远的可视像素并经 kalman滤波去除干扰,最终得到能见度值,此系统充分利用已有的系统、路况图像,成本低、稳定性及精度较高,且实现了自动检测,但是其应用场景有限,只能适用于道路 能见度检测,且摄像机位置需固定,无法适用于多变的场景下能见度检测。
专利[5]提出了一种基于机器学习的方法来检测图像的能见度,根据暗通道先验原理 求取图像的透射率,然后将透射率与光照图输入到神经网络中便可以预测当前天气的能 见度情况,此法鲁棒性高,操作简单,易于移植到车载设备上进行能见度报警,但由于需要同时采集图像与对应场景的光照图,因此设备复杂,计算量较大。
专利[6]提出了一种基于图像学习的方法来检测能见度,其通过提取图像特定的感兴 趣区域的对比度作为训练数据,以此来拟合其对应的能见度,此法快捷方便,易于推广, 但是其需要提取图像中特定的目标物,因此需要目标物轮廓清晰,且天气变化不是很剧 烈,其使用条件有一定的限制。
综上所述,目前的能见度检测方法的应用场景有限,只能适用于某一个特定的场景, 或者需要人工辅助来检测大气能见度情况,自动化程度不高,实际应用中会受到诸多限 制。
[1]吕伟涛,陶善昌,刘亦风,等.基于数字摄像技术测量气象能见度——双亮度差方法和试验研究[J].大气科学,2004,28(4):559-570.
[2]HautièreN,LabayradeR,Aubert D.Real-time disparity contrastcombination for onboard estimation of the visibility distance[J].IEEETransactions on Intelligent Transportation Systems,2006,7(2):201-212.
[3]Li Y,HuangJ,Luo J.Using user generated online photos to estimateand monitor air pollution in major cities[C]//Proceedings of the 7thInternational Conference on Internet Multimedia Computing and Service.ACM,2015:79.
[4]李勃,董蓉,陈启美.无需人工标记的视频对比度道路能见度检测[J].计算机辅 助设计与图形学学报,2009(11):1575-1582.
[5]周海芳,刘南辉等.基于数字摄像的能见度检测方法.中国,CN106248635A.2016-12-21.
[6]郝红卫,殷绪成.基于图像学习的能见度测量方法.中国,CN102509102A.2012-6-20.
发明内容
本发明技术解决问题:克服现有技术的不足,提供一种基于深度学习的能见度检测 方法,针对不同天气情况,能根据拍摄的图像检测其对应的能见度,无需人工辅助手段,检测的准确率高且速度快。
本发明技术方案分为两个部分:第一个部分是图像训练S1;第二个部分是能见度预 测部分S2。
所述图像训练部分S1的步骤如下:
步骤S11:首先将训练集中的图像按照能见度由高到低分为9个类,能见度最高的图片标签为0,能见度最低的图片标签为8;
步骤S12:对图像进行尺度变换获得三种不同尺度的图像作为输入图像,其大小分别为640*480,320*240,160*120;
步骤S13:将三种尺度的图像分别输入三个深度卷积网络中提取能见度特征,网络结构如图3所示。每个网络提取9维的特征向量,然后将三个特征向量加权相加成为9 维的输出特征向量,其权重需在网络中训练;
步骤S14:将上述特征向量输入softmax函数,以能见度值作为目标函数,对深度卷积网络进行分类训练;
步骤S15:若训练误差未收敛,则继续训练模型,直到训练误差收敛后,保存模型,作为检测能见度所用的最终模型;
所述能见度预测部分S2的步骤为:
步骤S21:输入图像,
步骤S22:对图像进行尺度变换以获得三种不同尺度的图像,其大小分别为640*480, 320*240,160*120;
步骤S23:将三种尺度的图像分别输入对应的深度卷积网络模型中,提取对应的能见度特征向量,并将特征向量加权相加,得到总的能见度特征向量;
步骤S24:将能见度特征输入softmax分类函数中,计算每一类能见度值的概率;
步骤S25:输出概率最大的能见度值;
上述步骤S12与S22中,对图像进行尺度变换时,先对原始的输入图像进行尺寸缩放分别获得640*480,320*240,160*120三种大小的图像,然后分别对缩放后的图像进 行高斯平滑滤波。
上述步骤S13与S23中提取图像特征所使用的深度卷积网络结构如图3所示,该卷积网络由三层卷积层,三层池化层和两层全连接层组成。其输入尺寸为三元数组,第一 个数字代表特征图数量,第二三个数字代表特征图大小,对于不同尺度的图像其大小做 相应的调整,例如对于640*480的RGB三通道图,其输入为3*640*480。
上述步骤S14与S24中的softmax函数为:
其中,Pi(I)表示图像I属于第i类的概率,xj(I)表示图像I的能见度特征向量的第j维。
上述步骤S25中,最终输出的能见度值取概率最大的类别值,即:
其中,V是输出的能见度值,Pi(I)表示图像I属于第i类的概率。
本发明的原理在于:
本发明根据拍摄的图片,利用深度学习方法预测当前天气的能见度指标。由于深度 卷积网络能够有效提取图像特征,具有较高的鲁棒性,因此本发明构造了三层卷积网络提取图像特征,第一、二层网络能够提取图像的底层特征(如角点、边缘等),第三层 卷积层可提取图像的全局信息,在卷积层之间分别加入了三层最大值池化层,可以有效 的去除噪声的影响,提高模型的鲁棒性,最后两层全连接层提取特征向量,便于进行能 见度值的分类。
为了提高模型的特征提取能力,提高其泛化性能,本发明提出了采用多尺度特征提 取方法,将输入图像进行三个尺度的变换,对不同尺度下的图像进行特征提取,有利于网络学习到能见度特征,提高学习能力。
本发明与现有技术相比的优点在于:
(1)自动检测能见度,无需辅助措施
传统的基于数字摄像技术的能见度检测方法需要人工辅助(例如需要特定的人工标 志物)或是存在应用条件限制,因此实际的应用范围有限,一般都是针对某一特定场景的能见度检测(如道路能见度检测)。本发明提出使用深度卷积网络训练能见度图像, 并设计了专门用于能见度检测的深度卷积网络,训练好的网络可以对各种天气情况下的 图像进行能见度检测,无需依赖其他人工辅助条件,鲁棒性高,具有很高的实用价值。
(2)检测准确度高
本发明提出了多尺度特征提取方法,对每一张图像提取其三个尺度下的特征,有利 于提高网络模型的泛化性能和检测的准确度,鲁棒性高。可以对不同角度、场景下拍摄的图像进行能见度检测,相比于传统的能见度检测方法具有更高的实用范围。
(3)检测速度快
本发明提出的直接对采集的图像采用神经网络进行预测能见度,无需提取图像的特 征点或计算局部对比度等额外操作,相比传统的能见度检测方法更加简单有效,极大地加快了能见度检测的速度,检测一张800万像素的图像耗时仅为513ms。
附图说明
图1为本发明方法实现流图;
图2为本发明的能见度检测模型;
图3为本发明的深度卷积网络结构(输入图像大小640*480)。
具体实施方式
下面结合附图及实施例对本发明进行详细说明。
如图1所示,本发明流程包含两个部分:图像训练部分S1为:输入已标记好能见 度的图像,对所述图像进行尺度变换以获得三种不同尺度的图像,将三种不同尺度的图 像分别输入三个深度卷积网络中,以能见度值作为目标函数进行训练,当训练误差收敛 后,保存训练好的深度卷积网络作为最终的网络;
能见度检测部分S2为:输入图像,对图像进行多尺度变换,获得三种不同尺度的图像,将三种不同尺度的图像分别输入到步骤S1中三个训练好的深度卷积网络中并提 取特征向量,然后将三个特征向量加权相加获得总的特征向量,根据总的特征向量利用softmax函数进行分类,最终输出能见度值。
图像训练部分S1的具体步骤如下:
步骤S11:输入图像及其对应的能见度值
由于在深度学习中,训练的数据集对深度网络预测的准确率有很大的影响,因此获 得一个好的数据集至关重要。本发明建议拍摄尽可能多的图像,并且需要包含各个场景, 每个场景下都需拍摄能见度从低到高对应的图像作为训练所用的图像。在拍摄图像时, 可依据当时天气情况对拍摄的图像进行能见度标记,可将其能见度标记为从低到高分为 9个等级(0~8)。训练深度卷积网络时,输入图像及其对应的能见度值,将能见度值作为网络的目标函数。
步骤S12:多尺度变换图像,获得三种不同尺度下的图像
使用单一尺度的图像提取特征不利于提高网络的泛化能力,本发明提出了多尺度特 征提取的方法来改善这一能力(步骤S12与步骤S22操作一样),对图像的大小进行缩 放然后进行高斯平滑滤波可得到尺度变换后的图像,不同的图像缩放大小对应了不同尺 度的图像。本发明综合考虑能见度检测的精度与速度,采用了三种尺度的图像,其大小 分别是640*480,320*240和160*120,既能保证提取到足够多的能见度信息,又能避免 因图像过大而计算量大增。
步骤S13:将三种尺度图像分别输入深度卷积网络中进行多次迭代训练
本发明采用的深度网络结构如图3所示的深度卷积网络,该网络由三层卷积层、三层最大值池化层和两层全连接层组成。在图3中共有5列数据项,‘层名称’列是每一 层网络的名字;‘操作’列是对该层网络所进行的操作,包括输入输出、卷积和最大值 池化等操作,其中最大值池化就是最大值滤波;‘核大小’列是对该层网络进行卷积操 作的卷积核大小,以及进行池化操作的池化核的大小等;最后的‘输出尺寸’列是该层 网络输出的数据大小,采用三元数组表示,第一个数字代表特征图数量,第二三个数字 代表特征图大小,对于不同尺度的图像其特征图大小需做相应的调整,例如将640*480 的RGB三通道图作为输入图像,则其输入层的输出尺寸应为3*640*480(即图3所示), 对于尺度为320*240与160*120大小的输入图像,其网络的输入层需做相应调整,分别 为3*320*240和3*160*120。
本发明提出的深度卷积网络中,前两层卷积层可以提取图像的底层信息(如角点、边缘等),第三层卷积层可提取图像的全局信息,利于对图像的能见度进行特征表示。 最大值池化层可以有效的剔除噪声的影响,提高模型的泛化性能。全连接层将提取的能 见度特征表示为向量形式,有利于进行能见度分类,最后预测能见度值采用逻辑回归函 数计算每一类的概率。
在训练网络时,将三种尺度的图像分别输入三个深度卷积网络中提取能见度特征, 每个网络提取9维的特征向量,然后将三个特征向量加权相加成为9维的输出特征向量, 输入softmax函数进行分类训练,训练网络的流程如图2所示。当训练误差收敛后,保存此时的网络,作为检测能见度所用的最终网络。
步骤S14:测试模型的误差是否收敛,若不收敛则返回步骤3继续训练,若收敛则进行步骤S15
取数据集中的一部分为测试集,当训练达到一定次数后(如300次),使用网络验证能见度预测的误差,若误差收敛则说明该网络学习能见度特征的能力已经到最佳,反 之则说明网络的学习能力还可以继续提高,需继续训练。
步骤S15:保存模型为最终模型,以备能见度检测所用
训练网络达到收敛后说明其学习程度已经达到最佳,继续学习也无法继续提高其检 测能力,因此可以将此时的网络参数保存,作为能见度检测所用的最终网络。
能见度检测部分S2的步骤如下:
步骤S21:输入图像
本发明提出的深度卷积网络预测能见度的方法具有很高的鲁棒性,可以适用于各个 场景下大气能见度的检测,在检测能见度时,可以直接使用数字摄像机拍摄照片进行能见度预测。本发明对所拍的图像大小与角度等没有限制,任意角度和任意场景均可自动 检测。
步骤S22:多尺度变换图像,获得三种不同尺度下的图像
与前述步骤S12一样,将原始的输入图像进行尺度变换,获得三种尺度下的图像,图像的大小分别是640*480,320*240和160*120。
步骤S23:使用卷积网络提取不同尺度图像的特征,并将其加权相加为总的特征向量
使用图像训练部分中最终训练好的网络分别提取三种尺度下图像的能见度特征,并 将这三个特征加权相加获得总的特征向量。提取多个尺度下的特征的方法可以提高特征 提取的全面性与独特性,避免提取到干扰特征,可以提高网络的抗干扰能力,检测能见度的准确度大大提高。
步骤S24:将特征向量输入softmax函数,计算每一类能见度的概率
此处的softmax函数可根据特征向量计算每一类能见度值的概率,函数的公式为:
其中,Pi(I)表示图像I属于第i类的概率,xj(I)表示图像I的能见度特征向量的第j维。
步骤S25:输出能见度值。
最终输出的能见度值则取概率最大的类别值,即:
其中,V是最终输出的能见度值,Pi(I)表示图像I属于第i类的概率。
由于本发明所述的能见度等级为由低到高的0~8共9个等级,相邻两个等级能见度 非常类似,因此在实际应用中,若预测值与真实能见度值相差为1以内皆可以认为预测准确,经过大量的各类场景图像测试,本发明的能见度预测准确率可以达到100%,具 有较高的实用价值。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发 明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修 改,均应涵盖在本发明的范围之内。
Claims (5)
1.一种基于深度学习的能见度检测方法,其特征在于:实现步骤包括图像训练部分S1和能见度检测部分S2:
图像训练部分S1的步骤如下:
步骤S11:将训练集中的图像按照能见度由高到低分为9个类,能见度最高的图片标签为0,能见度最低的图片标签为8;
步骤S12:对图像进行尺度变换获得三种不同尺度的图像作为深度卷积网络的输入图像;
步骤S13:将三种不同尺度的图像分别输入三个深度卷积网络中提取能见度图像的特征,每个深度卷积网络提取9维的特征向量,然后将三个特征向量加权相加成为9维的输出特征向量,三个特征向量的权重在深度卷积网络中训练;
步骤S14:将上述特征向量输入softmax函数,以能见度值作为目标函数,对深度卷积网络进行分类训练;
步骤S15:若训练误差未收敛,则继续训练深度卷积网络,直到训练误差收敛后,保存网络,作为检测能见度所用的最终网络;
能见度检测部分S2的步骤如下:
步骤S21:输入图像;
步骤S22:对图像进行尺度变换以获得三种不同尺度的图像;
步骤S23:将三种不同尺度的图像分别输入到步骤S1中三个训练好的深度卷积网络中,提取对应的能见度特征向量,并将特征向量加权相加,得到总的能见度特征向量;
步骤S24:将特征向量输入softmax函数中,计算每一类能见度的概率;
步骤S25:输出概率最大的能见度值。
2.根据权利要求1所述的基于深度学习的能见度检测方法,其特征在于:所述步骤S12和S22中,对图像进行尺度变换时,先对原始的输入图像进行尺寸缩放分别获得三种不同尺度的图像大小,分别为640*480,320*240,160*120,然后分别对缩放后的图像进行高斯平滑滤波获得尺度变换后的图像。
3.根据权利要求1所述的基于深度学习的能见度检测方法,其特征在于:所述步骤S13和S23中深度卷积网络由三层卷积层、三层池化层和两层全连接层组成,网络的输入/输出为三元数组,第一个数字代表特征图数量,第二三个数字代表特征图大小,对于不同尺度的图像其特征图大小作相应的调整。
4.根据权利要求1所述的基于深度学习的能见度检测方法,其特征在于:所述步骤S14和S24中的softmax函数为:
<mrow>
<msub>
<mi>p</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<msup>
<mi>e</mi>
<mrow>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mn>8</mn>
</munderover>
<msup>
<mi>e</mi>
<mrow>
<msub>
<mi>x</mi>
<mi>j</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
</mrow>
</msup>
</mrow>
</mfrac>
</mrow>
其中,Pi(I)表示图像I属于第i类的概率,xj(I)表示图像I的能见度特征向量的第j维。
5.根据权利要求1所述的基于深度学习的能见度检测方法,其特征在于:步骤S25中,最终输出的能见度值取概率最大的类别值,即:
<mrow>
<mi>V</mi>
<mo>=</mo>
<munder>
<mrow>
<mi>arg</mi>
<mi> </mi>
<mi>m</mi>
<mi>a</mi>
<mi>x</mi>
</mrow>
<mi>i</mi>
</munder>
<mo>{</mo>
<msub>
<mi>P</mi>
<mi>i</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
<mo>,</mo>
<mn>1</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mn>8</mn>
<mo>}</mo>
</mrow>
其中,V是输出的能见度值,Pi(I)表示输入图像I属于第i类能见度的概率。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710732921.0A CN107506729B (zh) | 2017-08-24 | 2017-08-24 | 一种基于深度学习的能见度检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710732921.0A CN107506729B (zh) | 2017-08-24 | 2017-08-24 | 一种基于深度学习的能见度检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107506729A true CN107506729A (zh) | 2017-12-22 |
CN107506729B CN107506729B (zh) | 2020-04-03 |
Family
ID=60692568
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710732921.0A Active CN107506729B (zh) | 2017-08-24 | 2017-08-24 | 一种基于深度学习的能见度检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107506729B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108734278A (zh) * | 2018-05-23 | 2018-11-02 | 天津市气象科学研究所 | 一种基于多重神经网络逐步逼近法的低能见度预报方法 |
CN108875794A (zh) * | 2018-05-25 | 2018-11-23 | 中国人民解放军国防科技大学 | 一种基于迁移学习的图像能见度检测方法 |
CN109086803A (zh) * | 2018-07-11 | 2018-12-25 | 南京邮电大学 | 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法 |
CN110276418A (zh) * | 2019-06-26 | 2019-09-24 | 北京达佳互联信息技术有限公司 | 基于图片的字体识别方法、装置、电子设备及存储介质 |
CN111114424A (zh) * | 2019-12-19 | 2020-05-08 | 斑马网络技术有限公司 | 雾灯开启方法、装置、控制设备及存储介质 |
CN111898693A (zh) * | 2020-08-06 | 2020-11-06 | 上海眼控科技股份有限公司 | 能见度分类模型的训练方法、能见度估计方法、装置 |
CN112330675A (zh) * | 2020-12-15 | 2021-02-05 | 南昌工程学院 | 基于AOD-Net的交通道路图像大气能见度检测方法 |
CN112365476A (zh) * | 2020-11-13 | 2021-02-12 | 南京信息工程大学 | 一种基于双通路深度网络的雾天能见度检测方法 |
CN112560790A (zh) * | 2020-12-28 | 2021-03-26 | 广州数鹏通科技有限公司 | 一种基于摄像头视频图像智能识别能见度的方法 |
CN116664448A (zh) * | 2023-07-24 | 2023-08-29 | 南京邮电大学 | 一种基于图像去雾的中高能见度计算方法及计算系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488517A (zh) * | 2015-11-30 | 2016-04-13 | 杭州全实鹰科技有限公司 | 一种基于深度学习的车辆品牌型号识别方法 |
CN105956560A (zh) * | 2016-05-06 | 2016-09-21 | 电子科技大学 | 一种基于池化多尺度深度卷积特征的车型识别方法 |
CN106682569A (zh) * | 2016-09-28 | 2017-05-17 | 天津工业大学 | 一种基于卷积神经网络的快速交通标识牌识别方法 |
CN106778657A (zh) * | 2016-12-28 | 2017-05-31 | 南京邮电大学 | 基于卷积神经网络的新生儿疼痛表情分类方法 |
-
2017
- 2017-08-24 CN CN201710732921.0A patent/CN107506729B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105488517A (zh) * | 2015-11-30 | 2016-04-13 | 杭州全实鹰科技有限公司 | 一种基于深度学习的车辆品牌型号识别方法 |
CN105956560A (zh) * | 2016-05-06 | 2016-09-21 | 电子科技大学 | 一种基于池化多尺度深度卷积特征的车型识别方法 |
CN106682569A (zh) * | 2016-09-28 | 2017-05-17 | 天津工业大学 | 一种基于卷积神经网络的快速交通标识牌识别方法 |
CN106778657A (zh) * | 2016-12-28 | 2017-05-31 | 南京邮电大学 | 基于卷积神经网络的新生儿疼痛表情分类方法 |
Non-Patent Citations (2)
Title |
---|
JIAWEI LIU 等: "Multi-Scale Triplet CNN for Person Re-Identification", 《PROCEEDINGS OF THE 24TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA》 * |
KONSTANTINOS KAMNITSAS 等: "Efficient multi-scale 3D CNN with fully connected CRF for accurate brain lesion segmentation", 《MEDICAL IMAGE ANALYSIS》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108734278A (zh) * | 2018-05-23 | 2018-11-02 | 天津市气象科学研究所 | 一种基于多重神经网络逐步逼近法的低能见度预报方法 |
CN108875794B (zh) * | 2018-05-25 | 2020-12-04 | 中国人民解放军国防科技大学 | 一种基于迁移学习的图像能见度检测方法 |
CN108875794A (zh) * | 2018-05-25 | 2018-11-23 | 中国人民解放军国防科技大学 | 一种基于迁移学习的图像能见度检测方法 |
CN109086803A (zh) * | 2018-07-11 | 2018-12-25 | 南京邮电大学 | 一种基于深度学习与个性化因子的雾霾能见度检测系统及方法 |
CN110276418A (zh) * | 2019-06-26 | 2019-09-24 | 北京达佳互联信息技术有限公司 | 基于图片的字体识别方法、装置、电子设备及存储介质 |
CN111114424A (zh) * | 2019-12-19 | 2020-05-08 | 斑马网络技术有限公司 | 雾灯开启方法、装置、控制设备及存储介质 |
CN111898693A (zh) * | 2020-08-06 | 2020-11-06 | 上海眼控科技股份有限公司 | 能见度分类模型的训练方法、能见度估计方法、装置 |
CN112365476A (zh) * | 2020-11-13 | 2021-02-12 | 南京信息工程大学 | 一种基于双通路深度网络的雾天能见度检测方法 |
CN112365476B (zh) * | 2020-11-13 | 2023-12-08 | 南京信息工程大学 | 一种基于双通路深度网络的雾天能见度检测方法 |
CN112330675A (zh) * | 2020-12-15 | 2021-02-05 | 南昌工程学院 | 基于AOD-Net的交通道路图像大气能见度检测方法 |
CN112560790A (zh) * | 2020-12-28 | 2021-03-26 | 广州数鹏通科技有限公司 | 一种基于摄像头视频图像智能识别能见度的方法 |
CN116664448A (zh) * | 2023-07-24 | 2023-08-29 | 南京邮电大学 | 一种基于图像去雾的中高能见度计算方法及计算系统 |
CN116664448B (zh) * | 2023-07-24 | 2023-10-03 | 南京邮电大学 | 一种基于图像去雾的中高能见度计算方法及计算系统 |
Also Published As
Publication number | Publication date |
---|---|
CN107506729B (zh) | 2020-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107506729A (zh) | 一种基于深度学习的能见度检测方法 | |
CN110188705B (zh) | 一种适用于车载系统的远距离交通标志检测识别方法 | |
US9547866B2 (en) | Methods and apparatus to estimate demography based on aerial images | |
CN110501018B (zh) | 一种服务于高精度地图生产的交通标志牌信息采集方法 | |
CN102096070B (zh) | 一种全极化合成孔径雷达海面溢油检测方法 | |
Shirowzhan et al. | Data mining for recognition of spatial distribution patterns of building heights using airborne lidar data | |
CN103236063B (zh) | 基于多尺度谱聚类及决策级融合的sar图像溢油检测方法 | |
CN107066953A (zh) | 一种面向监控视频的车型识别、跟踪及矫正方法和装置 | |
CN105321342B (zh) | 一种基于航拍视频的交叉口车辆排队长度检测方法 | |
CN109961057A (zh) | 一种车辆位置获得方法及装置 | |
CN105160330A (zh) | 一种车标识别方法及车标识别系统 | |
CN111611918B (zh) | 基于航拍数据和深度学习的交通流数据集采集及构建方法 | |
Yekeen et al. | Automated marine oil spill detection using deep learning instance segmentation model | |
Yamaguchi et al. | Detection and localization of manhole and joint covers in radar images by support vector machine and Hough transform | |
Alizadeh et al. | Human-centered flood mapping and intelligent routing through augmenting flood gauge data with crowdsourced street photos | |
CN110751077B (zh) | 一种基于部件匹配与距离约束的光学遥感图片船舶检测方法 | |
Gong et al. | Small ship detection of SAR images based on optimized feature pyramid and sample augmentation | |
Xiang et al. | License plate detection based on fully convolutional networks | |
Varjo et al. | Image based visibility estimation during day and night | |
Li et al. | Detection of marine oil spills based on HOG feature and SVM classifier | |
Reksten et al. | Estimating traffic in urban areas from very-high resolution aerial images | |
CN106548209A (zh) | 一种基于多纹理特征的sar绿潮信息提取方法 | |
Zhang et al. | FRS-Net: An efficient ship detection network for thin-cloud and FOG-covered high-resolution optical satellite imagery | |
Guillermo et al. | A Comparative Study on Satellite Image Analysis for Road Traffic Detection using YOLOv3-SPP, Keras RetinaNet and Full Convolutional Network | |
Wei et al. | Adaptive video-based vehicle classification technique for monitoring traffic. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP02 | Change in the address of a patent holder | ||
CP02 | Change in the address of a patent holder |
Address after: No.443 Huangshan Road, Shushan District, Hefei City, Anhui Province 230022 Patentee after: University of Science and Technology of China Address before: 230026 Jinzhai Road, Baohe District, Hefei, Anhui Province, No. 96 Patentee before: University of Science and Technology of China |