CN104253994A - 一种基于稀疏编码融合的夜间监控视频实时增强方法 - Google Patents
一种基于稀疏编码融合的夜间监控视频实时增强方法 Download PDFInfo
- Publication number
- CN104253994A CN104253994A CN201410446313.XA CN201410446313A CN104253994A CN 104253994 A CN104253994 A CN 104253994A CN 201410446313 A CN201410446313 A CN 201410446313A CN 104253994 A CN104253994 A CN 104253994A
- Authority
- CN
- China
- Prior art keywords
- night
- video
- sparse coding
- frame
- sparse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
该发明公开了一种基于稀疏编码融合的夜间监控视频实时增强方法,涉及计算机视觉领域和信号处理领域,特别是涉及稀疏编码、图像增强、信息融合和视频图像处理的方法。通过白天和夜间的视频数据集的稀疏训练和学习,以获得较为高质量的原子集和对应的稀疏编码;通过稀疏编码融合算法,重构出增强的背景;然后,使用背景差方法,把运动物体从原夜间视频帧中提取出来;最后将增强的背景和运动物体融合得到最终的增强后的视频帧,从而具有在夜间监控视频增强过程中计算复杂度低、计算时间短、增强效果好、增强图像噪音小的效果。
Description
技术领域
本发明涉及计算机视觉领域和信号处理领域,特别是涉及稀疏编码、图像增强、信息融合和视频图像处理的方法。
背景技术
视频增强在计算机视觉领域的研究由来已久。它主要解决如下问题:如何将较低质量(亮度小,对比度低,细节模糊等)的输入视频流输出为高质量(亮度大,对比度高,细节清晰)的视频流。目前视频增强技术在视频监控领用已经展开了大量的应用研究,尤其是针对特定地点的的夜间视频监控。夜间环境下的若光照影响给视频增强技术带来了不小的挑战。
根据视频增强技术中是否利用被增强图像本身以外的信息,目前关于视频增强常用的方法可以分为两大类:自身修补增强和信息融合增强。其中前者主要依靠算法提高被增强图像的质量,后者主要将外来有用信息,一般是同一地点的白天视频信息,和夜间视频信息通过融合算法来增强视频质量。目前自身修补类的增强技术有:伽马校准增强,直方图均衡增强,色调映射增强,HDR(高动态范围成像)增强,小波变换增强等。而信息融合类的增强技术有:同态滤波融合增强,梯度融合增强,高斯混合模型增强等。关于这两类技术的比较,自身修补增强技术的时间复杂度会较高,而且增强效果相对较低,不宜应用于实时视频监;而信息融合类增强方法却利用较低的时间复杂度实现较好的增强效果。由于时间复杂性的限制,使得信息融合类方法更适宜于实时视频监控领域。通过融合类增强技术的基本流程,如图1所示,由于白天信息的加入导致这类技术出现了新的问题:过度增强、夜灯不亮、夜间倒影等问题。这些问题在图2中有很好的显示。左边的图是原来的视频帧,右边的图示利用白天背景融合增强后的视频帧。增强的效果看上去很好,但是正如上面所标注的ABC三个问题也很明显。A:由于过多增强,导致运动的人和背景的对比度降低,这使得在增强后的视频中,原本应该被重点关注的人不再那么突出;B:树上的彩灯也由于白天强光的影响,甚至不能判断其是否正常工作,这会妨碍夜间监控的有效性;C:由于白天的背景中有倒影,导致在增强过后的视频帧中倒影不合理出现。
稀疏编码是较为常用的数据压缩算法,该算法包括原子字典更新和稀疏编码更新两个迭代过程。追踪算法是较为常用的求解字典原子的方法,稀疏编码的更新过程中,由于目标函数的不同,所采用的更新方法也不同;对于没有惩罚项的优化目标,K_SVD是常用的求解算法。最终的编码以原子字典为引用,压缩原始数据,同时也能移除原始数据中的噪音和冗余。
发明内容
针对背景技术的不足之处,本发明提供一种基于稀疏编码融合的夜间监控视频实时增强方法,达到在夜间监控视频增强过程中计算复杂度低、计算时间短、增强效果好、增强图像噪音小的目的。
本发明的技术方案是一种基于稀疏编码融合的夜间监控视频实时增强方法,本方法通过白天和夜间的视频数据集的稀疏训练和学习,以获得较为高质量的原子集和对应的稀疏编码;通过稀疏编码融合算法,重构出增强的背景;然后,使用背景差方法,把运动物体从原夜间视频帧中提取出来;最后将增强的背景和运动物体融合得到最终的增强后的视频帧,从而实现发明目的。因而该方法包括以下步骤:
A、离线学习和融合:通过大量视频数据集的稀疏训练和学习,得到原子字典和稀疏编码,并通过稀疏融合算法重构出增强后的背景;
A1、收集大量特定地点的白天和夜间监控视频流数据;
A2、使用MCL(mutual coherence learning:互相干扰性学习)方法训练和学习A1中收集到的数据,将视频数据中每一帧划分为若干小块,求出白天数据和夜间数据视频帧中相同位置小块的原子字典和稀疏编码;
A3、将学习到的白天的原子字典和稀疏编码与夜间的原子字典和稀疏编码,按照公式(1)进行融合;
Pscf(i)=γDdXd(i)+ηDnXn(i) (1)
公式中i为图像块序号,Pscf(i)是融合后i号的图像块,Dd是白天的原子字典,Dn是夜间的原子字典,Xd(i)是白天的i号图像块的稀疏编码,Xn(i)是夜间的i号图像块的稀疏编码,η和γ分别是白天和夜间的融合系数;
A4、将融合后的图像块按照块序号重构出增强后的背景图;
A5、将夜间原子字典和对应稀疏编码按照DnXn(i)的方式重构出夜间稳定背景图;
B、在线提取和融合:在实时视频流中提取出运动物体,并将之融合进A4得到的增强后的背景中;
B1、采集当前视频,并使用A5中重构出的夜间稳定背景图提取出当前视频帧中的运动物体;
B2、将提取出的运动物体融合到A4得到的增强后背景图中,得到夜间效果增强视频。
步骤A2中MCL(mutual coherence learning:互相干扰性学习)方法过程进一步包括:
A21、将白天视频中的每一帧划分为若干小的图像块y,并对在同一个坐标位置的块赋予一个块序号i,对每一个拥有相同块序号的图像块进行如下训练;
A22、随机初始化原子字典D([d1,...,di,...,dk]),di表示字典中原子;
A23、使用正交追踪算法计算出稀疏编码矩阵X([x1,...,xi,...xm]),使得任一xi满足公式(2)
公式中yi是收集视频中的每一帧划分为的图像块信息,D是原子字典,||·||0是零范式计算,K是稀疏度;
A24、对于字典中每一个原子di按照公式(3)进行重新初始化
公式中Y是收集到的视频数据,对于特定编码i,指代所有编号i块的全部训练数据;
A25、计算如果其大于0,则将标志位flag置为1,否则将flag置为-1;
A26、对于字典中每一个原子di,利用A25的计算结果按照公式(4)进行更新
公式总β为梯度参数;
A27、比较di在更新前后的变化,如果没有变化则跳到A28,如果有变化则返回A25;
A28、返回A23,直到训练得到的稀疏编码X不再变化,从而求白天视频帧中相同位置小块的原子字典和稀疏编码;
A29、采用A21~A28相同的方法计算出夜间视频视频帧中相同位置小块的原子字典和稀疏编码。
步骤B1中夜间运动物体提取过程进一步包括:
B11、按照公式(5)对于帧中的每一个像素进行标示位赋值
公式中的(x,y)是像素坐标,L(x,y)是(x,y)坐标对应的像素的标示位,B(x,y)和N(x,y)分别是对应的背景图像素值和夜间帧像素值,Th0是设定的阈值;
B12、根据每个像素的标示位建立二值化图,将所有L为1的像素赋值为255,L为0的像素赋值为0;
B13、对二值化的图进行高斯腐蚀,得到腐蚀后的图;
B14、对于腐蚀后的图每一像素值进行阈值判断,二值化,如果大于某阈值,则赋值为255,否则赋值为0;
B15、对于腐蚀后的二值化图进行膨胀计算,膨胀后再次二值化处理;
B16、根据膨胀后的二值化图中像素值为255坐标位置,将夜间视频帧中相应的坐标像素提取出,再融合到增强后的背景图中去。
所述步骤B11中对于帧中的每一个像素进行标示位赋值时,针对8位的数字化图像,阈值Th0的置信区间为130-160。
所述步骤B14中对于腐蚀后的图进行二值化时,针对8位的数字化图像,阈值的的置信区间为160-190。
本发明一种基于稀疏编码融合的夜间监控视频实时增强方法,通过白天和夜间的视频数据集的稀疏训练和学习,以获得较为高质量的原子集和对应的稀疏编码;通过稀疏编码融合算法,重构出增强的背景;然后,使用背景差方法,把运动物体从原夜间视频帧中提取出来;最后将增强的背景和运动物体融合得到最终的增强后的视频帧,从而在夜间监控视频增强过程中计算复杂度低、计算时间短、增强效果好、增强图像噪音小的效果。
附图说明
图1为信息融合增强方法基本流程图;
图2为信息融合增强技术引入的新问题对比图;
图3为发明法案的概括示意图;
图4为离线工作流程图;
图5为在线工作流程图;
图6为MCL方法和其它训练方法对比图;
图7为本发明的最终增强结果和其他融合类技术结果对比图。
图3中英对照如下:Daytime image samples(白天视频流数据集),Nighttime image samples(夜间视频流数据集),Sparse coding(稀疏编码),Daytime dictionary(白天字典),Nighttime dictionary(夜间字典),Reconstruct(重构),Night time background(夜间背景),Night video frame(夜间视频帧),Binarization segmentation(二值化分割),Moving objects(移动物体),Sparse codes fusion(稀疏编码融合),Enhanced background(增强后的背景),Fusion(融合),Enhanced video frame(增强的视频帧)。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进一步说明。应当理解,此处所描述的具体实施例仅仅用于解释本发明,并不用于限定本发明。
具体实施例:基于稀疏编码融合方式的夜间监控视频增强
在本实验中,夜间光照环境非常差,仅仅靠路灯提供照明,是说明基于稀疏编码融合的视频增强的一个典型例子。其具体处理流程分为两个部分:离线工作流程和在线工作流程,分别如下:
离线流程:
步骤1:收集白天和夜间视频数据集;转步骤2;
步骤2:对于收集到的数据集进行空间坐标分块,实验中分块大小是3*3,后续步骤对于白天和夜间数据集分别同时处理,转步骤3;
步骤3:初始化步骤,原字字典随机初始化,稀疏编码矩阵初始化0,转步骤4;
步骤4:使用正交追踪算法,根据已有的原子字典,求出稀疏编码矩阵,转步骤5;
步骤5:检测稀疏编码矩阵是否发生变化,如果发生变化,转步骤6,否则转步骤10;
步骤6:根据公式(3),将原子字典再次初始化,转步骤7;
步骤7:计算flag标志,转步骤8;
步骤8:根据公式(4),更新字典原子,转步骤9;
步骤9:检测字典是否发生变化,如果发生变化,转步骤7,否则转步骤4;
步骤10:使用夜间字典和稀疏编码重构出夜间背景,再利用公式(1)进行稀疏编码融合得到增强后的夜间背景,至此完成离线工作任务。
在线流程:
步骤1:利用离线训练得到的夜间背景,将其和在线监控的视频帧做背景差处理,取其绝对值,转步骤2;
步骤2:根据背景差结果的阈值(阈值150)判断,初始化一个二值化图像,转步骤3;
步骤3:对于二值化图像进行高斯腐蚀(5*5的高斯窗口),转步骤4;
步骤4:,对高斯腐蚀后的图像进行膨胀腐蚀,转步骤5;
步骤5:对于膨胀后的图像,进行阈值(阈值为180)判断,并二值化,转步骤6;
步骤6:以二值图像为掩码,在线视频进行运动分割,转步骤7;
步骤7:将分割的运动图像融合进离线得到的增强后的夜间背景,得到最终增强的视频帧,至此完成在线工作。
在离线学习中,本发明创新地提出了一种针对特定场景的稀疏学习方法:MCL(mutual coherence learning:互相干扰性学习)。在一般的稀疏编码方法的目标函数是如公式(6)所示:
为了使得特定场景的连续性,提出了新的稀疏目标函数,如公式(7)所示:
并且本发明出了对于这种目标函数的特有的训练方法,其具体步骤是离线训练的A21-A28。这种学习方法相对与传统的公式(6)所示的稀疏方法,取得了非常好的效果。
与目前现有的稀疏编码训练方法相比,本发明提出的MCL(mutual coherence learning:互相干扰性学习)创造性地很好地解决视频流不稳定造成的噪音问题和图像不连续问题。针对图2中的场景为例,图6很好地显示出MCL方法的优点。图6中(a)是一般的图形内容融合得到的背景,(b)是传统的利用公式(6)进行的训练学习结果,(c)是本发明的MCL方法得到的增强后的结果。从对比中,不难看出,本发明得到的增强后的背景中没有较大噪音污染,也没有白天的阴影。
与目前现有的视频融合类视频增强技术相比,本发明的增强效果,无论从增强的亮度上,还是从噪音减少程度上,甚至与对于现有的问题的解决上,都取得了很好的效果。从图7可以看出。图中(a)(b)(c)是目前现有的融合类增强技术(分别是:除夜技术,内容融合,梯度融合)的结果图,(d)是本发明的结果图。从对比中可以发现,本发明很好地解决了三大公开问题,夜间运动物体在增强后的视频中更加突出明显;白天阴影没有出现;夜间的灯也明亮了。另外从右边的亮度直方图中可以看出,本发明的最红增强的视频帧的亮度是最大的。
另外一个方面,在于本发明的在线时间复杂度极低。相对与其他融合类技术而言,本发明的大量时间主要集中在离线的训练学习工作中,而对于在线工作,只是简单的运动分割和融合。从运行时间来说,本发明的帧处理时间是12ms,远远低于目前融合类技术的时间性能(大约是每帧50ms),从而更好地满足了视频流的处理实时性要求。
Claims (5)
1.一种基于稀疏编码融合的夜间监控视频实时增强方法,该方法包括:
A、离线学习和融合:通过大量视频数据集的稀疏训练和学习,得到原子字典和稀疏编码,并通过稀疏融合算法重构出增强后的背景;
A1、收集大量特定地点的白天和夜间监控视频流数据;
A2、使用MCL(mutual coherence learning:互相干扰性学习)方法训练和学习A1中收集到的数据,将视频数据中每一帧划分为若干小块,求出白天数据和夜间数据视频帧中相同位置小块的原子字典和稀疏编码;
A3、将学习到的白天的原子字典和稀疏编码与夜间的原子字典和稀疏编码,按照公式(1)进行融合;
Pscf(i)=γDdXd(i)+ηDnXn(i) (1)
公式中i为图像块序号,Pscf(i)是融合后i号的图像块,Dd是白天的原子字典,Dn是夜间的原子字典,Xd(i)是白天的i号图像块的稀疏编码,Xn(i)是夜间的i号图像块的稀疏编码,η和γ分别是白天和夜间的融合系数;
A4、将融合后的图像块按照块序号重构出增强后的背景图;
A5、将夜间原子字典和对应稀疏编码按照DnXn(i)的方式重构出夜间稳定背景图;
B、在线提取和融合:在实时视频流中提取出运动物体,并将之融合进A4得到的增强后的背景中;
B1、采集当前视频,并使用A5中重构出的夜间稳定背景图提取出当前视频帧中的运动物体;
B2、将提取出的运动物体融合到A4得到的增强后背景图中,得到夜间效果增强视频。
2.如权利要求1所述的一种基于稀疏编码融合的夜间监控视频实时增强方法,其特征在于步骤A2中互相干扰性学习的具体步骤包括:
A21、将白天视频中的每一帧划分为若干小的图像块y,并对在同一个坐标位置的块赋予一个块序号i,对每一个拥有相同块序号的图像块进行如下训练;
A22、随机初始化原子字典D([d1,...,di,...,dk]),di表示字典中原子;
A23、使用正交追踪算法计算出稀疏编码矩阵X([x1,...,xi,...xm]),使得任一xi满足公式(2)
公式中yi是收集视频中的每一帧划分为的图像块信息,D是原子字典,||·||0是零范式计算,K是稀疏度;
A24、对于字典中每一个原子di按照公式(3)进行重新初始化
公式中Y是收集到的视频数据,对于特定编码i,指代所有编号i块的全部训练数据;
A25、计算如果其大于0,则将标志位flag置为1,否则将flag置为-1;
A26、对于字典中每一个原子di,利用A25的计算结果按照公式(4)进行更新
公式总β为梯度参数;
A27、比较di在更新前后的变化,如果没有变化则跳到A28,如果有变化则返回A25;
A28、返回A23,直到训练得到的稀疏编码X不再变化,从而求白天视频帧中相同位置小块的原子字典和稀疏编码;
A29、采用A21~A28相同的方法计算出夜间视频视频帧中相同位置小块的原子字典和稀疏编码。
3.如权利要求1所述的一种基于稀疏编码融合的夜间监控视频实时增强方法,其特征在于步骤B1中夜间运动物体提取过程进一步包括:
B11、按照公式(5)对于帧中的每一个像素进行标示位赋值
公式中的(x,y)是像素坐标,L(x,y)是(x,y)坐标对应的像素的标示位,B(x,y)和N(x,y)分别是对应的背景图像素值和夜间帧像素值,Th0是设定的阈值;
B12、根据每个像素的标示位建立二值化图,将所有L为1的像素赋值为255,L为0的像素赋值为0;
B13、对二值化的图进行高斯腐蚀,得到腐蚀后的图;
B14、对于腐蚀后的图每一像素值进行阈值判断,二值化,如果大于某阈值,则赋值为255,否则赋值为0;
B15、对于腐蚀后的二值化图进行膨胀计算,膨胀后再次二值化处理;
B16、根据膨胀后的二值化图中像素值为255坐标位置,将夜间视频帧中相应的坐标像素提取出,再融合到增强后的背景图中去。
4.如权利要求3所述的一种基于稀疏编码融合的夜间监控视频实时增强方法,其特征在于所述步骤B11中对于帧中的每一个像素进行标示位赋值时,针对8位的数字化图像,阈值Th0的置信区间为130-160。
5.如权利要求3所述的一种基于稀疏编码融合的夜间监控视频实时增强方法,其特征在于所述步骤B14中对于腐蚀后的图进行二值化时,针对8位的数字化图像,阈值的的置信区间为160-190。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410446313.XA CN104253994B (zh) | 2014-09-03 | 2014-09-03 | 一种基于稀疏编码融合的夜间监控视频实时增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410446313.XA CN104253994B (zh) | 2014-09-03 | 2014-09-03 | 一种基于稀疏编码融合的夜间监控视频实时增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104253994A true CN104253994A (zh) | 2014-12-31 |
CN104253994B CN104253994B (zh) | 2017-09-26 |
Family
ID=52188472
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410446313.XA Expired - Fee Related CN104253994B (zh) | 2014-09-03 | 2014-09-03 | 一种基于稀疏编码融合的夜间监控视频实时增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104253994B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105530406A (zh) * | 2015-12-18 | 2016-04-27 | 成都国翼电子技术有限公司 | 一种基于历史帧图像统计值的智能增强方法 |
CN111311526A (zh) * | 2020-02-25 | 2020-06-19 | 深圳市朗驰欣创科技股份有限公司 | 视频增强方法、视频增强装置及终端设备 |
CN112714321A (zh) * | 2020-12-18 | 2021-04-27 | 深圳大学 | 压缩视频处理方法、装置、设备及计算机可读存储介质 |
US20210390713A1 (en) * | 2020-06-12 | 2021-12-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for performing motion transfer using a learning model |
CN116205806A (zh) * | 2023-01-28 | 2023-06-02 | 荣耀终端有限公司 | 一种图像增强方法及电子设备 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101980284A (zh) * | 2010-10-26 | 2011-02-23 | 北京理工大学 | 基于两尺度稀疏表示的彩色图像降噪方法 |
US20120057799A1 (en) * | 2010-09-02 | 2012-03-08 | Sony Corporation | Run length coding with context model for image compression using sparse dictionaries |
CN102968766A (zh) * | 2012-11-23 | 2013-03-13 | 上海交通大学 | 基于字典数据库的自适应图像超分辨率重构方法 |
-
2014
- 2014-09-03 CN CN201410446313.XA patent/CN104253994B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120057799A1 (en) * | 2010-09-02 | 2012-03-08 | Sony Corporation | Run length coding with context model for image compression using sparse dictionaries |
CN101980284A (zh) * | 2010-10-26 | 2011-02-23 | 北京理工大学 | 基于两尺度稀疏表示的彩色图像降噪方法 |
CN102968766A (zh) * | 2012-11-23 | 2013-03-13 | 上海交通大学 | 基于字典数据库的自适应图像超分辨率重构方法 |
Non-Patent Citations (4)
Title |
---|
AKITO YAMASAKI ET AL.: "Denighting: Enhancement of nighttime images for a surveillance camera", 《 PATTERN RECOGNITION, 2008. ICPR 2008. 19TH INTERNATIONAL CONFERENCE ON》 * |
YINGHAO CAI ET AL.: "Context Enhancement of Nighttime Surveillance by Image Fusion", 《PATTERN RECOGNITION, 2006. ICPR 2006. 18TH INTERNATIONAL CONFERENCE ON》 * |
李艳彬: "基于稀疏表示的交通图像增强算法研究", 《中国优秀硕士学位论文-信息科技辑》 * |
田旺,陶青川: "基于融合的夜间视频图像增强算法", 《计算机安全》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105530406A (zh) * | 2015-12-18 | 2016-04-27 | 成都国翼电子技术有限公司 | 一种基于历史帧图像统计值的智能增强方法 |
CN105530406B (zh) * | 2015-12-18 | 2018-06-12 | 成都国翼电子技术有限公司 | 一种基于历史帧图像统计值的智能增强方法 |
CN111311526A (zh) * | 2020-02-25 | 2020-06-19 | 深圳市朗驰欣创科技股份有限公司 | 视频增强方法、视频增强装置及终端设备 |
US20210390713A1 (en) * | 2020-06-12 | 2021-12-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for performing motion transfer using a learning model |
WO2021248432A1 (en) * | 2020-06-12 | 2021-12-16 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for performing motion transfer using a learning model |
US11830204B2 (en) * | 2020-06-12 | 2023-11-28 | Beijing Didi Infinity Technology And Development Co., Ltd. | Systems and methods for performing motion transfer using a learning model |
CN112714321A (zh) * | 2020-12-18 | 2021-04-27 | 深圳大学 | 压缩视频处理方法、装置、设备及计算机可读存储介质 |
CN116205806A (zh) * | 2023-01-28 | 2023-06-02 | 荣耀终端有限公司 | 一种图像增强方法及电子设备 |
CN116205806B (zh) * | 2023-01-28 | 2023-09-19 | 荣耀终端有限公司 | 一种图像增强方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN104253994B (zh) | 2017-09-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Fan et al. | Multiscale low-light image enhancement network with illumination constraint | |
Li et al. | Single image dehazing via conditional generative adversarial network | |
CN106296612B (zh) | 一种图像质量评价和天气状况引导的分级式监控视频清晰化系统及方法 | |
CN110059768B (zh) | 用于街景理解的融合点与区域特征的语义分割方法及系统 | |
CN107301623B (zh) | 一种基于暗通道和图像分割的交通图像去雾方法及系统 | |
CN104253994A (zh) | 一种基于稀疏编码融合的夜间监控视频实时增强方法 | |
CN106846359A (zh) | 基于视频序列的运动目标快速检测方法 | |
CN106530246A (zh) | 基于暗通道与非局部先验的图像去雾方法及系统 | |
CN102024146B (zh) | 猪舍监控视频中前景提取方法 | |
CN107516316B (zh) | 一种在fcn中引入聚焦机制对静态人体图像进行分割的方法 | |
CN103020914B (zh) | 基于空间连续性原理的快速图像去雾方法 | |
CN109816040B (zh) | 基于深度学习的城市内涝水深检测的方法 | |
CN114037712B (zh) | 基于深度学习的用户实时涂抹交互式图像分割方法 | |
CN112508960A (zh) | 一种基于改进注意力机制的低精度图像语义分割方法 | |
CN104091350B (zh) | 一种利用运动模糊信息的物体跟踪方法 | |
CN109685045A (zh) | 一种运动目标视频跟踪方法及系统 | |
CN106296677A (zh) | 一种基于双背景模型的双掩膜背景更新的遗留物检测方法 | |
CN110807744B (zh) | 一种基于卷积神经网络的图像去雾方法 | |
Xu et al. | Moving object detection based on improved three frame difference and background subtraction | |
CN113066025A (zh) | 一种基于增量学习与特征、注意力传递的图像去雾方法 | |
Ding et al. | Restoration of single sand-dust image based on style transformation and unsupervised adversarial learning | |
Yao et al. | Lightweight neural network for real-time crack detection on concrete surface in fog | |
CN114581914A (zh) | 一种雾霾环境下的车牌识别方法 | |
Xu et al. | Multi-scale dehazing network via high-frequency feature fusion | |
Xu et al. | Deep learning algorithm in ancient relics image colour restoration technology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20170926 Termination date: 20200903 |