CN115147450A - 基于运动帧差图像的移动目标检测方法及检测装置 - Google Patents
基于运动帧差图像的移动目标检测方法及检测装置 Download PDFInfo
- Publication number
- CN115147450A CN115147450A CN202211079697.7A CN202211079697A CN115147450A CN 115147450 A CN115147450 A CN 115147450A CN 202211079697 A CN202211079697 A CN 202211079697A CN 115147450 A CN115147450 A CN 115147450A
- Authority
- CN
- China
- Prior art keywords
- data set
- image
- image data
- initial
- difference
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 57
- 238000000034 method Methods 0.000 claims abstract description 39
- 230000000877 morphologic effect Effects 0.000 claims abstract description 38
- 238000013136 deep learning model Methods 0.000 claims abstract description 26
- 238000007781 pre-processing Methods 0.000 claims abstract description 22
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims description 67
- 238000001914 filtration Methods 0.000 claims description 39
- 238000003062 neural network model Methods 0.000 claims description 32
- 230000009466 transformation Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 12
- 238000005070 sampling Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 238000009499 grossing Methods 0.000 claims description 8
- 238000012546 transfer Methods 0.000 claims description 7
- 230000002708 enhancing effect Effects 0.000 claims description 5
- 230000007797 corrosion Effects 0.000 claims description 4
- 238000005260 corrosion Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000013528 artificial neural network Methods 0.000 description 24
- 210000002569 neuron Anatomy 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000013508 migration Methods 0.000 description 4
- 230000005012 migration Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005286 illumination Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012806 monitoring device Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000010339 dilation Effects 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration by non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G06T5/70—
-
- G06T5/73—
-
- G06T5/90—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20036—Morphological image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20064—Wavelet transform [DWT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本申请公开了一种基于运动帧差图像的移动目标检测方法及检测装置,其中,所述移动目标检测方法,包括:获取待处理视频数据;预处理所述待处理视频数据,得到预设尺寸的初始图像集;采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集;对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果,以此降低实现移动目标检测时的功耗和实施成本。
Description
技术领域
本申请涉及计算机视觉和人工智能应用技术领域,尤其涉及一种基于运动帧差图像的移动目标检测方法及检测装置。
背景技术
深度学习是图像、视频智能处理发展的关键技术,也是未来智能化系统的重要实现途径。深度学习提升了计算机视觉的检测和分类的性能,克服了原本靠人工设计特征的方式的不足。深度学习在诸多重要领域都有优异的表现,包括先进的驾驶辅助和自动驾驶系统。人们研究的焦点落在对生存和生活环境监控的摄像机、雷达、传感器和综合系统所获取的图像、视频数据进行智能化处理和分析。尤其是对行人和移动车辆的检测,人们的需求越来越迫切,对智能化交通管理系统来说也越来越不可或缺,对相应的检测方法和性能也有了更高的要求。过去十年,基于视觉的物体检测理论和技术方法已经得到了长足的发展。随着公共数据库的完善,进一步促进了物体检测技术的发展。行人检测技术从一开始的人工设计特征,发展到简单模型,到如今的深度学习。随着机器的性能和人脑的性能越来越接近,行人检测的性能将能够比拟人脑的性能。
在实现现有技术的过程中,发明人发现:
目前深度学习进行行人检测所面临的一个重要难题是,如何处理复杂和具有挑战性的场景。为了训练得到高性能的神经网络,需要非常高的检测手段获得足够准确的数据集。并且,这些数据集要包含各种各样的场景,以满足各种需求。通常情况下,对于特别场景的行人检测,会采用实际获取的图像对深度学习网络进行训练。这带来的一个重要问题是,如果监控设备进行移动或者要在多个监控设备上部署这个神经网络,也就是场景进行了迁移,那么需要重新对神经网络进行训练。这个过程所花费的时间和成本是十分巨大的,这也是制约人工智能广泛应用的一个重要因素。
因此,需要提供一种可以应对场景迁移问题的降低实施成本的移动目标检测的相关技术方案。
发明内容
本申请实施例提供一种可以应对场景迁移问题的降低实施成本的移动目标检测的相关技术方案,用以解决移动目标检中的场景迁移问题,并且降低运算量,实现成本低,能够广泛地运用到智能视频监控系统中,应用于安全安保、工业控制和交通管控等领域,有助于智慧社区和智慧城市的建设。
本申请提供的一种基于运动帧差图像的移动目标检测方法,包括以下具体步骤:
获取待处理视频数据;
预处理所述待处理视频数据,得到预设尺寸的初始图像集;
采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;
采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集;
对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;
通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
进一步的,预处理所述待处理视频数据,得到预设尺寸的初始图像集,包括以下具体步骤:
按预设时间间隔选取所述待处理视频数据中的帧图像,得到待处理视频图像数据;
灰度化处理所述待处理视屏图像数据,得到灰度图像数据集;
增强处理所述灰度图像数据集,得到增强图像数据集;
对所述增强图像数据集进行像素采样,按照预设比例和预设分辨率填充图像,得到预设尺寸的初始图像集。
进一步的,所述增强处理包括灰度级变换、平滑滤波、锐化滤波、低通滤波、高通滤波、小波变换、同态滤波和Retinex图像增强。
进一步的,采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集,包括以下具体步骤:
计算所述背景图像数据集和所述待检测图像数据集中按视频序列排列的两帧源图像的绝对差灰度图像,得到绝对差灰度图像集;
对所述绝对差灰度图像集中的绝对差灰度图像进行中值滤波,得到滤波图像集;
二值化处理所述滤波图像集,得到初始差分图像数据集。
进一步的,对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集,包括以下具体步骤:
对所述初始差分图像数据集进行形态学操作,得到形态学图像数据集;
对所述形态学图像数据集进行填充操作,得到待检测差分图像数据集。
进一步的,所述形态学操作包括:平滑处理、边缘提取、区域填充、击中不击中变换、细化、膨胀运算、腐蚀运算、开运算、闭运算、Top-hat和Bottom-hat变换。
进一步的,所述深度学习模型通过以下步骤训练得到:
获取训练视频数据;
预处理所述训练视频数据,得到预设尺寸的初始训练图像集;
采用图像差分法对所述初始训练图像集中的连续帧图像分类,得到只有背景的背景图像训练数据集和有移动目标的目标训练数据集;
采用对称差分分割算法处理所述背景图像训练数据集和所述目标训练数据集,得到初始差分图像训练数据集;
对所述初始差分图像训练数据集进行形态学处理,得到待训练差分图像数据集;
样本化处理所述待训练差分图像数据集,得到训练图像样本集;
标注所述训练图像样本集,得到标注数据集;
用所述标注数据集训练深度神经网络模型,得到神经网络模型参数;
根据所述深度神经网络模型和所述神经网络模型参数,得到预训练的深度学习模型。
进一步的,所述深度神经网络模型具有传输函数,并具有至少一个隐藏层。
进一步的,所述标注数据集为二维的二值化数据,转化成一维二值化数组后作为所述深度神经网络模型的输入数据。
本申请还提供一种基于运动帧差图像的移动目标检测装置,包括:
采集模块,用于获取待处理视频数据;
预处理模块,用于预处理所述待处理视频数据,得到预设尺寸的初始图像集;
计算模块,用于采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;还用于采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集;还用于对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;
检测模块,用于通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
本申请提供的实施例至少具有以下有益效果:
采用运动帧差图像,可以为移动目标检测提供足够丰富的关键信息,解决了计算机视觉中采用高分辨率图像和复杂程度高的神经网络导致的冗余信息过多和神经网络训练负担过重的问题;采用运动帧差图像,能够显著降低所要求的神经网络复杂程度,利于以低功耗、低成本实现移动目标检测的目的,节省工作时间;基于运动帧差图像的移动目标检测方法,能够解决场景迁移的问题,基于运动帧差图像的深度学习模型能够广泛适用于各种场景;基于运动帧差图像的移动目标检测方法,能够同时适用于任何时间段,例如白天、傍晚或晚上灯光,此外,也适用于红外图像和太赫兹图像等特殊图像;基于运动帧差图像的深度学习模型的运算需求低,能够在嵌入式系统中实现,有利于推广和大规模应用。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本申请实施例提供的一种基于运动帧差图像的移动目标检测方法的流程图;
图2为本申请实施例提供的一种基于运动帧差图像的移动目标检测装置的示意图;
图3为本申请实施例提供的一种基于运动帧差图像的移动目标检测技术方案中的原始图像;
图4为本申请实施例提供的一种基于运动帧差图像的移动目标检测技术方案中的二值化图像;
图5为本申请实施例提供的一种基于运动帧差图像的移动目标检测技术方案中的经过处理的帧差图像;
图6为本申请实施例提供的基于运动帧差图像的深度神经网络示意图;
图7为本申请实施例提供的移动目标检测结果示意图。
附图中:100、基于运动帧差图像的移动目标检测装置;11、采集模块;12、预处理模块;13、计算模块;14、检测模块。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合本申请具体实施例及相应的附图对本申请技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
请参照图1,本申请提供的一种基于运动帧差图像的移动目标检测方法,包括以下具体步骤:
S100:获取待处理视频数据。
需要指出的是,这里的待处理视频数据可以理解为原始的视频,如通过监控摄像头录取的监控视频,也可以是通过其他方式录取的视频。这里的待处理视频数据包括带移动目标的视频数据,这里的移动目标可以是行人,也可以是其他位置发生变动的目标物体。
S200:预处理所述待处理视频数据,得到预设尺寸的初始图像集。
可以理解的是,采集到的待处理视频数据是原始的视频,在运用基于神经网络的深度学习模型进行处理前需要先进行预处理,将视频数据转换为图像数据。这里的预设尺寸可以理解为初始图像集中图像的尺寸大小。
进一步的,预处理所述待处理视频数据,得到预设尺寸的初始图像集,包括以下具体步骤:
按预设时间间隔选取所述待处理视频数据中的帧图像,得到待处理视频图像数据;
灰度化处理所述待处理视屏图像数据,得到灰度图像数据集;
增强处理所述灰度图像数据集,得到增强图像数据集;
对所述增强图像数据集进行像素采样,按照预设比例和预设分辨率填充图像,得到预设尺寸的初始图像集。
需要指出的是,通过待处理视频数据得到初始图像集的过程可以理解为将视频数据转换为图片数据的过程。这里的待处理视频图像数据可以理解为由RGB彩色图像组成的图像集合。通过对彩色图像进行灰度化处理,可以简化算法。这里的灰度图像数据集可以理解为由灰度化图像组成的图像集合。增强处理灰度图像数据集可以理解为增强处理灰度图像数据集中的灰度图像。将灰度图像进行增强处理,包括直方图均衡化、平滑滤波、锐化滤波、高通滤波、低通滤波等。对增强图像数据集进行像素采样可以理解为对增强图像数据集中的增强图像的像素进行采样。按照预设比例和预设分辨率填充图像可以理解为将采样的像素按照特定比例和分辨率大小填充得到一个新图像,以此作为初始图像集的元素。可以理解的是,这里的预设比例和预设分辨率按照实际需要进行设定,最终的预设尺寸可以根据预设比例和预设分辨率确定。需要说明的是,这里的灰度化图像采用像素点的亮度值作为像素值,亮度值通过以下变换颜色模型进行计算,如下式
其中,R、G和B分别是RGB彩色图像的红色、绿色和蓝色分量。
进一步的,所述增强处理包括灰度级变换、平滑滤波、锐化滤波、低通滤波、高通滤波、小波变换、同态滤波和Retinex图像增强。
S300:采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集。
需要说明的是,这里的图像差分法可以理解为在图像处理时,将两帧图像对应的像素值相减,以实现对背景图像和和有移动目标的图像的分类。显而易见的是,采用图像差分法对连续帧图像分类时,如果只有背景图像数据集而不存在待检测图像数据集,则整个移动目标检测方法完成,不需要进一步操作。在一种具体的实施方式中,当这里的移动目标为行人时,可以对初始图像集中的视频图像数据进行图像连续帧的初始分类。在初始分类时,利用图像差分法将无行人的图像挑选出来,组成背景图像的数据集,即背景图像数据集。其他图像组成行人图像的数据集,即待检测图像数据集。通过以背景图像对初始图像集进行分类,可以有效提高检测准确性。
S400:采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集。
进一步的,采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集,包括以下具体步骤:
计算所述背景图像数据集和所述待检测图像数据集中按视频序列排列的两帧源图像的绝对差灰度图像,得到绝对差灰度图像集;
对所述绝对差灰度图像集中的绝对差灰度图像进行中值滤波,得到滤波图像集;
二值化处理所述滤波图像集,得到初始差分图像数据集。
在进行中值滤波时,可以对绝对差灰度图像进行3×3的中值滤波。对于亮度值发生随机突变的像素,经过滤波后,中心像素的新值取自队列中位的像素值,突变的像素都被过滤掉。因此,采用中值滤波后的图像具有良好的视觉效果。中值滤波能够保留源图像的很多信息,且计算速度较快。
对滤波图像集中的图像进行二值化操作时,可以采用基于图像差距度量的阈值选取方法,通过选取适当的阈值实现。
S500:对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集。
需要说明的是,初始差分图像数据集由差分图像组成。对初始差分图像数据集进行形态学处理可以理解为对初始差分图像数据集中的差分图像进行形态学处理。在对差分图像进行形态学处理时,可以从不同的角度对差分结果进行必要的填充或修正,最终形成待检测差分图像数据集。在进行形态学处理时,需要选取适当大小的结构算子,此算子影响滤噪效果和平滑效果。过小的结构元素不具有显著效果,而过大的结果元素则会损坏边缘,使边缘倾向圆滑。
进一步的,对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集,包括以下具体步骤:
对所述初始差分图像数据集进行形态学操作,得到形态学图像数据集;
对所述形态学图像数据集进行填充操作,得到待检测差分图像数据集。
需要指出的是,对初始差分图像数据集进行形态学操作时,可以对初始差分图像数据集中的图像进行形态学的腐蚀、膨胀等操作,将背景残留小噪声清除,并且平滑差分图像中的目标物边缘。当这里的目标物为行人时,则可以平滑差分图像中的行人边缘。对形态学图像数据集进行填充操作时,可以对形态学图像数据集中的图像进行填充操作,以此填充差分图像中的目标物内部空洞。当这里的目标物为行人时,则可以填充差分图像中的行人内部空洞。
进一步的,所述形态学操作包括:平滑处理、边缘提取、区域填充、击中不击中变换、细化、膨胀运算、腐蚀运算、开运算、闭运算、Top-hat和Bottom-hat变换。
S600:通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
进一步的,所述深度学习模型通过以下步骤训练得到:
获取训练视频数据;
预处理所述训练视频数据,得到预设尺寸的初始训练图像集;
采用图像差分法对所述初始训练图像集中的连续帧图像分类,得到只有背景的背景图像训练数据集和有移动目标的目标训练数据集;
采用对称差分分割算法处理所述背景图像训练数据集和所述目标训练数据集,得到初始差分图像训练数据集;
对所述初始差分图像训练数据集进行形态学处理,得到待训练差分图像数据集;
样本化处理所述待训练差分图像数据集,得到训练图像样本集;
标注所述训练图像样本集,得到标注数据集;
用所述标注数据集训练深度神经网络模型,得到神经网络模型参数;
根据所述深度神经网络模型和所述神经网络模型参数,得到预训练的深度学习模型。
需要说明的是,形态学处理得到的待训练差分图像数据集的元素数量未达到预设的样本数量时,需要重复之前的步骤,直至待训练差分图像数据集的元素数量满足样本数量要求。这里的样本数量可以理解为用于训练深度神经网络模型时所需的样本数量。在样本化处理待训练差分图像数据集时,可以理解为对待训练差分图像数据集中的图像进行切割等处理,获得由图像样本组成的训练图像样本集。通过对训练图像样本集中的图像样本进行标注,最终生成标注数据集。通过标注数据集对应用的深度神经网络模型进行训练,可以获得相应的神经网络模型参数,以此得到预训练的深度学习模型。
进一步的,所述深度神经网络模型具有传输函数,并具有至少一个隐藏层。
需要指出的是,这里的深度神经网络模型需要选取适当的传输函数。有多种传输函数可供选择,例如广泛应用的S型函数,如下式:
这里深度神经网络模型应用的神经网络具有多层感知机(multilayerperceptron,MLP),其中神经元分布在输出层和隐藏层中。不同层之间的神经元连接通过一个权重表示。例如从第j个隐藏层的神经元到第i个隐藏层(另一个层)的神经元的连接权重表示为,另外一组神经元的连接权重则表示为,其中上标的不同表示不同的两个层之间的连接。
进一步的,所述标注数据集为二维的二值化数据,转化成一维二值化数组后作为所述深度神经网络模型的输入数据。
需要说明的是,深度神经网络模型采用的神经网络的输入信号为图像样本,图像样本是二维的二值化数据,在正式输入神经网络进行处理前需转化为一维数组,记为。输入值和相关连接的权重进行相乘,由此第j个隐藏层的神经元接收到的信号为,乘上神经元的传输函数,得到,以此类推。
多层的神经网络以此类推。
请参照图2,本申请还提供一种基于运动帧差图像的移动目标检测装置100,包括:
采集模块11,用于获取待处理视频数据;
预处理模块12,用于预处理所述待处理视频数据,得到预设尺寸的初始图像集;
计算模块13,用于采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;还用于采用对称差分分割算法处理所述背景图像数据集和所述待检测图形数据集,得到初始差分图像数据集;还用于对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;
检测模块14,用于通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
需要指出的是,这里的待处理视频数据可以理解为原始的视频。在一种具体的实施方式中,在训练深度学习模型时,需要先通过采集模块11获得原始的视频,可以通过预处理模块12取其中间隔1.7秒的三帧图像,这里的三帧图像可以理解为原始图像,如图3所示。进一步用预处理模块12和计算模块13进行图像滤波、差分处理等,最后计算得出每两帧源图像的绝对差二值图像,这里的绝对差二值图像也可以理解为二值化图像,如图4所示。进一步通过计算模块13对二值化后的帧差图像进行形态学处理,得到结果如图5所示,可以理解为经过处理的帧差图像。可以理解的是,在获取用于训练深度学习模型的训练数据时,需要不断重复以上步骤,得到的二值帧差图像作为数据集合。在另一种具体的实施方式中,在训练深度学习模型时,先通过采集模块11获得原始的视频,根据训练所需的样本数量,通过预处理模块12取其中间隔1.7秒的多帧图像,这里的多帧帧图像可以理解为原始图像。进一步用预处理模块12和计算模块13进行图像滤波、差分处理等,最后计算得出每两帧源图像的绝对差二值图像,这里的绝对差二值图像也可以理解为二值化图像。进一步通过计算模块13对二值化后的帧差图像进行形态学处理,得到的图像结果可以理解为经过处理的帧差图像。可以理解的是,这里的原始图像的数量根据样本数量确定,最终得到的经过处理的帧差图像作为数据集合。本实例中,数据集合中包括1000幅帧差图像。对数据集合中的图像进行定位和切割等处理,获得图像样本,并进行标记。将图像样本转化为一维数组,作为神经网络的输入,即。将标记结果,作为神经网络的输出,即。在此处,采用具有两个内部连接层的神经网络,如图6所示。使用图像样本对神经网络进行训练,获得神经网络的连接权重。至此,可以得到预训练的深度学习模型。在采用该深度学习模型进行移动目标检测时,需要先获得待检测的原始图像,处理分别得到二值帧差图像、图像样本和输入神经网络的一维数组。检测模块14应用训练好的深度学习模型对所获得的一维数组进行运算,最后输出结果。根据输出结果便可对源视频中的物体进行标注,如图7所示,成功标注出行人和电动车,检测完毕。
进一步的,所述预处理模块12具体用于:
按预设时间间隔选取所述待处理视频数据中的帧图像,得到待处理视频图像数据;
灰度化处理所述待处理视屏图像数据,得到灰度图像数据集;
增强处理所述灰度图像数据集,得到增强图像数据集;
对所述增强图像数据集进行像素采样,按照预设比例和预设分辨率填充图像,得到预设尺寸的初始图像集。
进一步的,所述增强处理包括灰度级变换、平滑滤波、锐化滤波、低通滤波、高通滤波、小波变换、同态滤波和Retinex图像增强。
进一步的,所述计算模块13具体通过以下步骤得到初始差分图像数据集:
计算所述背景图像数据集和所述待检测图像数据集中按视频序列排列的两帧源图像的绝对差灰度图像,得到绝对差灰度图像集;
对所述绝对差灰度图像集中的绝对差灰度图像进行中值滤波,得到滤波图像集;
二值化处理所述滤波图像集,得到初始差分图像数据集。
进一步的,计算模块13具体通过以下步骤得到待检测差分图像数据集:
对所述初始差分图像数据集进行形态学操作,得到形态学图像数据集;
对所述形态学图像数据集进行填充操作,得到待检测差分图像数据集。
进一步的,所述形态学操作包括:平滑处理、边缘提取、区域填充、击中不击中变换、细化、膨胀运算、腐蚀运算、开运算、闭运算、Top-hat和Bottom-hat变换。
进一步的,所述检测模块14中的深度学习模型通过以下步骤训练得到:
获取训练视频数据;
预处理所述训练视频数据,得到预设尺寸的初始训练图像集;
采用图像差分法对所述初始训练图像集中的连续帧图像分类,得到只有背景的背景图像训练数据集和有移动目标的目标训练数据集;
采用对称差分分割算法处理所述背景图像训练数据集和所述目标训练数据集,得到初始差分图像训练数据集;
对所述初始差分图像训练数据集进行形态学处理,得到待训练差分图像数据集;
样本化处理所述待训练差分图像数据集,得到训练图像样本集;
标注所述训练图像样本集,得到标注数据集;
用所述标注数据集训练深度神经网络模型,得到神经网络模型参数;
根据所述深度神经网络模型和所述神经网络模型参数,得到预训练的深度学习模型。
进一步的,所述深度神经网络模型具有传输函数,并具有至少一个隐藏层。
进一步的,所述标注数据集为二维的二值化数据,转化成一维二值化数组后作为所述深度神经网络模型的输入数据。
本申请采用运动帧差图像,将其中含有的关键运动信息提取出来,能够保留足够丰富的信息供深度神经网络使用。目前计算机视觉的某些研究倾向采用高分辨率图像和复杂程度高的神经网络,由此可以获得丰富的细节特征信息,但涵盖的冗余信息过多,会增加神经网络训练的负担。采用运动帧差图像,可以显著降低所要求的神经网络的复杂程度,利于以低功耗、低成本实现移动目标检测如行人检测的目的,节省工作时间。基于运动帧差图像的移动目标检测方法,能够解决场景迁移的问题。现有的深度神经网络模型大多依赖于训练数据集,在某一场景下训练好的模型,在换到另一场景后将无法正常工作。基于运动帧差图像的深度学习模型能够广泛适用于各种场景。除此之外,该技术方案能够适用于任何时间段的场景中,例如白天的正常光照场景、傍晚的昏暗光照场景或晚上的灯光照射场景。此外,该技术方案还适用于红外图像和太赫兹图像等特殊图像。综上所述,基于运动帧差图像的移动目标检测技术方案的运算需求低,能够在嵌入式系统中实现,有利于推广和大规模应用。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (10)
1.一种基于运动帧差图像的移动目标检测方法,其特征在于,包括以下具体步骤:
获取待处理视频数据;
预处理所述待处理视频数据,得到预设尺寸的初始图像集;
采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;
采用对称差分分割算法处理所述背景图像数据集和所述待检测图像数据集,得到初始差分图像数据集;
对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;
通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
2.根据权利要求1所述的移动目标检测方法,其特征在于,预处理所述待处理视频数据,得到预设尺寸的初始图像集,包括以下具体步骤:
按预设时间间隔选取所述待处理视频数据中的帧图像,得到待处理视频图像数据;
灰度化处理所述待处理视频图像数据,得到灰度图像数据集;
增强处理所述灰度图像数据集,得到增强图像数据集;
对所述增强图像数据集进行像素采样,按照预设比例和预设分辨率填充图像,得到预设尺寸的初始图像集。
3.根据权利要求2所述的移动目标检测方法,其特征在于,所述增强处理包括灰度级变换、平滑滤波、锐化滤波、低通滤波、高通滤波、小波变换、同态滤波和Retinex图像增强。
4.根据权利要求1所述的移动目标检测方法,其特征在于,采用对称差分分割算法处理所述背景图像数据集和所述待检测图像数据集,得到初始差分图像数据集,包括以下具体步骤:
计算所述背景图像数据集和所述待检测图像数据集中按视频序列排列的两帧源图像的绝对差灰度图像,得到绝对差灰度图像集;
对所述绝对差灰度图像集中的绝对差灰度图像进行中值滤波,得到滤波图像集;
二值化处理所述滤波图像集,得到初始差分图像数据集。
5.根据权利要求1所述的移动目标检测方法,其特征在于,对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集,包括以下具体步骤:
对所述初始差分图像数据集进行形态学操作,得到形态学图像数据集;
对所述形态学图像数据集进行填充操作,得到待检测差分图像数据集。
6.根据权利要求5所述的移动目标检测方法,其特征在于,所述形态学操作包括:平滑处理、边缘提取、区域填充、击中不击中变换、细化、膨胀运算、腐蚀运算、开运算、闭运算、Top-hat和Bottom-hat变换。
7.根据权利要求1所述的移动目标检测方法,其特征在于,所述深度学习模型通过以下步骤训练得到:
获取训练视频数据;
预处理所述训练视频数据,得到预设尺寸的初始训练图像集;
采用图像差分法对所述初始训练图像集中的连续帧图像分类,得到只有背景的背景图像训练数据集和有移动目标的目标训练数据集;
采用对称差分分割算法处理所述背景图像训练数据集和所述目标训练数据集,得到初始差分图像训练数据集;
对所述初始差分图像训练数据集进行形态学处理,得到待训练差分图像数据集;
样本化处理所述待训练差分图像数据集,得到训练图像样本集;
标注所述训练图像样本集,得到标注数据集;
用所述标注数据集训练深度神经网络模型,得到神经网络模型参数;
根据所述深度神经网络模型和所述神经网络模型参数,得到预训练的深度学习模型。
8.根据权利要求7所述的移动目标检测方法,其特征在于,所述深度神经网络模型具有传输函数,并具有至少一个隐藏层。
9.根据权利要求7所述的移动目标检测方法,其特征在于,所述标注数据集为二维的二值化数据,转化成一维二值化数组后作为所述深度神经网络模型的输入数据。
10.一种基于运动帧差图像的移动目标检测装置,其特征在于,包括:
采集模块,用于获取待处理视频数据;
预处理模块,用于预处理所述待处理视频数据,得到预设尺寸的初始图像集;
计算模块,用于采用图像差分法对所述初始图像集中的连续帧图像分类,得到只有背景的背景图像数据集和有移动目标的待检测图像数据集;还用于采用对称差分分割算法处理所述背景图像数据集和所述待检测图像数据集,得到初始差分图像数据集;还用于对所述初始差分图像数据集进行形态学处理,得到待检测差分图像数据集;
检测模块,用于通过预训练的深度学习模型处理所述待检测差分图像数据集,得到移动目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211079697.7A CN115147450B (zh) | 2022-09-05 | 2022-09-05 | 基于运动帧差图像的移动目标检测方法及检测装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211079697.7A CN115147450B (zh) | 2022-09-05 | 2022-09-05 | 基于运动帧差图像的移动目标检测方法及检测装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115147450A true CN115147450A (zh) | 2022-10-04 |
CN115147450B CN115147450B (zh) | 2023-02-03 |
Family
ID=83415896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211079697.7A Active CN115147450B (zh) | 2022-09-05 | 2022-09-05 | 基于运动帧差图像的移动目标检测方法及检测装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147450B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861365A (zh) * | 2022-10-11 | 2023-03-28 | 海南大学 | 运动目标检测方法、系统、计算机设备及存储介质 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070206865A1 (en) * | 2006-03-02 | 2007-09-06 | Honeywell International Inc. | Block-based Gaussian Mixture Model video motion detection |
US20110085026A1 (en) * | 2009-10-12 | 2011-04-14 | Perng Ming-Hwei | Detection method and detection system of moving object |
CN102184552A (zh) * | 2011-05-11 | 2011-09-14 | 上海理工大学 | 一种基于差分融合与图像边缘信息的运动目标检测方法 |
CN102254394A (zh) * | 2011-05-31 | 2011-11-23 | 西安工程大学 | 一种基于视频差异分析的输电线路杆塔防盗监控方法 |
CN102799883A (zh) * | 2012-06-29 | 2012-11-28 | 广州中国科学院先进技术研究所 | 一种从视频图像中提取运动目标的方法及装置 |
CN103514610A (zh) * | 2013-09-17 | 2014-01-15 | 四川虹微技术有限公司 | 一种背景静止的运动目标分割方法 |
US20160005182A1 (en) * | 2013-02-25 | 2016-01-07 | Agent Video Intelligence Ltd. | Method, system and software module for foreground extraction |
CN106650824A (zh) * | 2016-12-30 | 2017-05-10 | 西安电子科技大学 | 基于支持向量机的运动目标分类方法 |
CN107103303A (zh) * | 2017-04-27 | 2017-08-29 | 昆明理工大学 | 一种基于gmm背景差分与联合特征的行人检测方法 |
CN107862291A (zh) * | 2017-11-14 | 2018-03-30 | 河海大学 | 一种基于深度学习的人车自动分类方法 |
US20180218504A1 (en) * | 2017-01-30 | 2018-08-02 | Nec Corporation | Moving object detection apparatus, moving object detection method and program |
CN108956614A (zh) * | 2018-05-08 | 2018-12-07 | 太原理工大学 | 一种基于机器视觉的矿用钢丝绳动态探伤检测方法和装置 |
CN109670419A (zh) * | 2018-12-04 | 2019-04-23 | 天津津航技术物理研究所 | 一种基于周界安防视频监控系统的行人检测方法 |
CN110751678A (zh) * | 2018-12-12 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 运动目标的检测方法、装置和电子设备 |
CN112055172A (zh) * | 2020-08-19 | 2020-12-08 | 浙江大华技术股份有限公司 | 一种监控视频的处理方法、装置以及存储介质 |
CN112183456A (zh) * | 2020-10-19 | 2021-01-05 | 北京深睿博联科技有限责任公司 | 基于样本生成和域适应的多场景运动目标检测方法及装置 |
CN112270697A (zh) * | 2020-10-13 | 2021-01-26 | 清华大学 | 一种结合超分辨率重建的卫星序列影像运动目标检测方法 |
CN112329616A (zh) * | 2020-11-04 | 2021-02-05 | 北京百度网讯科技有限公司 | 目标检测方法、装置、设备以及存储介质 |
CN112686186A (zh) * | 2021-01-05 | 2021-04-20 | 润联软件系统(深圳)有限公司 | 一种基于深度学习的高空抛物识别方法及其相关组件 |
-
2022
- 2022-09-05 CN CN202211079697.7A patent/CN115147450B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070206865A1 (en) * | 2006-03-02 | 2007-09-06 | Honeywell International Inc. | Block-based Gaussian Mixture Model video motion detection |
US20110085026A1 (en) * | 2009-10-12 | 2011-04-14 | Perng Ming-Hwei | Detection method and detection system of moving object |
CN102184552A (zh) * | 2011-05-11 | 2011-09-14 | 上海理工大学 | 一种基于差分融合与图像边缘信息的运动目标检测方法 |
CN102254394A (zh) * | 2011-05-31 | 2011-11-23 | 西安工程大学 | 一种基于视频差异分析的输电线路杆塔防盗监控方法 |
CN102799883A (zh) * | 2012-06-29 | 2012-11-28 | 广州中国科学院先进技术研究所 | 一种从视频图像中提取运动目标的方法及装置 |
US20160005182A1 (en) * | 2013-02-25 | 2016-01-07 | Agent Video Intelligence Ltd. | Method, system and software module for foreground extraction |
CN103514610A (zh) * | 2013-09-17 | 2014-01-15 | 四川虹微技术有限公司 | 一种背景静止的运动目标分割方法 |
CN106650824A (zh) * | 2016-12-30 | 2017-05-10 | 西安电子科技大学 | 基于支持向量机的运动目标分类方法 |
US20180218504A1 (en) * | 2017-01-30 | 2018-08-02 | Nec Corporation | Moving object detection apparatus, moving object detection method and program |
CN107103303A (zh) * | 2017-04-27 | 2017-08-29 | 昆明理工大学 | 一种基于gmm背景差分与联合特征的行人检测方法 |
CN107862291A (zh) * | 2017-11-14 | 2018-03-30 | 河海大学 | 一种基于深度学习的人车自动分类方法 |
CN108956614A (zh) * | 2018-05-08 | 2018-12-07 | 太原理工大学 | 一种基于机器视觉的矿用钢丝绳动态探伤检测方法和装置 |
CN109670419A (zh) * | 2018-12-04 | 2019-04-23 | 天津津航技术物理研究所 | 一种基于周界安防视频监控系统的行人检测方法 |
CN110751678A (zh) * | 2018-12-12 | 2020-02-04 | 北京嘀嘀无限科技发展有限公司 | 运动目标的检测方法、装置和电子设备 |
CN112055172A (zh) * | 2020-08-19 | 2020-12-08 | 浙江大华技术股份有限公司 | 一种监控视频的处理方法、装置以及存储介质 |
CN112270697A (zh) * | 2020-10-13 | 2021-01-26 | 清华大学 | 一种结合超分辨率重建的卫星序列影像运动目标检测方法 |
CN112183456A (zh) * | 2020-10-19 | 2021-01-05 | 北京深睿博联科技有限责任公司 | 基于样本生成和域适应的多场景运动目标检测方法及装置 |
CN112329616A (zh) * | 2020-11-04 | 2021-02-05 | 北京百度网讯科技有限公司 | 目标检测方法、装置、设备以及存储介质 |
CN112686186A (zh) * | 2021-01-05 | 2021-04-20 | 润联软件系统(深圳)有限公司 | 一种基于深度学习的高空抛物识别方法及其相关组件 |
Non-Patent Citations (5)
Title |
---|
CHULYEON KIM等: "A hybrid framework combining background subtraction and deep neural networks for rapid person detection", 《JOURNAL OD BIG DATA》 * |
XIA LI等: "Target detection algorithm for dance moving images based on sensor and motion capture data", 《MICROPROCESSORS AND MICROSYSTEMS》 * |
刘凯: "基于监控视频的移动目标识别与跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
孙怡峰等: "一种视频监控中基于航迹的运动小目标检测算法", 《电子与信息学报》 * |
王元皓: "基于深度学习的动态小目标检测追踪技术研究及系统实现", 《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115861365A (zh) * | 2022-10-11 | 2023-03-28 | 海南大学 | 运动目标检测方法、系统、计算机设备及存储介质 |
CN115861365B (zh) * | 2022-10-11 | 2023-08-15 | 海南大学 | 运动目标检测方法、系统、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN115147450B (zh) | 2023-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110956094B (zh) | 一种基于非对称双流网络的rgb-d多模态融合人员检测方法 | |
CN108492319B (zh) | 基于深度全卷积神经网络的运动目标检测方法 | |
CN111104903B (zh) | 一种深度感知交通场景多目标检测方法和系统 | |
CN107239730B (zh) | 智能汽车交通标志识别的四元数深度神经网络模型方法 | |
CN107274445B (zh) | 一种图像深度估计方法和系统 | |
CN111209810A (zh) | 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构 | |
CN106683119B (zh) | 基于航拍视频图像的运动车辆检测方法 | |
CN109918971B (zh) | 监控视频中人数检测方法及装置 | |
CN110929593A (zh) | 一种基于细节辨别区别的实时显著性行人检测方法 | |
CN112215074A (zh) | 基于无人机视觉的实时目标识别与检测追踪系统及方法 | |
Naufal et al. | Preprocessed mask RCNN for parking space detection in smart parking systems | |
Xing et al. | Traffic sign recognition using guided image filtering | |
Liu et al. | Multi-type road marking recognition using adaboost detection and extreme learning machine classification | |
CN104915642A (zh) | 前方车辆测距方法及装置 | |
Hu et al. | A video streaming vehicle detection algorithm based on YOLOv4 | |
CN115147450B (zh) | 基于运动帧差图像的移动目标检测方法及检测装置 | |
CN112613392A (zh) | 基于语义分割的车道线检测方法、装置、系统及存储介质 | |
Ghahremannezhad et al. | Automatic road detection in traffic videos | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
Xing et al. | The Improved Framework for Traffic Sign Recognition Using Guided Image Filtering | |
Arthi et al. | Object detection of autonomous vehicles under adverse weather conditions | |
CN113408550A (zh) | 基于图像处理的智能称重管理系统 | |
CN114419603A (zh) | 一种自动驾驶车辆控制方法、系统和自动驾驶车辆 | |
CN112270232A (zh) | 对车辆周围的弱势交通参与者进行分类的方法和装置 | |
Wang et al. | The Extraction Studies of Self-driving Awareness Video Semantics Based on Convolution Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |