CN115147460A - 基于深度学习的移动对象检测方法及系统 - Google Patents
基于深度学习的移动对象检测方法及系统 Download PDFInfo
- Publication number
- CN115147460A CN115147460A CN202110339785.5A CN202110339785A CN115147460A CN 115147460 A CN115147460 A CN 115147460A CN 202110339785 A CN202110339785 A CN 202110339785A CN 115147460 A CN115147460 A CN 115147460A
- Authority
- CN
- China
- Prior art keywords
- image
- detected
- background
- determined
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Abstract
本发明公开了一种基于深度学习的移动对象检测方法及系统,该方法包括:对待检测图像执行全局移动侦测操作,得到待检测图像的侦测结果;将待检测图像输入轻量级识别模型中进行分析,得到待检测图像的识别结果;当该待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果,如:感兴趣目标为静态目标或者动态目标。可见,本发明通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于深度学习的移动对象检测方法及系统。
背景技术
随着科学技术的飞速发展,人们对闭路电子监控系统的要求越来越高,智能化在监控领域也得到越来越多的应用。在某些监控的场所对安全性要求比较高,需要对运动的目标进行及时的检测和跟踪。其中,移动侦测作为在安防智能化应用最早的领域,它的技术发展和应用前景都备受关注。移动侦测也称为运动检测,常用于无人值守监控录像和自动报警。其中,移动侦测的工作基本原理是通过将摄像头采集到的视频基于视频帧信息进行计算得到各个视频帧的比较结果,如果所述比较结果超过预设阈值,则认为所述视频发生变化(例如有人走过或镜头被移动),并自动报警或做出相应处理。
近年来,国内外对于视频序列中的移动侦测研究取得了大量的成果,现有的移动侦测算法主要有3种:(1)帧间差分法,基本原理是求出图像序列中相邻两帧或者多待检测图像像素间的差分,并通过设定一定的阈值将其转化为二值图像,在背景静止的情况下,该方法有较好的效果,但是这种方法对进行差分的图像帧的选择时机要求比较高,而且受运动物体的运动速度影响较大。(2)光流法,该方法采用了运动目标随时间变化的光流特性,能够在预先不知道场景的任何信息的条件下,检测出独立运动的对象,但是多数光流法计算复杂耗时,难以满足实时检测的要求,且对噪声比较敏感。(3)背景减除法,该方法是目前运动检测中最常用的一种方法,其实质是通过帧间差分取均值等方法得到重建后的背景图像,再将当前待检测图像与此背景图像相减,若差分图像中灰度值大于某阈值,则判定此像素点属于运动目标区域。该方法操作简单、计算量小、实时性较好、一般能够提供最完全的运动目标信息,但对于动态场景的变化较为敏感。因此,提出一种如何在动态背景下仍能快速准确检测移动对象的技术方案尤为重要。
发明内容
本发明所要解决的技术问题在于,提供一种基于深度学习的移动对象检测方法及系统,能够在动态背景下仍能快速准确检测移动对象。
为了解决上述技术问题,本发明实施例第一方面公开了一种基于深度学习的移动对象检测方法,所述方法包括:
对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果;
当所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标时,将所述待检测图像输入确定出的轻量级识别模型中进行分析,并获取所述轻量级识别模型输出的识别结果,作为所述待检测图像的识别结果;
当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为静态目标或者动态目标。
作为一种可选的实施方式,在本发明第一方面中,所述待检测图像由至少三帧连续相邻待检测图像组成;
其中,所述对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果,包括:
在所有所述待检测图像中,获取其中三帧连续相邻所述待检测图像中每相邻两帧所述待检测图像的差分图像,得到两帧所述差分图像,并对两帧所述差分图像执行与操作,得到两帧所述差分图像对应的第一图像;
基于确定出的灰度值对所述第一图像执行二值化操作,得到所述第一图像对应的二值图像;
基于确定出的形态学算法获取所述二值图像中第一连通区域的面积,并根据所述第一连通区域的面积确定所述待检测图像的侦测结果;
其中,当所述第一连通区域的面积大于等于确定出的第一面积阈值时,所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标。
作为一种可选的实施方式,在本发明第一方面中,所述当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,包括:
将所述待检测图像输入确定出的背景识别模型中进行分析,并获取所述背景识别模型输出的识别结果,作为所述待检测图像的背景帧图像;
获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像,并对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像;
基于确定出的形态学算法获取所述第二图像中第二连通区域的面积,并根据所述第二连通区域的面积确定所述感兴趣目标的侦测结果;
其中,当所述第二连通区域的面积大于等于确定出的第二面积阈值时,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为动态目标。
作为一种可选的实施方式,在本发明第一方面中,所述方法还包括:
确定当前场景对应的多帧连续样本图像中每帧所述样本图像中样本感兴趣目标所在的区域,所有所述样本图像包括所述待检测图像和/或采集到的所述当前场景中的其他图像;
对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像;
根据所有所述样本图像对应的掩膜图像,确定所述当前场景的背景识别模型,作为确定出的背景识别模型。
作为一种可选的实施方式,在本发明第一方面中,所述对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像之前,所述方法还包括:
基于确定出的区域扩充方式对每个所述样本感兴趣目标所在的区域进行扩充,得到扩充后的每个所述样本感兴趣目标所在的区域;
其中,所述对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像,包括:
对扩充后的每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像。
作为一种可选的实施方式,在本发明第一方面中,所述方法还包括:
获取所述待检测图像对应的场景的环境变化信息;
以及,所述将所述待检测图像输入确定出的背景识别模型中进行分析之前,所述方法还包括:
判断所述环境变化信息是否满足确定出的背景识别模型的更新条件;
当判断出所述环境变化信息不满足所述更新条件时,执行所述的将所述待检测图像输入确定出的背景识别模型中进行分析的操作。
作为一种可选的实施方式,在本发明第一方面中,所述方法还包括:
当判断出所述环境变化信息满足所述更新条件时,根据所述环境变化信息确定所述背景识别模型的背景更新率;
基于所述背景更新率、所述待检测图像以及所述背景识别模型对应的当前背景帧更新所述背景识别模型,得到更新后的所述背景识别模型;
其中,所述将所述待检测图像输入确定出的背景识别模型中进行分析,包括:
将所述待检测图像输入更新后的所述背景识别模型中进行分析。
作为一种可选的实施方式,在本发明第一方面中,更新后的所述背景识别模型对应的计算方式如下:
式中,Bt+1(x,y)为第t+1帧更新后的背景帧图像,Bt(x,y)为背景模型对应的当前背景帧,It(x,y)为所述待检测图像,α为背景更新率。
作为一种可选的实施方式,在本发明第一方面中,所述判断所述环境变化信息是否满足确定出的背景识别模型的更新条件,包括:
当所述环境变化信息包括所述待检测图像对应的场景的光照变化强度时,判断所述光照变化强度是否大于等于确定出的光照变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件;或者,
当所述环境变化信息包括所述待检测图像对应的场景的风力变化强度时,判断所述风力变化强度是否大于等于确定出的风力变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件。
作为一种可选的实施方式,在本发明第一方面中,所述获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像之后,所述方法还包括:
基于确定出的数学形态学算法对所述背景差分图像执行形态学操作,得到所述背景差分图像中所有第三连通区域的面积,并从所有所述第三连通区域中将面积小于等于确定出的第三面积阈值的所有所述第三连通区域进行滤除,得到目标背景差分图像;
其中,所述对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像,包括:
对所述目标背景差分图像执行二值化处理,得到所述目标背景差分图像的第二图像。
作为一种可选的实施方式,在本发明第一方面中,所述方法还包括:
获取至少一个类型的训练数据,所述类型包括行人类型、车辆类型以及其它动物类型;
将所有所述类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件,并确定满足所述预设条件的所述感兴趣神经网络模型为确定出的轻量级识别模型;
其中,所述预设条件包括训练出的所述感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或所述基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
作为一种可选的实施方式,在本发明第一方面中,所述对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果之后,所述方法还包括:
计算所述感兴趣目标的侦测结果对应的侦测灵敏度等级,并判断所述侦测灵敏度等级是否大于等于确定出的侦测灵敏度等级阈值;
当判断出所述侦测灵敏度等级大于等于所述侦测灵敏度等级阈值时,向确定出的授权终端输出报警信息,所述报警信息用于提示所述待检测图像的场景存在移动目标。
本发明实施例第二方面公开了一种基于深度学习的移动对象检测系统,所述移动对象检测系统包括:
移动侦测模块,用于对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果;
分析模块,用于当所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标时,将所述待检测图像输入确定出的轻量级识别模型中进行分析;
获取模块,用于获取所述轻量级识别模型输出的识别结果,作为所述待检测图像的识别结果;
所述移动侦测模块,还用于当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为静态目标或者动态目标。
作为一种可选的实施方式,在本发明第二方面中,所述待检测图像由至少三帧连续相邻待检测图像组成;
其中,所述移动侦测模块对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果的方式具体为:
在所有所述待检测图像中,获取其中三帧连续相邻所述待检测图像中每相邻两帧所述待检图像的差分图像,得到两帧所述差分图像,并对两帧所述差分图像执行与操作,得到两帧所述差分图像对应的第一图像;
基于确定出的灰度值对所述第一图像执行二值化操作,得到所述第一图像对应的二值图像;
基于确定出的形态学算法获取所述二值图像中第一连通区域的面积,并根据所述第一连通区域的面积确定所述待检测图像的侦测结果;
其中,当所述第一连通区域的面积大于等于确定出的第一面积阈值时,所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标。
作为一种可选的实施方式,在本发明第二方面中,当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,所述移动侦测模块对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果的方式具体为:
将所述待检测图像输入确定出的背景识别模型中进行分析,并获取所述背景识别模型输出的识别结果,作为所述待检测图像的背景帧图像;
获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像,并对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像;
基于确定出的形态学算法获取所述第二图像中第二连通区域的面积,并根据所述第二连通区域的面积确定所述感兴趣目标的侦测结果;
其中,当所述第二连通区域的面积大于等于确定出的第二面积阈值时,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为动态目标。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
第一确定模块,用于确定当前场景对应的多帧连续样本图像中每帧所述样本图像中样本感兴趣目标所在的区域,所有所述样本图像包括所述待检测图像和/或采集到的所述当前场景中的其他图像;
掩膜处理模块,用于对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像;
所述第一确定模块,还用于根据所有所述样本图像对应的掩膜图像,确定所述当前场景的背景识别模型,作为确定出的背景识别模型。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
扩充模块,用于在所述掩膜处理模块对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像之前,基于确定出的区域扩充方式对每个所述样本感兴趣目标所在的区域进行扩充,得到扩充后的每个所述样本感兴趣目标所在的区域;
其中,所述掩膜处理模块对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像的方式具体为:
对扩充后的每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
所述获取模块,还用于获取所述待检测图像对应的场景的环境变化信息;
第一判断模块,用于在所述移动侦测模块将所述待检测图像输入确定出的背景识别模型中进行分析之前,判断所述环境变化信息是否满足确定出的背景识别模型的更新条件;当判断出所述环境变化信息不满足所述更新条件时,触发所述移动侦测模块执行所述的将所述待检测图像输入确定出的背景识别模型中进行分析的操作。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
第二确定模块,用于当所述第一判断模块判断出所述环境变化信息满足所述更新条件时,根据所述环境变化信息确定所述背景识别模型的背景更新率;
更新模块,用于基于所述背景更新率、所述待检测图像以及所述背景识别模型对应的当前背景帧更新所述背景识别模型,得到更新后的所述背景识别模型;
其中,所述移动侦测模块将所述待检测图像输入确定出的背景识别模型中进行分析的方式具体为:
将所述待检测图像输入更新后的所述背景识别模型中进行分析。
作为一种可选的实施方式,在本发明第二方面中,更新后的所述背景识别模型对应的计算方式如下:
式中,Bt+1(x,y)为第t+1帧更新后的背景帧图像,Bt(x,y)为背景模型对应的当前背景帧,It(x,y)为所述待检测图像,α为背景更新率。
作为一种可选的实施方式,在本发明第二方面中,所述第一判断模块判断所述环境变化信息是否满足确定出的背景识别模型的更新条件的方式具体为:
当所述环境变化信息包括所述待检测图像对应的场景的光照变化强度时,判断所述光照变化强度是否大于等于确定出的光照变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件;或者,
当所述环境变化信息包括所述待检测图像对应的场景的风力变化强度时,判断所述风力变化强度是否大于等于确定出的风力变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
形态学处理模块,用于在所述移动侦测模块获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像之后,基于确定出的数学形态学算法对所述背景差分图像执行形态学操作,得到所述背景差分图像中所有第三连通区域的面积;
滤除模块,用于从所有所述第三连通区域中将面积小于等于确定出的第三面积阈值的所有所述第三连通区域进行滤除,得到目标背景差分图像;
其中,所述移动侦测模块对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像的方式具体为:
对所述目标背景差分图像执行二值化处理,得到所述目标背景差分图像的第二图像。
作为一种可选的实施方式,在本发明第二方面中,所述获取模块,还用于获取至少一个类型的训练数据,所述类型包括行人类型、车辆类型以及其它动物类型;
以及,所述系统还包括:
训练模块,用于将所有所述类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件;
第三确定模块,用于确定满足所述预设条件的所述感兴趣神经网络模型为确定出的轻量级识别模型;
其中,所述预设条件包括训练出的所述感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或所述基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
作为一种可选的实施方式,在本发明第二方面中,所述系统还包括:
计算模块,用于在所述移动侦测模块对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果之后,计算所述感兴趣目标的侦测结果对应的侦测灵敏度等级;
第二判断模块,用于判断所述侦测灵敏度等级是否大于等于确定出的侦测灵敏度等级阈值;
输出模块,用于当所述第二判断模块判断出所述侦测灵敏度等级大于等于所述侦测灵敏度等级阈值时,向确定出的授权终端输出报警信息,所述报警信息用于提示所述待检测图像的场景存在移动目标。
与现有技术相比,本发明实施例具有以下有益效果:
本发明实施例中,公开了一种基于深度学习的移动对象检测方法及系统,该方法包括:对采集到的待检测图像执行全局移动侦测操作,得到待检测图像的侦测结果;当该待检测图像的侦测结果用于表示待检测图像对应的场景中存在移动目标时,将待检测图像输入确定出的轻量级识别模型中进行分析,并获取轻量级识别模型输出的识别结果,作为待检测图像的识别结果;当该待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对感兴趣目标执行局部移动侦测操作,得到感兴趣目标的侦测结果,该感兴趣目标的侦测结果用于表示感兴趣目标为静态目标或者动态目标。可见,本发明实施例通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性;以及通过轻量级识别模型,能够实现同时对多个感兴趣目标类别进行检测,如:对人和车进行检测,提高了感兴趣目标的检测效率以及准确性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例公开的一种基于深度学习的移动对象检测方法的流程示意图;
图2是本发明实施例公开的另一种基于深度学习的移动对象检测方法的流程示意图;
图3是本发明实施例公开的一种轻量级识别模型的训练方法的流程示意图;
图4是本发明实施例公开的一种基于深度学习的移动对象检测系统的结构示意图;
图5是本发明实施例公开的另一种基于深度学习的移动对象检测系统的结构示意图;
图6是本发明实施例公开的又一种基于深度学习的移动对象检测系统的结构示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、装置、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其他步骤或单元。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本发明的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本发明公开了一种基于深度学习的移动对象检测方法及系统,能够通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性;以及通过轻量级识别模型,能够实现同时对多个感兴趣目标类别进行检测,如:对人和车进行检测,提高了感兴趣目标的检测效率以及准确性。以下分别进行详细说明。
实施例一
请参阅图1,图1是本发明实施例公开的一种基于深度学习的移动对象检测方法的流程示意图。如图1所示,该基于深度学习的移动对象检测方法可以包括以下操作:
101、对采集到的待检测图像执行全局移动侦测操作,得到该待检测图像的侦测结果。
本发明实施例中,待检测图像可以是实时图像,也可以是非实时图像,优选实时图像。且待检测图像的形式可以是视频的形式,也可以是帧图像形式。其中,待检测图像由至少三待检测图像组合。其中,当待检测图像的形式为帧图像形式时,先对待检测图像划分成帧图像,再对其执行全局移动侦测操作。
102、当待检测图像的侦测结果用于表示该待检测图像对应的场景中存在移动目标时,将待检测图像输入确定出的轻量级识别模型中进行分析,并获取轻量级识别模型输出的识别结果,作为待检测图像的识别结果。
本发明实施例中,移动目标包括行人和/或车辆。进一步的,移动目标还包括摇晃的树叶、动物(如:行走的小狗)以及摇晃的牌子中的至少一种。
本发明实施例中,可选的,当检测到采集到的待检测图像存在变化时,均表示待检测图像对应的场景中存在移动目标,即若当前场景中有行人路过和/或车辆经过和/或采集到的待检测图像的位置发生变化(如:图像采集装置被移动时采集到的图像)时,均表示待检测图像对应的场景中存在移动目标。
本发明实施例中,可选的,当待检测图像的侦测结果用于表示该待检测图像对应的场景中未存在移动目标时,结束本次流程,或者重新执行步骤101。
103、当待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果,该感兴趣目标的侦测结果用于表示感兴趣目标为静态目标或者动态目标。
本发明实施例中,可选的,感兴趣目标包括行人和/或车辆等规定的目标。感兴趣目标的侦测结果包括感兴趣目标的类别、感兴趣目标在当前场景中的位置、感兴趣目标的移动速度中的至少一种。
本发明实施例中,可选的,当待检测图像的识别结果用于表示待检测图像存在不存在感兴趣目标时,结束本次流程,或者重新执行步骤101。
可见,实施图1所描述的基于深度学习的移动对象检测方法通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性;以及通过轻量级识别模型,能够实现同时对多个感兴趣目标类别进行检测,如:对人和车进行检测,提高了感兴趣目标的检测效率以及准确性。
在一个可选的实施例中,待检测图像由至少三帧连续相邻待检测图像组成;
其中,对采集到的待检测图像执行全局移动侦测操作,得到待检测图像的侦测结果,包括:
在所有待检测图像中,获取其中三帧连续相邻待检测图像中每相邻两帧待检测图像的差分图像,得到两帧差分图像,并对两帧差分图像执行与操作,得到两帧差分图像对应的第一图像;
基于确定出的灰度值对第一图像执行二值化操作,得到第一图像对应的二值图像;
基于确定出的形态学算法获取二值图像中第一连通区域的面积,并根据第一连通区域的面积确定待检测图像的侦测结果;
其中,当第一连通区域的面积大于等于确定出的第一面积阈值(如50*50)时,待检测图像的侦测结果用于表示待检测图像对应的场景中存在移动目标。其中,第一连通区域的面积可以为第一连通区域在二值图像上的实际面积,也可以为第一连通区域的面积占二值图像整个图像区域的占比。
该可选的实施例中,可选的,其中三帧连续相邻待检测图像可以待检测图像中任意三帧连续相邻待检测图像,也可以为待检测图像中第一帧开始连续相邻的三帧待检测图像。
该可选的实施例中,可选的,当第一连通区域的面积小于确定出的面积阈值时,待检测图像的侦测结果用于表示待检测图像对应的场景中不存在移动目标。
该可选的实施例中,可选的,获取其中三帧连续相邻待检测图像中每相邻两帧待检测图像的差分图像,得到两帧差分图像,包括:
针对每帧待检测图像,获取多个同一位置的像素点的灰度值,并依次计算每相邻两帧待检测图像的同一位置的像素点的灰度值之间的灰度值差值,以及确定每个灰度值差值对应的图像,作为差分图像。
该可选的实施例中,每帧差分图像对应的灰度值的计算公式如下:
式中,fn-1、fn、fn+1分别为第n-1帧待检测图像、第n帧待检测图像以及第n+1帧待检测图像上同一位置的像素点的灰度值;dn+1(x,y)为第n+1帧待检测图像与第n帧待检测图像之间的差分图像的灰度值;dn(x,y)为第n帧待检测图像与第n-1帧待检测图像之间的差分图像的灰度值,其中,n≥2。
该可选的实施例中,多个同一位置可以理解为每帧待检测图像的所有位置,也可以为确定出的每帧待检测图像的部分位置,例如:若当前场景中存在公路,则多个同一位置为公路在待检测图像上对应的位置。这样能够提高差分图像的获取效率以及准确性,从而提高待检测图像的侦测结果的检测效率以及准确性。
该可选的实施例中,两帧差分图像的灰度值通过以下公式执行与操作:
Dn(x,y)=dn+1(x,y)∩dn(x,y)
式中,Dn(x,y)为两帧差分图像的灰度值。
该可选的实施例中,第一图像的通过以下公式进行二值化操作:
式中,D′n(x,y)为第一图像的二值图像,T1为上述确定出的灰度值,如T1=124。
该可选的实施例中,其中,形态学算法为现有的形态学算法,例如:膨胀、腐蚀、开运算、闭运算等。
可见,该可选的实施例通过对多帧相邻待检测图像执行差分操作,并对获取到的差分图像执行与操作,再对执行与操作后的图像执行二值化操作并通过数学形态学算法计算二值化后的图像的连通区域的面积并将其与确定出的阈值进行比较,能够提高待检测图像的侦测结果的检测准确性以及可靠性,从而有利于提高待检测图像的感兴趣目标的检测准确性以及可靠性。
需要说明的是,当执行完毕上述可选的实施例之后,上述步骤102中输入轻量级识别模型中的待检测图像可以为上述所有待检测图像中的其中一帧,例如:三帧待检测图像中的最后一帧待检测图像,还可以三帧待检测图像的下一帧待检测图像。
在另一个可选的实施例中,当待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对待检测图像执行局部移动侦测操作,得到该感兴趣目标的侦测结果,包括:
将待检测图像输入确定出的背景识别模型中进行分析,并获取背景识别模型输出的识别结果,作为待检测图像的背景帧图像;
获取待检测图像和待检测图像的背景帧图像之间的背景差分图像,并对背景差分图像执行二值化处理,得到背景差分图像的第二图像;
基于确定出的形态学算法获取第二图像中第二连通区域的面积,并根据第二连通区域的面积确定感兴趣目标的侦测结果;
其中,当第二连通区域的面积大于等于确定出的第二面积阈值(如30*30)时,感兴趣目标的侦测结果用于表示感兴趣目标为动态目标。
该可选的实施例中,可选的,输入背景识别模型中的待检测图像为上述所有待检测图像中的其中一帧待检测图像,例如:三帧待检测图像中的最后一帧待检测图像,还可以三帧待检测图像的下一帧待检测图像。
该可选的实施例中,可选的,获取待检测图像和待检测图像的背景帧图像之间的背景差分图像,包括:
针对待检测图像和待检测图像的背景帧图像,获取多个同一位置的像素点的灰度值,并计算待检测图像和待检测图像的背景帧图像的同一位置的像素点的灰度值之间的灰度值差值,以及确定该灰度值差值对应的图像,作为待检测图像和待检测图像的背景帧图像之间的背景差分图像。
该可选的实施例中,背景差分图像对应的灰度值Dt(x,y)的计算公式如下:
Dt(x,y)=|It(x,y)-Bt(x,y)|
式中,Dt(x,y)表示第t帧待检测图像的背景差分图像对应的灰度值,It(x,y)表示第t帧待检测图像,Bt(x,y)表示第t帧待检测图像的背景帧图像,如:t=n+1。
第一图像的通过以下公式进行二值化操作:
式中,Rt(x,y)为第二图像的二值图像,T2为确定出的灰度值,如T2=106。
该可选的实施例中,其中,形态学算法为现有的形态学算法,例如:膨胀、腐蚀、开运算、闭运算等。
可见,该可选的实施例通过将待检测图像输入背景模型中进行分析出的背景帧图像与待检测图像做差,并对做差后的图像执行二值化操作,以及根据获取到的二值化的图像的连通区域的面积确定感兴趣目标的侦测结果,能够提高感兴趣目标的侦测结果的确定准确性以及效率,以及通过将待检测图像输入背景模型中进行分析,能够提高待检测图像的背景帧图像的确定效率以及准确性。
在又一个可选的实施例中,该方法还可以包括以下步骤:
确定当前场景对应的多帧连续样本图像中每帧样本图像中样本感兴趣目标所在的区域,所有样本图像包括待检测图像和/或采集到的当前场景中的其他图像;
对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像;
根据所有样本图像对应的掩膜图像,确定当前场景的背景识别模型,作为确定出的背景识别模型。
该可选的实施例中,可选的,对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像,包括:设置每个样本感兴趣目标所在的区域的初始掩膜图像,其中,每个样本感兴趣目标所在的区域的初始掩膜图像的尺寸大小与每个样本感兴趣目标对应的样本图像的尺寸大小一致;
根据每个样本感兴趣目标所在的区域设置其对应的初始掩膜图像上的检测区域的像素为第一像素(如255),非检测区域的像素为第二像素(如0),得到目标初始掩膜图像,并基于每个样本感兴趣目标对应的目标初始掩膜图像叠加到对应的样本感兴趣目标所在的样本图像,得到每个样本感兴趣目标对应的掩膜图像。
该可选的实施例中,根据以下公式确定当前背景的背景识别模型:
其中,N大于1,例如:30≤N≤1000,Bm(x,y)代表在像素点(x,y)处第m帧的背景图像,Mm(x,y)代表在像素点(x,y)处第m帧样本图像对应的样本感兴趣目标对应的掩膜图像。
该可选的实施例中,样本感兴趣目标的描述请参阅上述针对感兴趣目标的描述,在此不再赘述。
可见,该可选的实施例通过基于样本图像预先建立或者当需要确定当前场景中感兴趣目标的侦测结果时方建立背景识别模型,有利于获取到与当前场景匹配的背景识别模型,提高了背景识别模型的构建准确性,从而有利于提高当前场景中图像的背景帧图像的获取准确性以及效率,进而提高当前场景中感兴趣目标的侦测结果的确定准确性以及效率。
在又一个可选的实施例中,对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像之前,该方法还可以包括以下步骤:
基于确定出的区域扩充方式对每个样本感兴趣目标所在的区域进行扩充,得到扩充后的每个样本感兴趣目标所在的区域;
该可选的实施例中,对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像,包括:
对扩充后的每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像。
举例来说,将每个样本感兴趣目标所在的区域的高度和宽度扩充为原来的高度和宽度的1.5倍。
可见,该可选的实施例通过对样本感兴趣目标所在的区域进行适当的扩充,能够减少因样本感兴趣目标所在的区域太小而导致无法准确获取背景识别模型的发生情况,有利于提高背景识别模型的构建准确性以及效率。
在又一个可选的实施例中,该方法还可以包括以下步骤:
获取待检测图像对应的场景的环境变化信息;
以及,将待检测图像输入确定出的背景识别模型中进行分析之前,该方法还可以包括以下步骤:
判断环境变化信息是否满足确定出的背景识别模型的更新条件;
当判断出环境变化信息不满足更新条件时,执行上述的将待检测图像输入确定出的背景识别模型中进行分析的操作。
该可选的实施例中,可选的,判断环境变化信息是否满足确定出的背景识别模型的更新条件,包括:
当环境变化信息包括待检测图像对应的场景的光照变化强度(光线变化强度)时,判断光照变化强度是否大于等于确定出的光照变化强度阈值,当判断结果为是时,确定环境变化信息满足确定出的背景识别模型的更新条件;或者,
当环境变化信息包括待检测图像对应的场景的风力变化强度时,判断风力变化强度是否大于等于确定出的风力变化强度阈值,当判断结果为是时,确定环境变化信息满足确定出的背景识别模型的更新条件。
可见,该可选的实施例通过获取当前场景的环境变化信息,并在判断出当前场景的环境未发生变化时,方执行后续的将待检测图像输入背景识别模型中进行分析,能够提高待检测图像的背景帧图像的获取准确性以及效率;以及当判断出当前场景的光照变化强度较大时和/或当前场景的风力变化较大时,确定需要更新背景识别模型,能够丰富背景识别模型的更新的确定方式,以及提高背景识别模型需要更新的确定准确性以及效率。
在又一个可选的实施例中,该方法还可以包括以下步骤:
当判断出环境变化信息满足更新条件时,根据环境变化信息确定背景识别模型的背景更新率;
基于背景更新率、待检测图像以及背景识别模型对应的当前背景帧更新背景识别模型,得到更新后的背景识别模型;
其中,将待检测图像输入确定出的背景识别模型中进行分析,包括:
将待检测图像输入更新后的背景识别模型中进行分析。
该可选的实施例中,更新后的背景识别模型对应的计算方式如下:
式中,Bt+1(x,y)为第t+1帧更新后的背景帧图像,Bt(x,y)为背景模型对应的当前背景帧,α为背景更新率。
可见,该可选的实施例在判断出当前场景的环境发生变化时,对背景识别模型进行更新,能够获取到与当前环境相适应的背景识别模型,从而有利于保证获取到准确性的背景帧图像,进而有利于提高待检测图像的感兴趣目标的侦测结果的准确性以及可靠性。
在又一个可选的实施例中,该方法还可以包括以下步骤:
获取至少一个类型的训练数据,该类型包括行人类型、车辆类型以及其它动物类型;
将所有类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件,并确定满足预设条件的感兴趣神经网络模型为确定出的轻量级识别模型;
该可选的实施例中,预设条件包括训练出的感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
该可选的实施例中,可选的,所有类型的训练数据包括现存的数据库(例如:MS-Celeb-1M数据库等)中的数据和/或实时采集的数据。
该可选的实施例中,可选的,在将所有类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练之前,先对训练数据执行增强操作,此时,输入确定出的基础感兴趣神经网络模型的训练数据为经过增强的训练数据。其中,该增强操作可以包括图像校正、图像旋转、图像翻转、图像对比度调整、图像亮度调整、图像色度调整以及压缩率调整等操作中的其中一种操作或者多种随机组合的操作,这样通过采用随机组合的方式对训练数据执行增强操作,能够丰富训练数据的多样性,进而有利于提高轻量级识别模型的泛化能力,从而提高待检测图像中感兴趣目标的检测准确性以及效率。
该可选的实施例中,可选的,基于确定出的初始化方法(如:Xavier初始化方法)对上述基础感兴趣神经网络模型的权重执行初始化操作,得到初始化后的基础感兴趣神经网络模型。
该可选的实施例中,可选的,结合损失函数(如:softmax损失函数等)训练基础感兴趣神经网络模型,且在训练基础感兴趣神经网络模型的过程中,获取损失函数的实时损失值,并在该实时损失值持续处于预设损失值范围的时长大于等于预设时长(如:20ms)时,确定训练出的感兴趣神经网络模型满足预设条件,即感兴趣神经网络模型训练完成,和/或,当基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值(如:100次)时,则确定训练出的感兴趣神经网络模型满足预设条件。这样通过结合损失函数训练模型,能够实现模型的训练,以及提高模型的训练效率与准确性。
可见,该可选的实施例通过基于现存的数据库中的数据和/或采集到的数据对模型进行训练,并在满足预设条件之后方停止对模型训练,能够获取到准确的轻量级识别模块,从而提高待检测图像中感兴趣目标的检测准确性以及效率;以及在对模型执行训练操作之前,先对模型的权重执行初始化操作,能够提高模型的收敛速度以及性能,从而提高模型训练的准确性以及效率;以及通过模型的权重执行初始化操作,能够使模型各层的激活值和梯度的方差在传播过程中保持一致,有利于训练模型的平稳学习。
可见,该可选的实施例在查询到目标锁对应的数据结构体之后,进一步判断数据有效位是否用于表示目标锁对应的数据结构体处于空闲状态,若是,则继续执行后续的操作,能够提高后续操作的执行准确性以及可靠性。
在又一个可选的实施例中,获取待检测图像和待检测图像的背景帧图像之间的背景差分图像之后,该方法还可以包括以下步骤:
基于确定出的数学形态学算法对背景差分图像执行形态学操作,得到背景差分图像中所有第三连通区域的面积,并从所有第三连通区域中将面积小于等于确定出的第三面积阈值(如5*5)的所有第三连通区域进行滤除,得到目标背景差分图像;
其中,对背景差分图像执行二值化处理,得到背景差分图像的第二图像,包括:
对目标背景差分图像执行二值化处理,得到目标背景差分图像的第二图像。
该可选的实施例中,数学形态学算法为现有的形态学算法,例如:膨胀、腐蚀、开运算、闭运算等。
可见,该可选的实施例在获取到背景帧图像之后,进一步先对背景帧图像执行形态学操作,并滤除比较小的连通区域,再执行二值化操作,能够减少因噪声的影响和/或背景上物体的轻微扰动(如树叶摇晃)使一些属于背景上的点被错误地检测为前景的移动目标和/或使前景目标被错误地检测为背景点,能够提高背景帧图像二值化的精准性,从而提高待检测图像的感兴趣目标的侦测结果的精准性。
实施例二
请参阅图2,图2是本发明实施例公开的另一种基于深度学习的移动对象检测方法的流程示意图。如图2所示,该基于深度学习的移动对象检测方法可以包括以下操作:
201、对采集到的待检测图像执行全局移动侦测操作,得到该待检测图像的侦测结果。
202、当待检测图像的侦测结果用于表示该待检测图像对应的场景中存在移动目标时,将待检测图像输入确定出的轻量级识别模型中进行分析,并获取轻量级识别模型输出的识别结果,作为待检测图像的识别结果。
203、当待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果,该感兴趣目标的侦测结果用于表示感兴趣目标为静态目标或者动态目标。
本发明实施例中,针对步骤201-步骤203的相关描述请参照实施例一中针对步骤101-步骤103的详细描述,本发明实施例不再赘述。
204、当感兴趣目标的侦测结果用于表示感兴趣目标为动态目标时,计算感兴趣目标的侦测结果对应的侦测灵敏度等级,并判断侦测灵敏度等级是否大于等于确定出的侦测灵敏度等级阈值,当判断出侦测灵敏度等级大于等于侦测灵敏度等级阈值时,可以执行步骤205;当判断出侦测灵敏度等级小于侦测灵敏度等级阈值时,结束本次流程。
205、向确定出的授权终端输出报警信息,该报警信息用于提示待检测图像的场景存在移动目标。
该可选的实施例中,报警信息包括感兴趣目标所在的位置、感兴趣目标的类别、感兴趣目标的移动速度以及感兴趣目标的侦测结果对应的侦测灵敏度等级中的至少一种,这样报警信息的内容越多,越有利于提高报警信息的输出精准性,从而提高授权人员针对报警信息作出处理的精准性。
可见,本发明实施例中当待检测图像的感兴趣目标的侦测结果表示感兴趣目标为动态目标时,进一步计算其侦测灵敏度,若侦测灵敏度较高,则输出报警信息,以便于授权人员对报警信息作出处理,即使在复杂的环境下,也能够提高报警信息的输出准确性,减小误报警概率。
可见,实施图2所描述的基于深度学习的移动对象检测方法通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性;以及通过轻量级识别模型,能够实现同时对多个感兴趣目标类别进行检测,如:对人和车进行检测,提高了感兴趣目标的检测效率以及准确性;还便于授权人员对报警信息作出处理,即使在复杂的环境下,也能够提高报警信息的输出准确性,减小误报警概率。
在一个可选的实施例中,计算感兴趣目标的侦测结果对应的侦测灵敏度等级,包括:
分别获取感兴趣目标在当前场景中的位置、感兴趣目标的类别、感兴趣目标的移动速度对应的权重值,并分别计算感兴趣目标在当前场景中的位置与其权重值的第一乘积值、感兴趣目标的类别与其权重值的第二乘积值、感兴趣目标的移动速度与其权重值的第三乘积值,其中,所有权重值之和等于1;
计算第一乘积值、第二乘积值以及第三乘积值之间的和值,并根据该和值确定感兴趣目标的侦测结果对应的侦测灵敏度等级,其中,和值越大代表侦测灵敏度等级越大;和/或,
根据当前场景下的光线强度与待检测图像的背景差分图像中灰度值的大小计算感兴趣目标的侦测结果对应的侦测灵敏度等级,其中,灰度值越大代表侦测灵敏度等级越大。
可见,该可选的实施例通过计算待检测图像中感兴趣目标所在的位置、类别、感兴趣目标的移动速度计算感兴趣目标对应的侦测灵敏度等级,和/或当前场景下的光线强度与背景差分图像中灰度值的大小计算感兴趣目标对应的侦测灵敏度等级,能够丰富感兴趣目标对应的侦测灵敏度等级的计算方式,提高感兴趣目标对应的侦测灵敏度等级的计算准确性以及可靠性,从而进一步提高报警信息的输出准确性以及可靠性。
实施例三
请参阅图3,图3是本发明实施例公开的一种轻量级识别模型的训练方法的流程示意图。如图3所示,该轻量级识别模型的训练方法可以包括以下操作:
301、获取至少一个类型的训练数据,该类型包括行人类型、车辆类型以及其它动物类型。
302、将所有类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件,并确定满足预设条件的感兴趣神经网络模型为确定出的轻量级识别模型。
本发明实施例中,预设条件包括训练出的感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
需要说明的是,与本实施例相关的内容的描述请参阅实施例一和实施例二中相关内容的详细描述,在此不再赘述。
可见,实施图3所描述的轻量级识别模型的训练方法能够通过基于现存的数据库中的数据和/或采集到的数据对模型进行训练,并在满足预设条件之后方停止对模型训练,能够获取到准确的轻量级识别模块,从而提高待检测图像中感兴趣目标的检测准确性以及效率;以及在对模型执行训练操作之前,先对模型的权重执行初始化操作,能够提高模型的收敛速度以及性能,从而提高模型训练的准确性以及效率;以及通过模型的权重执行初始化操作,能够使模型各层的激活值和梯度的方差在传播过程中保持一致,有利于训练模型的平稳学习;以及通过训练出能够实现同时对多个感兴趣目标类别进行检测的轻量级识别模型,如:对人和车进行检测,有利于提高实际复杂场景中感兴趣目标的检测效率以及准确性。
实施例四
请参阅图4,图4是本发明实施例公开的一种基于深度学习的移动对象检测系统的结构示意图。如图4所示,该基于深度学习的移动对象检测系统可以包括移动侦测模块401、分析模块402以及获取模块403,其中:
移动侦测模块401,用于对采集到的待检测图像执行全局移动侦测操作,得到该待检测图像的侦测结果。
分析模块402,用于当待检测图像的侦测结果用于表示该待检测图像对应的场景中存在移动目标时,将该待检测图像输入确定出的轻量级识别模型中进行分析。
获取模块403,用于获取轻量级识别模型输出的识别结果,作为待检测图像的识别结果。
移动侦测模块401,还用于当待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,对待检测图像执行局部移动侦测操作,得到该感兴趣目标的侦测结果,该感兴趣目标的侦测结果用于表示该感兴趣目标为静态目标或者动态目标。
可见,实施图4所描述的基于深度学习的移动对象检测系统能够通过对采集到的待检测图像进行全局侦测和局部侦测,无论是在静态背景下还是动态背景下,均能够快速准确地检测出动态对象,即即使在树叶摇晃、光线变化等复杂环境下仍能快速准确检测出有对象闯入当前场景,有利于提高报警准确性以及可靠性;以及通过轻量级识别模型,能够实现同时对多个感兴趣目标类别进行检测,如:对人和车进行检测,提高了感兴趣目标的检测效率以及准确性。
在另一个可选的实施例中,待检测图像由至少三帧连续相邻待检测图像组成。以及如图4所示,移动侦测模块401对采集到的待检测图像执行全局移动侦测操作,得到待检测图像的侦测结果的方式具体为:
在所有待检测图像中,获取其中三帧连续相邻待检测图像中每相邻两帧待检测图像的差分图像,得到两帧差分图像,并对两帧差分图像执行与操作,得到两帧差分图像对应的第一图像;
基于确定出的灰度值对第一图像执行二值化操作,得到第一图像对应的二值图像;
基于确定出的形态学算法获取二值图像中第一连通区域的面积,并根据第一连通区域的面积确定待检测图像的侦测结果;
其中,当第一连通区域的面积大于等于确定出的第一面积阈值时,待检测图像的侦测结果用于表示待检测图像对应的场景中存在移动目标。
可见,实施图4所描述的基于深度学习的移动对象检测系统能够通过对多帧相邻待检测图像执行差分操作,并对获取到的差分图像执行与操作,再对执行与操作后的图像执行二值化操作并通过数学形态学算法计算二值化后的图像的连通区域的面积并将其与确定出的阈值进行比较,能够提高待检测图像的侦测结果的检测准确性以及可靠性,从而有利于提高待检测图像的感兴趣目标的检测准确性以及可靠性。
在另一个可选的实施例中,如图4所示,当待检测图像的识别结果用于表示待检测图像存在感兴趣目标时,移动侦测模块401对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果的方式具体为:
将待检测图像输入确定出的背景识别模型中进行分析,并获取背景识别模型输出的识别结果,作为待检测图像的背景帧图像;
获取待检测图像和待检测图像的背景帧图像之间的背景差分图像,并对背景差分图像执行二值化处理,得到背景差分图像的第二图像;
基于确定出的形态学算法获取第二图像中第二连通区域的面积,并根据第二连通区域的面积确定感兴趣目标的侦测结果;
其中,当第二连通区域的面积大于等于确定出的第二面积阈值时,感兴趣目标的侦测结果用于表示感兴趣目标为动态目标。
可见,实施图4所描述的基于深度学习的移动对象检测系统能够通过将待检测图像输入背景模型中进行分析出的背景帧图像与待检测图像做差,并对做差后的图像执行二值化操作,以及根据获取到的二值化的图像的连通区域的面积确定感兴趣目标的侦测结果,能够提高感兴趣目标的侦测结果的确定准确性以及效率,以及通过将待检测图像输入背景模型中进行分析,能够提高待检测图像的背景帧图像的确定效率以及准确性。
在又一个可选的实施例中,如图5所示,上述系统还包括:第一确定模块404以及掩膜处理模块405,其中:
第一确定模块404,用于确定当前场景对应的多帧连续样本图像中每帧样本图像中样本感兴趣目标所在的区域,所有样本图像包括待检测图像和/或采集到的当前场景中的其他图像。
掩膜处理模块405,用于对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像。
第一确定模块404,还用于根据所有样本图像对应的掩膜图像,确定当前场景的背景识别模型,作为确定出的背景识别模型。
该可选的实施例中,可选的,当第一确定模块404执行完毕上述的根据所有样本图像对应的掩膜图像,确定当前场景的背景识别模型,作为确定出的背景识别模型的操作之后,可以触发移动侦测模块401执行上述的对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果的操作。
可见,实施图5所描述的基于深度学习的移动对象检测系统能够通过基于样本图像预先建立或者当需要确定当前场景中感兴趣目标的侦测结果时方建立背景识别模型,有利于获取到与当前场景匹配的背景识别模型,提高了背景识别模型的构建准确性,从而有利于提高当前场景中图像的背景帧图像的获取准确性以及效率,进而提高当前场景中感兴趣目标的侦测结果的确定准确性以及效率。
在又一个可选的实施例中,如图5所示,上述系统还包括:扩充模块406,其中:
扩充模块406,用于在掩膜处理模块405对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像之前,基于确定出的区域扩充方式对每个样本感兴趣目标所在的区域进行扩充,得到扩充后的每个样本感兴趣目标所在的区域。
其中,掩膜处理模块405对每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像的方式具体为:
对扩充后的每个样本感兴趣目标所在的区域执行掩膜操作,得到每个样本感兴趣目标对应的掩膜图像。
可见,实施图5所描述的基于深度学习的移动对象检测系统能够通过对样本感兴趣目标所在的区域进行适当的扩充,能够减少因样本感兴趣目标所在的区域太小而导致无法准确获取背景识别模型的发生情况,有利于提高背景识别模型的构建准确性以及效率。
在又一个可选的实施例中,如图5所示,上述系统还包括:第一判断模块407,其中:
获取模块403,还用于获取待检测图像对应的场景的环境变化信息。
第一判断模块407,用于在移动侦测模块401将待检测图像输入确定出的背景识别模型中进行分析之前,判断环境变化信息是否满足确定出的背景识别模型的更新条件;当判断出环境变化信息不满足更新条件时,触发移动侦测模块401执行上述的将待检测图像输入确定出的背景识别模型中进行分析的操作。
可见,实施图5所描述的基于深度学习的移动对象检测系统能够通过获取当前场景的环境变化信息,并在判断出当前场景的环境未发生变化时,方执行后续的将待检测图像输入背景识别模型中进行分析,能够提高待检测图像的背景帧图像的获取准确性以及效率。
在又一个可选的实施例中,如图5所示,上述系统还包括:第二确定模块408以及更新模块409,其中:
第二确定模块408,用于当第一判断模块407判断出环境变化信息满足更新条件时,根据环境变化信息确定背景识别模型的背景更新率。
更新模块409,用于基于背景更新率、待检测图像以及背景识别模型对应的当前背景帧更新背景识别模型,得到更新后的背景识别模型。
其中,移动侦测模块401将待检测图像输入确定出的背景识别模型中进行分析的方式具体为:
将待检测图像输入更新后的背景识别模型中进行分析。
该可选的实施例中,更新后的背景识别模型对应的计算方式如下:
式中,Bt+1(x,y)为第t+1帧更新后的背景帧图像,Bt(x,y)为背景模型对应的当前背景帧,It(x,y)为待检测图像,α为背景更新率。
可见,实施图5所描述的基于深度学习的移动对象检测系统能够在判断出当前场景的环境发生变化时,对背景识别模型进行更新,能够获取到与当前环境相适应的背景识别模型,从而有利于保证获取到准确性的背景帧图像,进而有利于提高待检测图像的感兴趣目标的侦测结果的准确性以及可靠性。
在又一个可选的实施例中,如图5所示,第一判断模块407判断环境变化信息是否满足确定出的背景识别模型的更新条件的方式具体为:
当环境变化信息包括待检测图像对应的场景的光照变化强度时,判断光照变化强度是否大于等于确定出的光照变化强度阈值,当判断结果为是时,确定环境变化信息满足确定出的背景识别模型的更新条件;或者,
当环境变化信息包括待检测图像对应的场景的风力变化强度时,判断风力变化强度是否大于等于确定出的风力变化强度阈值,当判断结果为是时,确定环境变化信息满足确定出的背景识别模型的更新条件。
可见,实施图5所描述的基于深度学习的移动对象检测系统通过当判断出当前场景的光照变化强度较大时和/或当前场景的风力变化较大时,确定需要更新背景识别模型,能够丰富背景识别模型的更新的确定方式,以及提高背景识别模型需要更新的确定准确性以及效。
在又一个可选的实施例中,如图5所示,上述系统还包括:形态学处理模块410以及滤除模块411,其中:
形态学处理模块410,用于在移动侦测模块401获取待检测图像和待检测图像的背景帧图像之间的背景差分图像之后,基于确定出的数学形态学算法对背景差分图像执行形态学操作,得到背景差分图像中所有第三连通区域的面积。
滤除模块411,用于从所有第三连通区域中将面积小于等于确定出的第三面积阈值的所有第三连通区域进行滤除,得到目标背景差分图像。
其中,移动侦测模块401对背景差分图像执行二值化处理,得到背景差分图像的第二图像的方式具体为:
对目标背景差分图像执行二值化处理,得到目标背景差分图像的第二图像。
可见,实施图5所描述的基于深度学习的移动对象检测系统在获取到背景帧图像之后,进一步先对背景帧图像执行形态学操作,并滤除比较小的连通区域,再执行二值化操作,能够减少因噪声的影响和/或背景上物体的轻微扰动(如树叶摇晃)使一些属于背景上的点被错误地检测为前景的移动目标和/或使前景目标被错误地检测为背景点,能够提高背景帧图像二值化的精准性,从而提高待检测图像的感兴趣目标的侦测结果的精准性。
在又一个可选的实施例中,如图5所示,上述系统还包括:训练模块412以及第三确定模块413,其中:
获取模块403,还用于获取至少一个类型的训练数据,该类型包括行人类型、车辆类型以及其它动物类型。
训练模块412,用于将所有类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件。
第三确定模块413,用于确定满足预设条件的感兴趣神经网络模型为确定出的轻量级识别模型。
其中,预设条件包括训练出的感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
可见,实施图5所描述的基于深度学习的移动对象检测系统能够通过基于现存的数据库中的数据和/或采集到的数据对模型进行训练,并在满足预设条件之后方停止对模型训练,能够获取到准确的轻量级识别模块,从而提高待检测图像中感兴趣目标的检测准确性以及效率;以及在对模型执行训练操作之前,先对模型的权重执行初始化操作,能够提高模型的收敛速度以及性能,从而提高模型训练的准确性以及效率;以及通过模型的权重执行初始化操作,能够使模型各层的激活值和梯度的方差在传播过程中保持一致,有利于训练模型的平稳学习。
在又一个可选的实施例中,如图5所示,上述系统还包括:计算模块414、第二判断模块415以及输出模块416,其中:
计算模块414,用于在移动侦测模块401对待检测图像执行局部移动侦测操作,得到感兴趣目标的侦测结果之后,计算感兴趣目标的侦测结果对应的侦测灵敏度等级。
第二判断模块415,用于判断侦测灵敏度等级是否大于等于确定出的侦测灵敏度等级阈值。
输出模块416,用于当第二判断模块415判断出侦测灵敏度等级大于等于侦测灵敏度等级阈值时,向确定出的授权终端输出报警信息,该报警信息用于提示待检测图像的场景存在移动目标。
可见,实施图5所描述的基于深度学习的移动对象检测系统通过当待检测图像的感兴趣目标的侦测结果表示感兴趣目标为动态目标时,进一步计算其侦测灵敏度,若侦测灵敏度较高,则输出报警信息,以便于授权人员对报警信息作出处理,即使在复杂的环境下,也能够提高报警信息的输出准确性,减小误报警概率。
实施例五
请参阅图6,图6是本发明实施例公开的又一种基于深度学习的移动对象检测系统。如图6所示,该基于深度学习的移动对象检测系统可以包括:
存储有可执行程序代码的存储器601;
与存储器601耦合的处理器602;
进一步的,还可以包括与处理器602耦合的输入接口603和输出接口604;
其中,处理器602调用存储器601中存储的可执行程序代码,用于执行实施例一或实施例二所描述的基于深度学习的移动对象检测方法的步骤。
实施例六
本发明实施例公开了一种计算机读存储介质,其存储用于电子数据交换的计算机程序,其中,该计算机程序使得计算机执行实施例一或实施例二所描述的基于深度学习的移动对象检测方法的步骤。
实施例七
本发明实施例公开了一种计算机程序产品,该计算机程序产品包括存储了计算机程序的非瞬时性计算机可读存储介质,且该计算机程序可操作来使计算机执行实施例一或实施例二所描述的基于深度学习的移动对象检测方法的步骤。
以上所描述的装置实施例仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性的劳动的情况下,即可以理解并实施。
通过以上的实施例的具体描述,本领域的技术人员可以清楚地了解到各实施方式可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件。基于这样的理解,上述技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(ErasableProgrammable Read Only Memory,EPROM)、一次可编程只读存储器(One-timeProgrammable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
最后应说明的是:本发明实施例公开的一种基于深度学习的移动对象检测方法及系统所揭露的仅为本发明较佳实施例而已,仅用于说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解;其依然可以对前述各项实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或替换,并不使相应的技术方案的本质脱离本发明各项实施例技术方案的精神和范围。
Claims (15)
1.一种基于深度学习的移动对象检测方法,其特征在于,所述方法包括:
对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果;
当所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标时,将所述待检测图像输入确定出的轻量级识别模型中进行分析,并获取所述轻量级识别模型输出的识别结果,作为所述待检测图像的识别结果;
当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为静态目标或者动态目标。
2.根据权利要求1所述的基于深度学习的移动对象检测方法,其特征在于,所述待检测图像由至少三帧连续相邻待检测图像组成;
其中,所述对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果,包括:
在所有所述待检测图像中,获取其中三帧连续相邻所述待检测图像中每相邻两帧所述待检测图像的差分图像,得到两帧所述差分图像,并对两帧所述差分图像执行与操作,得到两帧所述差分图像对应的第一图像;
基于确定出的灰度值对所述第一图像执行二值化操作,得到所述第一图像对应的二值图像;
基于确定出的形态学算法获取所述二值图像中第一连通区域的面积,并根据所述第一连通区域的面积确定所述待检测图像的侦测结果;
其中,当所述第一连通区域的面积大于等于确定出的第一面积阈值时,所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标。
3.根据权利要求1或2所述的基于深度学习的移动对象检测方法,其特征在于,所述当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,包括:
将所述待检测图像输入确定出的背景识别模型中进行分析,并获取所述背景识别模型输出的识别结果,作为所述待检测图像的背景帧图像;
获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像,并对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像;
基于确定出的形态学算法获取所述第二图像中第二连通区域的面积,并根据所述第二连通区域的面积确定所述感兴趣目标的侦测结果;
其中,当所述第二连通区域的面积大于等于确定出的第二面积阈值时,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为动态目标。
4.根据权利要求3所述的基于深度学习的移动对象检测方法,其特征在于,所述方法还包括:
确定当前场景对应的多帧连续样本图像中每帧所述样本图像中样本感兴趣目标所在的区域,所有所述样本图像包括所述待检测图像和/或采集到的所述当前场景中的其他图像;
对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像;
根据所有所述样本图像对应的掩膜图像,确定所述当前场景的背景识别模型,作为确定出的背景识别模型。
5.根据权利要求4所述的基于深度学习的移动对象检测方法,其特征在于,所述对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像之前,所述方法还包括:
基于确定出的区域扩充方式对每个所述样本感兴趣目标所在的区域进行扩充,得到扩充后的每个所述样本感兴趣目标所在的区域;
其中,所述对每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像,包括:
对扩充后的每个所述样本感兴趣目标所在的区域执行掩膜操作,得到每个所述样本感兴趣目标对应的掩膜图像。
6.根据权利要求3所述的基于深度学习的移动对象检测方法,其特征在于,所述方法还包括:
获取所述待检测图像对应的场景的环境变化信息;
以及,所述将所述待检测图像输入确定出的背景识别模型中进行分析之前,所述方法还包括:
判断所述环境变化信息是否满足确定出的背景识别模型的更新条件;
当判断出所述环境变化信息不满足所述更新条件时,执行所述的将所述待检测图像输入确定出的背景识别模型中进行分析的操作。
7.根据权利要求6所述的基于深度学习的移动对象检测方法,其特征在于,所述方法还包括:
当判断出所述环境变化信息满足所述更新条件时,根据所述环境变化信息确定所述背景识别模型的背景更新率;
基于所述背景更新率、所述待检测图像以及所述背景识别模型对应的当前背景帧更新所述背景识别模型,得到更新后的所述背景识别模型;
其中,所述将所述待检测图像输入确定出的背景识别模型中进行分析,包括:
将所述待检测图像输入更新后的所述背景识别模型中进行分析。
9.根据权利要求6-8任一项所述的基于深度学习的移动对象检测方法,其特征在于,所述判断所述环境变化信息是否满足确定出的背景识别模型的更新条件,包括:
当所述环境变化信息包括所述待检测图像对应的场景的光照变化强度时,判断所述光照变化强度是否大于等于确定出的光照变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件;或者,
当所述环境变化信息包括所述待检测图像对应的场景的风力变化强度时,判断所述风力变化强度是否大于等于确定出的风力变化强度阈值,当判断结果为是时,确定所述环境变化信息满足确定出的背景识别模型的更新条件。
10.根据权利要求4-8任一项所述的基于深度学习的移动对象检测方法,其特征在于,所述获取所述待检测图像和所述待检测图像的背景帧图像之间的背景差分图像之后,所述方法还包括:
基于确定出的数学形态学算法对所述背景差分图像执行形态学操作,得到所述背景差分图像中所有第三连通区域的面积,并从所有所述第三连通区域中将面积小于等于确定出的第三面积阈值的所有所述第三连通区域进行滤除,得到目标背景差分图像;
其中,所述对所述背景差分图像执行二值化处理,得到所述背景差分图像的第二图像,包括:
对所述目标背景差分图像执行二值化处理,得到所述目标背景差分图像的第二图像。
11.根据权利要求1、2、4、5、6、7或8所述的基于深度学习的移动对象检测方法,其特征在于,所述方法还包括:
获取至少一个类型的训练数据,所述类型包括行人类型、车辆类型以及其它动物类型;
将所有所述类型的训练数据输入确定出的基础感兴趣神经网络模型中进行训练,直至训练出的感兴趣神经网络模型满足预设条件,并确定满足所述预设条件的所述感兴趣神经网络模型为确定出的轻量级识别模型;
其中,所述预设条件包括训练出的所述感兴趣神经网络模型的损失值持续处于预设损失值范围的时长大于等于预设时长和/或所述基础感兴趣神经网络模型的训练次数大于等于确定出的次数阈值。
12.根据权利要求1、2、4、5、6、7或8所述的基于深度学习的移动对象检测方法,其特征在于,所述对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果之后,所述方法还包括:
计算所述感兴趣目标的侦测结果对应的侦测灵敏度等级,并判断所述侦测灵敏度等级是否大于等于确定出的侦测灵敏度等级阈值;
当判断出所述侦测灵敏度等级大于等于所述侦测灵敏度等级阈值时,向确定出的授权终端输出报警信息,所述报警信息用于提示所述待检测图像的场景存在移动目标。
13.一种基于深度学习的移动对象检测系统,其特征在于,所述移动对象检测系统包括:
移动侦测模块,用于对采集到的待检测图像执行全局移动侦测操作,得到所述待检测图像的侦测结果;
分析模块,用于当所述待检测图像的侦测结果用于表示所述待检测图像对应的场景中存在移动目标时,将所述待检测图像输入确定出的轻量级识别模型中进行分析;
获取模块,用于获取所述轻量级识别模型输出的识别结果,作为所述待检测图像的识别结果;
所述移动侦测模块,还用于当所述待检测图像的识别结果用于表示所述待检测图像存在感兴趣目标时,对所述待检测图像执行局部移动侦测操作,得到所述感兴趣目标的侦测结果,所述感兴趣目标的侦测结果用于表示所述感兴趣目标为静态目标或者动态目标。
14.一种基于深度学习的移动对象检测系统,其特征在于,所述移动对象检测系统包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行如权利要求1-12任一项所述的基于深度学习的移动对象检测方法。
15.一种计算机可存储介质,其特征在于,所述计算机存储介质存储有计算机指令,所述计算机指令被调用时,用于执行如权利要求1-12任一项所述的基于深度学习的移动对象检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110339785.5A CN115147460A (zh) | 2021-03-30 | 2021-03-30 | 基于深度学习的移动对象检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110339785.5A CN115147460A (zh) | 2021-03-30 | 2021-03-30 | 基于深度学习的移动对象检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115147460A true CN115147460A (zh) | 2022-10-04 |
Family
ID=83404632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110339785.5A Pending CN115147460A (zh) | 2021-03-30 | 2021-03-30 | 基于深度学习的移动对象检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115147460A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385948A (zh) * | 2023-06-07 | 2023-07-04 | 成都考拉悠然科技有限公司 | 一种预警铁路边坡异常的系统和方法 |
-
2021
- 2021-03-30 CN CN202110339785.5A patent/CN115147460A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116385948A (zh) * | 2023-06-07 | 2023-07-04 | 成都考拉悠然科技有限公司 | 一种预警铁路边坡异常的系统和方法 |
CN116385948B (zh) * | 2023-06-07 | 2023-09-15 | 成都考拉悠然科技有限公司 | 一种预警铁路边坡异常的系统和方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111178183B (zh) | 人脸检测方法及相关装置 | |
US8744125B2 (en) | Clustering-based object classification | |
US9652863B2 (en) | Multi-mode video event indexing | |
CN107123131B (zh) | 一种基于深度学习的运动目标检测方法 | |
CN100545867C (zh) | 航拍交通视频车辆快速检测方法 | |
US7382898B2 (en) | Method and apparatus for detecting left objects | |
Zin et al. | Unattended object intelligent analyzer for consumer video surveillance | |
CN109460787B (zh) | 入侵检测模型建立方法、装置及数据处理设备 | |
CN111932596B (zh) | 摄像头遮挡区域的检测方法、装置、设备和存储介质 | |
Lian et al. | A novel method on moving-objects detection based on background subtraction and three frames differencing | |
Filonenko et al. | Real-time flood detection for video surveillance | |
JP4999794B2 (ja) | 静止領域検出方法とその装置、プログラム及び記録媒体 | |
EP2000998B1 (en) | Flame detecting method and device | |
CN115147460A (zh) | 基于深度学习的移动对象检测方法及系统 | |
KR20200060868A (ko) | 객체 탐지 및 자동 추적이 가능한 다시점 영상 감시 시스템 | |
CN111402185B (zh) | 一种图像检测方法及装置 | |
Tsetsos et al. | A forest fire detection system: The Meleager approach | |
CN110796008A (zh) | 一种基于视频图像的早期火灾检测方法 | |
Buch et al. | Local feature saliency classifier for real-time intrusion monitoring | |
CN111191575B (zh) | 一种基于火苗跳动建模的明火检测方法及系统 | |
CN116030507A (zh) | 一种电子设备、识别图像中人脸是否佩戴口罩的方法 | |
CN113837001A (zh) | 监控场景下的异常闯入物实时检测方法及装置 | |
Karim | Construction of a robust background model for moving object detection in video sequence | |
Leo et al. | Real‐time smart surveillance using motion analysis | |
Aradhya | Performance evaluation of background modeling methods for object detection and tracking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |