CN112906678B - 基于监控视频的非法遛狗事件检测方法、装置 - Google Patents

基于监控视频的非法遛狗事件检测方法、装置 Download PDF

Info

Publication number
CN112906678B
CN112906678B CN202110492720.4A CN202110492720A CN112906678B CN 112906678 B CN112906678 B CN 112906678B CN 202110492720 A CN202110492720 A CN 202110492720A CN 112906678 B CN112906678 B CN 112906678B
Authority
CN
China
Prior art keywords
dog
image
model
person
human
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110492720.4A
Other languages
English (en)
Other versions
CN112906678A (zh
Inventor
杨帆
冯帅
刘利卉
胡建国
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiaoshi Technology (Jiangsu) Co.,Ltd.
Original Assignee
Nanjing Zhenshi Intelligent Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Zhenshi Intelligent Technology Co Ltd filed Critical Nanjing Zhenshi Intelligent Technology Co Ltd
Priority to CN202110492720.4A priority Critical patent/CN112906678B/zh
Publication of CN112906678A publication Critical patent/CN112906678A/zh
Application granted granted Critical
Publication of CN112906678B publication Critical patent/CN112906678B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于监控视频的非法遛狗事件检测方法,包括:步骤A、对图像帧进行狗和人的检测,如没有检测到狗,则判断“状态正常”并返回;如果只有狗没有人,则判断“狗未拴绳”并返回;否则,进入步骤B;步骤B、估算人与狗之间的距离并判断是否超过距离阈值,如是,则判断“狗未拴绳”并返回;否则,进入步骤C;步骤C、截取包含狗的图像并输入狗拴绳识别模型,如输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,进入步骤D;步骤D、找出距离狗最近的k个人,截取最大检测框图像输入人狗关系识别模型,并根据模型输出判断“狗已拴绳”或者“狗未拴绳”。本发明还公开了一种基于监控视频的非法遛狗事件检测装置。

Description

基于监控视频的非法遛狗事件检测方法、装置
技术领域
本发明属于机器视觉技术领域,具体涉及一种基于监控视频的非法遛狗事件检测方法。
背景技术
随着社会发展,越来越多人开始养狗作为宠物,随之而来的遛狗不牵绳等不文明行为也严重干扰了他人,为此,各地的法规以及近期出台的《中华人民共和国动物防疫法》均明确将此种行为列为违法行为。对于此种违法行为,如果采用传统的人力监控和劝阻方式,则需要耗费大量人力,实际上是不可行的。如果能够利用现有街道内的高空安防摄像头对非法遛狗的行为进行检测,不仅可以做到实时性的监控,还能节约人力、物力成本,而且设备维护与维修也很容易,因此这种基于监控视频的非法遛狗检测系统具有很好的应用和推广价值。
利用监控摄像头的视频对非法遛狗行为进行识别,对于识别算法的精准度以及实时性要求较高,因此,采用基于深度学习的检测算法较合理。然而现有公开的技术主要是分别对人和狗进行检测定位,并不能识别或者不能有效的识别出狗是否拴绳以及人和狗的关系即人是否牵狗。
发明内容
本发明所要解决的技术问题在于克服现有技术不足,提供一种基于监控视频的非法遛狗事件检测方法,能够对遛狗是否拴绳进行准确识别,且计算量较低,实时性更好。
本发明具体采用以下技术方案解决上述技术问题:
一种基于监控视频的非法遛狗事件检测方法,包括以下步骤:
步骤A、对监控视频的图像帧进行狗和人的检测,如图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,进入步骤B;
步骤B、估算图像帧中人与狗之间的距离并判断是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,进入步骤C;
步骤C、从图像帧中截取包含狗的图像并输入狗拴绳识别模型,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,进入步骤D;所述狗拴绳识别模型为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;
步骤D、从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,k为大于0的自然数;将所得到的k个检测框图像输入人狗关系识别模型,并根据人狗关系识别模型的输出判断“狗已拴绳”或者“狗未拴绳”;所述人狗关系识别模型为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
作为其中一个优选技术方案,所述从图像帧中截取的包含狗的图像具体为第一感兴趣区域图像和第二感兴趣区域图像,第一感兴趣区域图像为狗的检测框图像,第二感兴趣区域图像为对狗的检测框图像进行扩边所得到的图像;所述卷积神经网络模型具有两个训练样本输入分支,第一个分支用于对第一感兴趣区域图像先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对第二感兴趣区域图像先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练。
优选地,所述卷积神经网络模型为可重构卷积网络模型。
优选地,所述对狗的检测框图像进行扩边具体是指:对狗的检测框图像的上边和左、右两边进行扩边。
优选地,所述扩边的比例为15%-20%。
作为其中又一个优选技术方案,所述人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;所述局部和初步特征提取模块用于对输入图像进行若干次卷积,所得到的特征图作为全局人狗关系注意力模块的输入;所述全局人狗关系注意力模块为改进的Vision Transformer模型,其对所输入的特征图进行有重叠的分割。
优选地,用以下方法估算图像帧中人与狗之间的距离:用人与狗之间的像素水平距离除以人检测框的宽度,再乘以基准人体宽度;所述基准人体宽度的取值为0.25米~0.5米。
根据同一发明构思还可以得到以下技术方案:
一种基于监控视频的非法遛狗事件检测装置,包括:
狗和人检测器模型,用于对监控视频的图像帧进行狗和人的检测;
第一判断模块,如狗和人检测器模型在图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,调用狗和人距离估算模型;
狗和人距离估算模型,用于估算图像帧中人与狗之间的距离;
第二判断模块,用于判断估算出的人与狗之间的距离是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,从图像帧中截取包含狗的图像并输入狗拴绳识别模型;
狗拴绳识别模型,其为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;
第三判断模块,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,并将所得到的k个检测框图像输入人狗关系识别模型,k为大于0的自然数;
人狗关系识别模型,其为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
作为其中一个优选技术方案,所述从图像帧中截取的包含狗的图像具体为第一感兴趣区域图像和第二感兴趣区域图像,第一感兴趣区域图像为狗的检测框图像,第二感兴趣区域图像为对狗的检测框图像进行扩边所得到的图像;所述卷积神经网络模型具有两个训练样本输入分支,第一个分支用于对第一感兴趣区域图像先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对第二感兴趣区域图像先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练。
优选地,所述卷积神经网络模型为可重构卷积网络模型。
优选地,所述对狗的检测框图像进行扩边具体是指:对狗的检测框图像的上边和左、右两边进行扩边。
优选地,所述扩边的比例为15%-20%。
作为其中又一个优选技术方案,所述人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;所述局部和初步特征提取模块用于对输入图像进行若干次卷积,所得到的特征图作为全局人狗关系注意力模块的输入;所述全局人狗关系注意力模块为改进的Vision Transformer模型,其对所输入的特征图进行有重叠的分割。
优选地,用以下方法估算图像帧中人与狗之间的距离:用人与狗之间的像素水平距离除以人检测框的宽度,再乘以基准人体宽度;所述基准人体宽度的取值为0.25米~0.5米。
相比现有技术,本发明技术方案具有以下有益效果:
本发明解决了社区,街道,公园等地方遛狗不拴绳行为无法通过计算机视觉准确识别的难题。本发明针对遮挡,目标较小以及目标之间的复杂关系设计了相关的算法和业务逻辑,各个算法模块在设计时均考虑到计算效率和速度,整体识别流程在满足一定精度的前提下,多数情况可以用较少的计算量识别出是否有遛狗不拴绳的不文明行为,少数情况需要更大的和精度更高的模型进行识别。
附图说明
图1为狗拴绳识别模型的一种优选结构示意图;
图2为人狗关系识别模型的一种优选结构示意图;
图3为具体实施方式中的非法遛狗事件检测流程示意图。
具体实施方式
针对现有技术不足,本发明的解决思路是利用机器视觉算法来对遛狗不拴绳行为进行检测,并通过对算法的优化,来降低计算量并提升精度。
具体而言,本发明所提出的基于监控视频的非法遛狗事件检测方法,包括以下步骤:
步骤A、对监控视频的图像帧进行狗和人的检测,如图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,进入步骤B;
步骤B、估算图像帧中人与狗之间的距离并判断是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,进入步骤C;
步骤C、从图像帧中截取包含狗的图像并输入狗拴绳识别模型,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,进入步骤D;所述狗拴绳识别模型为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;
步骤D、从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,k为大于0的自然数;将所得到的k个检测框图像输入人狗关系识别模型,并根据人狗关系识别模型的输出判断“狗已拴绳”或者“狗未拴绳”;所述人狗关系识别模型为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
本发明所提出的基于监控视频的非法遛狗事件检测装置,包括:
狗和人检测器模型,用于对监控视频的图像帧进行狗和人的检测;
第一判断模块,如狗和人检测器模型在图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,调用狗和人距离估算模型;
狗和人距离估算模型,用于估算图像帧中人与狗之间的距离;
第二判断模块,用于判断估算出的人与狗之间的距离是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,从图像帧中截取包含狗的图像并输入狗拴绳识别模型;
狗拴绳识别模型,其为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;
第三判断模块,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,并将所得到的k个检测框图像输入人狗关系识别模型,k为大于0的自然数;
人狗关系识别模型,其为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
以上技术方案中,狗拴绳识别模型和人狗关系识别模型是其中的核心部分,直接决定了检测效果和效率。为此,本发明进一步对这两个模块分别进行了优化设计。
作为其中一个优选技术方案,所述从图像帧中截取的包含狗的图像具体为第一感兴趣区域图像和第二感兴趣区域图像,第一感兴趣区域图像为狗的检测框图像,第二感兴趣区域图像为对狗的检测框图像进行扩边所得到的图像;所述卷积神经网络模型具有两个训练样本输入分支,第一个分支用于对第一感兴趣区域图像先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对第二感兴趣区域图像先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数(SoftMax)处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练。
作为其中又一个优选技术方案,所述人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;所述局部和初步特征提取模块用于对输入图像进行若干次卷积,所得到的特征图作为全局人狗关系注意力模块的输入;所述全局人狗关系注意力模块为改进的Vision Transformer模型,其对所输入的特征图进行有重叠的分割。
为了便于公众理解,下面通过一个优选实施例并结合附图来对本发明的技术方案进行详细说明:
一、数据标注和预处理:
本发明检测装置中有狗和人检测器模型、狗拴绳识别模型和人狗关系识别模型这三个模型需要预先训练。数据标注和预处理具体如下:
标注类别名称:行人,行人遛狗,狗,狗拴绳,狗拴绳不确定
标注数据方式:对图像中的人和狗标注矩形框,矩形框以紧贴目标的形式标注(保持与业界通用数据集一致);在此基础上本发明提出增加人和狗关系的标注规则,具体来说:
(1)如果有人拴绳遛狗,则分别在狗和行人原有标签基础上加上同一个ID标识符,一般情况为每个人和N个狗(N>=1)共享一个ID(一个人可能溜多个狗),注意此时狗的标签可能是(狗拴绳或者狗拴绳不确定)因为狗的标签是狗本身局部区域像素所决定的,不考虑与人的关系。
(2)每张图片内部每对遛狗行为的ID都是唯一的,但是不同的图像之前是否唯一不作要求。
数据预处理方式:把标注好的数据进行预处理,处理之后的数据需要训练狗拴绳识别模型和人狗关系识别模型。狗拴绳识别模型是以狗为中心,即截取的区域内只要保证有狗即可。人狗关系识别模型则需要保证人和狗同时存在,而且二者之间的距离需要满足要求。本实施例中各模型的数据预处理方式具体如下:
1、狗拴绳识别模型:对狗的检测框进行截取两次ROI(region of interes)感兴趣区域,分别是original_roi和expand_roi;original_roi是根据狗的原始检测框bbox截取(包含狗绳部分很少),expand_roi是根据向上及向两边扩边截取(增大狗绳的可见范围),本实施例的扩边比例为20%。把ROI图片区域存储到硬盘,并保存相应的路径和标签。
2、人狗关系识别模型:对于同一组ID标识符,分别求包含人和狗标注框的最大框(可以将ID相同的标注框框在一起),其标签标注为“遛狗”;同时调用狗和人距离估算模型,估算人和狗距离persondog_real_distance,将人和狗距离小于一定距离T且ID标识符不同的,求人和狗标注框的最大框,其标签为“行人”。将求解的最大框图片区域存储到硬盘,并保存相应的路径和标签。
3、狗和人检测模型:在原有标注基础上将行人与行人遛狗合并成“行人”类别,将狗,狗拴绳,狗拴绳不确定合并成“狗”,用于检测模型微调。
二、各模型结构及训练流程:
1、狗和人检测器模型:
狗和人检测器模型可使用现有的各种技术,例如Faster RCNN,SDD,RetinaNet等。本实施例使用在coco数据集上训练的yolov4模型,其本身就包括狗和人的类别。本具体实施例中仅仅使用yolov4模型作为训练模型,并将其类别从80类降低到狗和人这2类,然后用标注好的数据集微调,同时预测时使用相对较大的输入尺度(960x576),进一步提升其在目标监控场景下和小目标检测的精度。
2、狗和人距离估算模型:
由于安防监控常用的单目摄像头无法获取深度信息,不能通过深度信息获取高精度的距离估算,因此需要对狗和人距离进行估算。具体估算可采用现有的各种方法,本具体实施例中是根据行人实际宽度先验信息对狗和人距离进行估算,具体如下:假设狗和人检测器模型所获得的人的检测框为person(x_person,y_person,w_person,h_person),x_person,y_person为人检测框的中心点横、纵坐标,w_person,h_person分别为人检测框的宽和高;狗的检测框dog(x_dog,y_dog,w_dog,h_dog),x_dog,y_dog为狗检测框的中心点坐标,w_dog,h_dog分别为人检测框的宽和高;常规监控视角((摄像头高度2米以上,俯角大于15度))下的行人实际宽度先验范围0.25米-0.5米(行人侧面到正面),取其平均值meanWidth=0.375米为基准人体宽度;人与狗之间的像素水平距离persondog_pixel_distance=||x_person-x_dog||,则狗和人之间的估算距离: persondog_real_distance=persondog_pixel_distance×meanWidth/w_person 。根据persondog_real_distance可以过滤一些简单的明显没有拴绳遛狗以及遛狗的狗绳长度超出要求的情况。同时狗和人距离估算模型还可用于数据预处理以及作为人狗关系识别模型的前置算法模块。
3、狗拴绳识别模型:
算法模型搭建:模型输入是含有狗的图片,输出有三个,分别是“狗已拴绳”,“狗未拴绳”,“不确定”。如果狗没拴绳,那么返回结果状态是“狗未拴绳”;如果狗拴绳且狗绳状态不是垂直(可以允许小幅度偏角,例如水平正负偏角小于10度)向下,那么则返回“狗已拴绳”;如果狗拴绳且狗绳状态是垂直向下,那么则返回“不确定”。不确定的原因是有些狗拴绳子,但是没有被牵着,狗身体附近的绳子为垂直向下状态此时的狗绳状态与人距离狗特别近是可能一致。如果“不确定”需要后续更复杂的人狗关系识别模型进行后续识别。识别狗拴绳状态的关键是识别出狗脖子区域的狗绳状态,具体需要识别出两个特征是狗是否戴着狗绳以及绳子的方向是否是垂直向下。
由于需要识别绳子方向是否垂直向下,所以一般的模型结构无法使用旋转、视角变换等数据扩增操作,而不能使用这些数据扩增操作将会抑制模型的性能;如果为了识别绳子方向而减少数据扩增操作会导致网络对其它特征的识别问题(例如狗脖子区域),同时会导致泛化能力变差。为了在识别方向的同时保留较强的数据扩增操作,本发明提出基于数据扩增指导的特征增强注意力模型,采用具有两个训练样本输入分支的卷积神经网络模型,第一个分支用于对original_roi先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对expand_roi先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练。
本实施例中的狗拴绳识别模型由两个分支组成,分别是特征增强分支和注意力融合分支。特征增强分支主要提取狗脖子附近是否有狗绳的注意力特征,注意力融合分支负责狗绳方向识别,通过在注意力融合分支里加入特征增强分支提取的互补信息,来增强对狗脖子附近区域的注意力(网络自适应性)。特征增强分支可以使用包括小幅度旋转、视角变换在内的各种数据扩增方式训练,而注意力融合分支则不能使用这两种数据扩增方式,因为会影响图像的语义信息。如果只使用一个分支采用扩边之后的感兴趣区域作为输入,则在训练时不能充分对数据进行旋转、视角变换等数据扩增操作,会降低模型的泛化能力。本发明使用这种特征融合的方式,使得提取的特征更有表征能力。由于狗拴绳识别模型已经采用了两个大的分支,考虑到计算效率和精度,本实施例的主干网络采用单分支的可重构卷积网络repvgg。repvgg是一种重参数化网络,只在训练时存在类似于resnet的残差连接,在推理时可通过重参数化操作把连接合并,形成只有3x3卷积以及relu层的类vgg单通路结构的极简架构,在通用GPU和具有NPU加速单元的AI芯片上具有极高的效率。
模型输入是对狗的检测框进行截取两次感兴趣区域,分别是original_roi和expand_roi。original_roi是根据狗的原始bbox截取(包含狗绳部分很少),expand_roi是向上及左右扩边截取(增大狗绳的可见范围),扩边比例太小或者太大均不合适,实验论证向上及左右扩边比例在15%-20%效果最佳。两个ROI含有不同像素特征的输入区域,目的是分别可以获取狗脖子区域以及悬空狗绳及其方向的特征。针对狗绳这种特别微小且容易被狗毛遮挡和需要识别朝向的问题,本发明针对这些难点设计了狗拴绳识别模型,一种优选的模型结构如图1所示,两个分支的主干网络(stage模块组成的部分)均由repvgg基础改进。两个分支的输入均缩放到128x128x3,并做归一化到-1到1然后分别输入到各自的主干网络。
特征增强分支的stage0-stage3采用类repvgg A0的参数结构,同时为了降低计算量将其每个stage卷积输出通道数都优化为64,每个stage通过卷积的步长(strde=2)进行下采样。当输入128x128x3的图像时,stage3的特征尺度为48x8x8,然后沿通道方向最大池化输入到AVPool3D得到1x8x8的特征图,经过reshape之后将其输入到Softmax层形成尺度为8x8的注意力特征图。
注意力融合分支的stage0-stage5采用与repvgg B0一致的参数结构,当输入128x128x3的图像时,stage3的特征尺度为1280x8x8,然后与特征增强分支输出的注意力特征图逐通道相乘,输出1280x8x8经过增强的特征图,之后经过stage4,输出1280x4x4的特征图,然后再输入到AVPool2D,输出尺度为1280x1x1,最终经过reshape之后输入到分类器。
模型训练流程:
采用sofmax交叉熵loss函数,优化器采用训练速度较快的ADAM,两个分支的初始学习率(learning rate)进行单独设置,特征增强分支基础学习率设置为0.0001,注意力融合分支的基础学习率设置为0.005,权重衰减参数设置为0.0001。其中特征增强分支采用的数据扩增为:小幅度旋转(水平正负30度),视角变换,水平镜像反转,随机裁剪,色彩抖动,彩色图像转灰度图像;注意力融合分支采用的数据扩增方法不采用小幅度旋转(水平正负30度)和视角变换,其余与特征增强分支保持一致。使用8块NVIDIA 2080TI GPU随机初始化训练,批大小(batch size)设置成256,一共迭代80轮,每20轮两个分支的学习率同时降低一半。
4、人狗关系识别模型:
人狗关系识别模型的主要目的是降低整体计算量,同时解决上级算法模块无法直接识别确定结果的问题。此模块需要同时具备识别局部特征(悬空绳子,狗脖子区域,人手中绳子的状态)以及更抽象的全局行为特征(人与狗的关系,狗是否被人牵着)。考虑到CNN更加善于提取局部特征,而Transformer模型对全局特征具有很大的增益同时也对局部特征有不错的表现,因此考虑采用Transformer模型。Transformer率先使用在自然语言处理领域,目前将其用于计算机视觉领域的研究非常火热,由于图像的维度比自然语言大很多,因此采用Transformer结构为主的计算机视觉算法(例如vit)大多有着计算量大,且并行度不够高的问题。为此,本发明采用CNN+Vision Transformer为基础设计算法网络结构,分为前后两部分,第一部分是局部和初级特征提取模块,第二部分是全局人狗关系注意力模块。不同于现有Vision Transformer算法直接将原图无重叠的分割,本发明方法为先通过重参数化CNN提取初级局部特征同时降低维度,然后经过一个有重叠的分割,作为Transformerencode部分的输入,通过改进的Vision Transformer结构来获取更加全局的特征。先通过CNN提取特征可以使得局部和初级特征更加具有表征能力,有重合的分割使得每个被分割的区域包含相对完整的目标信息,有重叠分割可以使不同分割的特征区域有着更好的信息交互。这样可以更好的兼顾全局特征和局部特征,同时大幅降低计算量。
如图2所示,本实施例的人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;局部和初步特征提取模块中的stage0-stage3采用与repvgg B0一致的参数结构,当输入256x256x3的图像时,stage3输出的特征尺度为256x16x16;然后对特征图进行有重叠的分割,分割窗口size为4x4,重合区域比例为25%。经过overlap split层进行有重叠分割输出的特征为25×256×4×4。经过patch embedding(线性变换)之后输出的特征图为25×4096,与可学习的位置编码相加,并增加一个类别向量维度(class token),输出维度26*4096。后续输入到26个并行的Transformer模块,然后输入到MLP Head层,最后连接一个softmax层作为分类器。
模型训练流程:
采用sofmax交叉熵loss函数,优化器采用训练速度较快的ADAM,初始学习率(learning rate)设置为0.001,权重衰减参数设置为0.00005。数据扩增为:小幅度旋转(水平正负30度),水平镜像反转,随机裁剪,色彩抖动,彩色图像以一定概率转灰度图像。使用8块NVIDIA 2080TI GPU随机初始化训练,批大小(batch size)设置成64,一共迭代200轮,每50轮学习率除以10。
三、检测装置的检测流程:
构建好各个模型并完成训练后即可进行非法遛狗事件的在线或离线检测,装置的输出状态有三个,分别是“状态正常”,“狗未拴绳”和“狗已拴绳”。检测的整体流程如图3所示,包括以下步骤:
步骤1、将视频流解码后的图片帧输入;
步骤2、将图像尺度缩小至960x576,使用狗和人检测器模型进行检测;
步骤3、判断图像中是否有狗,如果没有,返回“状态正常”,如果有则进入步骤4;
步骤4、判断图像中是否有人,如果没有,返回“狗未拴绳”,如果有则进入步骤5;
步骤5、使用狗和人距离估算模型,并判断persondog_real_distance是否超过阈值T(具体的阈值可以根据需求设定,例如上海要求狗绳的长度不能超过2米,T可以设置成2米),如果超过T则返回“狗未拴绳”,如果没有超过则进入步骤6;
步骤6、对狗的检测框截取两次感兴趣区域,分别是original_roi和expand_roi,original_roi是根据狗的原始bbox截取,expand_roi是根据向上及左右扩边截取,扩边比例为15%~20%;然后输入到狗拴绳识别模型,可能输出的结果为“狗已拴绳”,“狗未拴绳”,“不确定”,如果输出结果是“不确定”,则进入步骤7;
步骤7、根据狗和人距离估算模型的结果,对狗附近的人按与狗的距离进行排序,获取与狗的距离最近的k个人,并两两求解最大检测框(与处理标注数据一致),然后将k个检测框输入到人狗关系识别模型,输出结果为“狗已拴绳”或者“狗未拴绳”。

Claims (12)

1.一种基于监控视频的非法遛狗事件检测方法,其特征在于,包括以下步骤:
步骤A、对监控视频的图像帧进行狗和人的检测,如图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,进入步骤B;
步骤B、估算图像帧中人与狗之间的距离并判断是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,进入步骤C;
步骤C、从图像帧中截取包含狗的图像并输入狗拴绳识别模型,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,进入步骤D;所述狗拴绳识别模型为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;所述从图像帧中截取的包含狗的图像具体为第一感兴趣区域图像和第二感兴趣区域图像,第一感兴趣区域图像为狗的检测框图像,第二感兴趣区域图像为对狗的检测框图像进行扩边所得到的图像;所述卷积神经网络模型具有两个训练样本输入分支,第一个分支用于对第一感兴趣区域图像先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对第二感兴趣区域图像先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练;
步骤D、从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,k为大于0的自然数;将所得到的k个检测框图像输入人狗关系识别模型,并根据人狗关系识别模型的输出判断“狗已拴绳”或者“狗未拴绳”;所述人狗关系识别模型为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
2.如权利要求1所述基于监控视频的非法遛狗事件检测方法,其特征在于,所述卷积神经网络模型为可重构卷积网络模型。
3.如权利要求1所述基于监控视频的非法遛狗事件检测方法,其特征在于,所述对狗的检测框图像进行扩边具体是指:对狗的检测框图像的上边和左、右两边进行扩边。
4.如权利要求1~3任一项所述基于监控视频的非法遛狗事件检测方法,其特征在于,所述扩边的比例为15%-20%。
5.如权利要求1所述基于监控视频的非法遛狗事件检测方法,其特征在于,所述人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;所述局部和初步特征提取模块用于对输入图像进行若干次卷积,所得到的特征图作为全局人狗关系注意力模块的输入;所述全局人狗关系注意力模块为改进的Vision Transformer模型,其对所输入的特征图进行有重叠的分割。
6.如权利要求1所述基于监控视频的非法遛狗事件检测方法,其特征在于,用以下方法估算图像帧中人与狗之间的距离:用人与狗之间的像素水平距离除以人检测框的宽度,再乘以基准人体宽度;所述基准人体宽度的取值为0.25米~0.5米。
7.一种基于监控视频的非法遛狗事件检测装置,其特征在于,包括:
狗和人检测器模型,用于对监控视频的图像帧进行狗和人的检测;
第一判断模块,如狗和人检测器模型在图像帧中没有检测到狗,则判断“状态正常”并返回;如果图像帧中只有狗没有人,则判断“狗未拴绳”并返回;否则,调用狗和人距离估算模型;
狗和人距离估算模型,用于估算图像帧中人与狗之间的距离;
第二判断模块,用于判断估算出的人与狗之间的距离是否超过预设距离阈值,如是,则判断“狗未拴绳”并返回;否则,从图像帧中截取包含狗的图像并输入狗拴绳识别模型;
狗拴绳识别模型,其为预先训练好的卷积神经网络模型,其输入为含有狗的图像,其输出为“狗已拴绳”、“狗未拴绳”及“不确定”这三个类别;所述从图像帧中截取的包含狗的图像具体为第一感兴趣区域图像和第二感兴趣区域图像,第一感兴趣区域图像为狗的检测框图像,第二感兴趣区域图像为对狗的检测框图像进行扩边所得到的图像;所述卷积神经网络模型具有两个训练样本输入分支,第一个分支用于对第一感兴趣区域图像先进行若干次卷积,然后沿卷积通道方向池化,最后将其归一化指数处理为注意力特征图;第二个分支用于对第二感兴趣区域图像先进行若干次卷积,得到与注意力特征图的尺度大小相同的多通道特征图,并用注意力特征图分别与该多通道特征图的每个通道特征图相乘,然后对所得结果进行至少一次卷积后依次进行池化、线性化及归一化指数处理;第一个分支使用包含小幅度旋转和视角变换在内的数据扩增方式训练,第二个分支使用不包含小幅度旋转和视角变换的数据扩增方式训练;
第三判断模块,如狗拴绳识别模型的输出为“狗已拴绳”或“狗未拴绳”,则将结果输出并返回;否则,从图像帧中找出距离狗最近的k个人,对每个人截取出同时包含狗和这个人的最大检测框,并将所得到的k个检测框图像输入人狗关系识别模型,k为大于0的自然数;
人狗关系识别模型,其为预先训练好的神经网络模型,其输入为同时包含狗和人的图片,其输出为“狗已拴绳”或者“狗未拴绳”这两个类别。
8.如权利要求7所述基于监控视频的非法遛狗事件检测装置,其特征在于,所述卷积神经网络模型为可重构卷积网络模型。
9.如权利要求7所述基于监控视频的非法遛狗事件检测装置,其特征在于,所述对狗的检测框图像进行扩边具体是指:对狗的检测框图像的上边和左、右两边进行扩边。
10.如权利要求7~9任一项所述基于监控视频的非法遛狗事件检测装置,其特征在于,所述扩边的比例为15%-20%。
11.如权利要求7所述基于监控视频的非法遛狗事件检测装置,其特征在于,所述人狗关系识别模型由前端的局部和初步特征提取模块以及后端的全局人狗关系注意力模块组成;所述局部和初步特征提取模块用于对输入图像进行若干次卷积,所得到的特征图作为全局人狗关系注意力模块的输入;所述全局人狗关系注意力模块为改进的VisionTransformer模型,其对所输入的特征图进行有重叠的分割。
12.如权利要求7所述基于监控视频的非法遛狗事件检测装置,其特征在于,用以下方法估算图像帧中人与狗之间的距离:用人与狗之间的像素水平距离除以人检测框的宽度,再乘以基准人体宽度;所述基准人体宽度的取值为0.25米~0.5米。
CN202110492720.4A 2021-05-07 2021-05-07 基于监控视频的非法遛狗事件检测方法、装置 Active CN112906678B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110492720.4A CN112906678B (zh) 2021-05-07 2021-05-07 基于监控视频的非法遛狗事件检测方法、装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110492720.4A CN112906678B (zh) 2021-05-07 2021-05-07 基于监控视频的非法遛狗事件检测方法、装置

Publications (2)

Publication Number Publication Date
CN112906678A CN112906678A (zh) 2021-06-04
CN112906678B true CN112906678B (zh) 2021-07-09

Family

ID=76109024

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110492720.4A Active CN112906678B (zh) 2021-05-07 2021-05-07 基于监控视频的非法遛狗事件检测方法、装置

Country Status (1)

Country Link
CN (1) CN112906678B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114170516B (zh) * 2021-12-09 2022-09-13 清华大学 一种基于路侧感知的车辆重识别方法、装置及电子设备
CN115063751B (zh) * 2022-07-27 2023-01-06 深圳市海清视讯科技有限公司 宠物牵绳检测方法、设备及存储介质
CN116863298B (zh) * 2023-06-29 2024-05-10 深圳市快瞳科技有限公司 训练、预警发送方法、系统、装置、设备和介质
CN117671592B (zh) * 2023-12-08 2024-09-06 中化现代农业有限公司 危险行为检测方法、装置、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852198A (zh) * 2019-10-27 2020-02-28 恒大智慧科技有限公司 防止智慧社区内宠物狗袭击的控制方法、设备及存储介质
CN111597900A (zh) * 2020-04-16 2020-08-28 浙江工业大学 非法遛狗识别方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8448608B2 (en) * 2009-07-02 2013-05-28 Dreamcatcher Patent and Product Development, LLC Tethering device with force-displacement system
CN104898469B (zh) * 2015-03-31 2018-04-13 朱凌恺 一种遛狗器及基于遛狗器的遛狗控制方法
US9392771B1 (en) * 2015-10-28 2016-07-19 Bianka Sauer Safety device for tethering a moving individual
CN105718904A (zh) * 2016-01-25 2016-06-29 大连楼兰科技股份有限公司 基于组合特征与车载摄像头的盲人检测与识别方法与系统
US11093560B2 (en) * 2018-09-21 2021-08-17 Microsoft Technology Licensing, Llc Stacked cross-modal matching
CN111866820A (zh) * 2019-04-24 2020-10-30 珠海阳光儿童用品有限公司 信号发生方法、信号发生装置以及安全束缚系统
CN111191507A (zh) * 2019-11-26 2020-05-22 恒大智慧科技有限公司 智慧社区的安全预警分析方法及系统
CN111259746A (zh) * 2020-01-09 2020-06-09 浙江新再灵科技股份有限公司 一种直梯内宠物牵绳检测方法及系统
CN111291641B (zh) * 2020-01-20 2024-02-27 上海依图网络科技有限公司 图像识别方法及其装置、计算机可读介质和系统
CN111447410A (zh) * 2020-03-24 2020-07-24 安徽工程大学 一种犬只状态识别监控系统及方法
CN111811399B (zh) * 2020-06-28 2021-11-23 青岛聚好联科技有限公司 一种检测方法及装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852198A (zh) * 2019-10-27 2020-02-28 恒大智慧科技有限公司 防止智慧社区内宠物狗袭击的控制方法、设备及存储介质
CN111597900A (zh) * 2020-04-16 2020-08-28 浙江工业大学 非法遛狗识别方法

Also Published As

Publication number Publication date
CN112906678A (zh) 2021-06-04

Similar Documents

Publication Publication Date Title
CN112906678B (zh) 基于监控视频的非法遛狗事件检测方法、装置
CN110348376B (zh) 一种基于神经网络的行人实时检测方法
CN111598030B (zh) 一种航拍图像中车辆检测和分割的方法及系统
CN107563372B (zh) 一种基于深度学习ssd框架的车牌定位方法
CN109657592B (zh) 一种智能挖掘机的人脸识别方法
CN111209810A (zh) 向可见光与红外图像准确实时行人检测的边界框分割监督深度神经网络架构
CN106951830B (zh) 一种基于先验条件约束的图像场景多对象标记方法
CN106778472A (zh) 基于深度学习的输电走廊常见侵入物目标检测与识别方法
CN110163069A (zh) 用于辅助驾驶的车道线检测方法
Wang et al. Vehicle detection based on drone images with the improved faster R-CNN
CN113011404B (zh) 基于时空域特征的狗拴绳识别方法、装置
CN109657614B (zh) 航拍道路交通事故现场勘查中道路自动识别方法
CN109712127A (zh) 一种用于机巡视频流的输电线路故障检测方法
CN110516633A (zh) 一种基于深度学习的车道线检测方法及系统
CN111008574A (zh) 一种基于形体识别技术的重点人员轨迹分析方法
CN109558790B (zh) 一种行人目标检测方法、装置及系统
CN109034258A (zh) 基于特定物体像素梯度图的弱监督目标检测方法
CN113095301A (zh) 占道经营监测方法、系统与服务器
CN115019274A (zh) 一种融合追踪与检索算法的路面病害识别方法
Hammam et al. DeepPet: A pet animal tracking system in internet of things using deep neural networks
Xu et al. Occlusion problem-oriented adversarial faster-RCNN scheme
CN116311071A (zh) 一种融合帧差和ca的变电站周界异物识别方法及系统
CN116630890A (zh) 一种通过对钓鱼区域分析的钓鱼行为检测方法和系统
Shanthakumari et al. Image Detection and Recognition of different species of animals using Deep Learning
CN114170686A (zh) 一种基于人体关键点的屈肘行为检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP01 Change in the name or title of a patent holder

Address after: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province

Patentee after: Xiaoshi Technology (Jiangsu) Co.,Ltd.

Address before: 210000 Longmian Avenue 568, High-tech Park, Jiangning District, Nanjing City, Jiangsu Province

Patentee before: NANJING ZHENSHI INTELLIGENT TECHNOLOGY Co.,Ltd.

CP01 Change in the name or title of a patent holder