CN115205581A - 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质 - Google Patents

一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质 Download PDF

Info

Publication number
CN115205581A
CN115205581A CN202210628686.3A CN202210628686A CN115205581A CN 115205581 A CN115205581 A CN 115205581A CN 202210628686 A CN202210628686 A CN 202210628686A CN 115205581 A CN115205581 A CN 115205581A
Authority
CN
China
Prior art keywords
tracking
fishing
result
target object
preset condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210628686.3A
Other languages
English (en)
Inventor
赵志伟
傅凯
章合群
白家男
余正法
周祥明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202210628686.3A priority Critical patent/CN115205581A/zh
Publication of CN115205581A publication Critical patent/CN115205581A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

本申请公开了一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质,该方法包括:获取目标场景的监控视频数据;对监控视频数据进行跟踪处理,得到跟踪结果,跟踪结果包括跟踪队列,跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别;响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果;响应于跟踪结果未满足第二预设条件,基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息,垂钓报警信息用于表示目标场景中发生垂钓事件。通过上述方式,本申请能够提升报警准确率,且效率较高。

Description

一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质
技术领域
本申请涉及智能视频监控领域,具体涉及一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质。
背景技术
违规垂钓是指人员在禁止垂钓的水域进行垂钓活动,目前对违规垂钓行为的监测主要有现场巡检和监控手动抓拍监测两种方式,现场巡检只能依靠执法人员现场巡逻的方式进行发现和取证,由于现场巡逻的范围有限,此种方法将浪费大量人力,效率低下;监控手动抓拍检测方案只是对视频进行采集和存储,需要人工查看监控视频,这种方式时效性差,且主要依靠监控者的肉眼观察,费时费力。
发明内容
本申请提供一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质,能够提升报警准确率,且效率较高。
为解决上述技术问题,本申请采用的技术方案是:提供一种钓鱼检测方法,该方法包括:获取目标场景的监控视频数据;对监控视频数据进行跟踪处理,得到跟踪结果,跟踪结果包括跟踪队列,跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别;响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果;响应于跟踪结果未满足第二预设条件,基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息,垂钓报警信息用于表示目标场景中发生垂钓事件。
为解决上述技术问题,本申请采用的另一技术方案是:提供一种钓鱼检测设备,该钓鱼检测设备包括互相连接的存储器和处理器,其中,存储器用于存储计算机程序,计算机程序在被处理器执行时,用于实现上述技术方案中的钓鱼检测方法。
为解决上述技术问题,本申请采用的另一技术方案是:提供一种钓鱼检测设备,该钓鱼检测设备包括采集模块、检测跟踪模块、姿态识别模块以及判断模块,采集模块用于获取目标场景的监控视频数据;检测跟踪模块与采集模块连接,用于对监控视频数据进行跟踪处理,得到跟踪结果,跟踪结果包括跟踪队列,跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别;姿态识别模块与检测跟踪模块连接,用于响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果;判断模块与检测跟踪模块以及姿态识别模块连接,用于响应于跟踪结果未满足第二预设条件,基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息,垂钓报警信息用于表示目标场景中发生垂钓事件。
为解决上述技术问题,本申请采用的另一技术方案是:提供一种计算机可读存储介质,该计算机可读存储介质用于存储计算机程序,计算机程序在被处理器执行时,用于实现上述技术方案中的钓鱼检测方法。
通过上述方案,本申请的有益效果是:先获取目标场景的监控视频数据;然后对监控视频数据进行跟踪处理,得到跟踪结果,该跟踪结果包括每个目标对象的跟踪队列,该跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别;当跟踪结果中的目标对象的类别满足第一预设条件时,将该目标对象所在的待处理图像输入姿态识别模型,得到姿态分类结果;然后,利用姿态分类结果与跟踪结果,来判定目标场景中是否发生垂钓事件;由于将姿态分类结果与跟踪结果结合,来辅助垂钓事件的检测,相比仅依靠跟踪结果进行垂钓检测的方案来说,因姿态分类结果的引入,能够区分人类的姿态,判断人类是否处于钓鱼的状态,避免因人员滞留导致被误判为违规垂钓,提高了报警准确率;而且,本申请无需人工判别是否发生垂钓事件,可降低人工成本,且提升检测的效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请提供的钓鱼检测方法一实施例的流程示意图;
图2是本申请提供的钓鱼检测方法另一实施例的流程示意图;
图3是本申请提供的钓鱼检测设备一实施例的结构示意图;
图4是本申请提供的钓鱼检测设备另一实施例的结构示意图;
图5是本申请提供的计算机可读存储介质一实施例的结构示意图。
具体实施方式
下面结合附图和实施例,对本申请作进一步的详细描述。特别指出的是,以下实施例仅用于说明本申请,但不对本申请的范围进行限定。同样的,以下实施例仅为本申请的部分实施例而非全部实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
需要说明的是,本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。
先对本申请涉及的智能视频监控进行介绍,智能视频监控是指借助计算机视觉技术,对视频信息进行自动分析来代替人工查看,协助监控人员以分析结果为基础对视频信息进行进一步的响应和处理,从而达到减少、甚至代替监控人员工作的目的。下面对本申请采用的技术方案进行详细说明。
请参阅图1,图1是本申请提供的钓鱼检测方法一实施例的流程示意图,本实施例的执行主体为钓鱼检测设备,该钓鱼检测设备可以为摄像设备或计算机等具备计算处理能力的设备,该方法包括:
S11:获取目标场景的监控视频数据。
可以采用摄像设备对目标场景进行拍摄得到监控视频数据,目标场景为用户关注的区域,比如:鱼塘、景区的湖泊或输电线附近等不适合钓鱼的区域。
在一具体的实施例中,以钓鱼检测设备为摄像设备为例,将摄像设备安装在待检测水域的岸边,调整摄像设备的拍摄高度和角度,保证能捕捉到待监测水域的清晰画面。摄像设备包括摄像头与智能分析设备,摄像头通过视频编解码技术对采集到的数据进行解码,得到监控视频数据,并将监控视频数据实时传输给智能分析设备,智能分析设备用于对进行监控视频数据进行智能分析,即执行后续的S12~S14。
S12:对监控视频数据进行跟踪处理,得到跟踪结果。
在获取到监控视频数据后,采用相关技术中常用的方法对监控视频数据进行跟踪处理,得到跟踪结果,该跟踪结果包括每个目标对象的跟踪队列,该跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别。
在一具体的实施例中,可以采用如下方案来生成跟踪结果:
(1)将待处理图像输入目标检测模型,得到目标检测结果。
目标检测结果包括目标对象的位置、目标对象的类别以及目标对象的类别置信度,该类别置信度为目标对象属于某一类别的置信度。可以基于深度学习的目标检测算法,对输入的待处理图像进行计算分析,获得待处理图像中目标对象的位置和目标对象的类别。具体地,将待处理图像输入目标检测模型之前,可以先执行以下方案:
A)收集整理训练数据集
在不同的水域场景下,将摄像头调整到不同的倍率,以采集大量的垂钓图像,人工标注垂钓图像中各个目标对象的位置框以及所属类别,将其作为后续训练目标检测模型时的标签数据,目标对象可以为人类、遮阳伞或鱼竿,位置框可以为包围目标对象的矩形框,位置框用于标识目标对象在垂钓图像中的位置。在完成对每张垂钓图像的标注后,将垂钓图像与相应的标签数据组成训练数据集,以便进行目标检测模型的训练。
B)构建并训练目标检测模型
可以先构建目标检测模型;然后利用整理好的训练数据集,对目标检测模型进行训练,最终得到一个效果较好的目标检测模型。具体地,目标检测模型可以为中心网络(Center Network,CenterNet)、YoloV3(You Only Look Once)、YoloX或一阶全卷积(FullyConvolutional One-Stage,FCOS)目标检测模型。
C)部署目标检测模型
在完成目标检测模型的训练后,将训练后的目标检测模型部署到钓鱼检测设备中。在实际使用时,将获取到的实时视频数据解码为待处理图像,输入训练好的目标检测模型,得到实时监控画面中的人员、遮阳伞以及鱼竿的相关信息(包括位置框、类别以及类别置信度)。
(2)将待处理图像与待处理图像的目标检测结果输入目标跟踪模型,得到跟踪结果。
在获取到目标检测结果后,可采用相关技术中常用的目标跟踪模型对待处理图像以及相应的目标检测结果进行处理,得到跟踪结果。例如,目标跟踪模型所采用的多目标跟踪算法可以为交并比追踪器(Intersection over union,IOU Tracker)、简单的在线和实时跟踪(Deep Simple Online Realtime Tracking,DeepSORT)或Tracktor。
在一实施方式中,采用的目标跟踪算法为IOU Tracker,该算法的输入为待处理图像以及待处理图像的目标检测结果,该算法的输出为监控视频数据中所有目标对象的跟踪队列,该跟踪队列包含每一帧待处理图像中目标对象的类别、身份证明(Identitydocument,id)标识以及历史轨迹,该历史轨迹包括目标对象的位置。
进一步地,依次从监控视频数据中取出待处理图像,将其记作当前帧图像;计算当前帧图像中每个目标对象(记作当前目标对象)的检测框与上一帧图像中所有目标对象(记作历史目标对象)的检测框的交并比;计算每个当前目标对象对应的所有交并比的最大值,得到最大交并比,并判断最大交并比是否大于预设交并比阈值;若最大交并比大于预设交并比阈值,则确定该当前目标对象与最大交并比对应的历史目标对象相同;若最大交并比小于或等于预设交并比阈值,则确定当前目标对象为新的目标对象,为当前目标对象分配新的身份证明标识,以区分不同的目标对象;然后,返回依次从监控视频数据中取出待处理图像的步骤,直至对监控视频数据遍历完毕。
S13:响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果。
判断目标对象的类别是否为人类;若目标对象的类别为人类,则确定目标对象的类别满足第一预设条件,并将待处理图像与目标对象的位置输入姿态识别模型,得到目标对象的姿态分类结果,姿态分类结果为站姿、坐姿以及其他姿态分类结果中的一种。或者,对人类所在的待处理图像进行裁剪处理,得到目标图像;将目标图像输入姿态识别模型,得到姿态分类结果。
在一具体的实施例中,姿态识别模型采用的姿态识别算法可以是mobilenetV2,mobilenetV2是一个轻量级的分类网络;mobilenetV2网络的输入为目标跟踪模型输出的人类的位置框和人类所在的待处理图像,mobilenetV2网络的输出为人类的姿态分类结果。
可以理解地,除了采用mobilenetV2网络外,还可以采用其他姿态识别算法,比如:mobilenetV3、shufflenetV2(shuffle network,混洗网络)或ResNet18(residualnetwork,残差网络)。
S14:响应于跟踪结果未满足第二预设条件,基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息。
响应于跟踪结果满足第二预设条件,生成垂钓报警信息,该垂钓报警信息用于表示目标场景中发生垂钓事件。在判定跟踪结果不满足第二预设条件时,由于垂钓行为由人类执行,人类在垂钓时一般的姿态为站姿或坐姿,因此,可将跟踪结果与姿态分类结果结合,以判定目标场景中是否发生垂钓事件。
进一步地,垂钓报警信息为文字信息,可将垂钓报警信息发送至预先设置的联系人。或者,垂钓报警信息为语音信息或视频信息,可播放该垂钓报警信息。
本实施例提供了一种垂钓事件的检测方法,通过对监控视频数据进行处理生成跟踪结果;当跟踪结果中的目标对象为人类时,将该人类的位置以及所在图像输入姿态识别模型,得到该人类的姿态分类结果;然后,利用姿态分类结果与跟踪结果,来判定目标场景中是否发生垂钓事件;由于引入了姿态分类结果,将姿态分类结果用以辅助报警逻辑的判断,相比仅依靠跟踪结果进行垂钓检测的方案来说,因姿态分类结果的引入,能够区分人类的姿态,判断人类是否处于钓鱼的状态,避免把单纯的人员滞留误报成违规垂钓,减少人员滞留导致的误报事件,提高了报警准确率;而且,无需人工判别是否发生垂钓事件,可降低人工成本,且提升检测的效率。
请参阅图2,图2是本申请提供的钓鱼检测方法另一实施例的流程示意图,该方法包括:
S21:获取目标场景的监控视频数据。
S22:对监控视频数据进行跟踪处理,得到跟踪结果。
S23:响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果。
S21~S23与上述实施例中S11~S13相同,在此不再赘述。
S24:判断跟踪结果是否满足第二预设条件。
跟踪结果包括跟踪队列,跟踪队列包括监控视频数据中同一目标对象所在的待处理图像、目标对象的类别以及目标对象的类别置信度;第二预设条件与目标对象的类别以及目标对象的类别置信度相关。
在一具体的实施例中,可以判断同一待处理图像中是否存在人类与鱼竿;如果该待处理图像中存在人类与鱼竿,则进一步判断鱼竿的类别置信度是否大于第一置信度阈值;如果鱼竿的类别置信度大于第一置信度阈值,则确定跟踪结果满足第二预设条件。
可以理解地,第一置信度阈值可以根据经验或具体应用需要进行设置。例如,第一置信度阈值为0.7,即响应于同一待处理图像中存在人类与鱼竿,且鱼竿的类别置信度大于0.7,确定跟踪结果满足第二预设条件,直接生成垂钓报警信息,以通知或提醒相关人员当前出现垂钓事件。
S25:响应于跟踪结果未满足第二预设条件,判断姿态分类结果与跟踪结果是否满足第三预设条件。
如果跟踪结果不满足第二预设条件,则结合姿态分类结果与跟踪结果,判定当前是否发生垂钓事件。具体地,判断姿态分类结果与跟踪结果是否满足第三预设条件,该第三预设条件与目标对象的类别、目标对象的类别置信度、姿态分类结果以及第二置信度阈值相关,第二置信度阈值小于第一置信度阈值。
在一具体的实施例中,可以判断同一待处理图像中是否存在人类与鱼竿;如果该待处理图像中存在人类与鱼竿,则将人类所在的图像(即目标图像)送入姿态识别模型,得到姿态分类结果;判断鱼竿的类别置信度是否大于第二置信度阈值以及人类的姿态是否为第一预设姿态;如果鱼竿的类别置信度大于第二置信度阈值,且人类的姿态为第一预设姿态,则确定姿态分类结果与跟踪结果满足第三预设条件。
进一步地,第二置信度阈值可以根据经验或具体应用需要进行设置。例如,第二置信度阈值为0.35,第一预设姿态为坐姿,响应于鱼竿的类别置信度大于0.35,且人类的姿态分类结果为坐姿,确定姿态分类结果与跟踪结果满足第三预设条件。
S26:若姿态分类结果与跟踪结果满足第三预设条件,则生成垂钓报警信息。
如果姿态分类结果与跟踪结果满足第三预设条件,则表明当前目标场景中有人垂钓,此时生成垂钓报警信息。
S27:若姿态分类结果与跟踪结果不满足第三预设条件,则基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息。
判断姿态分类结果与跟踪结果是否满足第四预设条件;如果姿态分类结果与跟踪结果满足第四预设条件,则生成垂钓报警信息,该第四预设条件与目标对象的类别、目标对象的类别置信度、姿态分类结果以及第三置信度阈值相关。如果姿态分类结果与跟踪结果不满足第四预设条件,则不做处理;或者,返回S21,继续对目标场景是否发生钓鱼事件进行监测。
在一具体的实施例中,可以判断同一待处理图像中是否存在人类与遮阳伞;如果该待处理图像中存在人类与遮阳伞,则将人类所在的图像送入姿态识别模型,得到姿态分类结果;判断遮阳伞的类别置信度是否大于第三置信度阈值以及人类的姿态是否为第二预设姿态;如果遮阳伞的类别置信度大于第三置信度阈值,且人类的姿态为第二预设姿态,则确定姿态分类结果与跟踪结果满足第三预设条件。
进一步地,第三置信度阈值可以根据经验或具体应用需要进行设置。例如,第三置信度阈值为0.6,第二预设姿态为站姿,响应于同一待处理图像中存在人类与遮阳伞,人类的姿态分类结果为站姿,且遮阳伞的类别置信度大于0.6时,确定姿态分类结果与跟踪结果满足第四预设条件,生成垂钓报警信息。
可以理解地,可以先执行对人类的姿态进行识别的操作,然后再执行后续的钓鱼事件是否发生的判断操作;或者,在获取到跟踪结果后,便执行钓鱼事件是否发生的判断操作,当需要用到人类的姿态时再执行姿态识别操作。
相关技术中对鱼竿使用统一的置信度阈值,在背景复杂的情况下,鱼竿难以检测到或鱼竿的类别置信度难以达到该置信度阈值,从而导致漏报。而本实施例对鱼竿的类别置信度分梯度进行使用,当姿态分类结果为坐姿时,对鱼竿的类别置信度的要求较低,其只需大于0.35即可报警;当姿态分类结果不是坐姿时,对鱼竿的类别置信度的要求较高,其需要大于0.7才触发违规垂钓报警的操作;而且,当鱼竿的类别置信度很低或根本检测不到鱼竿时,可以用遮阳伞来补充判断逻辑,能够减少因检测不到鱼竿而导致的漏报事件,提高报警召回率。
请参阅图3,图3是本申请提供的钓鱼检测设备一实施例的结构示意图,钓鱼检测设备30包括互相连接的存储器31和处理器32,存储器31用于存储计算机程序,计算机程序在被处理器32执行时,用于实现上述实施例中的钓鱼检测方法。
请参阅图4,图4是本申请提供的钓鱼检测设备另一实施例的结构示意图,钓鱼检测设备40包括采集模块41、检测跟踪模块42、姿态识别模块43以及判断模块44。
采集模块41用于获取目标场景的监控视频数据。
检测跟踪模块42与采集模块41连接,其对监控视频数据进行跟踪处理,得到跟踪结果,跟踪结果包括跟踪队列,跟踪队列包括监控视频数据中同一目标对象所在的待处理图像以及目标对象的类别。
姿态识别模块43与检测跟踪模块42连接,其用于响应于目标对象的类别满足第一预设条件,对待处理图像进行姿态识别处理,得到目标对象的姿态分类结果。
判断模块44与检测跟踪模块42以及姿态识别模块43连接,其用于响应于跟踪结果未满足第二预设条件,基于姿态分类结果与跟踪结果,判断是否生成垂钓报警信息,垂钓报警信息用于表示目标场景中发生垂钓事件。
本实施例通过采集模块、检测跟踪模块、姿态识别模块以及判断模块的配合,实现了提高了报警准确率与报警召回率;而且,无需人工判别是否发生垂钓事件,可降低人工成本,且提升检测效率。
请参阅图5,图5是本申请提供的计算机可读存储介质一实施例的结构示意图,计算机可读存储介质50用于存储计算机程序51,计算机程序51在被处理器执行时,用于实现上述实施例中的钓鱼检测方法。
计算机可读存储介质50可以是服务端、U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本申请所提供的几个实施方式中,应该理解到,所揭露的方法以及设备,可以通过其它的方式实现。例如,以上所描述的设备实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施方式中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
若本申请技术方案涉及个人信息,应用本申请技术方案的产品在处理个人信息前,已明确告知个人信息处理规则,并取得个人自主同意。若本申请技术方案涉及敏感个人信息,应用本申请技术方案的产品在处理敏感个人信息前,已取得个人单独同意,并且同时满足“明示同意”的要求。例如,在摄像头等个人信息采集装置处,设置明确显著的标识告知已进入个人信息采集范围,将会对个人信息进行采集,若个人自愿进入采集范围即视为同意对其个人信息进行采集;或者在个人信息处理的装置上,利用明显的标识/信息告知个人信息处理规则的情况下,通过弹窗信息或请个人自行上传其个人信息等方式获得个人授权;其中,个人信息处理规则可包括个人信息处理者、个人信息处理目的、处理方式以及处理的个人信息种类等信息。
以上仅为本申请的实施例,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。

Claims (12)

1.一种钓鱼检测方法,其特征在于,包括:
获取目标场景的监控视频数据;
对所述监控视频数据进行跟踪处理,得到跟踪结果,所述跟踪结果包括跟踪队列,所述跟踪队列包括所述监控视频数据中同一目标对象所在的待处理图像以及所述目标对象的类别;
响应于所述目标对象的类别满足第一预设条件,对所述待处理图像进行姿态识别处理,得到所述目标对象的姿态分类结果;
响应于所述跟踪结果未满足第二预设条件,基于所述姿态分类结果与所述跟踪结果,判断是否生成垂钓报警信息,所述垂钓报警信息用于表示所述目标场景中发生垂钓事件。
2.根据权利要求1所述的钓鱼检测方法,其特征在于,所述跟踪队列还包括所述目标对象的类别置信度,所述第二预设条件与所述目标对象的类别以及所述目标对象的类别置信度相关,所述方法还包括:
响应于所述跟踪结果满足所述第二预设条件,生成所述垂钓报警信息。
3.根据权利要求2所述的钓鱼检测方法,其特征在于,判断所述跟踪结果是否满足所述第二预设条件的步骤,包括:
响应于同一所述待处理图像中存在人类与鱼竿,且所述鱼竿的类别置信度大于第一置信度阈值,确定所述跟踪结果满足所述第二预设条件。
4.根据权利要求2所述的钓鱼检测方法,其特征在于,所述基于所述姿态分类结果与所述跟踪结果,判断是否生成垂钓报警信息的步骤,包括:
响应于所述跟踪结果未满足所述第二预设条件,判断所述姿态分类结果与所述跟踪结果是否满足第三预设条件,所述第三预设条件与所述目标对象的类别、所述目标对象的类别置信度、所述姿态分类结果以及第二置信度阈值相关;
若是,则生成所述垂钓报警信息;
若否,则基于所述姿态分类结果与所述跟踪结果,判断是否生成所述垂钓报警信息。
5.根据权利要求4所述的钓鱼检测方法,其特征在于,所述判断所述姿态分类结果与所述跟踪结果是否满足第三预设条件的步骤,包括:
响应于同一所述待处理图像中存在人类与鱼竿,所述鱼竿的类别置信度大于第二置信度阈值,且所述人类的姿态分类结果为第一预设姿态,确定所述姿态分类结果与所述跟踪结果满足所述第三预设条件;其中,所述第二置信度阈值小于第一置信度阈值。
6.根据权利要求4所述的钓鱼检测方法,其特征在于,所述基于所述姿态分类结果与所述跟踪结果,判断是否生成垂钓报警信息的步骤,还包括:
判断所述姿态分类结果与所述跟踪结果是否满足第四预设条件,所述第四预设条件与所述目标对象的类别、所述目标对象的类别置信度、所述姿态分类结果以及第三置信度阈值相关;
若是,则生成所述垂钓报警信息。
7.根据权利要求6所述的钓鱼检测方法,其特征在于,所述判断所述姿态分类结果与所述跟踪结果是否满足第四预设条件的步骤,包括:
响应于同一所述待处理图像中存在人类与遮阳伞,所述人类的姿态分类结果为第二预设姿态,且所述遮阳伞的类别置信度大于所述第三置信度阈值,确定所述姿态分类结果与所述跟踪结果满足所述第四预设条件。
8.根据权利要求1所述的钓鱼检测方法,其特征在于,所述对所述监控视频数据进行跟踪处理,得到跟踪结果的步骤,包括:
将所述待处理图像输入目标检测模型,得到目标检测结果;
将所述待处理图像与所述待处理图像的目标检测结果输入目标跟踪模型,得到所述跟踪结果。
9.根据权利要求1所述的钓鱼检测方法,其特征在于,所述响应于所述目标对象的类别满足第一预设条件,对所述待处理图像进行姿态识别处理,得到所述目标对象的姿态分类结果的步骤,包括:
判断所述目标对象的类别是否为人类;
若是,则确定所述目标对象满足所述第一预设条件;
对所述人类所在的待处理图像进行裁剪处理,得到目标图像;
将所述目标图像输入姿态识别模型,得到所述姿态分类结果,所述姿态分类结果为站姿、坐姿以及其他姿态中的一种。
10.一种钓鱼检测设备,其特征在于,包括互相连接的存储器和处理器,其中,所述存储器用于存储计算机程序,所述计算机程序在被所述处理器执行时,用于实现权利要求1-9中任一项所述的钓鱼检测方法。
11.一种钓鱼检测设备,其特征在于,包括:
采集模块,用于获取目标场景的监控视频数据;
检测跟踪模块,与所述采集模块连接,用于对所述监控视频数据进行跟踪处理,得到跟踪结果,所述跟踪结果包括跟踪队列,所述跟踪队列包括所述监控视频数据中同一目标对象所在的待处理图像以及所述目标对象的类别;
姿态识别模块,与所述检测跟踪模块连接,用于响应于所述目标对象的类别满足第一预设条件,对所述待处理图像进行姿态识别处理,得到所述目标对象的姿态分类结果;
判断模块,与所述检测跟踪模块以及所述姿态识别模块连接,用于响应于所述跟踪结果未满足第二预设条件,基于所述姿态分类结果与所述跟踪结果,判断是否生成垂钓报警信息,所述垂钓报警信息用于表示所述目标场景中发生垂钓事件。
12.一种计算机可读存储介质,用于存储计算机程序,其特征在于,所述计算机程序在被处理器执行时,用于实现权利要求1-9中任一项所述的钓鱼检测方法。
CN202210628686.3A 2022-05-31 2022-05-31 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质 Pending CN115205581A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210628686.3A CN115205581A (zh) 2022-05-31 2022-05-31 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210628686.3A CN115205581A (zh) 2022-05-31 2022-05-31 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN115205581A true CN115205581A (zh) 2022-10-18

Family

ID=83576774

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210628686.3A Pending CN115205581A (zh) 2022-05-31 2022-05-31 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN115205581A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115497030A (zh) * 2022-10-27 2022-12-20 中国水利水电科学研究院 一种基于深度学习的钓鱼行为识别方法
CN116563949A (zh) * 2023-07-05 2023-08-08 四川弘和数智集团有限公司 一种行为识别方法、装置、设备及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115497030A (zh) * 2022-10-27 2022-12-20 中国水利水电科学研究院 一种基于深度学习的钓鱼行为识别方法
CN116563949A (zh) * 2023-07-05 2023-08-08 四川弘和数智集团有限公司 一种行为识别方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
TWI749113B (zh) 在視訊監控系統中產生警示之方法、系統及電腦程式產品
CN101577812B (zh) 一种岗位监测的方法和系统
CN103824070B (zh) 一种基于计算机视觉的快速行人检测方法
CN115205581A (zh) 一种钓鱼检测方法、钓鱼检测设备和计算机可读存储介质
CN109309808A (zh) 一种基于人脸识别的监控系统及方法
CN114842397B (zh) 一种基于异常检测的实时老人跌倒检测方法
CN109298785A (zh) 一种监测设备的人机联控系统及方法
Salehi et al. An automatic video-based drowning detection system for swimming pools using active contours
CN111242025A (zh) 一种基于yolo的动作实时监测方法
Stringa et al. Content-based retrieval and real time detection from video sequences acquired by surveillance systems
CN112734731A (zh) 一种牲畜温度检测方法、装置、设备和存储介质
CN113033521B (zh) 基于目标分析的周界动态预警方法与系统
CN111582060A (zh) 自动划线周界报警方法、计算机设备及存储装置
CN109255360B (zh) 一种目标分类方法、装置及系统
CN107330414A (zh) 暴力行为监控方法
CN114140745A (zh) 施工现场人员属性检测方法、系统、装置及介质
CN115346169B (zh) 一种睡岗行为检测方法及系统
CN116630890A (zh) 一种通过对钓鱼区域分析的钓鱼行为检测方法和系统
TW201140470A (en) System and method for monitoring objects and key persons of the objects
CN116580453A (zh) 一种基于空间和时序双通道融合模型的人体行为识别方法
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
CN104392201B (zh) 一种基于全向视觉的人体跌倒识别方法
CN112487961A (zh) 一种交通事故检测方法、存储介质及设备
CN115116136A (zh) 一种异常行为检测方法、装置、介质
Kulkarni et al. Automated System for Detection of Suspicious Activity in Examination Hall

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination