CN113326771A - 一种基于深度学习的震动触发目标监测装置及方法 - Google Patents
一种基于深度学习的震动触发目标监测装置及方法 Download PDFInfo
- Publication number
- CN113326771A CN113326771A CN202110591220.6A CN202110591220A CN113326771A CN 113326771 A CN113326771 A CN 113326771A CN 202110591220 A CN202110591220 A CN 202110591220A CN 113326771 A CN113326771 A CN 113326771A
- Authority
- CN
- China
- Prior art keywords
- target
- vibration
- deep learning
- monitoring
- attribute information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Abstract
本发明涉及一种基于深度学习的震动触发目标监测装置及方法,该装置包括:震动传感模块、无线收发模块、图像采集模块和主控模块;震动传感模块用于监测运动目标入侵引起的震动,生成触发信号;无线收发模块包括震动探测单元和NB‑IoT单元,震动探测单元用于接收震动传感模块传回的触发信号;图像采集模块用于采集监测区域的图像;主控模块用于在待机状态接收采集的图像并存储,以及在接收到触发信号时,进入识别状态,基于预置的深度学习目标检测模型识别目标的属性信息,并将图像与目标的属性信息发送至远程监控中心。本发明能够长时间监测指定区域,并在出现入侵目标时快速检测目标的属性信息。
Description
技术领域
本发明涉及目标监测与图像处理技术领域,尤其涉及一种基于深度学习的震动触发目标监测装置及方法。
背景技术
我国毗邻多个国家,边境形势复杂多变,且与邻国接壤的部分地区存在地形复杂、环境恶劣、基础设施条件较差等问题,给边境安防、维稳任务带来了极大的挑战。
目前,边境安防多采用技防与人防相结合的方式,在视角良好、基础设施齐全的区域建设视频监控设备,在环境复杂、基础设施较差的区域仍需要人工巡逻,存在检测成本高、时效性差、取证不全等缺点,不易快速、准确地发现边境非法入侵行为。
发明内容
本发明提供了一种基于深度学习的震动触发目标监测装置及方法,能够实现长时间对指定的监测区域进行探测与检测,可快速、准确发现并识别非法入侵的目标,且能耗低、成本低。
第一方面,本发明提供了一种基于深度学习的震动触发目标监测装置,包括:震动传感模块、无线收发模块、图像采集模块和主控模块;其中,
所述震动传感模块包括至少一个震动传感器,各所述震动传感器布设于指定的监测区域,用于监测运动目标入侵所引起的震动,并根据震动生成触发信号,所述震动传感模块将所述触发信号发送至所述无线收发模块;
所述无线收发模块包括震动探测单元和NB-IoT单元,所述震动探测单元用于接收所述震动传感模块传回的所述触发信号,并传输至所述主控模块;
所述图像采集模块用于采集监测区域的图像,并传输至所述主控模块;
所述主控模块包括待机状态和识别状态两种工作模式,所述主控模块用于在待机状态接收采集的图像并存储,以及,在接收到所述触发信号时,进入识别状态,基于预置的深度学习目标检测模型,识别采集的图像中目标的属性信息,并通过所述NB-IoT单元将图像与目标的属性信息发送至远程监控中心。
可选地,所述无线收发模块还包括北斗定位单元,所述北斗定位单元用于接收北斗系统的定位信号,实现对所述装置的定位,并发送所述装置的位置信息至所述主控模块;
所述主控模块还用于在待机状态中接收所述装置的位置信息并存储,以及,在识别状态中,识别到目标的属性信息后,对目标进行定位,并将所述装置的位置信息与目标的位置信息发送至远程监控中心。
可选地,所述主控模块还用于在识别到目标的属性信息后,判断是否对目标进行跟踪;
若进行跟踪,则所述主控模块持续保持识别状态,直至目标离开监测区域。
可选地,所述图像采集模块包括可见光摄像机和红外热成像仪,所述可见光摄像机用于在昼间采集监测区域的图像,所述红外热成像仪用于在夜间采集监测区域的图像。
可选地,所述震动传感模块包括无线单元以及独立的电源。
可选地,所述深度学习目标检测模型采用YOLOv4网络。
可选地,所述深度学习目标检测模型基于YOLOv4网络改进,包括主干网络、颈部网络和头部网络;
基于YOLOv4网络改进包括:在颈部网络中将PANet网络的尺寸为76×76的特征图进行卷积和上采样处理,得到尺寸为152×152的特征图;
将得到的尺寸为152×152的特征图与CSPDarknet主干网络的尺寸为152×152的输出层进行张量拼接;
对拼接后特征图进行5次卷积,输出到头部网络进行处理输出。
第二方面,本发明提供了一种基于深度学习的震动触发目标监测方法,采用如上述任一项所述的基于深度学习的震动触发目标监测装置实现,包括:
初始化所述装置;
实时采集监测区域的图像并存储;
监测运动目标入侵所引起的震动,并根据震动生成触发信号;
在接收到所述触发信号时,基于预置的深度学习目标检测模型,识别图像中的目标的属性信息,并将目标的属性信息与图像发送至远程监控中心。
可选地,震动触发目标监测方法还包括:
在识别到目标的属性信息后,对目标进行定位,并将所述装置的位置信息与目标的位置信息发送至远程监控中心。
可选地,震动触发目标监测方法还包括:
在识别到目标的属性信息后,判断是否对目标进行跟踪;
若进行跟踪,则持续识别图像中的目标的属性信息,并将相应的图像与目标的属性信息、位置信息发送至远程监控中心,直至目标离开监测区域。
本发明的上述技术方案具有如下优点:本发明提供了一种基于深度学习的震动触发目标监测装置及方法,本发明通过震动探测触发目标检测,检测入侵的目标的属性信息,震动探测具有隐蔽性强、干扰少、能耗低的优势,当监测区域无目标时,仅采集监测区域的图像而不进行目标检测,降低监测的功耗与成本,以便长时间工作,当目标进入指定的监测区域活动时,产生震动信号,则立即触发对监测区域图像的目标检测,从而及时确定入侵的目标的“身份”,可应用在边境地区,解决该地区人员、车辆、动物等目标非法入侵行为发现难、取证难的问题。
附图说明
图1是本发明实施例中一种基于深度学习的震动触发目标监测装置组成示意图;
图2是本发明实施例中一种基于深度学习的震动触发目标监测装置结构示意图;
图3是本发明实施例中一种基于深度学习的震动触发目标监测装置的工作流程图;
图4是本发明实施例中一种基于深度学习的震动触发目标监测方法步骤示意图;
图5是本发明实施例中另一种基于深度学习的震动触发目标监测方法步骤示意图。
图中:1:红外热成像仪;2:可见光摄像机;3:光学伪装外壳;4:NB-IoT单元;5:震动探测单元;6:北斗定位单元;7:主控板;8:蓄电池。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1至图3所示,本发明实施例提供的一种基于深度学习的震动触发目标监测装置(简称该装置),包括震动传感模块、无线收发模块、图像采集模块和主控模块。具体地,其中:
震动传感模块包括至少一个震动传感器,各震动传感器布设于指定的监测区域,用于监测运动目标入侵所引起的震动,并根据震动生成触发信号,震动传感模块将触发信号发送至无线收发模块。
无线收发模块包括震动探测单元5和NB-IoT单元4,震动探测单元5用于接收震动传感模块传回的触发信号,并将触发信号传输至主控模块。
图像采集模块用于采集监测区域的图像,并将采集的图像传输至主控模块。
主控模块包括待机状态和识别状态两种工作模式,主控模块用于在待机状态接收采集的图像并存储,考虑到存储空间,存储的图像可根据需要定期覆盖;以及,主控模块用于在接收到震动引起的触发信号时,进入识别状态,识别状态下主控模块基于预置的深度学习目标检测模型,识别采集的图像中目标的属性信息,并通过NB-IoT单元4将传回的图像与目标的属性信息发送至远程监控中心。
本发明中,主控模块协同控制各模块工作,处理各类传感数据并实现目标检测功能。主控模块可设置在主控板7,主控板7可采用低功耗AI智能芯片,耐低温能力强。使用时,本发明提供的该装置在未发现目标入侵指定的监测区域时,只拍摄图像,并不进行分析与目标识别,可降低整机的运行功耗,提高该装置的工作时长;当探测到目标入侵时的震动,则该装置立即启动目标检测功能,基于深度学习目标检测模型分析识别传回的图像中入侵目标的属性信息。本发明基于深度学习目标检测模型分析目标属性,在检测准确率和效率方面具有优势,且结合了震动传感灵敏度高、功耗低、检测范围大且隐蔽性强,以及光学传感能够真实成像的优势,能够可靠地自动化捕获入侵的目标信息。
可选地,无线收发模块还包括北斗定位单元6,北斗定位单元6用于接收北斗系统的定位信号,实现对该装置的定位,并发送该装置的位置信息至主控模块。进一步地,主控模块还用于在待机状态中接收该装置的位置信息并存储;以及,主控模块还用于在识别状态中,识别到目标的属性信息后,对目标进行定位,并将装置的位置信息与目标的位置信息发送至远程监控中心。
通过北斗定位单元6,本发明提供的该装置能够实现精准定位,在获取装置自身位置的基础上,结合该装置与指定的监测区域的相对位置关系,能够进一步确定监测区域及其内部入侵的目标的位置信息,实现对入侵的目标精确定位。
可选地,主控模块还用于在识别到目标的属性信息后,判断是否对目标进行跟踪;例如,主控模块可根据目标的类别进行判断,对部分指定类别的目标进行跟踪,或者可预置黑名单,判断时将识别出的目标的属性信息与黑名单比对,当目标的属性信息符合黑名单记录,则进行跟踪。若判断进行跟踪,则主控模块持续保持识别状态,执行目标检测功能,识别采集的图像中目标的属性信息,并将相应的图像与目标的属性信息、位置信息发送至远程监控中心,直至目标离开监测区域。目标离开监测区域后,或判断不进行跟踪,主控模块回到待机状态,不再执行目标检测功能,降低功耗。进行跟踪时,主控模块存储的相应图像(及短视频)与目标的属性信息、目标的位置信息优选长期存留,直至工作人员定期检修时手动删除。
通过跟踪并存储记录数据,主控模块能够长时间完整保留入侵的目标的相关信息,便于追踪目标、调用记录,以及分析目标的行为模式。进一步地,主控模块还可用于根据存储的数据,分析入侵的目标的行为模式、出现频率等,并生成相应的白名单或黑名单记录。
可选地,图像采集模块包括可见光摄像机2和红外热成像仪1,可见光摄像机2用于在昼间采集监测区域的图像,红外热成像仪1用于在夜间采集监测区域的图像。该装置白天关闭红外热成像仪1,仅采集可见光信息,晚上关闭可见光摄像机2,仅采集热辐射信息,进一步降低整体的功耗,延长工作时长,在准确获取目标信息的基础上,减少对监测区域环境的干扰,使得该装置更具隐蔽性。
可选地,如图1所示,震动传感模块包括震动传感器,还包括无线单元以及独立的电源。震动传感器用于监测运动目标入侵所引起的震动,并根据震动生成触发信号,震动传感器可以埋入地下工作,能够分辨目标入侵活动时产生的震动信号,且具有隐蔽性,不会干扰监测区域环境。无线单元能够将信号发送至无线收发模块,完成信息传输。而独立的电源能够为震动传感模块长时间工作提供能源。
可选地,该装置可采用蓄电池8为无线收发模块、图像采集模块和主控模块供电。震动传感模块与其他模块分离设置,蓄电池8与震动传感模块中的电源互不干扰,以提高该装置的稳定性、可靠性。
可选地,主控模块包括多个CPU,待机状态下只一个CPU工作,识别状态下多个CPU同时工作。无入侵的目标时,该装置不执行目标检测功能,仅保留单CPU运行,降低功耗。一旦该装置接收到震动传感器生成的触发信号后,马上启动所有CPU运行,开启装置所有功能(包括目标检测功能),以便及时、有效地捕捉到入侵的目标的信息。
在一些实施方式中,如图1所示,主控模块包括CPU单元、外围接口单元、图像接口单元、图像处理单元、神经网络单元和存储单元;其中,CPU单元包括多个CPU,待机状态下只一个CPU工作,识别状态下多个CPU同时工作;外围接口单元用于实现与无线收发模块交换数据;图像接口单元用于实现与图像采集模块交换数据;图像处理单元用于对采集的图像进行降噪预处理、视频编码压缩等图像处理;神经网络单元用于通过神经网络加速引擎运行训练好的深度学习目标检测模型,能够有效提高目标检测准确率和效率;存储单元用于存储图像(及短视频)与目标的属性信息、目标的位置信息等记录数据,其中,待机状态下存储的数据可定期覆盖,进行跟踪时得到的记录优选长时间保留至工作人员删除。
可选地,该装置还设有光学伪装外壳3,光学伪装外壳3涂覆有防多波段侦察的光学伪装涂料,进一步地,光学伪装涂料由丙烯酸树脂、伪装颜料、体质颜料助剂、混合溶剂和脂肪族聚氨酯双组份化学反应固化而成,光学伪装与防护性能优异,保光保色性好,能够满足在可见光波段(400nm~700nm)的目视与摄像侦察,以及在近红外波段(750nm~1100nm)摄像和夜视仪探测情形下的伪装要求,具备在不同背景下防御多波段侦察探测性能,大大提高该装置的隐蔽性、伪装性。
可选地,本发明中,预置的深度学习目标检测模型可以采用现有技术中的YOLOv4网络实现,并通过真实场景数据进行训练。利用预先采集的真实数据,如边境场景下的人、车、动物等目标图像数据集,对基于YOLOv4网络实现的深度学习目标检测模型进行训练,获取更适合实际监测场景的网络参数。
进一步地,考虑到边境环境复杂,地形多变,且通常目标较小,本发明还可采用改进的YOLOv4网络,即,本发明的深度学习目标检测模型基于现有的YOLOv4网络进行改进,在YOLOv4网络的基础上增加一层特征尺度,以提升对小目标的检测精度。具体地,深度学习目标检测模型包括主干网络(Backbone)、颈部网络(neck)和头部网络(Head);
基于YOLOv4网络改进包括:在深度学习目标检测模型的颈部网络中,将PANet网络的、尺寸为76×76的特征图进行卷积和上采样处理,得到尺寸为152×152的特征图;
将得到的尺寸为152×152的特征图与CSPDarknet主干网络的、尺寸为152×152的输出层进行张量拼接;
对拼接后的特征图进行5次卷积,输出到头部网络模块进行处理输出。
深度学习目标检测模型的具体网络结构及训练方式可参考现有技术中的YOLOv4网络,在此不再进一步赘述。
进一步地,考虑到现有技术中YOLOv4网络的先验框(anchors)大小是根据开源数据集制作的,而本发明中深度学习目标检测模型应用于边境地区实际监测场景,存在较多远景小目标,因此,为降低模型的损失值,提高模型在实际场景中的检测精度,本发明中深度学习目标检测模型的先验框的数目与特征尺度的层数相对应,尺寸利用k-means聚类方法对数据集进行统计确定,即,本发明利用k-means聚类方法对用于训练模型的真实数据进行统计,重新设置先验框,以适应边境无人监控场景,由于增加了一层特征层的处理,先验框相应的也需要增加一组。
如图4所示,本发明还提供了一种基于深度学习的震动触发目标监测方法,采用如上述任一项实施方式所述的基于深度学习的震动触发目标监测装置实现,包括:
步骤401、初始化该装置;
步骤402、通过图像采集模块,实时采集指定的监测区域的图像,并存储,存储时可选存储在主控模块中的存储单元内,存储的图像可定期覆盖、更新;
步骤403、通过震动传感模块监测运动目标入侵所引起的震动,并根据震动生成触发信号,通过无线收发模块传输至主控模块;
步骤404、主控模块在接收到震动引起的触发信号时,基于预置的深度学习目标检测模型,识别监测区域的图像中目标的属性信息,并通过无线收发模块将目标的属性信息与图像发送至远程监控中心。
可选地,该震动触发目标监测方法还包括:
在识别到目标的属性信息后,对目标进行定位,并将目标的位置信息与该装置的位置信息发送至远程监控中心。
可选地,该震动触发目标监测方法还包括:
在识别到目标的属性信息后,判断是否对目标进行跟踪;
若进行跟踪,则持续识别图像中的目标的属性信息,并将相应的图像与目标的属性信息、位置信息发送至远程监控中心,直至目标离开监测区域。目标离开监测区域后,或判断不进行跟踪,主控模块回到待机状态,不再执行目标检测功能,降低功耗。
在一个可选的实施方式中,如图5所示,本发明还提供了一种基于深度学习的震动触发目标监测方法,采用如上述实施方式所述的基于深度学习的震动触发目标监测装置实现,其中无线收发模块包括北斗定位单元,该震动触发目标监测方法具体包括:
步骤501、初始化该装置;
步骤502、通过图像采集模块实时采集指定的监测区域的图像,通过北斗定位单元6获取该装置的位置信息,并存储采集的图像、该装置的位置信息;
步骤503、通过震动传感模块监测运动目标入侵所引起的震动,并根据震动生成触发信号,通过无线收发模块传输至主控模块;
步骤504、主控模块在接收到震动引起的触发信号时,基于预置的深度学习目标检测模型,识别图像中的目标的属性信息,对目标进行定位,并通过无线收发模块将目标的属性信息、位置信息、装置的位置信息与图像发送至远程监控中心;
步骤505、在识别到目标的属性信息后,判断是否对目标进行跟踪;若进行跟踪,则持续识别图像中的目标的属性信息,并将相应的图像与目标的属性信息、位置信息发送至远程监控中心,直至目标离开监测区域,返回步骤502。
可选地,步骤502通过图像采集模块,实时采集指定的监测区域的图像时,在昼间利用可见光摄像机2采集监测区域的图像,在夜间利用红外热成像仪1采集监测区域的图像。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于深度学习的震动触发目标监测装置,其特征在于,包括:震动传感模块、无线收发模块、图像采集模块和主控模块;其中,
所述震动传感模块包括至少一个震动传感器,各所述震动传感器布设于指定的监测区域,用于监测运动目标入侵所引起的震动,并根据震动生成触发信号,所述震动传感模块将所述触发信号发送至所述无线收发模块;
所述无线收发模块包括震动探测单元和NB-IoT单元,所述震动探测单元用于接收所述震动传感模块传回的所述触发信号,并传输至所述主控模块;
所述图像采集模块用于采集监测区域的图像,并传输至所述主控模块;
所述主控模块包括待机状态和识别状态两种工作模式,所述主控模块用于在待机状态接收采集的图像并存储,以及,在接收到所述触发信号时,进入识别状态,基于预置的深度学习目标检测模型,识别采集的图像中目标的属性信息,并通过所述NB-IoT单元将图像与目标的属性信息发送至远程监控中心。
2.根据权利要求1所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述无线收发模块还包括北斗定位单元,所述北斗定位单元用于接收北斗系统的定位信号,实现对所述装置的定位,并发送所述装置的位置信息至所述主控模块;
所述主控模块还用于在待机状态中接收所述装置的位置信息并存储,以及,在识别状态中,识别到目标的属性信息后,对目标进行定位,并将所述装置的位置信息与目标的位置信息发送至远程监控中心。
3.根据权利要求2所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述主控模块还用于在识别到目标的属性信息后,判断是否对目标进行跟踪;
若进行跟踪,则所述主控模块持续保持识别状态,直至目标离开监测区域。
4.根据权利要求1所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述图像采集模块包括可见光摄像机和红外热成像仪,所述可见光摄像机用于在昼间采集监测区域的图像,所述红外热成像仪用于在夜间采集监测区域的图像。
5.根据权利要求1所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述震动传感模块包括无线单元以及独立的电源。
6.根据权利要求1所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述深度学习目标检测模型采用YOLOv4网络。
7.根据权利要求1所述的基于深度学习的震动触发目标监测装置,其特征在于:
所述深度学习目标检测模型基于YOLOv4网络改进,包括主干网络、颈部网络和头部网络;
基于YOLOv4网络改进包括:在颈部网络中将PANet网络的尺寸为76×76的特征图进行卷积和上采样处理,得到尺寸为152×152的特征图;
将得到的尺寸为152×152的特征图与CSPDarknet主干网络的尺寸为152×152的输出层进行张量拼接;
对拼接后特征图进行5次卷积,输出到头部网络进行处理输出。
8.一种基于深度学习的震动触发目标监测方法,其特征在于,采用如权利要求1-7任一项所述的基于深度学习的震动触发目标监测装置实现,包括:
初始化所述装置;
实时采集监测区域的图像并存储;
监测运动目标入侵所引起的震动,并根据震动生成触发信号;
在接收到所述触发信号时,基于预置的深度学习目标检测模型,识别图像中的目标的属性信息,并将目标的属性信息与图像发送至远程监控中心。
9.根据权利要求8所述的基于深度学习的震动触发目标监测方法,其特征在于,还包括:
在识别到目标的属性信息后,对目标进行定位,并将所述装置的位置信息与目标的位置信息发送至远程监控中心。
10.根据权利要求9所述的基于深度学习的震动触发目标监测方法,其特征在于,还包括:
在识别到目标的属性信息后,判断是否对目标进行跟踪;
若进行跟踪,则持续识别图像中的目标的属性信息,并将相应的图像与目标的属性信息、位置信息发送至远程监控中心,直至目标离开监测区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110591220.6A CN113326771A (zh) | 2021-05-28 | 2021-05-28 | 一种基于深度学习的震动触发目标监测装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110591220.6A CN113326771A (zh) | 2021-05-28 | 2021-05-28 | 一种基于深度学习的震动触发目标监测装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113326771A true CN113326771A (zh) | 2021-08-31 |
Family
ID=77422172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110591220.6A Pending CN113326771A (zh) | 2021-05-28 | 2021-05-28 | 一种基于深度学习的震动触发目标监测装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113326771A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104244180A (zh) * | 2014-09-11 | 2014-12-24 | 长安大学 | 一种基于无线传感网络的目标入侵监测系统 |
CN108490813A (zh) * | 2018-04-24 | 2018-09-04 | 安徽师范大学 | 一种家庭安防系统 |
CN110490146A (zh) * | 2019-08-22 | 2019-11-22 | 北博(厦门)智能科技有限公司 | 基于深度学习的人工智能周界安防方法及服务端 |
CN111709489A (zh) * | 2020-06-24 | 2020-09-25 | 广西师范大学 | 一种基于改进YOLOv4的柑橘识别方法 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN112215208A (zh) * | 2020-11-10 | 2021-01-12 | 中国人民解放军战略支援部队信息工程大学 | 基于改进YOLOv4的遥感影像桥梁目标检测算法 |
-
2021
- 2021-05-28 CN CN202110591220.6A patent/CN113326771A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104244180A (zh) * | 2014-09-11 | 2014-12-24 | 长安大学 | 一种基于无线传感网络的目标入侵监测系统 |
CN108490813A (zh) * | 2018-04-24 | 2018-09-04 | 安徽师范大学 | 一种家庭安防系统 |
CN110490146A (zh) * | 2019-08-22 | 2019-11-22 | 北博(厦门)智能科技有限公司 | 基于深度学习的人工智能周界安防方法及服务端 |
CN111709489A (zh) * | 2020-06-24 | 2020-09-25 | 广西师范大学 | 一种基于改进YOLOv4的柑橘识别方法 |
CN112084866A (zh) * | 2020-08-07 | 2020-12-15 | 浙江工业大学 | 一种基于改进YOLO v4算法的目标检测方法 |
CN112215208A (zh) * | 2020-11-10 | 2021-01-12 | 中国人民解放军战略支援部队信息工程大学 | 基于改进YOLOv4的遥感影像桥梁目标检测算法 |
Non-Patent Citations (1)
Title |
---|
杨静等: ""施工作业面安全帽的深度学习检测方法"", 《计算机应用》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108802758B (zh) | 一种基于激光雷达的智能安防监控装置、方法和系统 | |
CN106878666A (zh) | 基于监控摄像机来查找目标对象的方法、装置和系统 | |
CN112068111A (zh) | 一种基于多传感器信息融合的无人机目标侦测方法 | |
CN110244314B (zh) | 一种“低慢小”目标探测识别系统与方法 | |
CN106335646A (zh) | 一种干扰式反无人机系统 | |
CN105759834A (zh) | 一种主动捕获低空小型无人飞行器的系统及方法 | |
CN106657921A (zh) | 一种便携式雷达周界安防系统 | |
CN111679695B (zh) | 一种基于深度学习技术的无人机巡航及追踪系统和方法 | |
CN106709498A (zh) | 一种无人机拦截系统 | |
CN105989612A (zh) | 用于干扰无人机的隐私保护装置 | |
CN103400463B (zh) | 一种基于二维图像的林火定位方法和装置 | |
CN102117484B (zh) | 使用图像色彩信息的处理系统、处理方法与图像分类方法 | |
CN110619276A (zh) | 基于无人机移动监控的异常及暴力检测系统和方法 | |
CN113741532A (zh) | 一种反无人机目标跟踪反制系统 | |
CN108733073A (zh) | 一种区域内无人机管控系统、方法及可读介质 | |
CN112485781B (zh) | 一种基于深度学习的反无人机无人值守系统及方法 | |
CN113269091A (zh) | 一种面向智慧园区的人员轨迹分析方法、设备及介质 | |
CN108802742A (zh) | 异常物体监测方法、装置及系统 | |
CN101833117A (zh) | 智能车辆安全视觉检测装置及运动目标跟踪方法 | |
CN201726494U (zh) | 利用图像色彩信息执行图像比对的装置与系统 | |
CN208768193U (zh) | 近空智能监控系统 | |
CN114401354A (zh) | 一种面向海上船舶的超视距监控的智能化控制方法及系统 | |
CN109708659B (zh) | 一种分布式智能光电低空防护系统 | |
CN113326771A (zh) | 一种基于深度学习的震动触发目标监测装置及方法 | |
CN111612815A (zh) | 一种红外热成像行为意图分析方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |