CN115345907A - 一种基于边缘计算的目标动态跟踪装置 - Google Patents
一种基于边缘计算的目标动态跟踪装置 Download PDFInfo
- Publication number
- CN115345907A CN115345907A CN202211269463.9A CN202211269463A CN115345907A CN 115345907 A CN115345907 A CN 115345907A CN 202211269463 A CN202211269463 A CN 202211269463A CN 115345907 A CN115345907 A CN 115345907A
- Authority
- CN
- China
- Prior art keywords
- edge
- main body
- determining
- monitoring
- monitoring video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及区域监测技术领域,具体公开了一种基于边缘计算的目标动态跟踪装置,所述装置包括边缘端和集成端,所述集成端用于接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;根据提取到的监控视频确定异常主体的运动轨迹。本发明提供了一种基于边缘计算的区域监测架构,与传统的云计算架构相比,极大地降低了无效数据传输量,缓解了处理中心的数据处理压力,使得在处理中心上增设识别算法更加容易,虽然采集端的成本更高,但是极大地提高反馈速度,还降低了人工寻迹工作量,降低了人力成本。
Description
技术领域
本发明涉及区域监测技术领域,具体是一种基于边缘计算的目标动态跟踪装置。
背景技术
“边缘”这一用语在物联网领域中被赋予了新的定义,特指在设备端的附近,因此,根据字面定义,边缘计算即在设备端附近产生的计算。
现有的区域智能管理系统就是物联网应用技术的一个分支,现有的区域一般都会包括通行区和静止区,通行区与静止区相比,监控要求和监控难度较大,现有的监控架构大都是通过多个采集设备获取通行信息,然后由统一的云平台对这些通行信息进行处理。在这一过程中,采集设备仅采集信息,数据处理环节由云平台完成,采集设备需要与云平台进行实时的数据传输,当采集设备与云平台距离较远时,数据传输时长会很长,影响反馈效率,此外,当采集设备数量较多时,云平台的数据处理压力极大,很难在云平台上增设复杂的识别算法,开发性很低。
发明内容
本发明的目的在于提供一种基于边缘计算的目标动态跟踪装置,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于边缘计算的目标动态跟踪装置,所述装置包括:
边缘端,用于根据预设的采集频率定时获取通行图像;对所述通行图像进行粗识别,计算通行图像的风险率;根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;所述通行图像为电力现场作业视频图像;
集成端,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;根据提取到的监控视频确定异常主体的运动轨迹;
其中,细识别精度大于粗识别精度。
作为本发明进一步的方案:所述边缘端包括:
通行图像获取模块,用于根据预设的采集频率定时获取通行图像;
风险率计算模块,用于对所述通行图像进行粗识别,计算通行图像的风险率;
视频生成传输模块,用于根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;
其中,所述通行图像为电力现场作业视频图像。
作为本发明进一步的方案:所述集成端包括:
连接模块,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;
异常主体定位模块,用于接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;
监控视频提取模块,用于根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;
轨迹确定模块,用于根据提取到的监控视频确定异常主体的运动轨迹。
作为本发明进一步的方案:所述风险率计算模块包括:
轮廓识别单元,用于对所述通行图像进行轮廓识别,根据所述轮廓识别结果确定运动轮廓;
偏移识别单元,用于随机提取至少两张间隔时间已知的含有运动轮廓的通行图像,计算各运动轮廓的偏移像素;
参数计算单元,用于将所述偏移像素和所述间隔时间输入训练好的运动分析模型,得到各运动轮廓的运动参数;
风险率确定单元,用于根据所述运动参数确定通行图像的风险率。
作为本发明进一步的方案:所述风险率确定单元包括:
比对子单元,用于依次将所述运动参数与预设的参数阈值进行比对,根据比对结果确定待检区域;
聚集度确定子单元,用于获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度;
计算子单元,用于根据所述聚集度标记待检区域,根据标记结果计算通行图像的风险率。
作为本发明进一步的方案:所述获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度的内容包括:
将所述通行图像转换为灰度图像,计算所述灰度图像的灰度平均值;
遍历所述待检区域的像素点,判断所述待检区域像素点的灰度值与所述灰度平均值的大小,若所述待检区域像素点的灰度值大于所述灰度平均值,则置一,若所述待检区域像素点的灰度值小于所述灰度平均值,则置零,最终生成含有特征数值的单值区域;
根据预设的转换公式将所述单值区域中的数值转换为聚集度。
作为本发明进一步的方案:所述异常主体确定模块包括:
结果获取单元,用于接收边缘端上传的含有时间信息的监控视频及其识别结果;所述识别结果为边缘端对监控视频中各通行图像的轮廓识别结果和待检区域标记结果;
主体特征识别单元,用于将监控视频及其识别结果输入训练好的细识别模型,定位异常主体,并确定异常主体的空间位置和目标特征;
所述细识别模型的输入含有色值参数。
作为本发明进一步的方案:所述监控视频提取模块包括:
日常参数查询单元,用于读取异常主体的空间位置和目标特征,根据目标特征查询异常主体的日常参数;
初始圆生成单元,用于根据预设的时间间隔计算运动半径数组,以该边缘端为中心,基于所述运动半径数组生成初始圆;
交点确定单元,用于读取线路信息,计算所述初始圆与所述线路信息的交点;
迟滞距离计算单元,用于将所述空间位置和日常参数输入预设的地图服务,计算该时间间隔下异常主体与交点的迟滞距离;
交点修正单元,用于根据所述迟滞距离修正所述交点;
视频截取单元,用于基于所述等时距离环定位其他边缘端,以时间间隔为中心读取其他边缘端中对应时间段的监控视频。
作为本发明进一步的方案:所述迟滞距离计算单元包括:
近似主体选取子单元,用于读取目标特征,根据目标特征在预设的地图服务中选取近似主体;
路径查询子单元,用于读取空间位置和交点,以空间位置为起点,交点为终点输入预设的地图服务,得到通行路径及其通行时间;
修正比例计算子单元,用于将所述通行时间与所述时间间隔比对,计算修正比例;
修正执行子单元,用于根据修正比例对通行路径进行修正,得到迟滞距离。
作为本发明进一步的方案:所述轨迹确定模块包括:
主体定位单元,用于读取目标特征,根据目标特征在监控视频中定位异常主体;
空间获取单元,用于根据边缘端位置和异常主体在监控视频中的位置确定异常主体的空间位置;
位置排序单元,用于根据时间信息对空间位置进行排序,得到运动轨迹。
与现有技术相比,本发明的有益效果是:本发明提供了一种基于边缘计算的区域监测架构,与传统的云计算架构相比,极大地降低了无效数据传输量,缓解了处理中心的数据处理压力,使得在处理中心上增设识别算法更加容易,虽然采集端的成本更高,但是极大地提高反馈速度,还降低了人工寻迹工作量,降低了人力成本。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例。
图1为基于边缘计算的目标动态跟踪装置的组成结构框图。
图2为边缘端中风险率计算模块的组成结构框图。
图3为集成端中异常主体确定模块的组成结构框图。
图4为集成端中监控视频提取模块的组成结构框图。
图5为集成端中轨迹确定模块的组成结构框图。
具体实施方式
为了使本发明所要解决的技术问题、技术方案及有益效果更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例1
图1为基于边缘计算的目标动态跟踪装置的组成结构框图,本发明实施例中,一种基于边缘计算的目标动态跟踪装置,所述装置包括:
边缘端10,用于根据预设的采集频率定时获取通行图像;对所述通行图像进行粗识别,计算通行图像的风险率;根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;所述通行图像为电力现场作业视频图像;
集成端20,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;根据提取到的监控视频确定异常主体的运动轨迹;
其中,细识别精度大于粗识别精度。
边缘计算着重要解决的问题,是传统云计算(或者说是中央计算)模式下存在的高延迟、网络不稳定和低带宽问题。
云计算技术是我们更为熟悉的技术,它有着庞大的计算能力,海量存储能力,通过不同的软件工具,可以构建多种应用,我们在使用的许多APP,本质上都是依赖各种各样的云计算技术;云计算平台的中心相当于一个大脑,它与很多输入端相连,这一过程会涉及到数据传输过程,虽然现有的网张技术发展的极为成熟,但是数据传输过程依然会出现不稳定的情况;此外,数据传输过程需要消耗较长的时间,这个时间会影响数据处理速度,不利于一些需要及时反馈的场合。
举例来说,区域管理领域就是其中的一种,区域管理领域中,摄像头是采集端,数据处理端是中心,采集端采集视频,然后向数据处理端发送,数据处理端对采集到的视频进行识别,生成识别结果,由于采集端与数据处理端之间的传输过程耗时较长,识别结果的生成过程会有一点点的延迟,当采集端的数量较多时,这对整个架构的要求会很高。
边缘计算的含义就是,在云计算架构的基础上,使得数据处理端尽量的靠近待检测目标,从而生成一些更加及时的反馈,这不仅能够大幅度提高反馈速度,还可以极大地缓解数据处理端的数据处理压力,因此,脱胎于云计算的边缘计算,常用于物联网技术领域中。
请参阅图1,作为本发明技术方案的一个优选实施例,所述边缘端10包括:
通行图像获取模块11,用于根据预设的采集频率定时获取通行图像;
风险率计算模块12,用于对所述通行图像进行粗识别,计算通行图像的风险率;
视频生成传输模块13,用于根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;
其中,所述通行图像为电力现场作业视频图像。
边缘端10对应的硬件可以是安装在通行区中的图像采集设备,用于定时获取通行图像,并对通行图像进行识别,边缘端10的识别精度要求很低,重点是其识别速度,识别的目的是判断获取到的通行图像是否为明显没问题的图像,如果无法确定是否没有问题,就认为是存在风险,存在风险的程度由风险率反映。
当某个路段图像的风险率较高时,读取相邻时间段的路段图像,可以得到一个监控视频,将该监控视频向集成端20发送,进行进一步的识别。在日常生活中,不存在异常的路段图像占比极高,存在风险的路段图像很少,基于上述边缘计算架构,可以极大地降低数据处理端的数据处理量,降低运算压力。
值得一提的是,通行图像为电力现场作业视频图像这一限定的目的是,将路段限定在电力作业现场,电力作业现场的空间跨度可以很大,作业车的运动过程是本发明技术方案想要跟踪的目标。
如图1所示,作为本发明技术方案的一个优选实施例,所述集成端20包括:
连接模块21,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;
异常主体定位模块22,用于接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;
监控视频提取模块23,用于根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;
轨迹确定模块24,用于根据提取到的监控视频确定异常主体的运动轨迹。
集成端20对应传统云计算平台中的数据处理端,它不仅与边缘端10交互,还与工作人员交互;上述用户指的就是工作人员,用户输入一个监控区域,输入的方式不做限定,现有的最常见的输入方式是触屏式输入;在监控区域内可以查询到通行信息和路段上安装的摄像头,也就是边缘端10,这些信息属于已备案信息,获取过程并不困难。
接收到边缘端10上传的监控视频后,对监控视频进行更加细化、精度更高的识别,可以定位异常主体(如果有的话);由异常主体可以确定等时距离环,所述等时距离环是本发明技术方案的独创性概念,它可以类比于等高线,含义就是同一时间段内,异常主体能够到达哪些位置,连接这些位置,即可得到一个距离环;多个时间段对应的就是多个距离环,称为等时距离环。所述等时距离环的标签为时刻;
然后,在等时距离环上定位边缘端20,获取边缘端20在等时距离环的时刻附近的监控视频,对这些监控视频进行识别,可以获得异常主体在不同时刻点的位置,此时,简单的连接即可得到异常主体的运动轨迹,速度极快。
这种基于边缘计算的运动轨迹查询方式,几乎不需要人工介入,可以全由计算机设备完成,效率极高。
图2示出了边缘端10中风险率计算模块12的组成结构框图,作为本发明技术方案的一个优选实施例,所述风险率计算模块12包括:
轮廓识别单元121,用于对所述通行图像进行轮廓识别,根据所述轮廓识别结果确定运动轮廓;
偏移识别单元122,用于随机提取至少两张间隔时间已知的含有运动轮廓的通行图像,计算各运动轮廓的偏移像素;
参数计算单元123,用于将所述偏移像素和所述间隔时间输入训练好的运动分析模型,得到各运动轮廓的运动参数;
风险率确定单元124,用于根据所述运动参数确定通行图像的风险率。
风险率确定过程由边缘端10完成,首先,对通行图像进行轮廓识别,可以确定运动轮廓,由运动轮廓结合相邻通行图像的时间信息可以确定各运动轮廓的运动参数;根据运动参数可以确定通行图像的风险率。
其中,所述运动参数包括速度和加速度,它并不是越高越好或是越低越好,最好的状态是在预设的速度范围内保持稳定,稳定与否由加速度反映。
所述风险率确定单元124包括:
比对子单元,用于依次将所述运动参数与预设的参数阈值进行比对,根据比对结果确定待检区域;
聚集度确定子单元,用于获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度;
计算子单元,用于根据所述聚集度标记待检区域,根据标记结果计算通行图像的风险率。
根据运动参数可以在通行图像中确定待检区域,根据待检区域中的运动轮廓(已获取的)可以确定出一个聚集度,可以想到,在有车辆经过的某个路段上,聚集度越高,风险概率越大,比如,发生事故时,事故周围总会聚集大量的主体;根据聚集度对待检区域进行标记,根据标记的待检区域的像素点数量可以得到风险率。
进一步的,所述获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度的内容包括:
将所述通行图像转换为灰度图像,计算所述灰度图像的灰度平均值;
遍历所述待检区域的像素点,判断所述待检区域像素点的灰度值与所述灰度平均值的大小,若所述待检区域像素点的灰度值大于所述灰度平均值,则置一,若所述待检区域像素点的灰度值小于所述灰度平均值,则置零,最终生成含有特征数值的单值区域;
根据预设的转换公式将所述单值区域中的数值转换为聚集度。
聚集度的识别过程并不困难,就是对通行图像进行两次简化,然后得到一个二值数组(图像就是一个二值数组),根据预设的转换规则可以将二值数组转换为聚集度。
其中,第一次简化是将通行图像转换为灰度图像,第二次简化是将灰度图像转换为二值图像。
图3示出了集成端20中异常主体确定模块22的组成结构框图,所述异常主体确定模块22包括:
结果获取单元221,用于接收边缘端上传的含有时间信息的监控视频及其识别结果;所述识别结果为边缘端对监控视频中各通行图像的轮廓识别结果和待检区域标记结果;
主体特征识别单元222,用于将监控视频及其识别结果输入训练好的细识别模型,定位异常主体,并确定异常主体的空间位置和目标特征;
所述细识别模型的输入含有色值参数。
上述内容描述的是集成端20的数据处理过程,它的识别精度大于边缘端10的识别精度,核心原因是,集成端20在识别过程中引入色值识别过程,通俗地说,集成端20对有色彩的图像进行识别,边缘端10可以先将图像转换为灰度图像,然后进行精度较低、速度较快的识别。
细识别模型可以借鉴现有的图像识别技术,目的是确定异常主体的空间位置和目标特征,空间位置的确定过程很简单,根据异常主体在图像中的位置,结合边缘端20的位置即可确定其空间位置;至于目标特征,如果异常主体是车辆,车牌号就可以作为目标特征,这种情况最为常见;如果异常主体是人,那么人的形体特征就可以作为目标特征,这种情况较为复杂,但现有的识别技术也能够完成类似功能。
值得一提的是,在上述实施中,描述过程都是对图像进行识别,而集成端20获取到的是监控视频,这两者其实是类似的,监控视频是图像的集合,对监控视频进行识别的过程就是对多张图像进行识别的过程。
图4为集成端20中监控视频提取模块23的组成结构框图,所述监控视频提取模块23包括:
日常参数查询单元231,用于读取异常主体的空间位置和目标特征,根据目标特征查询异常主体的日常参数;
初始圆生成单元232,用于根据预设的时间间隔计算运动半径数组,以该边缘端为中心,基于所述运动半径数组生成初始圆;
交点确定单元233,用于读取线路信息,计算所述初始圆与所述线路信息的交点;
迟滞距离计算单元234,用于将所述空间位置和日常参数输入预设的地图服务,计算该时间间隔下异常主体与交点的迟滞距离;
交点修正单元235,用于根据所述迟滞距离修正所述交点;
视频截取单元236,用于基于所述等时距离环定位其他边缘端,以时间间隔为中心读取其他边缘端中对应时间段的监控视频。
上述内容对监控视频的提取过程进行了限定,首先,根据异常主体的目标特征可以查询到日常参数,所述日常参数指的是日常的运动参数;根据预设的时间间隔,可以计算该异常主体可以运动到哪些位置,这些位置相互连接,得到初始圆。
然后,获取初始圆与线路的交点,借助现有的地图服务对交点进行修正,可以计算出迟滞距离。
最后,根据迟滞距离对交点进行调整,也就是对初始圆进行调整,可以得到等时距离环,由等时距离环可以定位边缘端,并读取相应时间段的监控视频。
具体的,所述迟滞距离计算单元234包括:
近似主体选取子单元,用于读取目标特征,根据目标特征在预设的地图服务中选取近似主体;
路径查询子单元,用于读取空间位置和交点,以空间位置为起点,交点为终点输入预设的地图服务,得到通行路径及其通行时间;
修正比例计算子单元,用于将所述通行时间与所述时间间隔比对,计算修正比例;
修正执行子单元,用于根据修正比例对通行路径进行修正,得到迟滞距离。
对于上述内容,举例说明如下:
假设异常主体是一辆轿车,其位置在A地,时间间隔为5分钟、10分钟、15分钟,以此类推,查询到轿车在城市中的日常参数,假设为40千米/小时,此时,它在各个时间间隔所能达到的位置,可以用多个圆表示,这些圆称为初始圆。
进一步的,查询初始圆与各线路之间的交点,将这些交点和A地作为起终点输入高德地图或其他地图服务,可以获得通行路径及其预测时间,由于红绿灯的因素,预测时间可能是8分钟,因此,在该通行路径上,5分钟的时间显然到不了交点,因此,对交点进行等比修正即可。
所有交点修正完成后,上述初始圆就成了等时距离环;在等时距离环上定位边缘端10,获取相应时间段内的监控视频即可。
图5为集成端20中轨迹确定模块的组成结构框图,所述轨迹确定模块24包括:
主体定位单元241,用于读取目标特征,根据目标特征在监控视频中定位异常主体;
空间获取单元242,用于根据边缘端位置和异常主体在监控视频中的位置确定异常主体的空间位置;
位置排序单元243,用于根据时间信息对空间位置进行排序,得到运动轨迹。
基于异常主体的目标特征对提取到的监控视频进行识别,可以轻松的判断出异常主体在何时出现在何地,拼凑这些空间位置,按时间进行排序,即可得到一个运动轨迹。运动轨迹就是本发明技术方案的输出,至此,实现目标跟踪功能。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于边缘计算的目标动态跟踪装置,其特征在于,所述装置包括:
边缘端,用于根据预设的采集频率定时获取通行图像;对所述通行图像进行粗识别,计算通行图像的风险率;根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;所述通行图像为电力现场作业视频图像;
集成端,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;根据提取到的监控视频确定异常主体的运动轨迹;
其中,细识别精度大于粗识别精度。
2.根据权利要求1所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述边缘端包括:
通行图像获取模块,用于根据预设的采集频率定时获取通行图像;
风险率计算模块,用于对所述通行图像进行粗识别,计算通行图像的风险率;
视频生成传输模块,用于根据所述风险率提取预设时间范围内的通行图像,生成含有时间信息的监控视频,并向集成端发送;
其中,所述通行图像为电力现场作业视频图像。
3.根据权利要求1所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述集成端包括:
连接模块,用于接收用户输入的监控区域,获取监控区域中的线路信息及基于线路信息的边缘端布置信息,并建立与边缘端的通信通道;
异常主体定位模块,用于接收边缘端上传的含有时间信息的监控视频,对所述监控视频进行细识别,定位异常主体;
监控视频提取模块,用于根据异常主体确定等时距离环,基于所述等时距离环定位并提取其他边缘端的监控视频;其中,所述等时距离环为以该边缘端为中心,预设的时间间隔前,异常主体所在的位置的连接线;
轨迹确定模块,用于根据提取到的监控视频确定异常主体的运动轨迹。
4.根据权利要求2所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述风险率计算模块包括:
轮廓识别单元,用于对所述通行图像进行轮廓识别,根据所述轮廓识别结果确定运动轮廓;
偏移识别单元,用于随机提取至少两张间隔时间已知的含有运动轮廓的通行图像,计算各运动轮廓的偏移像素;
参数计算单元,用于将所述偏移像素和所述间隔时间输入训练好的运动分析模型,得到各运动轮廓的运动参数;
风险率确定单元,用于根据所述运动参数确定通行图像的风险率。
5.根据权利要求4所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述风险率确定单元包括:
比对子单元,用于依次将所述运动参数与预设的参数阈值进行比对,根据比对结果确定待检区域;
聚集度确定子单元,用于获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度;
计算子单元,用于根据所述聚集度标记待检区域,根据标记结果计算通行图像的风险率。
6.根据权利要求5所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述获取所述待检区域中运动轮廓的位置关系,根据所述位置关系确定聚集度的内容包括:
将所述通行图像转换为灰度图像,计算所述灰度图像的灰度平均值;
遍历所述待检区域的像素点,判断所述待检区域像素点的灰度值与所述灰度平均值的大小,若所述待检区域像素点的灰度值大于所述灰度平均值,则置一,若所述待检区域像素点的灰度值小于所述灰度平均值,则置零,最终生成含有特征数值的单值区域;
根据预设的转换公式将所述单值区域中的数值转换为聚集度。
7.根据权利要求5所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述异常主体确定模块包括:
结果获取单元,用于接收边缘端上传的含有时间信息的监控视频及其识别结果;所述识别结果为边缘端对监控视频中各通行图像的轮廓识别结果和待检区域标记结果;
主体特征识别单元,用于将监控视频及其识别结果输入训练好的细识别模型,定位异常主体,并确定异常主体的空间位置和目标特征;
所述细识别模型的输入含有色值参数。
8.根据权利要求3所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述监控视频提取模块包括:
日常参数查询单元,用于读取异常主体的空间位置和目标特征,根据目标特征查询异常主体的日常参数;
初始圆生成单元,用于根据预设的时间间隔计算运动半径数组,以该边缘端为中心,基于所述运动半径数组生成初始圆;
交点确定单元,用于读取线路信息,计算所述初始圆与所述线路信息的交点;
迟滞距离计算单元,用于将所述空间位置和日常参数输入预设的地图服务,计算该时间间隔下异常主体与交点的迟滞距离;
交点修正单元,用于根据所述迟滞距离修正所述交点;
视频截取单元,用于基于所述等时距离环定位其他边缘端,以时间间隔为中心读取其他边缘端中对应时间段的监控视频。
9.根据权利要求8所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述迟滞距离计算单元包括:
近似主体选取子单元,用于读取目标特征,根据目标特征在预设的地图服务中选取近似主体;
路径查询子单元,用于读取空间位置和交点,以空间位置为起点,交点为终点输入预设的地图服务,得到通行路径及其通行时间;
修正比例计算子单元,用于将所述通行时间与所述时间间隔比对,计算修正比例;
修正执行子单元,用于根据修正比例对通行路径进行修正,得到迟滞距离。
10.根据权利要求3所述的基于边缘计算的目标动态跟踪装置,其特征在于,所述轨迹确定模块包括:
主体定位单元,用于读取目标特征,根据目标特征在监控视频中定位异常主体;
空间获取单元,用于根据边缘端位置和异常主体在监控视频中的位置确定异常主体的空间位置;
位置排序单元,用于根据时间信息对空间位置进行排序,得到运动轨迹。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211269463.9A CN115345907B (zh) | 2022-10-18 | 2022-10-18 | 一种基于边缘计算的目标动态跟踪装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211269463.9A CN115345907B (zh) | 2022-10-18 | 2022-10-18 | 一种基于边缘计算的目标动态跟踪装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115345907A true CN115345907A (zh) | 2022-11-15 |
CN115345907B CN115345907B (zh) | 2022-12-30 |
Family
ID=83957319
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211269463.9A Active CN115345907B (zh) | 2022-10-18 | 2022-10-18 | 一种基于边缘计算的目标动态跟踪装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115345907B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3163498A2 (en) * | 2015-10-28 | 2017-05-03 | Xiaomi Inc. | Alarming method and device |
US20190179021A1 (en) * | 2017-12-07 | 2019-06-13 | Institute For Information Industry | Three-dimensional point cloud tracking apparatus and method using recurrent neural network |
WO2020114138A1 (zh) * | 2018-12-06 | 2020-06-11 | 西安光启未来技术研究院 | 信息的关联分析方法及装置、储存介质、电子装置 |
CN111787038A (zh) * | 2019-04-04 | 2020-10-16 | 华为技术有限公司 | 一种提供边缘服务的方法、系统及计算设备 |
US20210096911A1 (en) * | 2020-08-17 | 2021-04-01 | Essence Information Technology Co., Ltd | Fine granularity real-time supervision system based on edge computing |
CN112966608A (zh) * | 2021-03-05 | 2021-06-15 | 哈尔滨工业大学 | 一种基于边端协同的目标检测方法、系统及存储介质 |
-
2022
- 2022-10-18 CN CN202211269463.9A patent/CN115345907B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3163498A2 (en) * | 2015-10-28 | 2017-05-03 | Xiaomi Inc. | Alarming method and device |
US20190179021A1 (en) * | 2017-12-07 | 2019-06-13 | Institute For Information Industry | Three-dimensional point cloud tracking apparatus and method using recurrent neural network |
WO2020114138A1 (zh) * | 2018-12-06 | 2020-06-11 | 西安光启未来技术研究院 | 信息的关联分析方法及装置、储存介质、电子装置 |
CN111291589A (zh) * | 2018-12-06 | 2020-06-16 | 西安光启未来技术研究院 | 信息的关联分析方法及装置、储存介质、电子装置 |
CN111787038A (zh) * | 2019-04-04 | 2020-10-16 | 华为技术有限公司 | 一种提供边缘服务的方法、系统及计算设备 |
US20210096911A1 (en) * | 2020-08-17 | 2021-04-01 | Essence Information Technology Co., Ltd | Fine granularity real-time supervision system based on edge computing |
CN112966608A (zh) * | 2021-03-05 | 2021-06-15 | 哈尔滨工业大学 | 一种基于边端协同的目标检测方法、系统及存储介质 |
Non-Patent Citations (2)
Title |
---|
赵羽: "基于轻量级神经网络的智慧工地视频监控系统研究", 《中国优秀硕士学位论文全文数据库》 * |
高彦钊等: "计算体系架构研究综述与思考", 《中国科学:信息科学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN115345907B (zh) | 2022-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20210389293A1 (en) | Methods and Systems for Water Area Pollution Intelligent Monitoring and Analysis | |
CN110660222B (zh) | 一种智能环保道路黑烟车辆电子抓拍系统 | |
CN106323301A (zh) | 一种道路情报的获取方法及装置 | |
CN104778470B (zh) | 基于组件树和霍夫森林的文字检测和识别方法 | |
CN112966631A (zh) | 一种无限制安防场景下的车牌检测识别系统及其方法 | |
CN112183367B (zh) | 车辆数据检错方法、装置、服务器及存储介质 | |
CN103246896A (zh) | 一种鲁棒性车辆实时检测与跟踪方法 | |
CN113037783B (zh) | 一种异常行为检测方法及系统 | |
CN113516105B (zh) | 一种车道检测方法、装置及计算机可读存储介质 | |
CN112367274A (zh) | 一种工控未知协议流量识别方法 | |
CN116611620B (zh) | 一种智慧城市安全协同管理信息系统 | |
CN115188066A (zh) | 基于协同注意力和多尺度融合的运动目标检测系统及方法 | |
CN114550449A (zh) | 车辆轨迹补全方法、装置、计算机可读介质及电子设备 | |
CN113570862A (zh) | 一种基于XGboost算法的大型交通拥堵预警方法 | |
CN210666820U (zh) | 一种基于dsp边缘计算的行人异常行为检测系统 | |
CN115345907B (zh) | 一种基于边缘计算的目标动态跟踪装置 | |
CN110049447B (zh) | 一种基于位置信息的伙伴关系分析方法 | |
CN114724378B (zh) | 一种基于深度学习的车辆追踪统计系统及方法 | |
CN112417960A (zh) | 一种基于大数据的城市车流预警检测方法和系统 | |
CN116702038A (zh) | 基于云边协同的能源站高频数据采集和异常状态识别方法 | |
CN113643544B (zh) | 一种基于物联网的停车场内违规泊车智能检测方法及系统 | |
CN111832337A (zh) | 一种车牌识别方法及装置 | |
CN115147752A (zh) | 一种视频分析方法、装置及计算机设备 | |
CN113674329A (zh) | 车辆驾驶行为检测方法和系统 | |
CN112241686A (zh) | 一种基于特征向量的轨迹比对匹配方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |