CN114463687A - 一种基于大数据的移动轨迹预测方法 - Google Patents
一种基于大数据的移动轨迹预测方法 Download PDFInfo
- Publication number
- CN114463687A CN114463687A CN202210376455.8A CN202210376455A CN114463687A CN 114463687 A CN114463687 A CN 114463687A CN 202210376455 A CN202210376455 A CN 202210376455A CN 114463687 A CN114463687 A CN 114463687A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- video frame
- frame image
- observation point
- neighbor node
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种基于大数据的移动轨迹预测方法,该方法适用于对行人是否将进入警戒区域进行预测,移动轨迹预测方法包括:步骤1,基于超图神经网络,对获取到的视频帧图像中的行人进行目标识别;步骤2,当判定识别出的行人由图像采集区域进入预警区域内时,根据视频帧图像中行人的移动速度和移动方向,对行人的移动轨迹进行预测,其中,警戒区域的外侧依次被划分为预警区域和图像采集区域;步骤3,当判定预测出的行人的移动轨迹进入警戒区域时,生成并发送安全警示信息。通过本申请中的技术方案,对行人的移动轨迹进行预测,减少了智能安防监控系统对行人数据的运算量,为误入行为的判定提供依据,提高了智能安防监控系统预警的可靠性。
Description
技术领域
本申请涉及数据处理的技术领域,具体而言,涉及一种基于大数据的移动轨迹预测方法。
背景技术
在智能安防监控领域中,通常都是基于摄像头和图像识别技术,对监控区域内的行人进行监控、识别、预警等措施,以提供相应的安全服务。
而现有技术中,大多数的智能安防监控系统通常是一种被动触发式的监控系统,只有当行人进入预警区域内,才会对进入该区域的行人进行监控和识别,导致需要对预警区域内大量的行人数据进行处理,占用了大量的数据处理资源。
并且,还存在无法对误入预警区域内的行人进行识别的问题,无法对行人的蓄意行为和误入行为的判定提供依据,导致预警信息可靠性、准确性偏低。
发明内容
本申请的目的在于:通过对行人移动轨迹的预测,减少智能安防监控系统对行人数据的运算量,为误入行为的判定提供依据,提高智能安防监控系统预警信息的可靠性和准确性。
本申请的技术方案是:提供了一种基于大数据的移动轨迹预测方法,该方法适用于对行人是否将进入警戒区域进行预测,移动轨迹预测方法包括:步骤1,基于超图神经网络,对获取到的视频帧图像中的行人进行目标识别;步骤2,当判定识别出的行人由图像采集区域进入预警区域内时,根据视频帧图像中行人的移动速度和移动方向,对行人的移动轨迹进行预测,其中,警戒区域的外侧依次被划分为预警区域和图像采集区域;步骤3,当判定预测出的行人的移动轨迹进入警戒区域时,生成并发送安全警示信息。
上述任一项技术方案中,进一步地,步骤1之前,移动轨迹预测方法还包括:构建超图神经网络,其中,超图神经网络的构建方法包括:步骤11,获取各个样本视频帧图像中行人的观测点,其中,观测点为行人在样本视频帧图像中对应标注框的中心点;步骤12,采用遍历的方式,根据观测点的编号,按照样本视频帧图像的帧顺序,依次确认各个观测点的邻居节点集合;步骤13,计算各个观测点与邻居节点集合中各邻居节点之间的邻接权重;步骤14,根据各个观测点的邻接权重和邻居节点集合,构建超图神经网络。
上述任一项技术方案中,进一步地,步骤12具体包括:对于第i个观测点,按照样本视频帧图像的帧顺序,依次提取除当前帧外其余样本视频帧图像中,与第i个观测点编号相同的观测点,组成第一集合;提取前一帧样本视频帧图像中与第i个观测点的空间几何距离小于距离阈值的观测点,记作第二集合;在当前帧样本视频帧图像中,依次判断第二集合中各观测点与第i个观测点的空间几何距离是否小于距离阈值,且偏移角度差值是否小于角度阈值,若是,将相应的观测点增加至第一集合,若否,将相应的观测点从第二集合中删除,直至第二集合为空,其中,偏移角度差值为两个观测点偏移角度的差值;将增加观测点后的第一集合,记作第i个观测点的邻居节点集合。
上述任一项技术方案中,进一步地,步骤13中邻接权重的计算公式为:
式中,为第i个观测点与第j个邻居节点之间的邻接权重,j=1,2,…,m,为第i个观测点与第j个邻居节点之间归一化后的欧氏距离,为第i个观测点与第j个邻居节点之间的权重参数,为第一随机参数,为第二随机参数,为第i个观测点与第n个邻居节点之间的欧氏距离。
上述任一项技术方案中,进一步地,步骤1中还包括:对视频帧图像进行亮度补偿,其中,亮度补偿的方法具体包括:步骤101,对获取到的视频帧图像进行灰度值处理,并将各帧图像灰度均值记作灰度分量;步骤102,分别计算各帧视频帧图像中水平方向亮度梯度和竖直方向亮度梯度;步骤103 ,根据灰度分量、水平方向亮度梯度和竖直方向亮度梯度,对当前帧视频帧图像中像素的亮度进行补偿。
上述任一项技术方案中,进一步地,步骤103中,对当前帧视频帧图像中像素的亮度进行补偿的计算公式为:
式中,为补偿后像素点b的亮度,b=1,2,…,B,B为像素点总数,为当前帧视频帧图像的灰度分量,为补偿前像素点b的亮度值,为当前帧视频帧图像的水平方向亮度梯度,为当前帧视频帧图像的竖直方向亮度梯度,为当前帧视频帧图像的曝光强度值,为预设曝光强度均值。
本申请的有益效果是:
本申请中的技术方案,将视频帧图像中的行人作为观测点,利用编号相同的观测点以及上一帧中与观测点存在交互情形的观测点,组成邻居节点集合,并结合计算出的邻接权重,构建超图神经网络,以便对视频帧图像中存在交互的多名行人进行识别,使得该超图神经网络在行人目标识别过程中具有普适性,提高了行人目标识别及轨迹预测的准确性,特别是存在交互情形(如遮挡、跟随)的行人的移动轨迹预测的准确性,使得智能安防监控系统仅需对预测出移动轨迹符合条件的行人进行监控,减少了数据处理资源的占用,并为行人行为模式(蓄意、误入)的判定提供依据,有助于提高智能安防监控系统预警信息的可靠性和准确性。
在本申请的优选实现方式中,将灰度分量和亮度梯度作为亮度补偿的依据,对用于行人移动轨迹预测的视频帧图像进行亮度补偿,以提高当前帧视频图像中行人目标的图像特征,克服复杂光照的影响,与构建出的超图神经网络相结合,准确识别视频帧图像中的行人目标,提高行人移动轨迹预测数据依据的可靠性,进而提高了轨迹预测的准确性。
附图说明
本申请的上述和/或附加方面的优点在结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是根据本申请的一个实施例的基于大数据的移动轨迹预测方法的示意流程图;
图2是根据本申请的一个实施例的一种行人移动轨迹的示意图;
图3是根据本申请的一个实施例的另一种行人移动轨迹的示意图。
具体实施方式
为了能够更清楚地理解本申请的上述目的、特征和优点,下面结合附图和具体实施方式对本申请进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互结合。
在下面的描述中,阐述了很多具体细节以便于充分理解本申请,但是,本申请还可以采用其他不同于在此描述的其他方式来实施,因此,本申请的保护范围并不受下面公开的具体实施例的限制。
如图1所示,本实施例提供了一种基于大数据的移动轨迹预测方法,该方法基于大数据对搭建的超图神经网络进行训练和验证,以使得训练好的超图神经网络能够对智能监控系统中摄像头探测范围内的行人进行移动轨迹预测。该超图神经网络主要是将视频帧数据中的行人作为节点,构成超图中的节点集合,并根据视频中提取的信息,确定各节点之间的超边集合、超边权重,以便对图像采集区域内的行人进行识别。当判定图像采集区域内的行人进入预警区域时,基于该行人的速度和移动方向等信息,对行人的移动轨迹进行预测,判断行人是否将进入警戒区域,进而实现安全预警的功能。该移动轨迹预测方法包括:
步骤1,基于超图神经网络,对获取到的视频帧图像中的行人进行目标识别;
步骤2,当判定识别出的行人由图像采集区域进入预警区域内时,根据视频帧图像中行人的移动速度和移动方向,对行人的移动轨迹进行预测,其中,警戒区域的外侧依次被划分为预警区域和图像采集区域;
步骤3,当判定预测出的行人的移动轨迹进入警戒区域时,生成并发送安全警示信息。
具体的,如图2和图3所示,将智能监控系统中摄像头的探测范围依次划分为图像采集区域、预警区域和警戒区域。
通过摄像头对图像采集区域内的行人移动视频图像进行采集,并基于超图神经网络进行行人目标识别,当判定行人移动进行预警区域时,根据图像采集区域中行人的移动速度和移动方向,如图2和图3中实线部分所示,基于曲线拟合的方式,对预警区域内该行人的移动轨迹进行预测,如图2和图3中虚线部分所示。
同时,还能够根据预警区域内该行人的实际移动速度和移动方向对预测出的移动轨迹进行修正,以提高轨迹预测的实时性、准确性。
需要说明的是,本实施例对根据移动速度和移动方向进行行人移动轨迹拟合的方式并不限定。
本实施例为了提高对视频帧图像中行人目标识别的相应速率和准确性,构建了相应的超图神经网络,并基于视频帧图像中多名行人可能存在的交互情形(如跟随、遮挡等),在超图神经网络中构建了特殊的节点集合,并采用相应的超边权重计算方法,对超图神经网络进行了优化,使得该超图神经网络在行人目标识别过程中具有普适性,提高了行人目标识别的准确性,有助于保证轨迹预测的可靠性。
本实施例在进行行人识别的过程中,考虑了行人间的交互情形,示出了一种超图神经网络的构建方法,该方法具体包括:
步骤11,获取各个样本视频帧图像中行人的观测点,其中,观测点为行人在样本视频帧图像中对应标注框的中心点;
具体的,本实施例以摄像头所在位置为原点建立空间坐标系,设定第i位行人在第T帧样本视频帧图像中的位置坐标为,其位移向量为第T-1帧、第T帧中位置坐标的差值,偏移角度为第T-1帧与第T帧样本视频帧图像中同一个观测点的位移向量与空间坐标系之间的夹角。
步骤12,采用遍历的方式,根据观测点的编号,按照样本视频帧图像的帧顺序,依次确认各个观测点的邻居节点集合;其中,将邻居节点集合中的元素记作对应观测点的邻居节点,该步骤12具体包括:
对于第i个观测点,按照样本视频帧图像的帧顺序,依次提取除当前帧外其余样本视频帧图像中,与第i个观测点编号相同的观测点,组成第一集合;
提取前一帧样本视频帧图像中与第i个观测点的空间几何距离小于距离阈值的观测点,记作第二集合;
在当前帧样本视频帧图像中,依次判断第二集合中各观测点与第i个观测点的空间几何距离是否小于距离阈值,且偏移角度差值是否小于角度阈值,若是,将相应的观测点增加至第一集合,若否,将相应的观测点从第二集合中删除,直至第二集合为空,其中,偏移角度差值为两个观测点偏移角度的差值;
将增加观测点后的第一集合,记作第i个观测点的邻居节点集合。
具体的,本实施例中的邻居节点集合共包括两类观测点:
设定以下两个判定条件:
1、在第T-1帧样本视频帧图像中,第k个行人对应的观测点与第i个行人对应的观测点之间的空间几何距离小于距离阈值,且在第T帧样本视频帧图像中,第k个行人对应的观测点与第i个行人对应的观测点之间的空间几何距离仍小于距离阈值;
需要说明的是,上述空间几何距离为空间坐标系下两个行人之间的距离。
因此,基于上述两类观测点,构成第i个观测点的邻居节点集合,不仅对多帧连续视频帧图像中的单个行人进行识别,还引入了当前帧与前一帧视频帧图像中存在交互的同行行人的识别,进而保证了对于某个行人对应的邻居节点集合选取的可靠性,同时,还能够将此类行人对应的观测点与超图神经网络相结合,有助于提高对行人识别的响应效率,并行地对多个行人,特别是存在交互的行人,进行移动轨迹预测。
步骤13,计算各个观测点与其邻居节点集合中各邻居节点之间的邻接权重,其中,邻接权重的计算公式为:
式中,为第i个观测点与第j个邻居节点之间的邻接权重,j=1,2,…,m,为第i个观测点与第j个邻居节点之间归一化后的欧氏距离,为第i个观测点与第j个邻居节点之间的权重参数,为第一随机参数,为第二随机参数,为第i个观测点与第n个邻居节点之间的欧氏距离;
步骤14,根据各个观测点的邻接权重和邻居节点集合,构建超图神经网络。
具体的,该超图神经网络的结构可以描述为:
具体的,通过上述过程构建出的超图神经网络,不仅响应效率快,同时还考虑了行人的交互情形(如跟随、遮挡),能够并行的进行预测区域内地行人轨迹预测。
在本实施例中,智能安防监控系统仅需对进入预警区域内的行人进行轨迹预测,无需对摄像头探测范围内的全部行人进行监控,有助于减少智能安防监控系统对行人数据的运算量,降低了对运算资源的需求。同时,通过对预警区域内行人移动轨迹的预测,当判定其将会进入警戒区域时进行安全预警,生成并发送安全警示信息,不仅能够为行人误入行为的判定提供依据,还提高了智能安防监控系统生成安全警示信息的可靠性和准确性。
在本实施例的一个优选实现方式中,上述超图神经网络中还串接有图像补偿网络,通过该图像补偿网络,对获取到的视频帧图像进行图像补偿,以克服复杂光照条件下行人目标识别准确率不高的问题。
进一步的,该步骤1之前还包括:
步骤101,对获取到的视频帧图像进行灰度值处理,并将各帧图像灰度均值记作灰度分量;
具体的,因光照条件的不同,如光源复杂、深夜、阴影遮挡等,且行人的衣着材质也不相同,甚至是存在荧光材质的服装,导致摄像头获取到的视频帧图像的图像质量并不一致,因此,对获取到的视频帧图像进行灰度值处理,并将当前帧的图像灰度均值记作当前帧视频帧图像的灰度分量,以便对获取到的视频帧图像进行亮度补偿,提高行人目标识别准确率。
步骤102,分别计算各帧视频帧图像中水平方向亮度梯度和竖直方向亮度梯度;
步骤103 ,根据灰度分量、水平方向亮度梯度和竖直方向亮度梯度,对当前帧视频帧图像中像素的亮度进行补偿,其中,亮度补偿后的视频帧图像被传输至超图神经网络,亮度补偿的计算公式为:
式中,为补偿后像素点b的亮度,b=1,2,…,B,B为像素点总数,为当前帧视频帧图像的灰度分量,为补偿前像素点b的亮度值,为当前帧视频帧图像的水平方向亮度梯度,为当前帧视频帧图像的竖直方向亮度梯度,为当前帧视频帧图像的曝光强度值,为预设曝光强度均值。
具体的,通过计算当前帧视频图像样水平方向和竖直方向的像素点的亮度变化,得到相应的亮度梯度和,再结合由灰度值处理得到的当前帧视频图像的灰度分量,对当前帧视频图像中各个像素点进行亮度补偿,以提高当前帧视频图像中行人目标的图像特征,以便超图神经网络能够准确识别行人目标。
通过对本实施例中上述方法的验证,与其他行人轨迹预测中的图像识别方法相比,特别是在复杂光照条件下,能够提高行人目标识别的响应速率和识别准确率,进而提高了轨迹预测的响应效率和智能监控预警的可靠性。
需要说明的是,本实施例对生成并发送安全警示信息的具体形式并不限定,可以是声光报警;也可以是在视频监控图像上进行特殊颜色的标记,以提示安防人员。
以上结合附图详细说明了本申请的技术方案,本申请提出了一种基于大数据的移动轨迹预测方法,该方法适用于对行人是否将进入警戒区域进行预测,移动轨迹预测方法包括:步骤1,基于超图神经网络,对获取到的视频帧图像中的行人进行目标识别;步骤2,当判定识别出的行人由图像采集区域进入预警区域内时,根据视频帧图像中行人的移动速度和移动方向,对行人的移动轨迹进行预测,其中,警戒区域的外侧依次被划分为预警区域和图像采集区域;步骤3,当判定预测出的行人的移动轨迹进入警戒区域时,生成并发送安全警示信息。通过本申请中的技术方案,对行人的移动轨迹进行预测,减少了智能安防监控系统对行人数据的运算量,为误入行为的判定提供依据,提高了智能安防监控系统预警的可靠性。
本申请中的步骤可根据实际需求进行顺序调整、合并和删减。
本申请装置中的单元可根据实际需求进行合并、划分和删减。
尽管参考附图详地公开了本申请,但应理解的是,这些描述仅仅是示例性的,并非用来限制本申请的应用。本申请的保护范围由附加权利要求限定,并可包括在不脱离本申请保护范围和精神的情况下针对发明所作的各种变型、改型及等效方案。
Claims (5)
1.一种基于大数据的移动轨迹预测方法,其特征在于,该方法适用于对行人是否将进入警戒区域进行预测,所述移动轨迹预测方法包括:
步骤1,基于超图神经网络,对获取到的视频帧图像中的行人进行目标识别;
步骤2,当判定识别出的所述行人由图像采集区域进入预警区域内时,根据所述视频帧图像中所述行人的移动速度和移动方向,对所述行人的移动轨迹进行预测,其中,所述警戒区域的外侧依次被划分为所述预警区域和所述图像采集区域;
步骤3,当判定预测出的所述行人的移动轨迹进入所述警戒区域时,生成并发送安全警示信息。
2.如权利要求1所述的基于大数据的移动轨迹预测方法,其特征在于,所述步骤1之前,所述移动轨迹预测方法还包括:构建超图神经网络,其中,所述超图神经网络的构建方法包括:
步骤11,获取各个样本视频帧图像中行人的观测点,其中,观测点为行人在所述样本视频帧图像中对应标注框的中心点;
步骤12,采用遍历的方式,根据所述观测点的编号,按照所述样本视频帧图像的帧顺序,依次确认各个观测点的邻居节点集合;
步骤13,计算各个观测点与所述邻居节点集合中各邻居节点之间的邻接权重;
步骤14,根据各个观测点的所述邻接权重和所述邻居节点集合,构建所述超图神经网络。
3.如权利要求2所述的基于大数据的移动轨迹预测方法,其特征在于,所述步骤12具体包括:
对于第i个观测点,按照所述样本视频帧图像的帧顺序,依次提取除当前帧外其余样本视频帧图像中,与所述第i个观测点编号相同的观测点,组成第一集合;
提取前一帧样本视频帧图像中与所述第i个观测点的空间几何距离小于距离阈值的观测点,记作第二集合;
在当前帧样本视频帧图像中,依次判断所述第二集合中各观测点与所述第i个观测点的空间几何距离是否小于所述距离阈值,且偏移角度差值是否小于角度阈值,若是,将相应的观测点增加至所述第一集合,若否,将所述相应的观测点从所述第二集合中删除,直至第二集合为空,其中,所述偏移角度差值为两个观测点偏移角度的差值;
将增加观测点后的第一集合,记作所述第i个观测点的邻居节点集合。
5.如权利要求1所述的基于大数据的移动轨迹预测方法,其特征在于,所述步骤1中还包括:对所述视频帧图像进行亮度补偿,其中,所述亮度补偿的方法具体包括:
步骤101,对获取到的所述视频帧图像进行灰度值处理,并将各帧图像灰度均值记作灰度分量;
步骤102,分别计算各帧视频帧图像中水平方向亮度梯度和竖直方向亮度梯度;
步骤103 ,根据所述灰度分量、所述水平方向亮度梯度和所述竖直方向亮度梯度,对当前帧视频帧图像中像素的亮度进行补偿。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210376455.8A CN114463687B (zh) | 2022-04-12 | 2022-04-12 | 一种基于大数据的移动轨迹预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210376455.8A CN114463687B (zh) | 2022-04-12 | 2022-04-12 | 一种基于大数据的移动轨迹预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114463687A true CN114463687A (zh) | 2022-05-10 |
CN114463687B CN114463687B (zh) | 2022-07-08 |
Family
ID=81417263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210376455.8A Active CN114463687B (zh) | 2022-04-12 | 2022-04-12 | 一种基于大数据的移动轨迹预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463687B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200126241A1 (en) * | 2018-10-18 | 2020-04-23 | Deepnorth Inc. | Multi-Object Tracking using Online Metric Learning with Long Short-Term Memory |
CN112448962A (zh) * | 2021-01-29 | 2021-03-05 | 深圳乐播科技有限公司 | 视频抗锯齿显示方法、装置、计算机设备及可读存储介质 |
CN113139521A (zh) * | 2021-05-17 | 2021-07-20 | 中国大唐集团科学技术研究院有限公司中南电力试验研究院 | 一种用于电力监控的行人越界标监测方法 |
CN113160275A (zh) * | 2021-04-21 | 2021-07-23 | 河南大学 | 一种基于多个视频的自动目标跟踪和轨迹计算的方法 |
CN113177470A (zh) * | 2021-04-28 | 2021-07-27 | 华中科技大学 | 行人轨迹预测方法、装置、设备及存储介质 |
CN113792753A (zh) * | 2021-08-11 | 2021-12-14 | 清华大学 | 动态超图神经网络分类方法和系统 |
CN113869170A (zh) * | 2021-09-22 | 2021-12-31 | 武汉大学 | 一种基于图划分卷积神经网络的行人轨迹预测方法 |
WO2022022721A1 (zh) * | 2020-07-31 | 2022-02-03 | 商汤集团有限公司 | 轨迹预测方法、装置、设备、存储介质及程序 |
-
2022
- 2022-04-12 CN CN202210376455.8A patent/CN114463687B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200126241A1 (en) * | 2018-10-18 | 2020-04-23 | Deepnorth Inc. | Multi-Object Tracking using Online Metric Learning with Long Short-Term Memory |
WO2022022721A1 (zh) * | 2020-07-31 | 2022-02-03 | 商汤集团有限公司 | 轨迹预测方法、装置、设备、存储介质及程序 |
CN112448962A (zh) * | 2021-01-29 | 2021-03-05 | 深圳乐播科技有限公司 | 视频抗锯齿显示方法、装置、计算机设备及可读存储介质 |
CN113160275A (zh) * | 2021-04-21 | 2021-07-23 | 河南大学 | 一种基于多个视频的自动目标跟踪和轨迹计算的方法 |
CN113177470A (zh) * | 2021-04-28 | 2021-07-27 | 华中科技大学 | 行人轨迹预测方法、装置、设备及存储介质 |
CN113139521A (zh) * | 2021-05-17 | 2021-07-20 | 中国大唐集团科学技术研究院有限公司中南电力试验研究院 | 一种用于电力监控的行人越界标监测方法 |
CN113792753A (zh) * | 2021-08-11 | 2021-12-14 | 清华大学 | 动态超图神经网络分类方法和系统 |
CN113869170A (zh) * | 2021-09-22 | 2021-12-31 | 武汉大学 | 一种基于图划分卷积神经网络的行人轨迹预测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114463687B (zh) | 2022-07-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961019B (zh) | 一种时空行为检测方法 | |
CN105844234B (zh) | 一种基于头肩检测的人数统计的方法及设备 | |
US8655078B2 (en) | Situation determining apparatus, situation determining method, situation determining program, abnormality determining apparatus, abnormality determining method, abnormality determining program, and congestion estimating apparatus | |
EP1844443B1 (en) | Classifying an object in a video frame | |
US5554983A (en) | Object recognition system and abnormality detection system using image processing | |
TWI382762B (zh) | 移動物體的追蹤方法 | |
CN111564015B (zh) | 一种轨道交通周界入侵的监测方法及装置 | |
KR101877294B1 (ko) | 객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 cctv 시스템 | |
CN104966304A (zh) | 基于卡尔曼滤波与非参数背景模型的多目标检测跟踪方法 | |
CN110633643A (zh) | 一种面向智慧社区的异常行为检测方法及系统 | |
KR102391853B1 (ko) | 영상 정보 처리 시스템 및 방법 | |
CN116153086B (zh) | 基于深度学习的多路段交通事故及拥堵检测方法及系统 | |
CA3196344A1 (en) | Rail feature identification system | |
CN112132048A (zh) | 一种基于计算机视觉的社区巡更分析方法及系统 | |
CN103400120A (zh) | 基于视频分析的银行自助服务区域推入行为检测方法 | |
CN115909223A (zh) | 一种wim系统信息与监控视频数据匹配的方法和系统 | |
CN111079722A (zh) | 一种吊装过程人员安全监测方法及系统 | |
CN115035543A (zh) | 一种基于大数据的移动轨迹预测系统 | |
JP7125843B2 (ja) | 障害検知システム | |
CN114170295A (zh) | 一种基于混合视觉的高空抛物检测方法及装置 | |
US20220366570A1 (en) | Object tracking device and object tracking method | |
CN103400148A (zh) | 基于视频分析的银行自助服务区域尾随行为检测方法 | |
CN114463687B (zh) | 一种基于大数据的移动轨迹预测方法 | |
CN116311166A (zh) | 交通障碍物识别方法、装置及电子设备 | |
CN115797770A (zh) | 考虑目标相对运动的连续图像目标检测方法、系统及终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |