CN114820688B - 一种基于时空轨迹的公共空间社交距离测量和分析方法 - Google Patents

一种基于时空轨迹的公共空间社交距离测量和分析方法 Download PDF

Info

Publication number
CN114820688B
CN114820688B CN202110084581.1A CN202110084581A CN114820688B CN 114820688 B CN114820688 B CN 114820688B CN 202110084581 A CN202110084581 A CN 202110084581A CN 114820688 B CN114820688 B CN 114820688B
Authority
CN
China
Prior art keywords
distance
space
time
social
unsafe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110084581.1A
Other languages
English (en)
Other versions
CN114820688A (zh
Inventor
何小海
苏婕
卿粼波
牛通
吴小强
滕奇志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN202110084581.1A priority Critical patent/CN114820688B/zh
Publication of CN114820688A publication Critical patent/CN114820688A/zh
Application granted granted Critical
Publication of CN114820688B publication Critical patent/CN114820688B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明公开了一种基于时空轨迹的公共空间社交距离测量和分析方法。该方法基于时空轨迹,度量过程中不仅逐帧考虑了跟踪目标之间的欧式距离,而且考虑了时空轨迹之间的离散Fréchet距离,从静态和动态、局部和整体角度形成了一个综合的视觉社交距离解决方案。另外,该方法采集制作了行人数据集“SCU‑VSD”,并设计了一个多尺度的社交距离分析评估方案,从多种时间尺度,对行人社交距离和人群聚集情况进行评估分析。本发明涉及视觉社交距离技术,可应用于智能监控领域。

Description

一种基于时空轨迹的公共空间社交距离测量和分析方法
技术领域
本发明涉及视觉社交距离技术,具体涉及一种基于时空轨迹的公共空间社交距离测量与分析方法,属于计算机视觉、智能监控领域。
背景技术
自2019年12月以来,新型冠状病毒(COVID-19)在全世界范围内大爆发,对人类的生命健康造成巨大威胁,并对社会和经济造成严重影响。目前研究证据表明,新冠病毒主要经由人与人之间密切接触,通过呼吸飞沫传播。其中,无症状感染者或在症状出现前的感染者同样可能会传播病毒。对于流行疾病而言,主要的防控措施包括疫苗接种,治疗,隔离,和预防。但目前新冠病毒的疫苗尚未进入全面推广阶段,并且在全球多地已检测出具有更强传染力的新冠病毒变异毒株。在当前新冠疫情很难在短期内结束的情形下,控制和降低感染风险的有效措施之一是在公共场所与他人保持安全的社交距离。
近几年,随着数字化和智能城市建设的发展,从公共空间获取的视频数据呈爆炸性增长。与其他非视觉大数据相比,视频数据包含有关“人”的丰富的时空信息,是对非可视大数据的有力补充,具有不可替代的优势。利用视频数据研究分析人类轨迹可以更为精确地挖掘各种复杂场景中人类活动,而基于人类轨迹的分析方法在流行病学分析中也具有相当重要的意义。因此,在新冠疫情期间,利用公共场所的监控录像,根据行人的时空轨迹来测量和分析行人之间的社交距离,并根据人群聚集情况采取适当的防疫措施,这具有重要的理论意义和研究价值。
该研究课题被称为视觉社交距离(Visual Social Distance,VSD)技术,是指依靠摄像机或者其他成像传感器来分析人们的近距离行为的方法。目前的视觉社交距离技术主要是基于检测实现的,即利用视频序列,逐帧对行人进行检测和校准,并在鸟瞰图平面逐帧度量所检测行人之间的欧式距离,以此测算行人之间的社交距离。基于检测的VSD方法是从静态和局部的角度来研究视觉社交距离问题的。然而,在新冠疫情期间,应该考虑的问题是对公共场所中行人的社交距离进行持续的测量和分析,而不是只关注一个特定的时刻。因此,应从动态和时空的角度出发,在一段时间内基于行人的时空轨迹对其社交距离进行测量和分析。
发明内容
本发明为解决上述问题提供了一种基于时空轨迹的公共空间社交距离测量和分析方法,该方法不仅逐帧度量了跟踪目标轨迹采样点之间的欧式距离,而且度量了跟踪目标时空轨迹之间的离散弗雷歇(Fréchet)距离,从静态和动态、局部和整体的角度形成了一个综合VSD解决方案。另外,该方法还提供了一套多尺度社交距离分析评估方案,在多种时间尺度下对公共空间中人群聚集情况进行分析评估。
本发明通过以下技术方案来实现上述目的:
一种基于时空轨迹的公共空间社交距离测量与分析方法,包括以下步骤:
步骤一:利用基于检测的在线实时多目标跟踪(Multi-Object Tracking,MOT)算法对视频中的行人进行跟踪,获取行人的时空轨迹;
步骤二:计算视频的透视变换矩阵,将原始视频进行透视变换,校准到鸟瞰图平面下,并得到鸟瞰图中校准后的行人时空轨迹;
步骤三:在鸟瞰图中,度量校准后时空轨迹之间的距离,并以此测算真实场景中行人之间的社交距离;
步骤四:设计多尺度社交距离分析评估方案,在多种时间尺度下,对行人的社交距离和聚集情况进行分析评估。
作为步骤一中在线实时多目标跟踪算法,其说明如下:
利用检测器Faster-RCNN先对视频进行逐帧检测,再利用Deep SORT在线多目标跟踪算法对视频进行在线多目标跟踪,获得跟踪行人的时空轨迹。
作为步骤二中对原始视频进行透视变换,得到鸟瞰图视角下平面中校准后的行人时空轨迹,其说明如下:
由于监控视频是从任意角度拍摄的,因此首先需要对视频进行透视变换(Perspective Transformation),将其投影映射到鸟瞰图平面,这个过程也被称为视频的校准(Calibration)。由于校准是针对地平面进行的,因此针对每一帧图像,将行人边界矩形框(Bounding Box)底边的中心位置进行投影映射,作为在鸟瞰图中行人时空轨迹的采样点。透视变换公式如式(1)所示:
其中,(u,v)表示为原始图像每一帧中轨迹采样点的坐标,(u,v,1)为该点的齐次表达,(x,y,z)为该点经透视变换后在鸟瞰图平面对应的齐次坐标,M为透视变换矩阵。将式(1)写为多项式形式,可得式(2):
则鸟瞰图平面中每一帧校准后的轨迹采样点坐标(x′,y′)如式(3)所示:
为了进行校准,需要在真实拍摄场景的地面选择一块矩形参考区域。由于摄像机的任意拍摄角度,矩形参考区域在原始视频中显示不规则四边形。由于视频是由单个摄像机(单目摄像机)捕获的,因此校准方法是将原始视频中的不规则四边形投影映射到鸟瞰图,以重新形成与真实参考区域等比例的矩形。利用原始图像中四边形和鸟瞰图中矩形的四对对应的顶点坐标,通过式(1)可以计算出透视变换矩阵M。然后,再通过式(2)计算出每个轨迹采样点在鸟瞰图中的投影坐标。
作为步骤三中在鸟瞰图中对时空轨迹之间进行距离度量,以测算行人之间的社交距离,其说明如下:
对校准后的轨迹坐标添加时间信息t轴,并确保参数化的时间信息不会回溯。在三维时空坐标系(x′,y′,t)中表示校准后的行人时空轨迹。并采用离散Fréchet距离度量两两时空轨迹之间的距离。Fréchet距离通过考虑位置和时间顺序来度量校准后时空坐标系S中每一对时空轨迹对P′和Q′之间的距离。Fréchet距离定义如式(4)所示:
其中,d是S中某种距离度量函数,此处采用欧式距离。P′(α(t))和Q′(β(t))分别代表P′和Q′在时间t时候的空间位置。α(t)和β(t)代表连续且非减的t的参数化表示。离散Fréchet距离是连续Fréchet距离的近似。首先,将两轨迹曲线P′和Q′进行离散化,得到一系列轨迹采样点,分别表示为σ(P′)=P′(p1′,…,p′p)和σ(Q′)=Q′(q1′,…,q′q)。而P′和Q′之间的耦合L′则是由来自于σ(P′)和σ(Q′)的一系列采样点对构成,如式(5)所示:
其中,a1=1,b1=1,am=p,bm=q,并且对于i=1,…,q,有ai+1=ai或ai+1=ai+1,bi+1=bi或bi+1=bi+1。L′的距离是L′中采样点对距离的最大值,如式(6)所示:
其中,表示/>和/>之间的度量距离(欧式距离)。P′和Q′的离散Fréchet距离定义如式(7)所示:
δdF(P′,Q′)=min||L′|| (7)
然后通过将鸟瞰图中的度量距离与比例系数s相乘,便可测算出现实场景中跟踪行人之间的社交距离。一方面,从静态和局部的角度出发,利用欧式距离测量轨迹采样点对之间的距离,以得到每一时刻行人之间的社交距离,如式(8)所示:
另一方面,从动态和时空角度出发,利用离散Fréchet距离测量时空轨迹对之间的距离,以得到一段时间内行人之间的社交距离,如式(9)所示:
Dt=s·δdF(P′,Q′) (9)
作为步骤四中多尺度社交距离分析评估方案,其说明如下:
多尺度社交距离分析评估方案分别从多个时间尺度上对公共空间社交距离情况进行分析评估,该方案包括以下四个指标:
(1)非安全距离人数比均值(The Average Ratio of Pedestrians with UnsafeSocial Distancing,ARP-USD):该指标表示在一段时间内,公共空间中社交距离小于安全距离的人数与总人数比值的平均值。在视频的当前帧中,如果行人之间的社交距离Ds(如式(8)所示)小于安全距离阈值,则此时行人处于非安全距离状态。给定一个共有M帧的视频,第i帧的跟踪行人总数为Ni,第k个跟踪行人的位置点表示为则第i帧的非安全距离行人集合Ti如式(10)所示:
其中,p′i k和p′i l(k,l=1,2,…,Ni;k≠l)是和/>的映射点。d(·)是欧式距离,s是比例系数,τs是安全距离阈值,ni是集合Ti中元素的数量。如果Ni≠0,第i帧非安全距离的人数比为ni/Ni,则ARP-USD指标如式(11)所示:
其中,m(m≤M)是M帧中Ni≠0的帧数。
(2)非安全距离轨迹对数量(The Number of Trajectory Pairs with UnsafeSocial Distancing,NTP-USD):该指标用于度量视频中处于稳定态的非安全距离轨迹对数量。如果轨迹对的离散Fréchet距离Dt(如式(9)所示)小于安全距离阈值τs,则轨迹对处于非安全距离状态。假设视频中稳定态轨迹数为Ns(Ns处于不断更新),第p个稳定态轨迹表示为则非安全距离稳定态轨迹对集合Q如式(12)所示:
其中,和/>是/>和/>的映射点,δdF(·)为离散Fréchet距离,s是比例系数,τs是安全距离阈值,NQ是集合Q中元素的数量,即代表NTP-USD指标的值。
(3)持续非安全距离行人对数量(The Number of Pedestrian Pairs withContinuous Unsafe Social Distancing,NPPC-USD):该指标用于统计视频中行人社交距离小于非安全距离的累计帧数高于阈值的行人对数量。上述NTP-USD指标采用的是离散Fréchet距离,是统计一段时间内相似性高(距离小)的轨迹对。但是对于两条不相似的轨迹(例如两条迎面相向而行的轨迹),两者的Fréchet距离可能很大。若它们在中间某一时刻距离非常接近,并保持较长停留时间,这也是会增加流行病感染风险的。NTP-USD指标无法涵盖此类样本对。因此,对于一个轨迹对,如果它们处于非安全距离的轨迹采样点对的数量大于阈值τn,则将其视为“持续非安全距离行人对”。
(4)平均聚集度(The Average Gathering Degree,AGD):该指标用于度量一段时间内视频中聚集度的平均值。为了衡量公共空间中行人聚集程度,定义了聚集群组(Gathering Group)和聚集度(Gathering)的概念。同一个聚集群组中的行人,与该群组中一人或多人的社交距离小于安全距离。不同聚集群组之间的任意两人的社交距离都大于安全距离。根据聚集群组中的人数,将群组的聚集度分为六个等级:0至5。为了方便统一分级,将单独一人也看作一个聚集度为0的群组。对于视频的每一帧,其聚集度Di则是该帧中的最大的群组聚集度。一个具有M帧的视频,其AGD指标如式(13)所示:
附图说明
图1是本发明基于时空轨迹社交距离测量和分析方法示意图。
图2是本发明聚集群组和聚集度划分示意图。
图3是本发明SCU-VSD数据集的实时社交距离测量与分析示意图。
图4是本发明SCU-VSD数据集每单位时间的ARP-USD和AGD指标的彩色图。
具体实施方式
下面结合附图对本发明作进一步说明:
如图1所示,基于时空轨迹的公共空间社交距离测量和分析方法,具体可以分为以下4个步骤:
(1)采集制作行人数据集SCU-VSD,对视频数据集进行在线多目标跟踪,以获取视频中行人的时空轨迹;
(2)对视频中行人时空轨迹进行透视变换,在鸟瞰图中获得校准后的行人时空轨迹;
(3)添加时间轴,在校准后的三维时空坐标系中度量时空轨迹之间的距离,以此测算SCU-VSD数据集行人间的社交距离。
(4)在多种时间尺度下,对SCU-VSD数据集的社交距离和聚集情况进行评估分析。
具体地,所述步骤(1)中,首先采集制作了一个公共空间行人数据集SCU-VSD。该数据集拍摄于某步行街,包含8个视频序列,具有不同的场景和透视视角。对于每个视频序列,其分辨率为1920×1080,持续时间为60s,帧率为25fps,即每个视频为1500帧。然后,利用Faster-RCNN检测器和Deep SORT在线跟踪算法对SCU-VSD数据集进行在线多目标跟踪,以获取行人轨迹。
所述步骤(2)中,对SCU数据集进行校准。首先,需要对每个真实场景,在其地面选取一个矩形参考区域,并测量其实际长度和宽度。由于摄像机的任意角度,矩形参考区域在原始视频中显示为任意不规则四边形。根据参考区域的长宽比,在尺寸为500×500的鸟瞰图中绘制比例系数为0.1的矩形,作为原始视频中四边形的校准矩形。根据四边形和校准矩形四对顶点对坐标,通过式(1)可以得到每个视频的透视变换矩阵M。SCU-VSD数据集中每个视频选定的矩形参考区域信息如表一所示。
表一
VSD数据集的四对顶点对坐标和透视变换矩阵如表二所示(矩阵M的数值使用科学计数法表示)。由于不同的透视视角,矩形参考区域在视频中呈现为不规则四边形。利用M和式(3),便可计算鸟瞰图中每个行人的映射轨迹。
表二
所述步骤(3)中,对步骤(2)中得到的校准后的行人时空轨迹,在时空坐标系中利用式(8)和式(9)测量行人之间的社交距离,比例系数s为0.1。
所述步骤(4)中,进行多尺度社交距离测量和分析,其实验过程如下:①针对每一帧,测量鸟瞰图中跟踪目标之间的欧式距离,从而计算出行人之间实时社交距离,实时非安全社交距离人数比和实时聚集度;②以10s(250个连续帧),为一个时间单位,计算每个单位时间的ARP-USD和AGD指标;③对于整个视频(60s,1500帧),计算ARP-USD、NTP-USD、NPPC-USD和AGD指标。安全距离阈值τs设置为2m,阈值τn设置为250。聚集群组和聚集度划分如图2所示。
SCU-VSD数据集的实时社交距离测量与分析如图3所示。其中,左图是原始视频呈现结果,右图是相应的鸟瞰图呈现结果。原始视频中的跟踪行人在鸟瞰图中被转换为轨迹点。在鸟瞰图中逐帧测量跟踪目标对之间的欧式距离,以测算行人之间的实时社交距离。如果目标对之间的社交距离小于安全距离,目标对之间会显示一条连接线。此外,每帧图像的实时非安全距离人数比和实时聚集度结果显示在右图左上角。
以10s(250个连续帧)为时间单位,将每个视频分为6个时间段。对于每个时间段,计算ARP-USD(如式(11)所示)和AGD(如式(13)所示)指标,并将结果绘制为彩色图(Colormap)。SCU-VSD数据集每单位时间的ARP-USD和AGD指标的彩色图如图4所示。从图4可以得出,彩色图的每一行可以反映同一视频在不同单位时间内指标的变化趋势,每一列可以反映不同视频在同一单位时间内指标的变化趋势。其变化趋势可通过相应颜色栏(ColorBar)的颜色渐变直观地显示出。在实际应用中,可以根据实际需要设置单位时间,从而得到不同时间尺度下的APR-USD和AGD指标,以便于进一步的分析。
此外,从全局角度出发,计算了每个完整视频的四个指标ARP-USD,NTP-USD,NPP-CUSD和AGD,如表三所示。
如表三所示,SCU-VSD-01的NTP-USD,NPP-CUSD和AGD指标值最大,分别为32、11和1.2,而SCU-VSD-03的四个指标最小,分别为47.62%、3、2和0.57。综合而言,SCU-VSD-01视频序列中非安全距离行人对数量最多,平均聚集度最高。相比之下,SCU-VSD-03视频序列的处于非安全距离的行人最少,平均聚集度最低。

Claims (2)

1.一种基于时空轨迹的公共空间社交距离测量和分析方法,其特征在于包括以下步骤:
步骤一:采集制作“SCU-VSD”行人数据集,利用基于检测的在线实时多目标跟踪(Multi-Object Tracking,MOT)算法对视频中的行人进行跟踪,获取行人的时空轨迹;
步骤二:计算视频的透视变换矩阵,将原始视频进行透视变换,校准到鸟瞰图平面下,并得到鸟瞰图中校准后的行人时空轨迹;
步骤三:在鸟瞰图中,一方面,从静态和局部的角度出发,利用欧式距离测量轨迹采样点对之间的距离,以得到每一时刻行人之间的社交距离;另一方面,从动态和整体角度出发,利用离散Fréchet距离测量时空轨迹之间的距离,以得到一段时间内行人之间的社交距离;
步骤四:在多种时间尺度下,对行人的社交距离和聚集情况进行分析评估。
2.根据权利要求1所述的基于时空轨迹的公共空间社交距离测量和分析方法,其特征在于步骤四中多尺度社交距离分析评估方案;设计了四种评估指标:非安全距离人数比均值(The Average Ratio ofPedestrians with Unsafe Social Distancing,ARP-USD)、非安全距离轨迹对数量(The Number ofTrajectory Pairs with Unsafe SocialDistancing,NTP-USD)、持续非安全距离行人对数量(The Number of Pedestrian Pairswith Continuous Unsafe Social Distancing,NPPC-USD)和平均聚集度(TheAverageGathering Degree,AGD),并在多种时间尺度下对社交距离和行人聚集情况进分析评估;
其中,非安全距离人数比均值表示在一段时间内,公共空间中社交距离小于安全距离的人数与总人数比值的平均值;非安全距离轨迹对数量用于度量视频中处于稳定态的非安全距离轨迹对数量;持续非安全距离行人对数量用于统计视频中行人社交距离小于非安全距离的累计帧数高于阈值的行人对数量;平均聚集度用于度量一段时间内视频中聚集度的平均值。
CN202110084581.1A 2021-01-21 2021-01-21 一种基于时空轨迹的公共空间社交距离测量和分析方法 Active CN114820688B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110084581.1A CN114820688B (zh) 2021-01-21 2021-01-21 一种基于时空轨迹的公共空间社交距离测量和分析方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110084581.1A CN114820688B (zh) 2021-01-21 2021-01-21 一种基于时空轨迹的公共空间社交距离测量和分析方法

Publications (2)

Publication Number Publication Date
CN114820688A CN114820688A (zh) 2022-07-29
CN114820688B true CN114820688B (zh) 2023-09-26

Family

ID=82524408

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110084581.1A Active CN114820688B (zh) 2021-01-21 2021-01-21 一种基于时空轨迹的公共空间社交距离测量和分析方法

Country Status (1)

Country Link
CN (1) CN114820688B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880643B (zh) * 2023-01-06 2023-06-27 之江实验室 一种基于目标检测算法的社交距离监测方法和装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951806A (zh) * 2015-07-08 2015-09-30 南京邮电大学 基于split-merge策略的人群分组检测方法
CN109711447A (zh) * 2018-12-19 2019-05-03 武大吉奥信息技术有限公司 一种特殊人群事件预警和监测方法及装置
CN110400363A (zh) * 2018-04-24 2019-11-01 北京京东尚科信息技术有限公司 基于激光点云的地图构建方法和装置
CN111080307A (zh) * 2019-12-20 2020-04-28 刘净 基于量子ai遥感视觉的智能交易和社交方法及系统
CN111259098A (zh) * 2020-01-10 2020-06-09 桂林电子科技大学 一种基于稀疏表示和Fréchet距离融合的轨迹相似度计算方法
CN111353448A (zh) * 2020-03-05 2020-06-30 南京理工大学 基于相关性聚类和时空约束的行人多目标跟踪方法
CN111640048A (zh) * 2020-05-20 2020-09-08 合肥巴灵瑞教育科技有限公司 基于幼儿行为轨迹分析的社交能力评估系统

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977970B2 (en) * 2016-06-29 2018-05-22 Conduent Business Services, Llc Method and system for detecting the occurrence of an interaction event via trajectory-based analysis
US10359295B2 (en) * 2016-09-08 2019-07-23 Here Global B.V. Method and apparatus for providing trajectory bundles for map data analysis
US20200410250A1 (en) * 2019-06-26 2020-12-31 RoundhouseOne Inc. Computer vision system that provides space monitoring and social distancing indicators

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104951806A (zh) * 2015-07-08 2015-09-30 南京邮电大学 基于split-merge策略的人群分组检测方法
CN110400363A (zh) * 2018-04-24 2019-11-01 北京京东尚科信息技术有限公司 基于激光点云的地图构建方法和装置
CN109711447A (zh) * 2018-12-19 2019-05-03 武大吉奥信息技术有限公司 一种特殊人群事件预警和监测方法及装置
CN111080307A (zh) * 2019-12-20 2020-04-28 刘净 基于量子ai遥感视觉的智能交易和社交方法及系统
CN111259098A (zh) * 2020-01-10 2020-06-09 桂林电子科技大学 一种基于稀疏表示和Fréchet距离融合的轨迹相似度计算方法
CN111353448A (zh) * 2020-03-05 2020-06-30 南京理工大学 基于相关性聚类和时空约束的行人多目标跟踪方法
CN111640048A (zh) * 2020-05-20 2020-09-08 合肥巴灵瑞教育科技有限公司 基于幼儿行为轨迹分析的社交能力评估系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Kevin L. Young等.Beyond the revolving door: Advocacy behavior and social distance to financial regulators.《Business and Politics》.2017,第19卷(第2期),第327-364页. *
Penghui Sun等.An Overview of Moving Object Trajectory Compression Algorithms.《Mathematical Problems in Engineering》.2016,第1-14页. *
王前东.经典轨迹的鲁棒相似度量算法.《电子与信息学报》.2020,第42卷(第8期),第1999-2005页. *
陈晓莹.面向社交网络的时空关键字查询处理技术研究.《中国优秀硕士学位论文全文数据库 信息科技辑》.2019,(第2期),第I138-1050页. *

Also Published As

Publication number Publication date
CN114820688A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
Sheng et al. Occlusion-aware depth estimation for light field using multi-orientation EPIs
CN106485735A (zh) 基于立体视觉技术的人体目标识别与跟踪方法
CN103735269B (zh) 一种基于视频多目标跟踪的高度测量方法
CN109919975B (zh) 一种基于坐标标定的广域监控运动目标关联方法
CN111402294A (zh) 目标跟踪方法、装置、计算机可读存储介质和计算机设备
US11461911B2 (en) Depth information calculation method and device based on light-field-binocular system
CN109614875B (zh) 一种基于运动规则的智能安防报警系统
CN114820688B (zh) 一种基于时空轨迹的公共空间社交距离测量和分析方法
Suresh et al. Social distance identification using optimized faster region-based convolutional neural network
CN115797408A (zh) 融合多视角图像和三维点云的目标跟踪方法及装置
Zhang et al. Deep learning based object distance measurement method for binocular stereo vision blind area
CN114067438A (zh) 一种基于热红外视觉的停机坪人体动作识别方法及系统
CN112613668A (zh) 基于人工智能的景区危险区域管控方法
CN108230351A (zh) 基于双目立体视觉行人检测的柜台评价方法与系统
Chen et al. Application of integral optical flow for determining crowd movement from video images obtained using video surveillance systems
CN114155278A (zh) 目标跟踪及相关模型的训练方法和相关装置、设备、介质
CN111862511B (zh) 基于双目立体视觉的目标入侵检测装置及其方法
Gupta et al. SSDT: distance tracking model based on deep learning
Takagi et al. Estimation of a three-dimensional gaze point and the gaze target from the road images
CN115880643B (zh) 一种基于目标检测算法的社交距离监测方法和装置
Hartung et al. Improvement of persistent tracking in wide area motion imagery by CNN-based motion detections
KR102326208B1 (ko) 영상 인식 기반 3차원 미세 먼지 정보를 구축하기 위한 시스템 및 그 방법
CN112541403B (zh) 一种利用红外摄像头的室内人员跌倒检测方法
CN114569114A (zh) 一种身高测量方法及装置
Negied et al. HSBS: a human’s heat signature and background subtraction hybrid approach for crowd counting and analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant