CN113408333B - 一种基于视频数据的地铁站内行人交通行为判别方法 - Google Patents
一种基于视频数据的地铁站内行人交通行为判别方法 Download PDFInfo
- Publication number
- CN113408333B CN113408333B CN202110459393.2A CN202110459393A CN113408333B CN 113408333 B CN113408333 B CN 113408333B CN 202110459393 A CN202110459393 A CN 202110459393A CN 113408333 B CN113408333 B CN 113408333B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- behavior
- behaviors
- judging
- walking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
本发明属于城市轨交智能管理的技术领域,公开了一种基于视频数据的地铁站内行人交通行为判别方法,对视频数据内的各个行人进行实时的位置追踪,根据行人之间或者行人和障碍物之间的间距、通行空间,对行人的单体行为、交互行为和避障行为进行判定,从而有效指导地铁站内的交通疏导。本发明的方法可以识别到不同行人的交通行为的参数差异,这对于分析地铁站内高密度条件下人群不同的安全状态,研究与之相适应的疏导设施安全设计方案具有重要意义。
Description
技术领域
本发明属于城市轨交智能管理的技术领域,具体涉及一种基于视频数据的地铁站内行人交通行为判别方法。
背景技术
在地铁车站实施客流控制时,站内的行人成为了被管控的对象。当地铁车站处于高密度人群条件下时,若是行人个体出现了异常的交通行为,如在闸机附近的不当滞留、徘徊或逆行等,都会引起人群间的不稳定状态,导致通行能力下降,甚至可能造成踩踏等重大安全事故。因此,如果能够找到在地铁车站不同设施场景下、不同人群密度条件下的行人交通行为的判别方法,就能够为地铁车站的设施安全设计、客流安全管理等提供依据,因此能否准确判别行人交通行为的类型将显得尤为重要。
目前国内外的专家学者对行人交通流特性参数进行了大量研究,主要针对的是人群的行为模式,而对于个体的交通行为特征及参数研究较少,其研究主要是基于人体骨骼信息的特征来对车站内的行人行为进行识别,比如摔倒、弯腰等,通过建立人体骨骼模型来判别行为类型,这种方法能够识别的行为类型比较单一,更多的应用于异常行为的识别上,因此如何去判别个体行人交通行为的类型依然是一个难点。
发明内容
本发明提供了一种基于视频数据的地铁站内行人交通行为判别方法,解决了现有走行时间的计算方法实效性差,准确度低,且费时费力等问题。
本发明可通过以下技术方案实现:
一种基于视频数据的地铁站内行人交通行为判别方法,对视频数据内的各个行人进行实时的位置追踪,根据行人之间或者行人和障碍物之间的间距、通行空间,对行人的单体行为、交互行为和避障行为进行判定,从而有效指导地铁站内的交通疏导。
进一步,根据各个行人在某一时刻t的位置信息,逐一计算行人i和离行人i最近的行人j之间的通行空间,若所述通行空间大于允许个人行走的最小空间,则判定所述行人i和行人j均发生单体行为,否则判定所述行人i和行人j之间发生交互行为。
进一步,所述交互行为包括跟随行为、超越行为、避让行为和插入行为,
根据所述行人i和行人j在行走方向的夹角判定两者是否同向行走,若为同向,则进一步计算行人i和行人j在垂直于行走方向上的间距,根据所述间距随着时间推移的变化趋势,判定行人i和行人j之间是否发生跟随行为、超越行为或者插入行为;
若不为同向,则说明两者逆向行走,行人i和行人j之间发生避让行为。
进一步,若所述夹角则判定所述行人i和行人j为同向行走,进一步计算所述行人i在某一时刻t之后的三秒之内的间距DH,记在某一时刻t之后的第一秒两者之间的横向间距为DH起,第三秒后两者之间的横向间距为DH终,若|DH起-DH终|>0,则判定为插入行为,若|DH起-DH终|<0,则判定为超越行为,若|D起-DH终|=0,则判定为跟随行为;
(xit,yit),(xjt,yjt)分别表示行人i、行人j在某一时刻t的位置信息,其所属坐标系以行人的行走方向为Y轴,垂直行走方向的方向为X轴。
进一步,所述单体行为包括行走行为、徘徊行为和停留行为,
2)若所述距离d<S/2,且d<=1.5米,则判定行人i、行人j发生徘徊行为,否则执行步骤3);
3)判定行人i、行人j发生正常的行走行为。
进一步,所述避障行为包括后退行为和换道行为,事先对地铁站内的固定装置即可能处于行走通道上的障碍物进行位置标定,设置障碍物影响区域,根据各个行人在某一时刻t的位置信息(xit,yit),其所属坐标系以行人的行走方向为Y轴,垂直行走方向的方向为X轴,判断行人是否进入障碍物影响区域,若进入障碍物影响区域,且纵坐标Δy<0,则判定行人发生后退行为,否则发生换道行为。
本发明有益的技术效果在于:
附图说明
图1是本发明的总体流程示意图;
图2是本发明的行人交通行为的具体分类示意图;
图3是本发明的单体行为和交互行为的判定流程示意图;
图4是本发明的行人i和行人j在行走方向上的夹角θij示意图;
图5是本发明的行人i和行人j的横向间距DH示意图。
图6是采用本发明的判别方法进行交通行为判别的具体实施图例一;
图7是采用本发明的判别方法进行交通行为判别的具体实施图例二;
图8是采用本发明的判别方法进行交互行为判别的验证对比示意图;
图9是采用本发明的判别方法进行避障行为判别的验证对比示意图。
具体实施方式
下面结合附图及较佳实施例详细说明本发明的具体实施方式。
如图1所示,本发明提供了一种基于视频数据的地铁车站内行人交通行为判别方法,利用行人的交通行为特征参数如位置坐标、速度、行走角度等,对在车站内发生的一系列行为进行判别,通过判别行人个体的具体行为,可以获取到不同个体或者说是异质人群不同行为的参数差异,这对于分析地铁站内高密度条件下人群不同的安全状态,研究与之相适应的疏导设施安全设计方案具有重要意义。具体如下:
首先,将地铁车站的视频数据通过运动轨迹提取算法得到选取目标的行动轨迹,从而获取目标在每一时刻的坐标位置信息。
将地铁车站的视频数据利用帧间差分法实现运动目标如行人的检测,然后基于运动目标质心位置计算的运动轨迹提取算法得到目标运动轨迹,从而获取目标在每一时刻的坐标位置信息。
(1)对于行人运动轨迹的提取,在实际操作中运用已有的软件技术进行了处理。首先,将需要分析的视频数据导入软件中,如Tracker是一个基于开源物理(OSP)Java的免费视频分析和建模工具框架,功能包括目标跟踪与位置,速度和加速度叠加和图形,用于光谱和光谱分析的特效滤波器、多参考系、校准点、线轮廓干涉图和动态粒子模型。Tracker软件通过分析物理实验视频,追踪研究对象的运动轨迹,以简洁高效的数据分析手段揭示物理规律,并且允许用户建立自己的动力学或运动学模型进行模拟实验。Tracker软件可广泛应用于物理演示实验教学和学生课外研究性学习,有利于丰富物理课程资源、突破教学难点、提高教学质量。
在含有固定设施的视频中,可以事先将固定设施的中心点、所占范围的坐标点进行标注,例如闸机、栏杆等等,坐标系的建立可以以行人走行方向作为y轴,垂直于走行方向的作为x轴,原心可以固定设施如闸机的中心点或者一组闸机处的中心点设为坐标原点;若是没有固定设施处,例如通道,则可以任意选择坐标原点。
(2)接着选择要分析的研究对象,可以是一个人也可以是多个人进行标定,标定点可以选择头顶、肩膀或是身体其他部位的某一点,要求所有对象的标定点都是统一的。本发明在实际操作中选择了行人的头顶作为标定点,进行运动轨迹追踪,这样不会发生运动轨迹重叠的情况,从而可以获取到行人在一段视频内运动的轨迹图,从而获得每一帧图像中所有行人的位置坐标参数。
其次,按个体单独作用、个体与个体之间耦合作用、个体和障碍物之间耦合作用,将地铁车站内行人的交通行为划分为单体行为、交互行为、避障行为三大类,再将这三类行为进行细分,单体行为划分为行走行为、徘徊行为、停留行为;交互行为划分为跟随行为、超越行为、避让行为、插入行为;避障行为划分为换道行为、后退行为,如图2所示,其具体判定方法如下:
步骤一、根据行人之间的通行空间R来区分单体行为和交互行为,如图3所示;
根据上文所获得的运动目标轨迹,我们可以获取到该段视频中所有行人不同时刻的位置坐标数据,由此我们可以计算出每两个行人之间的距离和通行空间。记t时刻行人i与行人j的坐标分别为(xit,yit),(xjt,yjt),则可以根据公式(1)计算行人i与行人j之间的距离dij。
根据公式(2),计算行人i和行人j之间的通行空间R:
从中找到与行人i的通行空间R最小即距离最近的那个行人,如行人j,我们认为当通行空间R能够满足行人自身的最小行走空间需求以及心理空间需求时,行人与行人之间就不会进行交互行为,因此,当R大于阈值a时,可以判定行人i和行人j进行的都是单体行为,否则为交互行为。由于在楼扶梯处行人行走时受到的限制比通道处大,行人的通行空间需求会相对较小,所以阈值a在楼扶梯处设定为1.8m2,一般下水平通道为3.5m2。
步骤二、若会发生交互行为,则根据行人之间的行走方向夹角大小来判断是否发生避让行为,如图4所示。因为当行人之间发生避让行为时,一般意味着行人i和行人j并不是同向行走,若是两人继续沿着原来的方向行走,极有可能会发生碰撞,因此在避让时他们之间的行走方向夹角肯定大于等于90°。
计算行人i和j之间的横向间距DH,如图5所示。超越行为、插入行为的主要特征就在于行人之间的横向间距会发生变化,超越行为过程中DH由小变大,插入行为过程中DH由大变小,若是跟随行为,行人之间的DH则不会随时间发生改变。以三秒为一个周期,将第一秒两人之间的横向间距记为DH起,第三秒两人之间的横向间距记为DH终。若是|DH起-DH终|<0,则判定发生超越行为;|DH起-DH终|>0,则判定为插入行为;|DH起-DH终|=0就是跟随行为。
步骤三、若行人之间发生单体行为,则根据行人的平均行走速度大小来判断行人是否发生了停留行为;若不满足停留行为的发生条件,则通过比较行人在三秒内的行走路程S与距离d的大小来判断行人是否发生了徘徊行为;反之,则为正常的行走行为。
由于停留行为最大的特征就是行人的平均速度接近0m/s,因此以三秒为一个周期,根据公式(6)计算得到行人i在t时刻之后的每一秒速度vit,vi(t+1),vi(t+2),一般情况下人的步幅是身高的0.45-0.5倍,根据我国男子和女子的平均身高计算得出男子的平均步幅为75.195-83.55cm,女子的平均步幅为70.11-77.9cm,所以若连续3秒内的平均行走速度小于0.25m/s,即三秒时间里行人i只走了大约一步的距离,则可以判定行人i发生了停留行为,其中dit表示行人i在t到t+1秒内发生的行走路程。
若行人i的平均行走速度不满足上述条件,则利用公式(7)进一步计算行人i在三秒内的行走路程Si
若是行人i在t时刻与t+3时刻之间的距离d即这三秒的起点和终点之间的直线距离小于等于S/2,并且小于等于1.5m,即行人经过三秒的时间后依然在以自身为圆心,半径为1.5m的圆内,就可判断这是一种徘徊行为;
若上述条件都不满足,则判断行人i是正常的行走行为。
重复步骤三,对行人j的单体行为进行分类判定。
步骤四、避障行为的种类只有后退行为和换道行为两种,可以根据行人纵坐标随时间的变化来判别属于哪种行为。
避障行为主要是指当行人在自己原定方向上行走的过程中,遇到了有拦截作用的障碍物,如无法通过的闸机、临时搭建的护栏、立柱、广告牌等,行人只能通过换道行为或者是后退行为才能避开障碍物继续前进的行为。
避障行为的判别流程是当视频数据中出现障碍物,并且该障碍物在高密度人流条件下很有可能对行人的行走路线造成影响时执行;反之,则不需要执行该流程。由于地铁站内的障碍物一般都是固定,我们事先对其影响范围进行标定,设置障碍物影响区域,记行人i在t时刻的位置坐标为(xt,yt),则t+1时刻的位置坐标为(xt+1,yt+1),若行人i的位置坐标处于障碍物影响区域内,且在t、t+1时刻的纵坐标的变化是否小于0,则判定发生了后退行为,否则就是换道行为。
步骤五,重复步骤一至四,对下一行人的交通行为进行判定,直至完成对视频数据中所有行人的交通行为判定。
采用本发明的判别方法,对上海地铁9号线泗泾站中闸机处行人的交通行为进行判别,具体如下:
首先,在视频画面中建立坐标轴,如图6所示,将行人行走的方向作为y轴,垂直的方向为x轴,并且根据实际的瓷砖长度0.8m作为坐标轴的定标尺,方便得出行人实际坐标信息。本次实施方式的检测对象为红衣服女性(简称行人1)。检测出目前画面中总共有三个人出现,分别对他们的运动轨迹进行实时跟踪。如下图所示,带有方形的线代表行人1的运动轨迹,带有圆圈的线为白衣服女性(简称行人2)运动轨迹,带有三角的线为黄衣服女性(简称行人3)的运动轨迹。
根据运动轨迹,可以直接得到三个人实时的坐标信息,由于行人3出现在画面中的时间较短,所以轨迹追踪的时间也比较短,三人坐标信息如下表所示。
从表中可以看出,从0.8秒开始,三人被检测到同时出现在画面中,由此可以根据他们的坐标信息可以分别计算出行人2、行人3与行人1之间的距离d以及通行空间R,如下表所示。
t(s) | d<sub>12</sub>(m) | d<sub>13</sub>(m) | R<sub>12</sub>(m<sup>2</sup>) | R<sub>13</sub>(m<sup>2</sup>) |
0.8 | 1.332 | 5.798 | 1.392 | 26.404 |
0.9 | 1.341 | 5.761 | 1.413 | 26.069 |
1 | 1.373 | 5.786 | 1.482 | 26.290 |
1.1 | 1.374 | 5.795 | 1.482 | 26.372 |
1.2 | 1.368 | 5.777 | 1.469 | 26.212 |
1.3 | 1.394 | 5.803 | 1.525 | 26.453 |
1.4 | 1.385 | 5.814 | 1.506 | 26.545 |
1.5 | 1.395 | 5.829 | 1.528 | 26.689 |
根据以上表格确定行人2与行人3最为接近。并且据研究表明一般在水平通道中,行人之间发生交互行为的范围是在3.5m2,由此推断行人1与行人2很有可能会发生交互行为,所以下一步计算判别交互行为的特征参数。根据两人在运动过程中的行走方向夹角θ的变化来判别他们是否发生了避让行为,计算结果如下表所示。
从上表中可以看出,行人1和行人2自身的行走方向角度就基本没有发生变化,所以俩人之间的行走方向夹角也几乎等于0,说明两人是同向进行行走的,因此排除了避让行为的可能。下一步比较这段时间内行人1和行人2之间横向间距DH的变化,计算结果如下表所示。
从每一帧DH的变化中可以看出,△DH基本在0m左右上下浮动,这说明了行人1和行人2之间没有产生超越和插入的行为,因为这两种行为发生时,两人的横向间距DH一定会发生较大的变化。由此判断行人1和行人2之间发生的就是跟随行为。
通过地面瓷砖的具体长度,将行人的脚作为标定物,人工计算行人1和行人2之间的距离d12、通行空间R12、横向间距DH以及根据脚的方向人工计算行人1的行走方向α,比较结果如下表、图8所示,从中我们可以看出采用本发明的判别方法和实际人工测试结果相差不大,基本符合实际情况。
避障行为的类型判别,首先,需要在视频中标定出障碍物对行人的一个影响范围,如图7所示,黑衣服女性(简称行人4)前方出现障碍物,根据障碍物实际的尺寸(x轴方向设为宽:1.3m,y轴方向设为长:0.3m),设定障碍物的影响区域为半径r为1.3m的圆形区域,用圆圈表示。即块区域的坐标(x,y)的范围在(0.159~2.759,1.019~3.619)之间。
根据运动轨迹追踪可以得到行人4在这段视频数据中的位置坐标信息,如下表所示。
可以看出行人4从4.5秒开始进入了障碍物的影响区域内,所以判定行人肯定会发生避障行为。下一步计算行人4在这4.5s至7.5s之内纵坐标y的变化,结果如下表所示。
计算结果显示纵坐标的变化一直都是大于0,说明行人没有发生后退行为。我们也可以通过计算行人横坐标x的变化来检验行人4是否进行了换道。4.5s至7.5s的时间内,行人4累积的横坐标变化为0.892m,已经超过了该障碍物宽度的一半,所以也可以佐证行人4在面对障碍物时进行了换道行为。
验证的结果如下表、图9所示,从中我们可以看出采用本发明的判别方法和实际人工测试结果相差不大,基本符合实际情况。
虽然以上描述了本发明的具体实施方式,但是本领域的技术人员应当理解,这些仅是举例说明,在不背离本发明的和实质的前提下,可以对这些实施方式做出多种变更或修改,因此,本发明的保护范围由所附权利要求书限定。
Claims (3)
1.一种基于视频数据的地铁站内行人交通行为判别方法,其特征在于:对视频数据内的各个行人进行实时的位置追踪,根据行人之间或者行人和障碍物之间的间距、通行空间,对行人的单体行为、交互行为和避障行为进行判定,从而有效指导地铁站内的交通疏导;
所述交互行为包括跟随行为、超越行为、避让行为和插入行为,
根据所述行人i和行人j在行走方向的夹角判定两者是否同向行走,若为同向,则进一步计算行人i和行人j在垂直于行走方向上的间距,根据所述间距随着时间推移的变化趋势,判定行人i和行人j之间是否发生跟随行为、超越行为或者插入行为;
若不为同向,则说明两者逆向行走,行人i和行人j之间发生避让行为;
所述单体行为包括行走行为、徘徊行为和停留行为,
2)若所述距离d<S/2,且d<=1.5米,则判定行人i、行人j发生徘徊行为,否则执行步骤3);
3)判定行人i、行人j发生正常的行走行为;
所述避障行为包括后退行为和换道行为,事先对地铁站内的固定装置即可能处于行走通道上的障碍物进行位置标定,设置障碍物影响区域,根据各个行人在某一时刻t的位置信息(xit,yit),其所属坐标系以行人的行走方向为Y轴,垂直行走方向的方向为X轴,判断行人是否进入障碍物影响区域,若进入障碍物影响区域,且纵坐标Δy<0,则判定行人发生后退行为,否则发生换道行为。
2.根据权利要求1所述的基于视频数据的地铁站内行人交通行为判别方法,其特征在于:根据各个行人在某一时刻t的位置信息,逐一计算行人i和离行人i最近的行人j之间的通行空间,若所述通行空间大于允许个人行走的最小空间,则判定所述行人i和行人j均发生单体行为,否则判定所述行人i和行人j之间发生交互行为。
3.根据权利要求1所述的基于视频数据的地铁站内行人交通行为判别方法,其特征在于:若所述夹角则判定所述行人i和行人j为同向行走,进一步计算所述行人i在某一时刻t之后的三秒之内的间距DH,记在某一时刻t之后的第一秒两者之间的横向间距为DH起,第三秒后两者之间的横向间距为DH终,若|DH起-DH终|>0,则判定为插入行为,若|DH起-DH终|<0,则判定为超越行为,若|DH起-DH终|=0,则判定为跟随行为;
(xit,yit),(xjt,yjt)分别表示行人i行人j在某一时刻t的位置信息,其所属坐标系以行人的行走方向为Y轴,垂直行走方向的方向为X轴。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459393.2A CN113408333B (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频数据的地铁站内行人交通行为判别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110459393.2A CN113408333B (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频数据的地铁站内行人交通行为判别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113408333A CN113408333A (zh) | 2021-09-17 |
CN113408333B true CN113408333B (zh) | 2022-10-11 |
Family
ID=77678066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110459393.2A Active CN113408333B (zh) | 2021-04-27 | 2021-04-27 | 一种基于视频数据的地铁站内行人交通行为判别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113408333B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103471589A (zh) * | 2013-09-25 | 2013-12-25 | 武汉大学 | 一种室内行人行走模式识别和轨迹追踪的方法 |
CN103839049A (zh) * | 2014-02-26 | 2014-06-04 | 中国计量学院 | 一种双人交互行为识别和主动角色确定方法 |
CN104463903A (zh) * | 2014-06-24 | 2015-03-25 | 中海网络科技股份有限公司 | 一种基于目标行为分析的行人图像实时检测方法 |
CN111860318A (zh) * | 2020-07-20 | 2020-10-30 | 杭州品茗安控信息技术股份有限公司 | 一种建筑工地行人徘徊检测方法、装置、设备及存储介质 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2474447A1 (en) * | 2011-01-07 | 2012-07-11 | Rizoma S.r.l. | Safety signaling device for motor vehicles |
CN103150550B (zh) * | 2013-02-05 | 2015-10-28 | 长安大学 | 一种基于运动轨迹分析的道路行人事件检测方法 |
CN109117721A (zh) * | 2018-07-06 | 2019-01-01 | 江西洪都航空工业集团有限责任公司 | 一种行人徘徊检测方法 |
CN109145736B (zh) * | 2018-07-18 | 2019-08-09 | 南京行者易智能交通科技有限公司 | 一种基于视频分析的地铁站点行人逆向行走的检测方法 |
CN112488042B (zh) * | 2020-12-15 | 2022-11-18 | 东南大学 | 一种基于视频分析的行人通行瓶颈判别方法及系统 |
-
2021
- 2021-04-27 CN CN202110459393.2A patent/CN113408333B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103471589A (zh) * | 2013-09-25 | 2013-12-25 | 武汉大学 | 一种室内行人行走模式识别和轨迹追踪的方法 |
CN103839049A (zh) * | 2014-02-26 | 2014-06-04 | 中国计量学院 | 一种双人交互行为识别和主动角色确定方法 |
CN104463903A (zh) * | 2014-06-24 | 2015-03-25 | 中海网络科技股份有限公司 | 一种基于目标行为分析的行人图像实时检测方法 |
CN111860318A (zh) * | 2020-07-20 | 2020-10-30 | 杭州品茗安控信息技术股份有限公司 | 一种建筑工地行人徘徊检测方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113408333A (zh) | 2021-09-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103971521B (zh) | 道路交通异常事件实时检测方法及装置 | |
CN101847206B (zh) | 基于交通监控设施的行人流量统计方法与系统 | |
Rahman et al. | A real-time wrong-way vehicle detection based on YOLO and centroid tracking | |
CN104835323B (zh) | 一种结合电子围栏的多目标公交客流检测方法 | |
CN106778655B (zh) | 一种基于人体骨架的入口尾随进入检测方法 | |
CN106650695A (zh) | 一种基于视频分析技术的跟踪统计人流量的系统 | |
CN110077398B (zh) | 一种用于智能驾驶的危险处理方法 | |
CN109859468A (zh) | 基于YOLOv3的多车道车流量计数及车辆跟踪方法 | |
Boltes et al. | T-junction: Experiments, trajectory collection, and analysis | |
CN105070053A (zh) | 一种识别车辆违规运动模式的智能交通监控摄像机 | |
CN103646253A (zh) | 基于乘客多运动行为分析的公交车客流统计方法 | |
CN105513342A (zh) | 一种基于视频跟踪的车辆排队长度计算方法 | |
Hussein et al. | Microscopic pedestrian interaction behavior analysis using gait parameters | |
CN110532916A (zh) | 一种运动轨迹确定方法及装置 | |
CN113936465B (zh) | 交通事件检测方法及装置 | |
CN113822285A (zh) | 一种用于复杂应用场景的车辆违停识别方法 | |
CN109272482A (zh) | 一种基于序列图像的城市路口车辆排队检测系统 | |
CN110363983A (zh) | 无信号交叉口机非人实时轨迹预测与冲突识别方法 | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
CN106530825A (zh) | 基于st‑mrf模型的电动自行车与汽车交通冲突检测方法 | |
CN114529880A (zh) | 一种城市轨道异物侵限检测方法、装置、系统及存储介质 | |
Amini et al. | Development of a conflict risk evaluation model to assess pedestrian safety in interaction with vehicles | |
CN114494998B (zh) | 一种车辆数据智能分析方法及系统 | |
CN116894611A (zh) | 一种城市轨道交通车站乘客疏散仿真方法及系统 | |
CN113408333B (zh) | 一种基于视频数据的地铁站内行人交通行为判别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |