CN112052786B - 一种基于网格划分骨骼的行为预测方法 - Google Patents

一种基于网格划分骨骼的行为预测方法 Download PDF

Info

Publication number
CN112052786B
CN112052786B CN202010913366.3A CN202010913366A CN112052786B CN 112052786 B CN112052786 B CN 112052786B CN 202010913366 A CN202010913366 A CN 202010913366A CN 112052786 B CN112052786 B CN 112052786B
Authority
CN
China
Prior art keywords
frame
joint point
pedestrian
frames
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010913366.3A
Other languages
English (en)
Other versions
CN112052786A (zh
Inventor
王子阳
魏丹
胡晓强
罗一平
沈江霖
纪东升
陈亚蒙
王弘义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai University of Engineering Science
Original Assignee
Shanghai University of Engineering Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai University of Engineering Science filed Critical Shanghai University of Engineering Science
Priority to CN202010913366.3A priority Critical patent/CN112052786B/zh
Publication of CN112052786A publication Critical patent/CN112052786A/zh
Application granted granted Critical
Publication of CN112052786B publication Critical patent/CN112052786B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于网格划分骨骼的行为预测方法,预测结果包括下一帧中各关节点的运动类型,下一帧中各关节点的运动类型的确定过程为:首先对测试视频帧进行密集网格划分,并根据划分网格的图像特点判断出密集网格中心o作为固定关节点;然后根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定多个关节点作为关键关节点;接着学习规定的各个关节点到o的距离度量特征和角度度量特征,并将二者关联得到行人的行为特征;最后计算下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型。本发明的预测方法较为简单,能够准确预测下一帧中各关节点的运动类型,同时不需要大量的训练样本对模型框架进行训练。

Description

一种基于网格划分骨骼的行为预测方法
技术领域
本发明属于基于图像处理的机器视觉技术领域,涉及一种基于网格划分骨骼的行为预测方法。
背景技术
行为预测是计算机理解人类活动的一个新维度,与近几十年来被广泛研究的行为识别不同,行为预测是在不观察整个动作执行的情况下对行为进行识别。行为预测由于近年来的应用前景而备受关注,在医疗保健、视频监控和人机交互等方面都有应用并且具有很高的要求。现有方法主要通过生成一种双运动生成对抗网络,同时预测未来的帧和未来的光学流来生成多个未来的帧,通过搭建时空卷积架构来生成未来的视频以达到行人行为预测的目的。在基于骨架的尺度选择网络的动作预测方法中,通过学习行人骨架的多层次结构化语义,通过扩展卷积网络的处理达到行为预测的目的。该方法在利用骨架信息时只考虑了前后帧骨骼度量距离的变化,但由于角度和光线的变化,骨骼度量距离的计算会产生比较大的误差,而且该方法没有固定的关键点,在行人运动中关节点的位置是随时间连续变化的,如果只考虑骨骼度量距离信息,就不能体现出行人行走时的关节点的变化规律。
发明内容
本发明的目的是解决现有技术中存在的问题,提供一种基于网格划分骨骼的行为预测方法。
为达到上述目的,本发明采用的技术方案如下:
一种基于网格划分骨骼的行为预测方法,预测结果包括下一帧中各关节点的运动类型,下一帧中各关节点的运动类型的确定过程为:
首先对测试视频帧进行密集网格划分,并根据划分网格的图像特点(即划分网格后的子网格的分布以及密集程度)判断出密集网格中心o作为固定关节点;
然后根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定多个关节点作为关键关节点;
接着学习规定的各个关节点到o的距离度量特征和角度度量特征,并将二者关联得到行人的行为特征,公式如下:
doi=(xi-xo)TM(xi-xo);
Ti=sinθiidoi
式中,doi表示关节点i到o的距离度量特征;xi和xo分别对应表示i点和o点的坐标;T表示矩阵的转置;M表示半正定矩阵;sinθi表示关节点i到o的角度度量特征;τi表示距离度量特征与角度度量特征的关联度;ρ表示分辨系数,取值为0.5;Ti表示行人的行为特征;
最后计算下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型,公式如下:
λ=Δt+ωΔ(t-1);
式中,Δt和Δ(t-1)分别对应为t帧和t-1帧中各关节点对应各运动类型的概率的先验概率,t帧为当前帧,t-1帧为当前帧的上一帧;分别对应为t-2帧、t-1帧和t帧中关节点i到o的角度度量特征,t-2帧为当前帧的上两帧;/>分别对应为t-2帧、t-1帧和t帧中关节点i到o的距离度量特征;Ti n和Ti-1 n分别对应为t帧和t-1帧的关节点运动类型的编号为n的行为特征(Ti n和Ti-1 n是根据Ti得到的,Ti表示泛指行人的行为特征,Ti n和Ti-1 n特指关节点运动类型的编号为n的行为特征,所用计算方法是一致的);n表示关节点的运动类型的编号;N表示关节点的运动类型的总数;/>表示t+1帧即下一帧中关节点i对应运动类型编号n的概率;/>分别对应为t-2帧、t-1帧和t帧中行人的行为特征;I(,)表示指示函数;η表示学习率,取值为0.05;ω表示当前帧中各关节点对应各运动类型的概率的先验概率的权重值,权重值通过实验获取最佳值并且随实际情况改变;
下一帧中各关节点的运动类型的确定方法为:分别计算n从1变化至N时的取最大值时n对应的运动类型作为下一帧中关节点i的运动类型。
作为优选的技术方案:
如上所述的一种基于网格划分骨骼的行为预测方法,预测结果还包括下一帧行人运动方向以及速度变化。
如上所述的一种基于网格划分骨骼的行为预测方法,基于网格划分骨骼的行为预测方法的步骤如下:
(1)在测试视频帧中标记行人的关节点;
(2)对测试视频帧进行密集网格划分,并根据划分网格的图像特点判断出密集网格中心o作为固定关节点,同时用每个划分网格内计算出的特征,利用上一帧和当前帧相应划分网格的区间特征的一致性,计算当前帧区间网格假设的条件概率对比判断下一帧行人运动方向以及速度变化;
(3)根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定多个关节点作为关键关节点;
(4)学习规定的各个关节点到o的距离度量特征和角度度量特征,并将二者关联得到行人的行为特征;
(5)计算下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型。
如上所述的一种基于网格划分骨骼的行为预测方法,步骤(1)中,标记行人的关节点采用自下而上的方法,具体过程为:将测试视频帧输入到CNN网络框架中,利用深度学习神经网络和卷积运算对单个彩色地图(地图在卷积神经网络的表达中是特征向量或者特征矩阵,彩色地图表示的是空间颜色直方图等)进行检测,输出人体各关节点的热点图,并用峰值来表示关节点的位置。
如上所述的一种基于网格划分骨骼的行为预测方法,步骤(2)中,每个划分网格内计算出的特征为LAB颜色空间直方图描述子特征和SIFT局部描述子特征;条件概率为通过极大似然估计方法计算出当前帧的密集网格与上一帧的密集网格是否为同一区域网格的概率;判断下一帧行人运动方向以及速度变化具体过程为:计算出不同帧的同一密集网格后,计算同一区域网格的像素位置,对比像素位置判断出运动方向,利用像素变化值与时刻的比值计算出变化速度。
如上所述的一种基于网格划分骨骼的行为预测方法,步骤(2)中,判断下一帧行人运动方向以及速度变化的同时还学习一个基于划分网格的外观模型,该模型通过训练一个在每个位姿边界框内的网格特征作为前景,其余划分的网格特征作为背景的判别分类器来区分前景和背景,一旦在当前的时间步中估计并改进了姿态,就会更新基于网格特征的外观模型以避免视觉漂移。
如上所述的一种基于网格划分骨骼的行为预测方法,步骤(3)中,关键关节点分别为行人左肘关节点a、行人右肘关节点c、左手关节点b、右手关节点d、左膝关节点e、右膝关节点g、左脚关节点f和右脚关节点j,与头部、肩部和胯部相应的关节点不同的是,行人在行走时左肘关节点a、行人右肘关节点c、左手关节点b、右手关节点d、左膝关节点e、右膝关节点g、左脚关节点f、右脚关节点j与o点的距离度量和角度度量变化幅度很大,而且行人行走时,手臂的摆幅、跨步的距离都是行人行走时习惯的表现,通过对左肘关节点a、行人右肘关节点c、左手关节点b、右手关节点d、左膝关节点e、右膝关节点g、左脚关节点f、右脚关节点j与o点的距离度量和角度度量的学习,可以学习得到行人的行走习惯从而判断下一帧行人的动作。
本发明提出的一种基于网格划分骨骼的行为预测方法利用行人的骨骼关节点信息,研究行人在运动过程中行人关键关节点(即根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定的多个关节点)与行人固定关节点的距离度量变化规律以及关键关节点与固定关节点的角度度量变化规律,并且研究两者之前的关联定义行人在运动过程中的行为特征,并结合距离度量特征、角度度量特征和行为特征等确定了下一帧中各关节点的运动类型,此外,还利用密集网格划分对行人进行划分,通过对比前后帧划分网格特征的变化判断出了行人运动方向以及速度变化。
有益效果:
(1)本发明采集行人骨骼关节点的同时通过密集网格划分找出固定关节点,通过学习中心关键点和骨骼关节点之间的距离度量和角度度量的变化以及两者之间的关联,找出行人在运动过程中的变化规律,为预测行人下一步动作奠定基础;
(2)本发明不需要大量的训练样本对模型框架进行训练,本发明主要通过学习行人的生物特征以及运动时的物理变化特征,结合行人运动学,通过前后帧的对比计算出行人在下一帧的动作的概率。
附图说明
图1为在测试视频帧中标记行人的关节点以及对测试视频帧进行密集网格划分确定固定关节点的示意图;
图2和图3为关键关节点与固定关节点的距离度量特征示意图。
具体实施方式
下面结合具体实施方式,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
一种基于网格划分骨骼的行为预测方法,步骤如下:
(1)采用自下而上的方法在测试视频帧中标记行人的关节点(如图1所示),具体过程为:将测试视频帧输入到CNN网络框架中,利用深度学习神经网络和卷积运算对单个彩色地图(地图在卷积神经网络的表达中是特征向量或者特征矩阵,彩色地图表示的是空间颜色直方图)进行检测,输出人体各关节点的热点图,并用峰值来表示关节点的位置;
(2)对测试视频帧进行密集网格划分,并根据划分网格的图像特点判断出密集网格中心o作为固定关节点(如图1所示),同时用每个划分网格内计算出的特征,利用上一帧和当前帧相应划分网格的区间特征的一致性,计算当前帧区间网格假设的条件概率对比判断下一帧行人运动方向以及速度变化,同时学习一个基于划分网格的外观模型,该模型通过训练一个在每个位姿边界框内的网格特征作为前景,其余划分的网格特征作为背景的判别分类器来区分前景和背景,一旦在当前的时间步中估计并改进了姿态,就会更新基于网格特征的外观模型以避免视觉漂移;
每个划分网格内计算出的特征为LAB颜色空间直方图描述子特征和SIFT局部描述子特征;条件概率为通过极大似然估计方法计算出当前帧的密集网格与上一帧的密集网格是否为同一区域网格的概率;判断下一帧行人运动方向以及速度变化具体过程为:计算出不同帧的同一密集网格后,计算同一区域网格的像素位置,对比像素位置判断出运动方向,利用像素变化值与时刻的比值计算出变化速度;
(3)根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定多个关节点作为关键关节点,分别为行人左肘关节点a、行人右肘关节点c、左手关节点b、右手关节点d、左膝关节点e、右膝关节点g、左脚关节点f和右脚关节点j;
(4)学习规定的各个关节点到o的距离度量特征(如图2~3所示)和角度度量特征,并将二者关联得到行人的行为特征,公式如下:
doi=(xi-xo)TM(xi-xo);
Ti=sinθiidoi
式中,doi表示关节点i到o的距离度量特征;xi和xo分别对应表示i点和o点的坐标;T表示矩阵的转置;M表示半正定矩阵;sinθi表示关节点i到o的角度度量特征;τi表示距离度量特征与角度度量特征的关联度;ρ表示分辨系数,取值为0.5;Ti表示行人的行为特征;
(5)计算下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型,公式如下:
λ=Δt+ωΔ(t-1);
式中,Δt和Δ(t-1)分别对应为t帧和t-1帧中各关节点对应各运动类型的概率的先验概率,t帧为当前帧,t-1帧为当前帧的上一帧;分别对应为t-2帧、t-1帧和t帧中关节点i到o的角度度量特征,t-2帧为当前帧的上两帧;/>分别对应为t-2帧、t-1帧和t帧中关节点i到o的距离度量特征;Ti n和Ti-1 n分别对应为t帧和t-1帧的关节点运动类型的编号为n的行为特征(Ti n和Ti-1 n是根据Ti得到的,Ti表示泛指行人的行为特征,Ti n和Ti-1 n特指关节点运动类型的编号为n的行为特征,所用计算方法是一致的);n表示关节点的运动类型的编号;N表示关节点的运动类型的总数;/>表示t+1帧即下一帧中关节点i对应运动类型编号n的概率;/>分别对应为t-2帧、t-1帧和t帧中行人的行为特征;I(,)表示指示函数;η表示学习率,取值为0.05;ω表示当前帧中各关节点对应各运动类型的概率的先验概率的权重值,权重值通过实验获取最佳值并且随实际情况改变;
下一帧中各关节点的运动类型的确定方法为:分别计算n从1变化至N时的取最大值时n对应的运动类型作为下一帧中关节点i的运动类型。
无人驾驶汽车在行车过程中,路上行人的下一步动作对无人驾驶的决策影响甚大,正确的决策可以减少交通事故的发生,也可以减少行人在交通事故中的伤亡率。本发明的预测方法可解决无人驾驶汽车对道路行人下一步行为预测问题,首先,通过汽车的摄像头捕捉到行人,采用自下而上的方法标记行人的关节点,然后进行密集网格划分确定固定关节点,同时判断下一帧行人运动方向以及速度变化,接着规定8个关键关节点,再者计算出距离度量特征、角度度量特征和行人的行为特征,最后计算出下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型,例如,通过计算判断出行人的左臂在下一帧向下运动,行人的右臂在下一帧向上运动,行人的左腿在下一帧向下运动,行人的右腿在下一帧向上运动,根据划分网格特征的判断出行人向前匀速运动,其中左右手臂和左右腿的运动方向也是向前运动,判断出行人的运动后,无人驾驶车辆做出减速避让行人优先通过的决策,避免交通事故的发生。

Claims (5)

1.一种基于网格划分骨骼的行为预测方法,其特征在于,步骤如下:
(1)在测试视频帧中标记行人的关节点;
(2)对测试视频帧进行密集网格划分,并根据划分网格的图像特点判断出密集网格中心o作为固定关节点,同时用每个划分网格内计算出的特征,利用上一帧和当前帧相应划分网格的区间特征的一致性,计算当前帧区间网格假设的条件概率对比判断下一帧行人运动方向以及速度变化;
每个划分网格内计算出的特征为LAB颜色空间直方图描述子特征和SIFT局部描述子特征;
(3)根据行人骨架特征点的分布特征及其与行人运动姿态的内涵关系规定多个关节点作为关键关节点;
关键关节点分别为行人左肘关节点a、行人右肘关节点c、左手关节点b、右手关节点d、左膝关节点e、右膝关节点g、左脚关节点f和右脚关节点j;
(4)学习规定的各个关节点到o的距离度量特征和角度度量特征,并将二者关联得到行人的行为特征,公式如下:
doi=(xi-xo)TM(xi-xo);
Ti=sinθiidoi
式中,doi表示关节点i到o的距离度量特征;xi和xo分别对应表示i点和o点的坐标;T表示矩阵的转置;M表示半正定矩阵;sinθi表示关节点i到o的角度度量特征;τi表示距离度量特征与角度度量特征的关联度;ρ表示分辨系数,取值为0.5;Ti表示行人的行为特征;
(5)计算下一帧中各关节点对应各运动类型的概率,确定下一帧中各关节点的运动类型,公式如下:
λ=Δt+ωΔ(t-1);
式中,Δt和Δ(t-1)分别对应为t帧和t-1帧中各关节点对应各运动类型的概率的先验概率,t帧为当前帧,t-1帧为当前帧的上一帧;分别对应为t-2帧、t-1帧和t帧中关节点i到o的角度度量特征,t-2帧为当前帧的上两帧;/>分别对应为t-2帧、t-1帧和t帧中关节点i到o的距离度量特征;Ti n和Ti-1 n分别对应为t帧和t-1帧的关节点运动类型的编号为n的行为特征;n表示关节点的运动类型的编号;N表示关节点的运动类型的总数;/>表示t+1帧即下一帧中关节点i对应运动类型编号n的概率;分别对应为t-2帧、t-1帧和t帧中行人的行为特征;I(,)表示指示函数;η表示学习率,取值为0.05;ω表示当前帧中各关节点对应各运动类型的概率的先验概率的权重值;
下一帧中各关节点的运动类型的确定方法为:分别计算n从1变化至N时的以/>取最大值时n对应的运动类型作为下一帧中关节点i的运动类型。
2.根据权利要求1所述的一种基于网格划分骨骼的行为预测方法,其特征在于,预测结果还包括下一帧行人运动方向以及速度变化。
3.根据权利要求1所述的一种基于网格划分骨骼的行为预测方法,其特征在于,步骤(1)中,标记行人的关节点采用自下而上的方法,具体过程为:将测试视频帧输入到CNN网络框架中,利用深度学习神经网络和卷积运算对单个彩色地图进行检测,输出人体各关节点的热点图,并用峰值来表示关节点的位置。
4.根据权利要求1所述的一种基于网格划分骨骼的行为预测方法,其特征在于,步骤(2)中,条件概率为通过极大似然估计方法计算出当前帧的密集网格与上一帧的密集网格是否为同一区域网格的概率;判断下一帧行人运动方向以及速度变化具体过程为:计算出不同帧的同一密集网格后,计算同一区域网格的像素位置,对比像素位置判断出运动方向,利用像素变化值与时刻的比值计算出变化速度。
5.根据权利要求1所述的一种基于网格划分骨骼的行为预测方法,其特征在于,步骤(2)中,判断下一帧行人运动方向以及速度变化的同时还学习一个基于划分网格的外观模型,该模型通过训练一个在每个位姿边界框内的网格特征作为前景,其余划分的网格特征作为背景的判别分类器来区分前景和背景,一旦在当前的时间步中估计并改进了姿态,就会更新基于网格特征的外观模型以避免视觉漂移。
CN202010913366.3A 2020-09-03 2020-09-03 一种基于网格划分骨骼的行为预测方法 Active CN112052786B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010913366.3A CN112052786B (zh) 2020-09-03 2020-09-03 一种基于网格划分骨骼的行为预测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010913366.3A CN112052786B (zh) 2020-09-03 2020-09-03 一种基于网格划分骨骼的行为预测方法

Publications (2)

Publication Number Publication Date
CN112052786A CN112052786A (zh) 2020-12-08
CN112052786B true CN112052786B (zh) 2023-08-22

Family

ID=73607823

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010913366.3A Active CN112052786B (zh) 2020-09-03 2020-09-03 一种基于网格划分骨骼的行为预测方法

Country Status (1)

Country Link
CN (1) CN112052786B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898471B (zh) * 2022-07-12 2022-09-30 华中科技大学 一种基于人体骨架特征的行为检测方法及存储介质
CN115810203B (zh) * 2022-12-19 2024-05-10 天翼爱音乐文化科技有限公司 一种障碍物躲避识别方法、系统、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101782968A (zh) * 2010-02-03 2010-07-21 北京航空航天大学 基于测地模型的人体骨骼提取和朝向判定方法
CN102509338A (zh) * 2011-09-20 2012-06-20 北京航空航天大学 一种基于轮廓骨架图的视频场景行为生成方法
CN105184096A (zh) * 2015-09-25 2015-12-23 河海大学 一种虚拟人运动位姿的计算方法
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN109344706A (zh) * 2018-08-28 2019-02-15 杭州电子科技大学 一种可单人操作的人体特殊姿势照片的获取方法
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN111515928A (zh) * 2020-04-15 2020-08-11 上海工程技术大学 机械臂运动控制系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10482613B2 (en) * 2017-07-06 2019-11-19 Wisconsin Alumni Research Foundation Movement monitoring system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101782968A (zh) * 2010-02-03 2010-07-21 北京航空航天大学 基于测地模型的人体骨骼提取和朝向判定方法
CN102509338A (zh) * 2011-09-20 2012-06-20 北京航空航天大学 一种基于轮廓骨架图的视频场景行为生成方法
CN105184096A (zh) * 2015-09-25 2015-12-23 河海大学 一种虚拟人运动位姿的计算方法
CN106897670A (zh) * 2017-01-19 2017-06-27 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN109344706A (zh) * 2018-08-28 2019-02-15 杭州电子科技大学 一种可单人操作的人体特殊姿势照片的获取方法
CN110188599A (zh) * 2019-04-12 2019-08-30 哈工大机器人义乌人工智能研究院 一种人体姿态行为智能分析识别方法
CN111515928A (zh) * 2020-04-15 2020-08-11 上海工程技术大学 机械臂运动控制系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多特征融合的行人再识别方法研究;王子阳;《中国优秀硕士学位论文全文数据库 工程科技Ⅱ辑》(第04期);C035-192 *

Also Published As

Publication number Publication date
CN112052786A (zh) 2020-12-08

Similar Documents

Publication Publication Date Title
CN110837778B (zh) 一种基于骨架关节点序列的交警指挥手势识别方法
CN110147743B (zh) 一种复杂场景下的实时在线行人分析与计数系统及方法
Hoogendoorn et al. Extracting microscopic pedestrian characteristics from video data
CN107545582B (zh) 基于模糊逻辑的视频多目标跟踪方法及装置
CN110070074B (zh) 一种构建行人检测模型的方法
CN104680559B (zh) 基于运动行为模式的多视角室内行人跟踪方法
Kim et al. Simultaneous gesture segmentation and recognition based on forward spotting accumulative HMMs
CN103473542B (zh) 多线索融合的目标跟踪方法
CN112052786B (zh) 一种基于网格划分骨骼的行为预测方法
CN111767847B (zh) 一种集成目标检测和关联的行人多目标跟踪方法
CN109934848A (zh) 一种基于深度学习的运动物体精准定位的方法
CN104574439A (zh) 一种融合卡尔曼滤波与tld算法的目标跟踪方法
CN112150821A (zh) 轻量化车辆检测模型构建方法、系统及装置
CN108648211A (zh) 一种基于深度学习的小目标检测方法、装置、设备和介质
CN110956139B (zh) 一种基于时间序列回归预测的人体运动动作分析方法
CN108182447A (zh) 一种基于深度学习的自适应粒子滤波目标跟踪方法
CN107066968A (zh) 基于目标识别和跟踪的融合策略的车载行人检测方法
CN106815578A (zh) 一种基于深度运动图‑尺度不变特征变换的手势识别方法
CN109242019B (zh) 一种水面光学小目标快速检测与跟踪方法
CN110956141B (zh) 一种基于局部识别的人体连续动作快速分析方法
CN108256462A (zh) 一种商场监控视频中的人数统计方法
CN107230219A (zh) 一种单目机器人上的目标人发现与跟随方法
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质
CN111626109A (zh) 一种基于双流卷积神经网络的跌倒行为分析检测方法
CN117541994A (zh) 一种密集多人场景下的异常行为检测模型及检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant