CN110532948B - 一种基于视频的高精度行人轨迹提取方法 - Google Patents
一种基于视频的高精度行人轨迹提取方法 Download PDFInfo
- Publication number
- CN110532948B CN110532948B CN201910805550.3A CN201910805550A CN110532948B CN 110532948 B CN110532948 B CN 110532948B CN 201910805550 A CN201910805550 A CN 201910805550A CN 110532948 B CN110532948 B CN 110532948B
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- image
- foot drop
- points
- pedestrians
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频的高精度行人轨迹提取方法。本发明通过对视频中的行人进行跟踪,根据其行人关键点信息提取行人图像落脚点并转化为真实落脚点,在镜头序列上将各帧落脚点连接为行人运动轨迹。本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
Description
技术领域
本发明涉及一种基于视频的高精度行人轨迹提取方法。
背景技术
随着“平安城市”建设的开展,基于视频的行人轨迹提取与分析日渐受到重视,行人轨迹不仅能够表达行人目标在地理空间中的行为,还能够提供行人目标的高级语义特征,如刑事案件嫌疑人检测、个人异常行为检测等等,既是提高视频检索的广度和深度的需要,也能在公安和安防等领域发挥重要作用。
基于视频的行人轨迹提取首先需要将视频中的行人检测出来,然后提取轨迹点或落脚点。目前常用的行人检测算法包括帧差分法、背景减除法、光流法和深度学习算法。这些检测算法可以识别图像中的行人,并在目标周围绘制大小合适的跟踪框。通过提取跟踪框中心或跟踪框底中点作为落脚点,按视频序列连接各落脚点获得行人轨迹。上述方法存在以下问题:
(1)上述方法得到的仅是在二维图像平面上的坐标,只能表现出行人在图像平面上的移动情况。由于提取的轨迹点并非行人真实落脚点,因而获得的行人轨迹并非地图空间实际的运动轨迹。虽然可以通过随身携带定位设备获取真实落脚点,但此方法受限于需要佩戴额外设备,并不适用于对视频中随机目标进行地图定位;
(2)由于只是简单地使用边界框中心或框底中点,上述方法提取的落脚点精度较低。
(3)在受到环境遮挡时,上述方法获取的跟踪框往往只反映了身体的可见部分,由此得到的落脚点与实际偏移较大;
(4)在多人重叠时,难以从多个落脚点中自动区分出属于跟踪行人的落脚点。
尽管大部分应用场景对行人轨迹精度要求较低,但是部分室内应用场景,往往要求高精度的行人轨迹,上述方法提取的轨迹难以满足要求。
针对现有方法提取行人轨迹精度较低、易受环境遮挡影响以及多人重叠时难以自动识别行人目标落脚点等问题,本发明提取行人轨迹的方法在环境遮挡和多人重叠时依然稳定可靠。
发明内容
本发明的目的在于公开了一种基于视频的高精度行人轨迹提取方法,通过对视频中的行人进行跟踪,根据其行人关键点信息提取行人图像落脚点并转化为真实落脚点,在镜头序列上将各帧落脚点连接为行人运动轨迹。
本发明的技术方案是:一种基于视频的高精度行人轨迹提取方法,包括以下步骤:
(1)、图像-地图坐标变换矩阵计算:在图像平面上选取四个具有明显识别特征的点,确定其图像坐标和对应的地图平面坐标,解算以下图像-地图坐标变换方程式,得到图像-地图坐标变换矩阵:
(2)、行人图像落脚点提取:
(2.1)、采用行人姿态检测技术检测和提取行人关键点,构建人体骨架图;当行人被物体遮挡,则用可见部分构建人体局部骨架图;
(2.2)、根据人体骨架图提取行人图像落脚点:
(2.2.1)、无环境遮挡时,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(2.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度,再推算出行人图像落脚点;
(3)、行人真实落脚点提取:将得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将提取的行人图像落脚点转换为在地图平面的行人真实落脚点;
(4)、行人轨迹提取;
(4.1)、跟踪行人目标,按步骤(2)逐帧提取行人图像落脚点;
(4.2)、分情况提取行人轨迹:
(4.2.1)、无重叠时,按步骤(3)逐帧由行人图像落脚点计算行人真实落脚点,顺序连接各帧的真实落脚点,得到行人轨迹;
(4.2.2)、多人重叠时,首先根据若干历史帧采用最小二乘法建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点,然后按步骤(3)提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为跟踪行人的轨迹点,并按(4.2.1)步骤获得行人轨迹。
本发明的有益效果是:与基于跟踪框的方法相比,本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
附图说明
图1为本发明所述的具体技术路线图;
图2为本发明所述的人体关键点示意图;
图3为本发明所述的行人行走三视图;
图4为本发明所述的行人受环境遮挡落脚点判断示意图;
图5为本发明所述的图像坐标与地图坐标转换示意图;
图6为本发明所述的行人跟踪中多人重叠示意图;
图7为本发明所述的最小二乘法地图轨迹拟合示意图。
具体实施方式
本发明如图所述:一种基于视频的高精度行人轨迹提取方法,包括以下步骤:
(1)、图像-地图坐标变换矩阵计算;
从图像和地面取四个点的图像坐标和地图坐标,解算以下图像-地图坐标变换方程式,得到图像-地图坐标变换矩阵:
(2)、行人图像落脚点提取;
(2.1)、采用OpenPose之类的行人姿态检测库检测和提取行人关键点,构建人体骨架图(如图2所示);人体关键点按编号顺序分别为鼻子、颈部、右肩、右肘、右腕、左肩、左肘、左腕、中髋、右髋、右膝、右脚踝、左髋、左膝、左脚踝、右眼、左眼、右耳、左耳、左大趾、左小趾、左后脚跟、右大趾、右小趾及右后脚跟;如果行人被物体遮挡,则用可见部分构建人体局部骨架图;
(2.2)、根据人体骨架图提取行人图像落脚点:
(2.2.1)、无环境遮挡时,由于正常行人行走过程中人的身体重量被双腿分摊,人体重心在地面的正投影点一般为双脚脚跟连线中点(如图3所示),按照此原理,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(2.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度(如图4所示),再推算出行人图像落脚点;计算公式如下:
式中,xF为行人落脚点的图像x坐标,yF为行人落脚点的图像y坐标,xm为人体骨架中心线x坐标(根据遮挡情况,xm可以为图2中的8、1、0关键点的x坐标),P为选择的骨架段(图4中身体上部虚线段)与该段顶部到人体底部的比例(按照GB10000-1988中国成年人人体尺寸数据计算),yt为该段上部的人体关键点y坐标,yb为该段下部的人体关键点y坐标。
(3)、行人真实落脚点提取;将得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将提取的行人图像落脚点转换为在地图平面的行人真实落脚点;
转换结果示例如图5所示,图中四条粗实线所连的点对为图像和地图相应点;
(4)、行人轨迹提取;
(4.1)、跟踪行人目标,按步骤(2)逐帧提取行人图像落脚点;
(4.2)、分情况提取行人轨迹:
(4.2.1)、无重叠时,按步骤(3)逐帧计算行人真实落脚点,在时间序列上顺序连接真实落脚点,得到行人轨迹;(图5中地面粗实线即为行人轨迹);
(4.2.2)、多人重叠时(如图6所示),首先根据若干历史帧采用最小二乘法对这些落脚点进行曲线拟合,建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点。如采用三次曲线拟合,拟合效果如图7中黑色实线所示,采用三次曲线预测落脚点(xp,yp)计算公式为:
式中,xf为第f帧落脚点x坐标,xp为预测帧(第p帧)落脚点x坐标,xp-f为与第f帧相差(p-f)帧的落脚点x坐标,将xp代入拟合曲线后可以得到预测落脚点坐标的y坐标;
然后按步骤(3)提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,最后在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为被跟踪行人的轨迹点,并按(4.2.1)步骤获得行人轨迹。
本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
Claims (1)
1.一种基于视频的高精度行人轨迹提取方法,其特征在于,
图像-地图坐标变换矩阵的计算:在图像和地面取四个具有明显识别特征的点,确定其图像坐标和对应的地图平面坐标,解算图像-地图坐标变换方程式得到图像-地图坐标变换矩阵:
式中u,v为图像坐标,x,y为地图坐标;
其包括以下步骤:
(1)、行人图像落脚点提取:
(1.1)、采用行人姿态检测技术检测和提取行人关键点,构建人体骨架图;如果行人被物体遮挡,则用可见部分构建人体局部骨架图;
(1.2)、根据人体骨架图提取行人图像落脚点:
(1.2.1)、无环境遮挡时,由于正常行人行走过程中人的身体重量被双腿分摊,人体重心在地面的正投影点一般为双脚脚跟连线中点,按照此原理,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(1.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度,再推算出行人图像落脚点;计算公式如下:
式中,xF为行人图像落脚点的x坐标,yF为行人图像落脚点的y坐标,xm为人体骨架中心线x坐标,P为选择的骨架段与该段顶部到人体底部的比例,yt为该段上部的人体关键点y坐标,yb为该段下部的人体关键点y坐标;
将计算得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将图像落脚点坐标转换为地图轨迹点坐标;
其提取方法具体包括以下步骤:
(1)、行人轨迹提取;
(1.1)、跟踪行人目标,逐帧提取行人图像落脚点;
(1.2)、分情况提取行人轨迹:
(1.2.1)、无重叠时,逐帧由行人图像落脚点计算行人真实落脚点,顺序连接各帧的真实落脚点,得到行人轨迹;
(1.2.2)、多人重叠时,根据若干历史帧采用最小二乘法对这些落脚点进行曲线拟合,建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点;然后提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,最后在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为被跟踪行人的轨迹点,并按上述(1.2.1)步骤获得行人轨迹;
其中,所述人体关键点按编号顺序分别为鼻子、颈部、右肩、右肘、右腕、左肩、左肘、左腕、中髋、右髋、右膝、右脚踝、左髋、左膝、左脚踝、右眼、左眼、右耳、左耳、左大趾、左小趾、左后脚跟、右大趾、右小趾及右后脚跟。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805550.3A CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805550.3A CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110532948A CN110532948A (zh) | 2019-12-03 |
CN110532948B true CN110532948B (zh) | 2023-05-30 |
Family
ID=68664987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910805550.3A Active CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110532948B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111477013B (zh) * | 2020-04-01 | 2021-06-25 | 清华大学苏州汽车研究院(吴江) | 一种基于地图影像的车辆测量方法 |
CN112749658A (zh) * | 2020-04-30 | 2021-05-04 | 杨九妹 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
CN111553291B (zh) * | 2020-04-30 | 2023-10-17 | 北京爱笔科技有限公司 | 行人轨迹的生成方法、装置、设备及计算机存储介质 |
CN112967337B (zh) * | 2021-03-23 | 2022-05-03 | 乐聚(深圳)机器人技术有限公司 | 双足机器人控制方法、装置以及双足机器人 |
CN116820251B (zh) * | 2023-08-28 | 2023-11-07 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234927A (zh) * | 2016-12-20 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视频追踪方法和系统 |
CN109949341A (zh) * | 2019-03-08 | 2019-06-28 | 广东省智能制造研究所 | 一种基于人体骨架结构化特征的行人目标跟踪方法 |
-
2019
- 2019-08-29 CN CN201910805550.3A patent/CN110532948B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234927A (zh) * | 2016-12-20 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视频追踪方法和系统 |
CN109949341A (zh) * | 2019-03-08 | 2019-06-28 | 广东省智能制造研究所 | 一种基于人体骨架结构化特征的行人目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
基于视频的行人运动轨迹再现与过街行为表达;江晟等;《东南大学学报(自然科学版)》;20121120(第06期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110532948A (zh) | 2019-12-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532948B (zh) | 一种基于视频的高精度行人轨迹提取方法 | |
Bian et al. | Fall detection based on body part tracking using a depth camera | |
US10417775B2 (en) | Method for implementing human skeleton tracking system based on depth data | |
RU2546327C1 (ru) | Устройство для отслеживания человека, способ отслеживания человека и невременный машиночитаемый носитель, хранящий программу для отслеживания человека | |
WO2019232894A1 (zh) | 一种基于复杂场景下的人体关键点检测系统及方法 | |
Dikovski et al. | Evaluation of different feature sets for gait recognition using skeletal data from Kinect | |
CN110287825B (zh) | 一种基于关键骨骼点轨迹分析的摔倒动作检测方法 | |
US9183431B2 (en) | Apparatus and method for providing activity recognition based application service | |
Wang et al. | Lying pose recognition for elderly fall detection | |
CN111753747B (zh) | 基于单目摄像头和三维姿态估计的剧烈运动检测方法 | |
CN109344694B (zh) | 一种基于三维人体骨架的人体基本动作实时识别方法 | |
Zhang et al. | Unsupervised skeleton extraction and motion capture from 3D deformable matching | |
CN114565882B (zh) | 基于多视频摄像头智能联动的异常行为分析方法及装置 | |
Xu et al. | Elders’ fall detection based on biomechanical features using depth camera | |
CN106030610A (zh) | 移动设备的实时3d姿势识别和跟踪系统 | |
Ahmad et al. | Human action recognition using convolutional neural network and depth sensor data | |
CN106815855A (zh) | 基于产生式和判别式结合的人体运动跟踪方法 | |
Bhargavas et al. | Human identification using gait recognition | |
Ma et al. | Human motion gesture recognition based on computer vision | |
Yan et al. | Human-object interaction recognition using multitask neural network | |
Shi et al. | An underground abnormal behavior recognition method based on an optimized alphapose-st-gcn | |
Jung et al. | Heel strike detection based on human walking movement for surveillance analysis | |
Planinc et al. | Computer vision for active and assisted living | |
Liu et al. | Key algorithm for human motion recognition in virtual reality video sequences based on hidden markov model | |
Jarraya | Computer vision-based fall detection methods using the kinect camera: A survey |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |