CN110532948A - 一种基于视频的高精度行人轨迹提取方法 - Google Patents
一种基于视频的高精度行人轨迹提取方法 Download PDFInfo
- Publication number
- CN110532948A CN110532948A CN201910805550.3A CN201910805550A CN110532948A CN 110532948 A CN110532948 A CN 110532948A CN 201910805550 A CN201910805550 A CN 201910805550A CN 110532948 A CN110532948 A CN 110532948A
- Authority
- CN
- China
- Prior art keywords
- pedestrian
- foothold
- image
- coordinate
- track
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 239000000284 extract Substances 0.000 claims abstract description 9
- 230000009466 transformation Effects 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 7
- 210000003423 ankle Anatomy 0.000 claims description 4
- 210000001255 hallux Anatomy 0.000 claims description 4
- 210000003127 knee Anatomy 0.000 claims description 4
- 210000000707 wrist Anatomy 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 210000000454 fifth toe Anatomy 0.000 claims description 3
- 240000006409 Acacia auriculiformis Species 0.000 claims description 2
- 210000005069 ears Anatomy 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 claims description 2
- 108010084652 homeobox protein PITX1 Proteins 0.000 claims description 2
- 210000002414 leg Anatomy 0.000 claims description 2
- 230000037396 body weight Effects 0.000 claims 1
- 238000000605 extraction Methods 0.000 abstract description 7
- 230000000694 effects Effects 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
- G06V40/25—Recognition of walking or running movements, e.g. gait recognition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于视频的高精度行人轨迹提取方法。本发明通过对视频中的行人进行跟踪,根据其行人关键点信息提取行人图像落脚点并转化为真实落脚点,在镜头序列上将各帧落脚点连接为行人运动轨迹。本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
Description
技术领域
本发明涉及一种基于视频的高精度行人轨迹提取方法。
背景技术
随着“平安城市”建设的开展,基于视频的行人轨迹提取与分析日渐受到重视,行人轨迹不仅能够表达行人目标在地理空间中的行为,还能够提供行人目标的高级语义特征,如刑事案件嫌疑人检测、个人异常行为检测等等,既是提高视频检索的广度和深度的需要,也能在公安和安防等领域发挥重要作用。
基于视频的行人轨迹提取首先需要将视频中的行人检测出来,然后提取轨迹点或落脚点。目前常用的行人检测算法包括帧差分法、背景减除法、光流法和深度学习算法。这些检测算法可以识别图像中的行人,并在目标周围绘制大小合适的跟踪框。通过提取跟踪框中心或跟踪框底中点作为落脚点,按视频序列连接各落脚点获得行人轨迹。上述方法存在以下问题:
(1)上述方法得到的仅是在二维图像平面上的坐标,只能表现出行人在图像平面上的移动情况。由于提取的轨迹点并非行人真实落脚点,因而获得的行人轨迹并非地图空间实际的运动轨迹。虽然可以通过随身携带定位设备获取真实落脚点,但此方法受限于需要佩戴额外设备,并不适用于对视频中随机目标进行地图定位;
(2)由于只是简单地使用边界框中心或框底中点,上述方法提取的落脚点精度较低。
(3)在受到环境遮挡时,上述方法获取的跟踪框往往只反映了身体的可见部分,由此得到的落脚点与实际偏移较大;
(4)在多人重叠时,难以从多个落脚点中自动区分出属于跟踪行人的落脚点。
尽管大部分应用场景对行人轨迹精度要求较低,但是部分室内应用场景,往往要求高精度的行人轨迹,上述方法提取的轨迹难以满足要求。
针对现有方法提取行人轨迹精度较低、易受环境遮挡影响以及多人重叠时难以自动识别行人目标落脚点等问题,本发明提取行人轨迹的方法在环境遮挡和多人重叠时依然稳定可靠。
发明内容
本发明的目的在于公开了一种基于视频的高精度行人轨迹提取方法,通过对视频中的行人进行跟踪,根据其行人关键点信息提取行人图像落脚点并转化为真实落脚点,在镜头序列上将各帧落脚点连接为行人运动轨迹。
本发明的技术方案是:一种基于视频的高精度行人轨迹提取方法,包括以下步骤:
(1)、图像-地图坐标变换矩阵计算:在图像平面上选取四个具有明显识别特征的点,确定其图像坐标和对应的地图平面坐标,解算以下图像-地图坐标变换方程式,得到图像-地图坐标变换矩阵:
(2)、行人图像落脚点提取:
(2.1)、采用行人姿态检测技术检测和提取行人关键点,构建人体骨架图;当行人被物体遮挡,则用可见部分构建人体局部骨架图;
(2.2)、根据人体骨架图提取行人图像落脚点:
(2.2.1)、无环境遮挡时,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(2.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度,再推算出行人图像落脚点;
(3)、行人真实落脚点提取:将得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将提取的行人图像落脚点转换为在地图平面的行人真实落脚点;
(4)、行人轨迹提取;
(4.1)、跟踪行人目标,按步骤(2)逐帧提取行人图像落脚点;
(4.2)、分情况提取行人轨迹:
(4.2.1)、无重叠时,按步骤(3)逐帧由行人图像落脚点计算行人真实落脚点,顺序连接各帧的真实落脚点,得到行人轨迹;
(4.2.2)、多人重叠时,首先根据若干历史帧采用最小二乘法建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点,然后按步骤(3)提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为跟踪行人的轨迹点,并按(4.2.1)步骤获得行人轨迹。
本发明的有益效果是:与基于跟踪框的方法相比,本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
附图说明
图1为本发明所述的具体技术路线图;
图2为本发明所述的人体关键点示意图;
图3为本发明所述的行人行走三视图;
图4为本发明所述的行人受环境遮挡落脚点判断示意图;
图5为本发明所述的图像坐标与地图坐标转换示意图;
图6为本发明所述的行人跟踪中多人重叠示意图;
图7为本发明所述的最小二乘法地图轨迹拟合示意图。
具体实施方式
本发明如图所述:一种基于视频的高精度行人轨迹提取方法,包括以下步骤:
(1)、图像-地图坐标变换矩阵计算;
从图像和地面取四个点的图像坐标和地图坐标,解算以下图像-地图坐标变换方程式,得到图像-地图坐标变换矩阵:
式中u,v为图像坐标,x,y为地图坐标,为图像-地图坐标变换矩阵;
(2)、行人图像落脚点提取;
(2.1)、采用OpenPose之类的行人姿态检测库检测和提取行人关键点,构建人体骨架图(如图2所示);人体关键点按编号顺序分别为鼻子、颈部、右肩、右肘、右腕、左肩、左肘、左腕、中髋、右髋、右膝、右脚踝、左髋、左膝、左脚踝、右眼、左眼、右耳、左耳、左大趾、左小趾、左后脚跟、右大趾、右小趾及右后脚跟;如果行人被物体遮挡,则用可见部分构建人体局部骨架图;
(2.2)、根据人体骨架图提取行人图像落脚点:
(2.2.1)、无环境遮挡时,由于正常行人行走过程中人的身体重量被双腿分摊,人体重心在地面的正投影点一般为双脚脚跟连线中点(如图3所示),按照此原理,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(2.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度(如图4所示),再推算出行人图像落脚点;计算公式如下:
式中,xF为行人落脚点的图像x坐标,yF为行人落脚点的图像y坐标,xm为人体骨架中心线x坐标(根据遮挡情况,xm可以为图2中的8、1、0关键点的x坐标),P为选择的骨架段(图4中身体上部虚线段)与该段顶部到人体底部的比例(按照GB10000-1988中国成年人人体尺寸数据计算),yt为该段上部的人体关键点y坐标,yb为该段下部的人体关键点y坐标。
(3)、行人真实落脚点提取;将得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将提取的行人图像落脚点转换为在地图平面的行人真实落脚点;
转换结果示例如图5所示,图中四条粗实线所连的点对为图像和地图相应点;
(4)、行人轨迹提取;
(4.1)、跟踪行人目标,按步骤(2)逐帧提取行人图像落脚点;
(4.2)、分情况提取行人轨迹:
(4.2.1)、无重叠时,按步骤(3)逐帧计算行人真实落脚点,在时间序列上顺序连接真实落脚点,得到行人轨迹;(图5中地面粗实线即为行人轨迹);
(4.2.2)、多人重叠时(如图6所示),首先根据若干历史帧采用最小二乘法对这些落脚点进行曲线拟合,建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点。如采用三次曲线拟合,拟合效果如图7中黑色实线所示,采用三次曲线预测落脚点(xp,yp)计算公式为:
式中,xf为第f帧落脚点x坐标,xp为预测帧(第p帧)落脚点x坐标,xp-f为与第f帧相差(p-f)帧的落脚点x坐标,将xp代入拟合曲线后可以得到预测落脚点坐标的y坐标;
然后按步骤(3)提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,最后在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为被跟踪行人的轨迹点,并按(4.2.1)步骤获得行人轨迹。
本发明基于人体关键点获取的行人落脚点精度有明显的提高,且考虑到了环境遮挡和多人重叠的情况,提取效果更为稳定,适合于室内或其他需要高精度行人轨迹的应用场景。
Claims (5)
1.一种基于视频的高精度行人轨迹提取方法,其特征在于,
图像-地图坐标变换矩阵的计算:在图像和地面取四个具有明显识别特征的点,确定其图像坐标和对应的地图平面坐标,解算图像-地图坐标变换方程式得到图像-地图坐标变换矩阵:
式中u,v为图像坐标,x,y为地图坐标,为图像-地图坐标变换矩阵。
2.根据权利要求1所述的一种基于视频的高精度行人轨迹提取方法,其特征在于,包括以下步骤:
(1)、行人图像落脚点提取:
(1.1)、采用行人姿态检测技术检测和提取行人关键点,构建人体骨架图;如果行人被物体遮挡,则用可见部分构建人体局部骨架图;
(1.2)、根据人体骨架图提取行人图像落脚点:
(1.2.1)、无环境遮挡时,由于正常行人行走过程中人的身体重量被双腿分摊,人体重心在地面的正投影点一般为双脚脚跟连线中点,按照此原理,使用双脚脚跟关键点连线中点作为行人图像落脚点;
(1.2.2)、有环境遮挡时,根据人体局部骨架图,由人体骨架中心线未遮挡的关键点之间的长度按人体比例P计算出行人实际高度,再推算出行人图像落脚点。计算公式如下:
式中,xF为行人图像落脚点的x坐标,yF为行人图像落脚点的y坐标,xm为人体骨架中心线x坐标,P为选择的骨架段与该段顶部到人体底部的比例,yt为该段上部的人体关键点y坐标,yb为该段下部的人体关键点y坐标。
3.根据权利要求1所述的一种基于视频的高精度行人轨迹提取方法,其特征在于,将计算得到的图像-地图坐标变换矩阵和图像-地图坐标变换方程式,将图像落脚点坐标转换为地图轨迹点坐标。
4.根据权利要求1、2及3所述的一种基于视频的高精度行人轨迹提取方法,其特征在于,包括以下步骤:
(1)、行人轨迹提取;
(1.1)、跟踪行人目标,逐帧提取行人图像落脚点;
(1.2)、分情况提取行人轨迹:
(1.2.1)、无重叠时,逐帧由行人图像落脚点计算行人真实落脚点,顺序连接各帧的真实落脚点,得到行人轨迹;
(1.2.2)、多人重叠时,根据若干历史帧采用最小二乘法对这些落脚点进行曲线拟合,建立行人轨迹拟合曲线,并根据该拟合曲线获得当前帧中被跟踪行人的预测落脚点;然后提取当前视频帧中所有与被跟踪行人重叠的行人的真实落脚点集合,最后在重叠行人落脚点集合中选择与预测落脚点欧氏距离最为接近的点作为被跟踪行人的轨迹点,并按上述(1.2.1)步骤获得行人轨迹。
5.根据权利要求2所述的一种基于视频的高精度行人轨迹提取方法,其特征在于,所述人体关键点按编号顺序分别为鼻子、颈部、右肩、右肘、右腕、左肩、左肘、左腕、中髋、右髋、右膝、右脚踝、左髋、左膝、左脚踝、右眼、左眼、右耳、左耳、左大趾、左小趾、左后脚跟、右大趾、右小趾及右后脚跟。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805550.3A CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910805550.3A CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110532948A true CN110532948A (zh) | 2019-12-03 |
CN110532948B CN110532948B (zh) | 2023-05-30 |
Family
ID=68664987
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910805550.3A Active CN110532948B (zh) | 2019-08-29 | 2019-08-29 | 一种基于视频的高精度行人轨迹提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110532948B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111477013A (zh) * | 2020-04-01 | 2020-07-31 | 清华大学苏州汽车研究院(吴江) | 一种基于地图影像的车辆测量方法 |
CN111488858A (zh) * | 2020-04-30 | 2020-08-04 | 杨九妹 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
CN111553291A (zh) * | 2020-04-30 | 2020-08-18 | 北京爱笔科技有限公司 | 行人轨迹的生成方法、装置、设备及计算机存储介质 |
CN112967337A (zh) * | 2021-03-23 | 2021-06-15 | 乐聚(深圳)机器人技术有限公司 | 双足机器人控制方法、装置以及双足机器人 |
CN114463379A (zh) * | 2021-12-28 | 2022-05-10 | 天津大学 | 一种视频关键点的动态捕捉方法及装置 |
CN116820251A (zh) * | 2023-08-28 | 2023-09-29 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234927A (zh) * | 2016-12-20 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视频追踪方法和系统 |
CN109949341A (zh) * | 2019-03-08 | 2019-06-28 | 广东省智能制造研究所 | 一种基于人体骨架结构化特征的行人目标跟踪方法 |
-
2019
- 2019-08-29 CN CN201910805550.3A patent/CN110532948B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108234927A (zh) * | 2016-12-20 | 2018-06-29 | 腾讯科技(深圳)有限公司 | 视频追踪方法和系统 |
CN109949341A (zh) * | 2019-03-08 | 2019-06-28 | 广东省智能制造研究所 | 一种基于人体骨架结构化特征的行人目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
江晟等: "基于视频的行人运动轨迹再现与过街行为表达", 《东南大学学报(自然科学版)》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111477013A (zh) * | 2020-04-01 | 2020-07-31 | 清华大学苏州汽车研究院(吴江) | 一种基于地图影像的车辆测量方法 |
CN111488858A (zh) * | 2020-04-30 | 2020-08-04 | 杨九妹 | 大数据金融安防系统行人行为分析方法、系统及机器人 |
CN111553291A (zh) * | 2020-04-30 | 2020-08-18 | 北京爱笔科技有限公司 | 行人轨迹的生成方法、装置、设备及计算机存储介质 |
CN111553291B (zh) * | 2020-04-30 | 2023-10-17 | 北京爱笔科技有限公司 | 行人轨迹的生成方法、装置、设备及计算机存储介质 |
CN112967337A (zh) * | 2021-03-23 | 2021-06-15 | 乐聚(深圳)机器人技术有限公司 | 双足机器人控制方法、装置以及双足机器人 |
CN112967337B (zh) * | 2021-03-23 | 2022-05-03 | 乐聚(深圳)机器人技术有限公司 | 双足机器人控制方法、装置以及双足机器人 |
CN114463379A (zh) * | 2021-12-28 | 2022-05-10 | 天津大学 | 一种视频关键点的动态捕捉方法及装置 |
CN116820251A (zh) * | 2023-08-28 | 2023-09-29 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
CN116820251B (zh) * | 2023-08-28 | 2023-11-07 | 中数元宇数字科技(上海)有限公司 | 一种手势轨迹交互方法、智能眼镜及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN110532948B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110532948A (zh) | 一种基于视频的高精度行人轨迹提取方法 | |
JP7039409B2 (ja) | 映像解析装置、人物検索システムおよび人物検索方法 | |
Kim et al. | Pedx: Benchmark dataset for metric 3-d pose estimation of pedestrians in complex urban intersections | |
Bunyak et al. | Flux tensor constrained geodesic active contours with sensor fusion for persistent object tracking | |
EP2707834B1 (en) | Silhouette-based pose estimation | |
CN110070010A (zh) | 一种基于行人重识别的人脸属性关联方法 | |
CN104021538B (zh) | 物体定位方法和装置 | |
US20140270540A1 (en) | Determining dimension of target object in an image using reference object | |
CN109934848A (zh) | 一种基于深度学习的运动物体精准定位的方法 | |
CN103119627A (zh) | 用于云辅助式扩增现实的可适应性框架 | |
CN106033601A (zh) | 检测异常情形的方法和装置 | |
CN110941996A (zh) | 一种基于生成对抗网络的目标及轨迹增强现实方法和系统 | |
CN107689060A (zh) | 目标对象的视觉处理方法、装置及基于视觉处理的设备 | |
Snidaro et al. | Automatic camera selection and fusion for outdoor surveillance under changing weather conditions | |
CN108256567A (zh) | 一种基于深度学习的目标识别方法及系统 | |
Bhargavas et al. | Human identification using gait recognition | |
JPH10255057A (ja) | 移動物体抽出装置 | |
Xu et al. | Real-time detection via homography mapping of foreground polygons from multiple cameras | |
KR102558054B1 (ko) | 딥러닝 모델을 이용한 낙상 상황 검출 방법 및 장치 | |
Rim et al. | Real-time human pose estimation using RGB-D images and deep learning | |
CN113111743A (zh) | 人员距离探测方法及装置 | |
Li et al. | A hybrid pose tracking approach for handheld augmented reality | |
CN114372996B (zh) | 一种面向室内场景的行人轨迹生成方法 | |
Jung et al. | Detection human motion with heel strikes for surveillance analysis | |
Ababsa | Advanced 3D localization by fusing measurements from GPS, inertial and vision sensors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |