CN115761603A - 基于改进yolov5免标定的视频图像立定跳远测距方法 - Google Patents

基于改进yolov5免标定的视频图像立定跳远测距方法 Download PDF

Info

Publication number
CN115761603A
CN115761603A CN202310025302.3A CN202310025302A CN115761603A CN 115761603 A CN115761603 A CN 115761603A CN 202310025302 A CN202310025302 A CN 202310025302A CN 115761603 A CN115761603 A CN 115761603A
Authority
CN
China
Prior art keywords
tester
detection frame
jump
video image
standing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310025302.3A
Other languages
English (en)
Other versions
CN115761603B (zh
Inventor
黄清仪
杨赛赛
查良瑜
赵俊博
陈刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Zhewang Digital Intelligence Technology Development Co ltd
Institute Of Computer Innovation Technology Zhejiang University
Original Assignee
Zhejiang Zhewang Digital Intelligence Technology Development Co ltd
Institute Of Computer Innovation Technology Zhejiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Zhewang Digital Intelligence Technology Development Co ltd, Institute Of Computer Innovation Technology Zhejiang University filed Critical Zhejiang Zhewang Digital Intelligence Technology Development Co ltd
Priority to CN202310025302.3A priority Critical patent/CN115761603B/zh
Publication of CN115761603A publication Critical patent/CN115761603A/zh
Application granted granted Critical
Publication of CN115761603B publication Critical patent/CN115761603B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种基于改进YOLOV5免标定的视频图像立定跳远测距方法。通过相机从立定跳远的侧方对立定跳远进行拍摄视频图像,通过改进YOLOV5模型检测识别视频图像中跳远垫子上的起跳线位置、终止线的位置、立定跳远的测试者的双脚位置,并判断测试者是否有踩线;判断是否起跳以及起跳之后测试者的落地点位置,并以落地点位置为基点判断测试者的落地过程是否平稳;在确认落地点位置和平稳落地点后判断测试者起身,并在起身后识别获得立定跳远的跳远距离。本发明能更好的适用于实际的复杂场景,自动检测起跳线和终止线,可以实现基于2D画面测距,可以省去人工相机标定以及矫正的过程。

Description

基于改进YOLOV5免标定的视频图像立定跳远测距方法
技术领域
本发明涉及计算机视觉领域的一种视频图像运动测量方法,尤其涉及视频图像的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法。
背景技术
立定跳远是国家学生体质健康测试中的一项必测项目,全国各地的体育中考都将立定跳远纳入体测,以及中考必考或选考项目,可见立定跳远的重要性。目前的立定跳远自动测距的方式主要有两种,基于传感器(如红外线传感器、激光测距法等)的立定跳远测试和基于计算机视觉的立定跳远测试。
利用传感器计数,结构简单,容易受外界干扰,落地移动等方面误判率较高,实用性并不是很强。
基于计算机视觉有两种:1.基于3D数据测距,需要利用到深度相机或者激光雷达,价格高昂。算法上是实现上也比较复杂,同时对计算机性能要求高。2.基于2D数据测距,需要人工标定相机、矫正;通常基于人体的脚踝关键点来计算跳远距离,但实际跳远距离是按脚后跟来计算的,这里便会存在一个转换误差的问题。
因此,急需一种自动化立定跳远测距方法,来提高测试效率、自动化程度以及准确率。
发明内容
为了解决背景技术中存在的问题,本发明提供了一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,以解决现有方法测试前必须先人工标定相机且相机位置不能移动,以及解决基于脚踝关键点来估算跳远距离精度不高的问题,能够提高测试效率、自动化程度以及准确率。
本发明的目的是通过以下技术方案来实现的,包括如下步骤:
方法是通过相机从立定跳远的侧方对立定跳远进行拍摄视频图像,相机的朝向垂直于立定跳远的方向,进而对视频图像进行分析处理获得立定跳远的测距:
(1)通过改进YOLOV5模型检测识别视频图像中跳远垫子上的起跳线位置、终止线的位置、立定跳远的测试者的双脚位置,并判断测试者是否有踩线;
(2)判断是否起跳以及起跳之后测试者的落地点位置,并以落地点位置为基点判断测试者的落地过程是否平稳;
(3)在确认落地点位置和平稳落地点后判断测试者起身,并在起身后识别获得立定跳远的跳远距离。
所述步骤(1)中,所述的改进YOLOV5模型中的检测框设置为带有角度、可检测倾斜的框,通过检测框检测跳远垫子上的起跳线和终止线的位置以及测试者的双脚位置,并根据双脚位置的检测框进行判断测试者是否有踩线:具体是判断双脚位置的检测框中靠近终止线的两个角点是否处于起跳线和终止线之间,若处于起跳线和终止线之间则有踩线,否则没有踩线。
YOLOV5模型是现有的模型,本发明改进YOLOV5模型是在YOLOV5模型基础上将检测框进行优化改进,模型内部的拓扑结构未变。改进YOLOV5模型的输入是视频图像,输出了带有角度、可倾斜的、能够分别展示出跳远垫子上的起跳线位置、终止线的位置、立定跳远的测试者的双脚位置的三种框。
原版的YOLOV5模型的检测框是方方正正的物体,改进后YOLOV5模型的检测框可以带有角度、可以检测倾斜的框,这样能够有效检测出跳远垫子上的起跳线和终止线的位置以及测试者双脚的位置。
本发明方法通过改进YOLOV5模型实现带有旋转角度的检测框。
具体实施中,测试者是从视频图像的左侧向右侧跳远,则判断双脚位置的检测框的右上角和右下角的中点是否都在起跳线的左边,若在则未踩线,若不在则踩线,提示测试踩线。
如图2所示,改进YOLOV5模型检测到起跳线和终止线的倾斜检测框,取倾斜检测框的中心线分别为起跳线和终止线,并记录。改进YOLOV5模型检测到双脚位置的检测框,取双脚检测框的右上角和右下角与起跳线对比,若都在起跳线左边则没有踩线;反之提示踩线。
所述步骤(2)具体包括如下子步骤:
2.1)判断测试者是否起跳,具体是通过测试者的双脚位置的检测框中心点沿立定跳远在视频图像中方向的变化率是否超过预设的起跳变化阈值进行判断:
若超过预设的起跳变化阈值,则起跳,进行下一步;
若未超过预设的起跳变化阈值,则未起跳,回到步骤(1)一直检测是否踩线;
具体实施中,立定跳远在视频图像中方向为横向方向,则判断双脚位置的检测框中心点横坐标的变化率和预设的起跳变化阈值进行比较判断。
通过测试者双脚检测框的中心点横坐标的变化率来判断,变化率 =( t时刻的右脚检测框的中心点横坐标) -( t-1时刻的右脚检测框的中心点横坐标),如果大于50则表示已经起跳。
2.2)在跳远之后确认测试者的落地点位置,具体是以视频图像的左上角作为原点建立坐标系,通过测试者的双脚位置的检测框中心点沿垂直于立定跳远在视频图像中方向的变化率进行判断,将变化率由正转负或者由负转正的时刻下双脚位置的检测框的中心点作为落地点;
具体实施中,立定跳远在视频图像中方向为横向方向,则判断双脚位置的检测框中心点纵坐标的变化率是否由正转负进行比较判断。
在opencv中的左上角设置为坐标系的原点坐标,测试者在跳远上升阶段,t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标为负值;在跳远下降阶段,t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标为正值。
在下降阶段后t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标值由正转负,则是落脚点。根据测试者双脚检测框中线纵坐标的变化来判断,由正转负则是落地点。
2.3)判断测试者是否落地平稳,具体是检测视频图像的最后一帧中测试者的双脚位置的检测框作为最后检测框,以最后检测框的中心到落地点的距离和预设的落地阈值进行比较判断:若最后检测框的中心到落地点的距离大于预设的落地阈值,则判断落地移动,落地过程不平稳;否则未落地移动,落地过程平稳。
如图3所示,实时检测测试者右脚检测框中线点到落地点的距离,大于50则判断落地移动。
所述步骤(3)包括如下子步骤:
3.1)在确认落地点位置和落地平稳后,检测视频图像中测试者的整个人体的检测框的长宽比和预设的比例阈值进行比较判断测试者是否起身:
若整个人体的检测框的长宽比大于预设的比例阈值,则测试者起身;否则测试者未起身;
具体实施中,人体检测框的长宽比大于2则判断为起身了。
3.2)在起身后,以起身时的测试者的双脚位置的检测框为准计算跳远距离:分别计算起身后每支脚位置的检测框到起跳线的距离占起跳线到终止线的距离的比例,再乘以起跳线到终止线的实际距离分别得到两支脚的最终落脚处到起跳线的距离作为参考跳远距离,取双脚的参考跳远距离两者中的较小值为最终的跳远距离。
本发明的技术方案概括为:
1.检测识别跳远垫子上的起跳线位置、终止线的位置以及跳远测试者双脚的位置,并判断测试者是否有踩线;
2.判断是否起跳,以及起跳后在跳远的过程中,实时确认跳远测试者的落地点位置,并判断测试者在跳远落地过程是否平稳;
3.确认落地点位置和平稳落地点后,并判断测试者起身后,通过转换得到左右脚距离起跳线的距离,跳远的距离取两者的较小值。
本发明的有益效果是:
本发明通过改进YOLOV5模型并结合图像算法处理检测识别跳远垫子上的起跳线位置、终止线的位置,大大提高测试的效率,同时保证高精度。
本发明能更好的适用于实际的复杂场景,自动检测跳远垫子上的起跳线和终止线,可以实现基于2D画面测距,可以省去人工相机标定以及矫正的过程。且具有通用性强、使用简便等优点。
附图说明
图1为本发明实施例提供的视频图像立定跳远测距方法的流程示意图。
图2为实施例通过改进YOLOV5模型检测结果的示意图。
图3为实施例判断测试者是否落地平稳的示意图。
图4为实施例最终跳远距离识别检测的示意图。
图5为实际场景跳远测距图。
具体实施方式
下面结合附图和具体实施对本发明作进一步说明。
本发明是一种基于改进YOLOV5模型自动检测识别跳远垫子上的起跳线位置、终止线的位置,可以免去人工相机标定以及矫正的工作。
本发明方法的具体实施执行流程包括以下步骤:
方法是通过相机从立定跳远的侧方对立定跳远进行拍摄视频图像,相机的朝向垂直于立定跳远的方向,进而对视频图像进行分析处理获得立定跳远的测距:
(1)通过改进YOLOV5模型检测识别视频图像中跳远垫子上的起跳线位置、终止线的位置、立定跳远的测试者的双脚位置,并判断测试者是否有踩线;
步骤(1)中,改进YOLOV5模型中的检测框设置为带有角度、可检测倾斜的框,通过检测框检测跳远垫子上的起跳线和终止线的位置以及测试者的双脚位置,并根据双脚位置的检测框进行判断测试者是否有踩线:具体是判断双脚位置的检测框中靠近终止线的两个角点是否处于起跳线和终止线之间,若处于起跳线和终止线之间则有踩线,否则没有踩线。
原版的YOLOV5检测框是方方正正的物体,改进后的YOLOV5检测框可以带有角度、可以检测倾斜的框,这样能够有效检测出跳远垫子上的起跳线和终止线的位置以及测试者双脚的位置。
本发明方法通过改进YOLOV5模型实现带有旋转角度的检测框。
具体实施中,测试者是从视频图像的左侧向右侧跳远,则判断双脚位置的检测框的右上角和右下角的中点是否都在起跳线的左边,若在则未踩线,若不在则踩线,提示测试踩线。
如图2所示,改进YOLOV5模型检测到起跳线和终止线的倾斜检测框,取倾斜检测框的中心线分别为起跳线和终止线,并记录。改进YOLOV5模型检测到双脚位置的检测框,取双脚检测框的右上角和右下角与起跳线对比,若都在起跳线左边则没有踩线;反之提示踩线。
(2)判断是否起跳以及起跳之后测试者的落地点位置,并以落地点位置为基点判断测试者的落地过程是否平稳;
2.1)判断测试者是否起跳,具体是通过测试者的双脚位置的检测框中心点沿立定跳远在视频图像中方向的变化率是否超过预设的起跳变化阈值进行判断:
若超过预设的起跳变化阈值,则起跳,进行下一步;
若未超过预设的起跳变化阈值,则未起跳,回到步骤(1)一直检测是否踩线;
具体实施中,立定跳远在视频图像中方向为横向方向,则判断双脚位置的检测框中心点横坐标的变化率和预设的起跳变化阈值进行比较判断。
通过测试者双脚检测框的中心点横坐标的变化率来判断,变化率 =( t时刻的右脚检测框的中心点横坐标) -( t-1时刻的右脚检测框的中心点横坐标),如果大于50则表示已经起跳。
2.2)在跳远之后确认测试者的落地点位置,具体是以视频图像的左上角作为原点建立坐标系,通过测试者的双脚位置的检测框中心点沿垂直于立定跳远在视频图像中方向的变化率进行判断,将变化率由正转负或者由负转正的时刻下双脚位置的检测框的中心点作为落地点;
具体实施中,立定跳远在视频图像中方向为横向方向,则判断双脚位置的检测框中心点纵坐标的变化率是否由正转负进行比较判断。
在opencv中的左上角设置为坐标系的原点坐标,测试者在跳远上升阶段,t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标为负值;在跳远下降阶段,t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标为正值。
在下降阶段后t时刻右脚检测框的中心点纵坐标减去t-1时刻右脚检测框的中心点纵坐标值由正转负,则是落脚点。根据测试者双脚检测框中线纵坐标的变化来判断,由正转负则是落地点。
2.3)判断测试者是否落地平稳,具体是检测视频图像的最后一帧中测试者的双脚位置的检测框作为最后检测框,以最后检测框的中心到落地点的距离和预设的落地阈值进行比较判断:若最后检测框的中心到落地点的距离大于预设的落地阈值,则判断落地移动,落地过程不平稳;否则未落地移动,落地过程平稳。
如图3所示,实时检测测试者右脚检测框中线点到落地点的距离,大于50则判断落地移动。
(3)在确认落地点位置和平稳落地点后判断测试者起身,并在起身后识别获得立定跳远的跳远距离。
3.1)在确认落地点位置和落地平稳后,检测视频图像中测试者的整个人体的检测框的长宽比和预设的比例阈值进行比较判断测试者是否起身:
若整个人体的检测框的长宽比大于预设的比例阈值,则测试者起身;否则测试者未起身;
具体实施中,人体检测框的长宽比大于2则判断为起身了。
3.2)在起身后,以起身时的测试者的双脚位置的检测框为准计算跳远距离:分别计算起身后每支脚位置的检测框到起跳线的距离占起跳线到终止线的距离的比例,再乘以起跳线到终止线的实际距离分别得到两支脚的最终落脚处到起跳线的距离作为参考跳远距离,取双脚的参考跳远距离两者中的较小值为最终的跳远距离。
如图4所示,跳远垫子的起跳线AB到终止线CD的实际距离3m,D1到起跳线的距离为2.25,D2到起跳线的距离为2.28。最终的跳远距离为2.25。
实施例是在Jetson Nx边缘设备上运行,相机型号为3T87WDA3-LS2.8MM以及跳远垫子在以上设备上实现本发明的实施例,截面如图5所示。

Claims (6)

1.一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:方法是通过相机从立定跳远的侧方对立定跳远进行拍摄视频图像,进而对视频图像进行分析处理获得立定跳远的测距:
(1)通过改进YOLOV5模型检测识别视频图像中跳远垫子上的起跳线位置、终止线的位置、立定跳远的测试者的双脚位置,并判断测试者是否有踩线;
所述步骤(1)中,所述的改进YOLOV5模型中的检测框设置为带有角度、可检测倾斜的框,通过检测框检测跳远垫子上的起跳线和终止线的位置以及测试者的双脚位置,并根据双脚位置的检测框进行判断测试者是否有踩线:具体是判断双脚位置的检测框中靠近终止线的两个角点是否处于起跳线和终止线之间,若处于起跳线和终止线之间则有踩线,否则没有踩;
(2)判断是否起跳以及起跳之后测试者的落地点位置,并以落地点位置为基点判断测试者的落地过程是否平稳;
(3)在确认落地点位置和平稳落地点后判断测试者起身,并在起身后识别获得立定跳远的跳远距离。
2.根据权利要求1所述的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:所述相机的水平布置且朝向垂直于立定跳远的方向。
3.根据权利要求1所述的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:所述步骤(2)具体包括如下子步骤:
2.1)判断测试者是否起跳,具体是通过测试者的双脚位置的检测框中心点沿立定跳远在视频图像中方向的变化率是否超过预设的起跳变化阈值进行判断:
若超过预设的起跳变化阈值,则起跳,进行下一步;
若未超过预设的起跳变化阈值,则未起跳,回到步骤(1)一直检测是否踩线;
2.2)在跳远之后确认测试者的落地点位置,具体是以视频图像的左上角作为原点建立坐标系,通过测试者的双脚位置的检测框中心点沿垂直于立定跳远在视频图像中方向的变化率进行判断,将变化率由正转负的时刻下双脚位置的检测框的中心点作为落地点;
2.3)判断测试者是否落地平稳,具体是检测视频图像的最后一帧中测试者的双脚位置的检测框作为最后检测框,以最后检测框的中心到落地点的距离和预设的落地阈值进行比较判断:若最后检测框的中心到落地点的距离大于预设的落地阈值,则判断落地移动;否则未落地移动。
4.根据权利要求1所述的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:所述步骤2.2)中,立定跳远在视频图像中方向为横向方向,判断双脚位置的检测框中心点纵坐标的变化率是否由正转负进行比较判断。
5.根据权利要求1所述的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:所述步骤(3)包括如下子步骤:
3.1)在确认落地点位置和落地平稳后,检测视频图像中测试者的整个人体的检测框的长宽比判断测试者是否起身:
若整个人体的检测框的长宽比大于预设的比例阈值,则测试者起身;否则测试者未起身;
3.2)在起身后,以起身时的测试者的双脚位置的检测框为准计算跳远距离:分别计算起身后每支脚位置的检测框到起跳线的距离占起跳线到终止线的距离的比例,再乘以起跳线到终止线的实际距离分别得到参考跳远距离,取双脚的参考跳远距离两者中的较小值为最终的跳远距离。
6.根据权利要求5所述的一种基于改进YOLOV5免标定的视频图像立定跳远测距方法,其特征在于:所述人体检测框的长宽比大于2则判断为起身。
CN202310025302.3A 2023-01-09 2023-01-09 基于改进yolov5免标定的视频图像立定跳远测距方法 Active CN115761603B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310025302.3A CN115761603B (zh) 2023-01-09 2023-01-09 基于改进yolov5免标定的视频图像立定跳远测距方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310025302.3A CN115761603B (zh) 2023-01-09 2023-01-09 基于改进yolov5免标定的视频图像立定跳远测距方法

Publications (2)

Publication Number Publication Date
CN115761603A true CN115761603A (zh) 2023-03-07
CN115761603B CN115761603B (zh) 2023-05-19

Family

ID=85348416

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310025302.3A Active CN115761603B (zh) 2023-01-09 2023-01-09 基于改进yolov5免标定的视频图像立定跳远测距方法

Country Status (1)

Country Link
CN (1) CN115761603B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116492634A (zh) * 2023-06-26 2023-07-28 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016034479A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 走行時着地位置評価方法、走行時着地位置評価装置、検出方法、検出装置、走行運動評価方法及び走行運動評価装置
CN109621383A (zh) * 2018-12-29 2019-04-16 青岛农业大学 一种跳远用智能综合比赛场地
CN110384503A (zh) * 2019-06-17 2019-10-29 深圳市时代智汇科技有限公司 自动化体适能测试方法及其系统
CN113521713A (zh) * 2021-08-10 2021-10-22 首都体育学院 一种基础运动功能测试系统
CN113850248A (zh) * 2021-12-01 2021-12-28 中科海微(北京)科技有限公司 运动姿态评估方法、装置、边缘计算服务器及存储介质
CN114049392A (zh) * 2021-10-26 2022-02-15 江苏凤凰智慧教育研究院有限公司 立定跳远评分系统和方法
CN114307117A (zh) * 2021-12-28 2022-04-12 西安交通大学 基于视频的立定跳远成绩测量方法和装置
CN114712769A (zh) * 2022-03-29 2022-07-08 延边大学 基于计算机视觉的立定跳远智能测距方法及系统
CN114768232A (zh) * 2022-04-18 2022-07-22 重庆工程职业技术学院 田赛跳远违例检测系统
CN114998991A (zh) * 2022-06-01 2022-09-02 浙江蓝鸽科技有限公司 校园智能操场系统和基于该系统的运动检测方法
CN115569344A (zh) * 2022-10-25 2023-01-06 网易有道信息技术(北京)有限公司 立定跳远成绩评测方法、装置、电子设备及存储介质

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016034479A (ja) * 2014-07-31 2016-03-17 セイコーエプソン株式会社 走行時着地位置評価方法、走行時着地位置評価装置、検出方法、検出装置、走行運動評価方法及び走行運動評価装置
CN109621383A (zh) * 2018-12-29 2019-04-16 青岛农业大学 一种跳远用智能综合比赛场地
CN110384503A (zh) * 2019-06-17 2019-10-29 深圳市时代智汇科技有限公司 自动化体适能测试方法及其系统
CN113521713A (zh) * 2021-08-10 2021-10-22 首都体育学院 一种基础运动功能测试系统
CN114049392A (zh) * 2021-10-26 2022-02-15 江苏凤凰智慧教育研究院有限公司 立定跳远评分系统和方法
CN113850248A (zh) * 2021-12-01 2021-12-28 中科海微(北京)科技有限公司 运动姿态评估方法、装置、边缘计算服务器及存储介质
CN114307117A (zh) * 2021-12-28 2022-04-12 西安交通大学 基于视频的立定跳远成绩测量方法和装置
CN114712769A (zh) * 2022-03-29 2022-07-08 延边大学 基于计算机视觉的立定跳远智能测距方法及系统
CN114768232A (zh) * 2022-04-18 2022-07-22 重庆工程职业技术学院 田赛跳远违例检测系统
CN114998991A (zh) * 2022-06-01 2022-09-02 浙江蓝鸽科技有限公司 校园智能操场系统和基于该系统的运动检测方法
CN115569344A (zh) * 2022-10-25 2023-01-06 网易有道信息技术(北京)有限公司 立定跳远成绩评测方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KAIYISAH HANIS MOHD AZMI 等: "The Influence of Received Signal Strength Measurement Methods on the Accuracy of Distance Estimation in Wireless Sensor Network" *
牟书辉 等: "基于人体姿态视觉判断的立定跳远成绩测量方法" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116492634A (zh) * 2023-06-26 2023-07-28 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法
CN116492634B (zh) * 2023-06-26 2023-09-26 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法

Also Published As

Publication number Publication date
CN115761603B (zh) 2023-05-19

Similar Documents

Publication Publication Date Title
CN105054936B (zh) 基于Kinect景深图像的快速身高和体重测量方法
CN115569344A (zh) 立定跳远成绩评测方法、装置、电子设备及存储介质
CN115761603A (zh) 基于改进yolov5免标定的视频图像立定跳远测距方法
TWI500904B (zh) 立體攝影機及用來測量立體攝影機與基準面之距離的自動測距方法
CN113137923A (zh) 立定跳远运动成绩测量方法
CN103438834B (zh) 基于结构光投影的层级式快速三维测量装置及测量方法
CN104665836A (zh) 长度量测方法与长度量测装置
CN114712769A (zh) 基于计算机视觉的立定跳远智能测距方法及系统
CN110378246A (zh) 地面检测方法、装置、计算机可读存储介质及电子设备
KR102642264B1 (ko) 싱글 카메라를 이용한 평면 이동 구체의 운동 센싱장치 및 방법과, 퍼팅매트를 이동하는 골프공의 운동 센싱장치 및 방법
CN109646924A (zh) 一种可视化测距方法及装置
CN112504379A (zh) 煤流体积实时检测装置和检测方法
CN109460724A (zh) 基于对象检测的停球事件的分离方法和系统
CN109030854A (zh) 一种基于rgb图像的步速测量方法
KR20140114594A (ko) 사람 객체 추적을 통한 자동 카메라 보정 방법
JP4102119B2 (ja) 歩幅測定装置及び歩幅測定方法
CN111387987A (zh) 一种基于图像识别的身高测量方法、装置、设备及存储介质
CN113749646A (zh) 基于单目视觉的人体身高测量方法、装置及电子设备
CN113763444B (zh) 一种级次线配对的无相位展开三维人脸重建方法及系统
CN112184790B (zh) 基于深度相机的物体尺寸高精度测量方法
CN110942481B (zh) 一种基于图像处理的纵跳检测方法
CN113617013A (zh) 基于加速度检测跳跃参数方法及装置
CN110772772A (zh) 一种篮球测试用运球速度与运球动作检测装置及方法
CN117582649A (zh) 一种基于计算机视觉的双摄像头三级蛙跳测试方法和系统
CN110020648A (zh) 工件量测及定位方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant