CN114209309A - 一种基于视觉技术的运动行为分析方法 - Google Patents
一种基于视觉技术的运动行为分析方法 Download PDFInfo
- Publication number
- CN114209309A CN114209309A CN202111528503.2A CN202111528503A CN114209309A CN 114209309 A CN114209309 A CN 114209309A CN 202111528503 A CN202111528503 A CN 202111528503A CN 114209309 A CN114209309 A CN 114209309A
- Authority
- CN
- China
- Prior art keywords
- camera
- sporter
- time
- face
- long jump
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004458 analytical method Methods 0.000 title claims abstract description 40
- 238000005516 engineering process Methods 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 42
- 230000006399 behavior Effects 0.000 claims abstract description 28
- 238000013179 statistical model Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 230000000386 athletic effect Effects 0.000 claims description 9
- 230000001815 facial effect Effects 0.000 claims description 6
- 210000003127 knee Anatomy 0.000 claims description 3
- 230000037147 athletic performance Effects 0.000 claims 2
- 238000007405 data analysis Methods 0.000 claims 1
- 238000012544 monitoring process Methods 0.000 abstract description 14
- 238000011156 evaluation Methods 0.000 abstract description 10
- 230000003945 visual behavior Effects 0.000 abstract description 5
- 230000001953 sensory effect Effects 0.000 abstract description 3
- 238000004364 calculation method Methods 0.000 abstract 1
- 238000012360 testing method Methods 0.000 description 4
- 208000008589 Obesity Diseases 0.000 description 2
- 206010033307 Overweight Diseases 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000037396 body weight Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 235000020824 obesity Nutrition 0.000 description 2
- 238000005192 partition Methods 0.000 description 2
- 238000013031 physical testing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000004140 cleaning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000000366 juvenile effect Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000004659 sterilization and disinfection Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1118—Determining activity level
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Physiology (AREA)
- Dentistry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于视觉技术的运动行为分析方法,该方法借助具有面部识别模块的摄像头拍摄所得视频及图像,捕捉运动场景下运动者的人脸数据,并基于此设计算法对用户运动行为和状态进行判断和统计,获得运动监测结果,再进一步结合用户体质相关数据对用户的运动及健康水平进行评估,给出合理建议供用户参考。本发明提出的方法采用无感、无接触的方式,借助视觉行为分析技术实现运动情况的自动化监测,相较于人力物力消耗较大的传统人工方式或是可穿戴的智能设备,更加灵活高效,同时在运动行为评估方面利用更细粒度的分类和指标,针对不同体质的学生群体,给出更具针对性的评估结果,从而能够提出更具参考价值的运动建议。
Description
技术领域
本发明涉及计算机视觉技术领域,特别是涉及一种基于视觉技术的运动行为分析方法。
背景技术
在经济社会飞速发展的当下,人们的物质生活质量得到极大提升,因而对身体健康的关注和重视也愈发突显,运动健康监测以及基于运动健康数据的智能分析备受关注,随着智能化的软硬件的发展,智能手环等可穿戴的运动健康监测设备不断更新,随身携带的手机搭载的各类传感器也逐渐被用于运动数据的获取,能够与可穿戴设备配合,获得更为准确的运动健康监测结果。
在以学生为主体的青少年人群中,对其体质与健康水平的监测与提升更是素质教育中不可或缺的一环。各高校组织学生定期进行体质测试,综合各项规定运动中的成绩对学生的体质健康水平进行评估,鼓励学生加强体育锻炼。在体质测试过程中,目前普遍采用的监测方式仍然是人工监测,即针对每项运动,由裁判员手动进行计时或计次,以及系统录入。人工模式耗时费力,面对大量的学生和数据也存在误差大、精度低等问题。如前文所述,虽然可穿戴设备已广泛用于日常的运动监测,但在学生的体质测试场景下,一方面,接触身体的可穿戴设备在多人交替使用中存在一定的卫生隐患,使用前后的消毒和清洁也十分费力;另一方面,长时且多次的使用中需考虑续航问题;此外,大量可穿戴设备的购置与维护也需消耗大量经费。因此,可穿戴设备并不完全适合学生体质测试场景下的运动监测。
随着视频图像采集设备及相关的视觉信息分析处理算法的不断进步,图像视频在各个领域得到广泛应用,例如,基于监控视频的视觉目标检测与跟踪,基于图像的车牌自动识别等,均可基于对视频及图像,实现对视觉信息的自动化分析与处理,得到预期的结果。因此,可设计一种基于视觉技术的运动行为分析方法,能够借助摄像机拍摄所得视频及图像,捕捉运动场景下用户的人脸数据,并针对不同运动设计算法,对用户运动行为和状态进行判断和统计,获得运动监测结果,再进一步结合用户体质相关数据对用户的运动及健康水平进行评估,给出合理建议供用户参考。
发明内容
本发明的目的是提供一种基于视觉技术的运动行为分析方法,采用无感、无接触的方式,借助视觉行为分析技术实现运动情况的自动化监测,能够较好地解决现有技术存在问题,能够为用户提供更为有效的运动建议。
为实现上述目的,本发明提供了如下方案:
一种基于视觉技术的运动行为分析方法,应用于长短跑、引体向上、仰卧起坐、立定跳远等四类运动项目,通过带有面部识别模块的摄像头进行运动项目的数据采集,并基于所采集的数据完成运动行为分析和运动健康水平评估。其中,运动数据采集及行为分析包括以下步骤:
S1,长短跑运动分析:按照跑步距离分别设置起点摄像头和终点摄像头,用于获取运动者的身份信息、位置坐标及对应的时间信息,建立长跑及短跑的计时统计模型,计算到达时间与起始时间之间的差值即为完成跑步的时长;
S2,引体向上运动分析:将摄像头安装于单杠前方设定高度,该高度确保摄像头可捕捉范围的下极限为单杠位置,同时捕捉范围可包含引体向上时的完整人脸,获取运动者的身份信息并记录面部出现次数,建立引体向上个数统计模型,记录引体向上次数;
S3,仰卧起坐运动分析:将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像,摄像头获取运动者的身份信息并记录面部出现次数,建立仰卧起坐个数统计模型;
S4,立定跳远运动分析:在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前获取运动者的身份信息,在跳远场地侧边架设高清摄像头,对立定跳远过程中的运动者脚部位置进行实时记录,对视频帧中的脚部进行准确定位,建立立定跳远距离统计模型。
进一步的,所述步骤S1中,按照跑步距离分别设置起点摄像头和终点摄像头,获取运动者的身份信息、位置坐标及对应的时间信息,建立长跑及短跑的计时统计模型,计算到达时间与起始时间之间的差值即为完成跑步的时长,具体包括:
S101,将起点摄像头和终点摄像头放置于跑道侧面,起点摄像头和终点摄像头可捕捉范围存在左右两个极限,将起点摄像头右极限对准跑步起步线,当人体超过起步线后,无法再捕捉到人脸;将终点摄像头左极限对准跑步终点,当人体越过跑步终点后,捕捉到人脸,跑步以人脸越过终点线作为判断标准,所述起点摄像头和终点摄像头包含面部识别模块,对进入摄像头的人脸进行识别,在人员信息数据库中为其匹配相应的人员身份信息;
S102,运动数据记录,起点摄像头和终点摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S103,运动数据分析处理,对步骤S102中保存在运动数据库的数据进行处理,将同一名运动者在起点摄像头和终点摄像头中的出现时间按顺序存储在两张表中,当运动者第一次离开起点摄像头的捕捉范围时,即视为离开了起跑线,该时刻记录为起始时间;依据跑步距离计算所需圈数,当运动者第T次进入终点摄像头的时刻,即记录为到达时间;
S104,到达时间与起始时间之间的差值即为完成跑步的时长,记为最终成绩。
进一步的,所述步骤S2中,将摄像头安装于单杠前方设定高度,该高度确保摄像头可捕捉范围的下极限为单杠位置,同时捕捉范围可包含引体向上时的完整人脸,,获取运动者的身份信息并记录面部出现次数,建立引体向上个数统计模型,记录引体向上次数,具体包括:
S201,明确引体向上标准为下巴过杆,当运动者做引体向上达到最高点时,摄像头可以捕捉到运动者在单杠上撑起时的完整面部;
S202,基于面部识别模块,当人脸未全部到达杆上方时,摄像头无法捕捉到完整面部;当运动者引体向上直至摄像头可以捕捉到运动者的完整面部从而完成面部识别时,表示运动者完成一次引体向上,计入该名运动者的引体向上个数中;当运动者超过60秒未再次出现在摄像头中,则认为运动者引体向上运动结束;
S203,运动数据记录,摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S204,对运动数据库中数据进行处理,由于运动者的一次引体向上动作后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为有效计数,设置时间间隔阈值tspace,当两次识别时间之差大于阈值tspace时,视为两次引体向上,进行计数操作,否则认为是一次动作后的停留,不增加计数;
S205,设定终止阈值tnext为60秒,当超过tnext仍未出现新的识别结果时,或当识别出新的运动者身份信息时,判断前一运动者运动结束,最新的计数次数作为该人员的引体向上最终次数。
进一步的,所述步骤S3中,将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像,摄像头获取运动者的身份信息并记录面部出现次数,建立仰卧起坐个数统计模型,具体包括:
S301,明确仰卧起坐的标准姿势:双膝蜷缩成90度左右,手靠于身体两侧或交叉贴于胸前或手交叉放在头后面,仰卧起坐时头应与身体保持一个平面,不可低头;将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像;
S302,采用面部识别的方式,当运动者坐起时,捕捉到人脸图像进行身份识别和计数的操作,表明运动者完成了一次仰卧起坐运动;
S303,运动数据记录,摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S304,对运动数据库中数据进行处理,由于运动者的一次仰卧起坐坐起后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为有效计数,设置时间间隔阈值t'space,当两次识别时间之差大于阈值t'space时,方被视为两次动作,进行计数操作,否则认为是一次动作后的停留,不增加计数;
S305,设定终止阈值t'next为60秒,当超过t'next仍未出现新的识别结果时,或当识别出新的运动者身份信息时,判断前一运动者运动结束,最新的计数次数作为该人员的仰卧起坐最终次数。
进一步的,所述步骤S4,在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前进行身份识别和匹配,在跳远场地侧边架设高清摄像头,对立定跳远过程中的运动者脚部位置进行实时记录,对视频帧中的脚部进行准确定位,建立立定跳远距离统计模型,具体包括:
S401,明确立定跳远的距离测算依据:运动者从起跳线立定向前起跳,以落地时脚跟所在位置绘制一条与起跳线平行的直线,两线之间的垂直距离即为一次立定跳远的距离;
S402,在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前进行身份识别和匹配,在跳远场地侧边架设高清摄像头,高度设置确保摄像头拍摄画面上下极限间能包含完整脚部;高清摄像头角度和距离设置确保左极限对准跳远起点,右极限能包含立定跳远的最远距离,左右极限间距离计为X;
S403,对拍摄所得视频进行逐帧去噪和二值化处理,识别定位跟踪脚跟的位置,在视频中以起跳点为原点、以像素为单位建立二维直角坐标系,记录一次跳远中所有帧图像中脚跟的坐标值,横坐标为脚跟与起跳线间的距离,纵坐标为脚跟距离地面的高度;以此绘制曲线,当运动者落地时曲线达到最低点(x0,y0),该点横坐标x0即可用于衡量立定跳远的距离;
S404,根据比例系数η,通过下式将最低点在图像坐标系中的横坐标值换算为实际长度,即可得到立定跳远结果L:
L=η(X-x0)
进一步的,所述步骤S402中,还需同时考虑以下两种特殊情况:
1)考虑若运动者在跳远结束后未站定而重新抬起脚的情况,该曲线继续向上延伸,落地后将再次产生一个最低点,因此每个运动者的一次跳远中,取时间上第一次出现的最低点作为立定跳远的最终落地位置,以该点横坐标用于衡量立定跳远距离;
2)考虑运动者起跳时的站位可能存在越过起跳线的情况,若起跳时越线,检测到的第一个最低点为起跳位置,因此该位置对应距离不可作为跳远的有效距离,根据实际设定一个较小的距离阈值,当返回值小于阈值时,视为越线起跳,不记录结果,提示运动者重新进行跳远动作。
进一步的,所述方法还包括运动健康水平评估,步骤如下:
S5,提前录入运动者的基础身体信息,包括身高、体重信息,对不同体质的运动者进行划分,根据步骤S1-S4获得的运动者的运动数据得分,结合运动者的体质,对运动者的健康水平进行评估。
根据本发明提供的具体实施例,本发明公开了以下技术效果:本发明提供的基于视觉技术的运动行为分析方法,识别过程减少人为控制,基于视觉行为分析方法智能化、无接触地完成运动数据的获取和统计,相较于人力物力消耗较大的传统人工方式或是可穿戴的智能设备,本发明所述方法更具灵活性,更为高效,也更加节约物资成本;本发明的运动行为分析方法有利于运动健康水平评估,利用学生在校园信息系统中包含的身高体重等基础体质信息,对不同体质的学生进行划分,相较于传统的标准,本发明利用更细粒度的分类和指标,针对不同体质的学生群体,给出更具针对性的评估结果,从而能够提出更具参考价值的运动建议。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于视觉技术的运动行为分析方法的流程示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于视觉技术的运动行为分析方法,采用无感、无接触的方式,借助视觉行为分析技术实现运动情况的自动化监测,同时在运动行为评估方面增加更细粒度的等级划分,能够为用户提供更为有效的运动建议。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
如图1所示本发明提供的基于视觉技术的运动行为分析方法,应用于长短跑、引体向上、仰卧起坐、立定跳远等四类运动项目,通过带有面部识别模块的摄像头进行运动项目的数据采集,并基于所采集的数据完成运动行为分析和运动健康水平评估。其中,运动数据采集及行为分析包括以下步骤:
S1,长短跑运动分析:按照跑步距离分别设置起点摄像头和终点摄像头,用于获取运动者的身份信息、位置坐标及对应的时间信息,建立长跑及短跑的计时统计模型,计算到达时间与起始时间之间的差值即为完成跑步的时长;
S2,引体向上运动分析:将摄像头安装于单杠前方设定高度,该高度确保摄像头可捕捉范围的下极限为单杠位置,同时捕捉范围可包含引体向上时的完整人脸,获取运动者的身份信息并记录面部出现次数,建立引体向上个数统计模型,记录引体向上次数;
S3,仰卧起坐运动分析:将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像,摄像头获取运动者的身份信息并记录面部出现次数,建立仰卧起坐个数统计模型;
S4,立定跳远运动分析:在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前获取运动者的身份信息,在跳远场地侧边架设高清摄像头,对立定跳远过程中的运动者脚部位置进行实时记录,对视频帧中的脚部进行准确定位,建立立定跳远距离统计模型;
S5,提前录入运动者的基础身体信息,包括身高、体重信息,对不同体质的运动者进行划分,根据步骤S1-S4获得的运动者的运动数据得分,结合运动者的体质,对运动者的健康水平进行评估。
其中,步骤S1中以1000米长跑、50米短跑为例,步骤如下:
步骤1.1,按照跑步距离分别设置起点摄像头和终点摄像头,明确摄像头放置于单圈长度400米的跑道侧面,摄像头可捕捉范围存在左右两个极限,将起点摄像头右极限对准跑步起步线,当人体超过起步线后,无法再捕捉到人脸;将终点摄像头左极限对准跑步终点,当人体越过跑步终点后,可以捕捉到人脸(跑步以人脸越过终点线作为判断标准),摄像头包含面部识别模块,可对进入摄像头的人脸进行识别,在人员信息数据库中为其匹配相应的人员ID;
步骤1.2,运动数据记录,对于ID为381的运动者,摄像头通过人脸识别匹配获取person_id=381,1000米长跑中,起点摄像头id=1,终点摄像头id=2,ID为381的运动者出现在起点摄像头中对应时间ts1,ts2,...,tsn,出现在终点摄像头中对应时间te1,te2,...,ten,根据实际需求设定摄像头帧数fps,间隔时间之差为:
将上述所有数据保存在运动数据库表格中;
步骤1.3,对运动数据库中的数据进行处理,1000米长跑中,ID为381的运动者在摄像头id=1与id=2中对应时间按前后顺序存储在两个列表l1,l2中。对两个列表进行迭代计算,若前后两次出现时间差小于设定值,说明运动者未离开摄像头;若大于设定值,说明运动者为再跑一圈并重新出现在摄像头中的情况。运动者第一次离开起始摄像头的时间记录为起始时间tstart=1635669723.70,第三次到达终点摄像头的时间记录为到达时间tend=1635669950.63(1000米情况);
步骤1.4,到达时间减去起始时间得出最终成绩tscore=tstart-tend=226秒。
50米短跑的数据记录与处理过程,与步骤1.1-1.4所述过程一致,区别在于终点摄像头架设位置与1000米长跑不同。仍以ID为381的运动者为例,其第一次离开起始摄像头的时间记录为tstart=1635669548.70,第一次到达终点摄像头的时间记录为到达时间tend=1635669957.82;最终成绩tscore=tstart-tend=7秒。
其中,步骤S2中的引体向上个数统计步骤如下:
步骤2.1,明确引体向上标准为下巴过杆,仅当运动者做引体向上达到最高点时,摄像头可以捕捉到运动者在单杠上撑起时的完整面部;引体向上项目不存在时间限制,但一般认为运动者不会在杆上停留超过1分钟。因此,将摄像头安装于单杠的正前方,能够捕捉运动者在单杠上撑起时的面部的高度;
步骤2.2,基于面部识别模块,当人脸未全部到达杆上方时,摄像头无法捕捉到完整面部;当运动者引体向上直至摄像头可以捕捉到运动者的完整面部从而完成面部识别时,表示运动者完成一次引体向上,计入该名运动者的引体向上个数中,num=num+1;当运动者超过1分钟未再次出现在摄像头中,则认为运动者引体向上运动结束;
步骤2.3,运动数据记录。对于ID为381的学生,摄像头通过人脸识别匹配获取person_id=381,其出现在摄像头中的对应时间点为t1,t2,...,tn,摄像头id=1,将上述数据保存在数据库中;
步骤2.4,对数据库数据进行处理,由于运动者的一次引体向上动作后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为有效计数,设置时间间隔阈值tspace=0.2秒,当两次识别时间之差大于阈值tspace时,方被视为两次引体向上,进行计数操作,否则认为是一次动作后的停留,不增加计数;
步骤2.5,设定终止阈值tnext=60秒,超过tnext仍未出现新的识别结果,判断ID为381的运动者运动结束,当前最新的计数次数num=15作为该人员的引体向上最终次数,即完成了15个引体向上动作。
其中,步骤S3中的仰卧起坐个数统计步骤如下:
步骤3.1,明确仰卧起坐的标准姿势:双膝蜷缩成90度左右,手靠于身体两侧或交叉贴于胸前或手交叉放在头后面,仰卧起坐时头应与身体保持一个平面,不可低头;将摄像头安装于人体正前方一定高度,该高度确保人员仰卧起坐坐起时摄像头可捕捉到人脸图像;
步骤3.2,采用面部识别的方式,当运动者坐起时,捕捉到人脸图像进行身份识别和计数加一的操作num=num+1,表明运动者完成了一次仰卧起坐运动;
步骤3.3,运动数据记录,对于ID为381的学生,摄像头通过人脸识别匹配获取person_id=381,其出现在摄像头中的对应时间点为t1,t2,...,tn,摄像头id=1,将上述数据保存在数据库中;
步骤3.4,对数据库数据进行处理,由于运动者的一次仰卧起坐坐起后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为有效计数,设置时间间隔阈值t’space=0.2秒,当两次识别时间之差大于阈值t'space时,方被视为两次动作,进行计数操作,否则认为是一次动作后的停留,不增加计数;
步骤3.5,设定终止阈值t'next=60秒,超过t'next仍未出现新的识别结果,判断ID为381的运动者运动结束,最新的计数次数num=15作为该人员的仰卧起坐最终次数,即完成了15个仰卧起坐动作。
其中,步骤S4中的立定跳远距离统计步骤如下:
步骤4.1,明确立定跳远的距离测算依据:运动者从起跳线立定向前起跳,以落地时脚跟所在位置绘制一条与起跳线平行的直线,两线之间的垂直距离即为一次立定跳远的距离;
步骤4.2,在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前进行身份识别和匹配,对于ID为381的学生,得到person_id=381。在跳远场地侧边架设高清摄像头,高度设置确保摄像头拍摄画面上下极限间能包含完整脚部;摄像头角度和距离设置确保左极限对准跳远起点,右极限能包含立定跳远的最远距离,左右极限间距离为X;
步骤4.3,对视频进行逐帧去噪和二值化处理,识别定位跟踪脚跟的位置。在视频中以起跳点为原点、以像素为单位建立二维直角坐标系,记录一次跳远中所有帧图像中脚跟的坐标值,横坐标为脚跟与起跳线间的距离,纵坐标为脚跟距离地面的高度;以此绘制曲线,当运动者落地时曲线第一次达到最低点(x0,y0),该点横坐标x0用于衡量立定跳远的距离;x0大于用于判断是否越线起跳的基准值l0,因此判断为未越线,成绩有效;
步骤4.4,将最低点在图像坐标系中的横坐标值换算为实际长度,根据比例系数η,将横坐标换算成为实际距离L=η(X-x0)(单位:米),得到最终的跳远结果为2.55米。
最终统计运动数据方法得到的结果为person_id为381的学生的50米跑成绩为7.0秒,1000米跑成绩为227秒,立定跳远成绩为255cm,引体向上成绩为15个。将以上成绩导入到健康情况评估方法中。
所述步骤S5中,对运动者的健康水平进行评估,具体包括:
步骤1,数据预处理;
步骤2,基础体质分类;
步骤3,运动健康水平评估与运动得分计算。
进一步地,步骤1中的数据预处理步骤如下:
步骤1.1,基于上述运动行为分析统计方法,获得各项运动的成绩数据,具体项目包括:“50米跑”时长、“1000米跑(男)/800米跑(女)”时长、“立定跳远”距离、“引体向上(男)/1分钟仰卧起坐(女)个数”。此外,运动数据还包括借助专业器械测量的体质测试项目“肺活量”、“体前屈距离”;
步骤1.2,从学生信息数据库中,通过身份ID获取关联的基础体质及个人信息数据,项目包括:“ID”、“姓名”、“性别”、“年级”、“身高”、“体重”;
步骤1.3,除“引体向上(男)/1分钟仰卧起坐(女)”个数外,对步骤1.1和步骤1.2中获取的所有数据项,若其值为0,则赋值为空值;
步骤1.4,整合以上所述经过处理的运动行为数据和基础体质及信息数据,共同构成运动健康评估模型的输入数据。
进一步地,步骤2中的基础体质分类步骤如下:
步骤2.1,基于学生的身高体重数据,根据如下公式计算每名学生的“身体质量指数(Body Mass Index,BMI)”:以表5中ID为381的学生为例,基于其身高体重数据,根据如下公式计算其BMI指数为20.884:
步骤2.2,按照表1和表2的分类标准,将学生群体分类至8种体质等级中。按照表1的分类标准,将1038组数据对应的学生群体分类至8种体质等级中。其中,ID为381的学生的体质等级划分为“正常”。
表1大学男生的四种基础体质划分标准
BMI指数 | 单项得分 | 等级 |
17.9-23.9 | 100 | 正常 |
≤17.8 | 80 | 低体重 |
24.0-27.9 | 80 | 超重 |
≥28.0 | 60 | 肥胖 |
表2大学女生的四种基础体质划分标准
BMI指数 | 单项得分 | 等级 |
17.2-23.9 | 100 | 正常 |
≤17.1 | 80 | 低体重 |
24.0-27.9 | 80 | 超重 |
≥28.0 | 60 | 肥胖 |
所述步骤3中的运动健康水平评估步骤如下:
步骤3.1,针对步骤2.2中的分类结果,对1038组数据按照步骤2.1-2.2进行BMI指数的计算,并据此进行基础体质的分类,将1038组数据分类至8种基础体质等级中,针对不同体质分别计算该体质等级中的学生“50米跑”、“1000米跑(男)/800米跑(女)”、“立定跳远”、“引体向上(男)/1分钟仰卧起坐(女)”的成绩均值和标准差;
步骤3.2,针对每个体质等级,根据表3和表4的标准对该体质等级中的每名学生的四项运动项目的水平进行分级评估,判断学生在其所属的体质等级中,运动能力处在何种水平。其中Mean表示该体质人群中该项运动数据的平均值,Std表示该体质人群中该项运动数据的标准差;以“1000米跑”为例,该项目的Mean为253,Std为24.32,以ID为381的学生为例,其“1000米跑”成绩为227秒,依据表格可知,ID为381的学生在其所属的体质等级(“正常”)中,“1000米跑”的运动水平良好,等级为“B”,还具备一定的锻炼提升空间;
表3特定体质等级下“50米跑”、“1000米跑(男)/800米跑(女)”水平划分标准
单项运动成绩x | 水平 | 单项运动提示内容 |
x<(Mean-2.5×Std) | S | 该项运动水平为非常优秀 |
(Mean-2.5×Std)≤x<(Mean-1.5×Std) | A | 该项运动水平为优秀 |
(Mean-1.5×Std)≤x<(Mean-0.5×Std) | B | 该项运动水平为良好 |
(Mean-0.5×Std)≤x<(Mean+0.5×Std) | C | 该项运动水平为中等 |
(Mean+0.5×Std)≤x<(Mean+1.5×Std) | D | 该项运动水平为较低 |
(Mean+1.5×Std)≤x<(Mean+2.5×Std) | E | 该项运动水平为较差 |
(Mean+2.5×Std)≤x | F | 该项运动水平为非常差 |
表4特定体质等级下“立定跳远”、“引体向上(男)/1分钟仰卧起坐(女)”水平划分标准
单项运动成绩x | 水平 | 单项运动提示内容 |
(Mean+2.5×Std)≤x | S | 该项运动水平为非常优秀 |
(Mean+1.5×Std)≤x<(Mean+2.5×Std) | A | 该项运动水平为优秀 |
(Mean+0.5×Std)≤x<(Mean+1.5×Std) | B | 该项运动水平为良好 |
(Mean-0.5×Std)≤x<(Mean+0.5×Std) | C | 该项运动水平为中等 |
(Mean-1.5×Std)≤x<(Mean-0.5×Std) | D | 该项运动水平为较低 |
(Mean-2.5×Std)≤x<(Mean-1.5×Std) | E | 该项运动水平为较差 |
x<(Mean-2.5×Std) | F | 该项运动水平为非常差 |
步骤3.3,依据教育部公布的《国家学生体质健康标准(2014年修订)》中针对大学生的单项指标与权重来计算体质测试总分数。
ID为381的学生总分为:
(0.15*100)+(0.15*85)+(0.20*80)+(0.10*76)+(0.10*76)+(0.20*76)=74.15以上健康情况评估需要提前假设每名用户每项内容都不为空值。但根据实际情况,可能会出现漏测、误测等情况。故当内容为空值时,此项内容得分为0,不进行等级评定。注意如果“引体向上(男)/1分钟仰卧起坐(女)”这项内容值为0,根据实际情况可能因为身体体质原因导致一个都无法完成,故此项内容得分为0,等级为“F”。
本实施例以1038名大学生的基础体质及个人信息数据以及运动数据为例,表5展示了本实施例中使用的部分数据。
表5学生基础体质信息及运动数据(部分示例)
本发明提供的基于视觉技术的运动行为分析方法,识别过程减少人为控制,基于视觉行为分析方法智能化、无接触地完成运动数据的获取和统计,相较于人力物力消耗较大的传统人工方式或是可穿戴的智能设备,本发明所述方法更具灵活性,更为高效,也更加节约物资成本;本发明的运动行为分析方法有利于运动健康水平评估,利用学生在校园信息系统中包含的身高体重等基础体质信息,对不同体质的学生进行划分,相较于传统的标准,本发明利用更细粒度的分类和指标,针对不同体质的学生群体,给出更具针对性的评估结果,从而能够提出更具参考价值的运动建议。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (7)
1.一种基于视觉技术的运动行为分析方法,应用于长短跑、引体向上、仰卧起坐、立定跳远四类运动项目,通过带有面部识别模块的摄像头进行运动项目的数据采集,并进行数据分析,其特征在于,包括以下步骤:
S1,长短跑运动分析:按照跑步距离分别设置起点摄像头和终点摄像头,用于获取运动者的身份信息、位置坐标及对应的时间信息,建立长跑及短跑的计时统计模型,计算到达时间与起始时间之间的差值即为完成跑步的时长;
S2,引体向上运动分析:将摄像头安装于单杠前方设定高度,该高度确保摄像头可捕捉范围的下极限为单杠位置,同时捕捉范围包含引体向上时的完整人脸,获取运动者的身份信息并记录面部出现次数,建立引体向上个数统计模型,记录引体向上次数;
S3,仰卧起坐运动分析:将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像,摄像头获取运动者的身份信息并记录面部出现次数,建立仰卧起坐个数统计模型;
S4,立定跳远运动分析:在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前获取运动者的身份信息,在跳远场地侧边架设高清摄像头,对立定跳远过程中的运动者脚部位置进行实时记录,对视频帧中的脚部进行准确定位,建立立定跳远距离统计模型。
2.根据权利要求1所述的基于视觉技术的运动行为分析方法,其特征在于,所述步骤S1中,按照跑步距离分别设置起点摄像头和终点摄像头,用于获取运动者的身份信息、位置坐标及对应的时间信息,建立长跑及短跑的计时统计模型,计算到达时间与起始时间之间的差值即为完成跑步的时长,具体包括:
S101,将起点摄像头和终点摄像头放置于跑道侧面,起点摄像头和终点摄像头可捕捉范围存在左右两个极限,将起点摄像头右极限对准跑步起步线,当人体超过起步线后,无法再捕捉到人脸;将终点摄像头左极限对准跑步终点,当人体越过跑步终点后,捕捉到人脸,跑步以人脸越过终点线作为判断标准,所述起点摄像头和终点摄像头包含面部识别模块,对进入摄像头的人脸进行识别,在人员信息数据库中为其匹配相应的人员身份信息;
S102,运动数据记录,起点摄像头和终点摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S103,运动数据分析处理,对步骤S102中保存在运动数据库的数据进行处理,将同一名运动者在起点摄像头和终点摄像头中的出现时间按顺序存储在两张表中,当运动者第一次离开起点摄像头的捕捉范围时,即视为离开了起跑线,该时刻记录为起始时间;依据跑步距离计算所需圈数,当运动者第T次进入终点摄像头的时刻,即记录为到达时间。
S104,到达时间与起始时间之间的差值即为完成跑步的时长,记为最终成绩。
3.根据权利要求1所述的基于视觉技术的运动行为分析方法,其特征在于,所述步骤S2中,将摄像头安装于单杠前方设定高度,该高度确保摄像头可捕捉范围的下极限为单杠位置,同时捕捉范围包含引体向上时的完整人脸,获取运动者的身份信息并记录面部出现次数,建立引体向上个数统计模型,记录引体向上次数,具体包括:
S201,明确引体向上标准为下巴过杆,当运动者做引体向上达到最高点时,摄像头可以捕捉到运动者在单杠上撑起时的完整面部;
S202,基于面部识别模块,当人脸未全部到达杆上方时,摄像头无法捕捉到完整面部;当运动者引体向上直至摄像头可以捕捉运动者的完整面部从而完成面部识别时,表示运动者完成一次引体向上,计入该名运动者的引体向上个数中;当运动者超过60秒未再次出现在摄像头中,则认为运动者引体向上运动结束;
S203,运动数据记录,摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S204,对运动数据库中数据进行处理,由于运动者的一次引体向上动作后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为了有效计数,设置时间间隔阈值tspace,当两次识别时间之差大于阈值tspace时,视为两次引体向上,进行计数操作,否则认为是一次动作后的停留,不增加计数;
S205,设定终止阈值tnext为60秒,当超过tnext仍未出现新的识别结果时,或当识别出新的运动者的身份信息时,判断前一运动者运动结束,最新的计数次数作为该人员的引体向上最终次数。
4.根据权利要求1所述的基于视觉技术的运动行为分析方法,其特征在于,所述步骤S3中,将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像,摄像头获取运动者的身份信息并记录面部出现次数,建立仰卧起坐个数统计模型,具体包括:
S301,明确仰卧起坐的标准姿势:双膝蜷缩成90度左右,手靠于身体两侧或交叉贴于胸前或手交叉放在头后面,仰卧起坐时头应与身体保持一个平面,不可低头;将摄像头安装于人体正前方设定高度,该高度确保运动者仰卧起坐坐起时摄像头可捕捉到人脸图像;
S302,采用面部识别的方式,当运动者坐起时,捕捉到人脸图像进行身份识别和计数的操作,表明运动者完成了一次仰卧起坐运动;
S303,运动数据记录,摄像头实时记录运动者的身份信息、对应时间点、摄像头编号,将数据保存在运动数据库中;
S304,对运动数据库中数据进行处理,由于运动者的一次仰卧起坐坐起后会在该位置短暂停留,期间会有多张连续人脸图片被识别;为了有效计数,设置时间间隔阈值t′space,当两次识别时间之差大于阈值t′space时,方被视为两次动作,进行计数操作,否则认为是一次动作后的停留,不增加计数;
S305,设定终止阈值t'next为60秒,当超过t'next仍未出现新的识别结果时,或当识别出新的运动者的身份信息时,判断前一运动者运动结束,最新的计数次数作为该人员的仰卧起坐最终次数。
5.根据权利要求1所述的基于视觉技术的运动行为分析方法,其特征在于,所述步骤S4,在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前获取运动者的身份信息,在跳远场地侧边架设高清摄像头,对立定跳远过程中的运动者脚部位置进行实时记录,对视频帧中的脚部进行准确定位,建立立定跳远距离统计模型,具体包括:
S401,明确立定跳远的距离测算依据:运动者从起跳线立定向前起跳,以落地时脚跟所在位置绘制一条与起跳线平行的直线,两线之间的垂直距离即为一次立定跳远的距离;
S402,在跳远起点处架设带有面部识别模块的摄像头,用于在跳远前进行身份识别和匹配,在跳远场地侧边架设高清摄像头,高度设置确保摄像头拍摄画面上下极限间能包含完整脚部;高清摄像头角度和距离设置确保左极限对准跳远起点,右极限能包含立定跳远的最远距离,左右极限间距离计为X;
S403,对拍摄所得视频进行逐帧去噪和二值化处理,识别定位跟踪脚跟的位置,在视频中以起跳点为原点、以像素为单位建立二维直角坐标系,记录一次跳远中所有帧图像中脚跟的坐标值,横坐标为脚跟与起跳线间的距离,纵坐标为脚跟距离地面的高度;以此绘制曲线,当运动者落地时曲线达到最低点(x0,y0),该点横坐标x0即可用于衡量立定跳远的距离;
S404,根据比例系数η,通过下式将最低点在图像坐标系中的横坐标值换算为实际长度,即可得到立定跳远结果L:
L=η(X-x0)
6.根据权利要求5所述的基于视觉技术的运动行为分析方法,其特征在于,所述步骤S402中,还需同时考虑以下两种特殊情况:
1)考虑若运动者在跳远结束后未站定而重新抬起脚的情况,该曲线继续向上延伸,落地后将再次产生一个最低点,因此每个运动者的一次跳远中,取时间上第一次出现的最低点作为立定跳远的最终落地位置,以该点横坐标用于衡量立定跳远距离;
2)考虑运动者起跳时的站位可能存在越过起跳线的情况,若起跳时越线,检测到的第一个最低点为起跳位置,因此该位置对应距离不可作为跳远的有效距离,根据实际设定一个较小的距离阈值,当返回值小于阈值时,视为越线起跳,不记录结果,提示运动者重新进行跳远动作。
7.根据权利要求1所述的基于视觉技术的运动行为分析方法,其特征在于,所述方法还包括:
S5,提前录入运动者的基础身体信息,包括身高、体重信息,对不同体质的运动者进行划分,根据步骤S1-S4获得的运动者的运动数据得分,结合运动者的体质,对运动者的健康水平进行评估。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111528503.2A CN114209309B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视觉技术的运动行为分析方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111528503.2A CN114209309B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视觉技术的运动行为分析方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114209309A true CN114209309A (zh) | 2022-03-22 |
CN114209309B CN114209309B (zh) | 2024-06-11 |
Family
ID=80701940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111528503.2A Active CN114209309B (zh) | 2021-12-14 | 2021-12-14 | 一种基于视觉技术的运动行为分析方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114209309B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636698A (zh) * | 2023-12-28 | 2024-03-01 | 北京奥康达体育科技有限公司 | 一种学生考试用数字化引体向上辅助训练系统 |
Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103745122A (zh) * | 2014-01-23 | 2014-04-23 | 山东农业大学 | 学生运动处方的计算机处理方法 |
CN104183030A (zh) * | 2013-08-27 | 2014-12-03 | 北京赛康精益信息技术有限责任公司 | 一种自助径跑电子计时系统和方法 |
CN104699928A (zh) * | 2013-12-09 | 2015-06-10 | 奥美之路(北京)技术顾问有限公司 | 3-15岁体质发育评估模型 |
CN204480341U (zh) * | 2015-02-27 | 2015-07-15 | 内蒙古晶新科技有限责任公司 | 便携式跑步计时系统 |
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN105920824A (zh) * | 2016-04-20 | 2016-09-07 | 上海斐讯数据通信技术有限公司 | 一种智能终端记录运动次数的方法及记录运动次数的智能终端 |
CN106777992A (zh) * | 2016-12-21 | 2017-05-31 | 盐城工学院 | 体测数据分析管理系统及方法 |
CN107103298A (zh) * | 2017-04-21 | 2017-08-29 | 桂林电子科技大学 | 基于图像处理的引体向上计数系统及计数方法 |
WO2017193590A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳泰山体育科技股份有限公司 | 仰卧起坐测试的计数方法及系统 |
CN108375341A (zh) * | 2018-02-09 | 2018-08-07 | 山东理工大学 | 一种基于图像识别的立定跳远距离测量装置及测量方法 |
CN110090425A (zh) * | 2019-05-01 | 2019-08-06 | 山东思迈教育科技有限公司 | 一种中长跑运动的计时方法 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
CN111144275A (zh) * | 2019-12-24 | 2020-05-12 | 中石化第十建设有限公司 | 一种基于人脸识别的跑步智能测试系统及方法 |
CN111167107A (zh) * | 2020-03-19 | 2020-05-19 | 中国人民解放军国防科技大学 | 基于人脸识别和人体姿态估计的引体向上测试系统 |
CN111275030A (zh) * | 2020-05-06 | 2020-06-12 | 西南交通大学 | 基于人脸与人体识别的直道跑步检测与计时系统及方法 |
CN111282248A (zh) * | 2020-05-12 | 2020-06-16 | 西南交通大学 | 一种基于骨骼和人脸关键点的引体向上检测系统及方法 |
CN213131856U (zh) * | 2020-09-29 | 2021-05-07 | 英玉生 | 一种基于OpenCV图文识别技术的跳远检测设备 |
CN113744884A (zh) * | 2021-09-30 | 2021-12-03 | 西南政法大学 | 一种学生健康数据预警及干预方法、系统 |
-
2021
- 2021-12-14 CN CN202111528503.2A patent/CN114209309B/zh active Active
Patent Citations (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104183030A (zh) * | 2013-08-27 | 2014-12-03 | 北京赛康精益信息技术有限责任公司 | 一种自助径跑电子计时系统和方法 |
CN104699928A (zh) * | 2013-12-09 | 2015-06-10 | 奥美之路(北京)技术顾问有限公司 | 3-15岁体质发育评估模型 |
CN103745122A (zh) * | 2014-01-23 | 2014-04-23 | 山东农业大学 | 学生运动处方的计算机处理方法 |
CN204480341U (zh) * | 2015-02-27 | 2015-07-15 | 内蒙古晶新科技有限责任公司 | 便携式跑步计时系统 |
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN105920824A (zh) * | 2016-04-20 | 2016-09-07 | 上海斐讯数据通信技术有限公司 | 一种智能终端记录运动次数的方法及记录运动次数的智能终端 |
WO2017193590A1 (zh) * | 2016-05-09 | 2017-11-16 | 深圳泰山体育科技股份有限公司 | 仰卧起坐测试的计数方法及系统 |
CN106777992A (zh) * | 2016-12-21 | 2017-05-31 | 盐城工学院 | 体测数据分析管理系统及方法 |
CN107103298A (zh) * | 2017-04-21 | 2017-08-29 | 桂林电子科技大学 | 基于图像处理的引体向上计数系统及计数方法 |
CN108375341A (zh) * | 2018-02-09 | 2018-08-07 | 山东理工大学 | 一种基于图像识别的立定跳远距离测量装置及测量方法 |
CN110090425A (zh) * | 2019-05-01 | 2019-08-06 | 山东思迈教育科技有限公司 | 一种中长跑运动的计时方法 |
CN110975270A (zh) * | 2019-12-20 | 2020-04-10 | 西南交通大学 | 一种基于标记和计算机视觉的立定跳远检测方法 |
CN111144275A (zh) * | 2019-12-24 | 2020-05-12 | 中石化第十建设有限公司 | 一种基于人脸识别的跑步智能测试系统及方法 |
CN111167107A (zh) * | 2020-03-19 | 2020-05-19 | 中国人民解放军国防科技大学 | 基于人脸识别和人体姿态估计的引体向上测试系统 |
CN111275030A (zh) * | 2020-05-06 | 2020-06-12 | 西南交通大学 | 基于人脸与人体识别的直道跑步检测与计时系统及方法 |
CN111282248A (zh) * | 2020-05-12 | 2020-06-16 | 西南交通大学 | 一种基于骨骼和人脸关键点的引体向上检测系统及方法 |
CN213131856U (zh) * | 2020-09-29 | 2021-05-07 | 英玉生 | 一种基于OpenCV图文识别技术的跳远检测设备 |
CN113744884A (zh) * | 2021-09-30 | 2021-12-03 | 西南政法大学 | 一种学生健康数据预警及干预方法、系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117636698A (zh) * | 2023-12-28 | 2024-03-01 | 北京奥康达体育科技有限公司 | 一种学生考试用数字化引体向上辅助训练系统 |
CN117636698B (zh) * | 2023-12-28 | 2024-06-07 | 北京奥康达体育科技有限公司 | 一种学生考试用数字化引体向上辅助训练系统 |
Also Published As
Publication number | Publication date |
---|---|
CN114209309B (zh) | 2024-06-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368810B (zh) | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 | |
CN110639197A (zh) | 体育测试方法、装置及系统 | |
CN111282248A (zh) | 一种基于骨骼和人脸关键点的引体向上检测系统及方法 | |
CN113486757B (zh) | 基于人体骨骼关键点检测的多人直线跑步测试计时方法 | |
US20150092981A1 (en) | Apparatus and method for providing activity recognition based application service | |
CN109684919B (zh) | 一种基于机器视觉的羽毛球发球违例判别方法 | |
CN114100103B (zh) | 一种基于关键点识别的跳绳计数检测系统及方法 | |
CN114209309B (zh) | 一种基于视觉技术的运动行为分析方法 | |
Krzeszowski et al. | Estimation of hurdle clearance parameters using a monocular human motion tracking method | |
CN114973401A (zh) | 基于动作检测与多模态学习的标准化引体向上评估方法 | |
CN110781777A (zh) | 体育训练中人体动作的判定方法、系统和存储介质 | |
CN114565976A (zh) | 一种训练智能测试方法以及装置 | |
CN117292288A (zh) | 体育测试方法、系统、电子设备、芯片及存储介质 | |
CN115546886A (zh) | 一种基于视觉技术的排球对墙壁垫球测试方法及装置 | |
CN114580471A (zh) | 人体动作识别方法和系统 | |
Saponaro et al. | Estimating Physical Activity Intensity And Energy Expenditure Using Computer Vision On Videos | |
CN114708541A (zh) | 一种体能测试方法、装置、计算机设备及存储介质 | |
CN113517052A (zh) | 商用健身场景下的多感知人机交互系统与方法 | |
CN113641856A (zh) | 用于输出信息的方法和装置 | |
CN206867649U (zh) | 动作诊断测评系统 | |
Croteau et al. | Automatic detection of passing and shooting in water polo using machine learning: a feasibility study | |
CN111261258A (zh) | 一种体育运动训练评估系统 | |
Chen et al. | Deep Transfer Learning Based Real Time Fitness Movement Identification | |
Yamamoto et al. | Extracting proficiency differences and individual characteristics in golfers' swing using single-video markerless motion analysis | |
Hung et al. | A HRNet-based Rehabilitation Monitoring System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20240516 Address after: Room B8110-1, Building 1, No. 43 Yanyang Road, Nankai District, Tianjin, 300000 Applicant after: Tianjin Zhuoyue xinzhongxin Longteng Technology Development Co.,Ltd. Country or region after: China Address before: No.9, 13th Street, economic and Technological Development Zone, Binhai New Area, Tianjin Applicant before: TIANJIN University OF SCIENCE AND TECHNOLOGY Country or region before: China |
|
GR01 | Patent grant |