CN115359558A - 基于计算机视觉的自动体测评判方法、装置、系统及介质 - Google Patents

基于计算机视觉的自动体测评判方法、装置、系统及介质 Download PDF

Info

Publication number
CN115359558A
CN115359558A CN202210988640.2A CN202210988640A CN115359558A CN 115359558 A CN115359558 A CN 115359558A CN 202210988640 A CN202210988640 A CN 202210988640A CN 115359558 A CN115359558 A CN 115359558A
Authority
CN
China
Prior art keywords
node
tested
action
body test
preset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210988640.2A
Other languages
English (en)
Inventor
王亚丽
吴滢跃
史川诚
张虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Yuxiao Electronic Technology Co ltd
Original Assignee
Zhejiang Yuxiao Electronic Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Yuxiao Electronic Technology Co ltd filed Critical Zhejiang Yuxiao Electronic Technology Co ltd
Priority to CN202210988640.2A priority Critical patent/CN115359558A/zh
Publication of CN115359558A publication Critical patent/CN115359558A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明提供一种基于计算机视觉的自动体测评判方法、装置、系统及介质,所述方法应用于用户端,包括:接收待测对象的登录请求信息,并查询数据库,当登录请求信息与数据库中存储的待测对象身份信息一致时登录成功;当成功登录后,接收待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;将体测视频和体测评判结果上传至数据库。本申请具有多项体测项目的测试功能,可实现在无人监管下基于计算机视觉的自动体测评判,采用Mediapipe算法实现人体姿态评估,提高了检测效率,降低了打分误差,减轻了教师监考及成绩录入的压力。

Description

基于计算机视觉的自动体测评判方法、装置、系统及介质
技术领域
本申请涉及计算机视觉技术领域,特别是涉及一种基于计算机视觉的自动体测评判方法、装置、系统及介质。
背景技术
从古至今,体育都是人类社会文化的热点,体育竞争能够促进人类健康发展。研究表明,高中以及大学阶段是学生成长的过渡期,身体素质教育显得尤为重要,因此体测测评十分重要。由于传统的体育测试以人工测试为主导,存在较大误差,效率低下。随着人工智能、计算机视觉和深度学习的高速发展,极大地促进了基于摄像头监控视频的学生体测测评及打分系统的研究。目前,现有的体测系统或工具主要是由大型设备或多设备组成,使用过程较为复杂且对使用场景有一定要求;且由于现有的体测系统对待测对象的关节点关注较少所以会使体测成绩误差较大,同时现有的体测系统也不能实现成绩的自动管理以致体测效率低下。
所以亟需一种在无人监管条件下基于计算机视觉的自动体测测评系统来减轻教师监考及成绩录入的压力,以对仰卧起坐、立定跳远、引体向上等体测项目进行自动化测评及打分,并提高测试准确率。
发明内容
鉴于以上所述现有技术的缺点,本申请的目的在于提供一种基于计算机视觉的自动体测评判方法、装置、系统及介质,用于解决现有技术中无法自动化、多样化进行体测的技术问题。
为实现上述目的及其他相关目的,本申请提供一种基于计算机视觉的自动体测评判方法,应用于用户端,所述方法包括:接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;将所述体测视频和所述体测评判结果上传至所述数据库。
于本申请的一实施例中,所述数据库包括:本地数据库和服务器数据库;当识别到网络断开时,打开本地数据库;当识别到网络连接时,打开服务器数据库,并将本地数据库更新到服务器数据库。
于本申请的一实施例中,所述待测对象登录请求包括:人脸识别登录请求或账号密码登录请求。
于本申请的一实施例中,所述体测项目包括引体向上;所述引体向上的评判过程包括:以第一预设时间间隔提取待测对象的引体向上视频帧,当检测到所述待测对象双手为抓握状态且与单杆部分重叠,并且所述待测对象的双臂垂悬于单杆下方时开始测试;当检测到引体向上的初始动作满足第一预设标准以及引体向上的完成动作满足第二预设标准,且初始动作和完成动作均满足合格标准时,记为一个完整有效的引体向上动作;所述初始动作和完成动作之间满足不超过第二预设时间间隔。
于本申请的一实施例中,所述第一预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时小于第一预设角度值,且嘴部位于单杆之上;所述第二预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时大于第二预设角度值;所述合格标准为:左髋节点、左膝节点以及左脚踝节点连线形成的角度和右髋节点、右膝节点以及右脚踝节点连线形成的角度同时大于第二预设角度值。
于本申请的一实施例中,所述体测项目包括仰卧起坐;所述仰卧起坐的评判过程包括:语音提示所述待测对象做好准备并进行开始测试倒计时提示;当检测到仰卧起坐的坐起动作满足第三预设标准以及仰卧起坐的躺下动作满足第四预设标准时,记为一个完整的仰卧起坐动作;测试时长为一分钟,当满足预设倒计时长时,语音提示所述待测对象测试即将结束;其中,所述第三预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时小于第三预设角度值;所述第四预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时大于第四预设角度值。
于本申请的一实施例中,所述体测项目还包括立定跳远;所述立定跳远的评判过程包括:获取跳远测试范围内起始位置到预设位置的实际距离,并通过所述机器视觉模型获取对应两个位置的三维坐标以计算得到两者之间的欧氏距离,进而得到实际距离与模型测距的映射关系;当检测到立定跳远的起跳动作满足第五预设标准以及立定跳远的落地动作满足第六预设标准时,通过所述机器视觉模型分别获取所述待测对象的起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标,并分别保存起跳动作和落地动作对应的视频帧;根据起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标以得到两者之间的欧氏距离,结合实际距离与模型测距的映射关系,以得到最终的跳远距离;其中,所述第五预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足预设角度范围;所述第六预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足小于第五预设角度值。
于本申请的一实施例中,所述最终的跳远距离的表达式为:DJump=Dist(Point(1),Point(0))*Kd;其中,Point(1)表示所述落地动作的脚后跟位置坐标;Point(0)表示所述起跳动作的脚后跟位置坐标;Dist(Point(1),Point(0))表示所述起跳动作和所述落地动作分别对应的脚后跟位置之间的欧氏距离;Kd表示实际距离与模型测距的映射关系,其表达式为:
Figure BDA0003803002340000031
其中,dxy表示跳远测试范围内起始位置到预设位置的实际距离,通过直接测量得到;dm表示跳远测试范围内起始位置到预设位置之间的欧氏距离。
为实现上述目的及其他相关目的,本申请提供一种基于计算机视觉的自动体测评判装置,包括:登录模块,用于接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;体测评判模块,用于当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;数据库更新模块,用于将所述体测视频和所述体测评判结果上传至所述数据库。
为实现上述目的及其他相关目的,本申请提供一种基于计算机视觉的自动体测评判系统,包括:管理端,用于采集和管理待测对象的身份信息、体测评判结果,以及查询体测评判结果、管理文件;用户端,设有摄像装置,用于采集待测对象的脸部图像进行人脸识别登录,以及采集待测对象的体测视频以进行评判;所述用户端还设有WiFi查询模块,以自动连接测试场所的WiFi进而访问服务器数据库;所述用户端还设有语音计时器,以进行倒计时语音提示;服务器端,存储有所述待测对象的身份信息、待测对象的体测评判结果、待测对象的体测视频,用于进行信息交互;其中,所述管理端、用户端分别与所述服务器通信连接。
为实现上述目的及其他相关目的,本申请提供一种计算机设备,包括:存储器、处理器及通信器;所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述设备执行如上所述的方法;所述通信器用于与外部设备通信。
为实现上述目的及其他相关目的,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述基于计算机视觉的自动体测评判方法。
综上所述,本申请提供的一种基于计算机视觉的自动体测评判方法、装置、系统及介质,具有以下有益效果:
1、本申请具有仰卧起坐、立定跳远、引体向上等多项体测项目的测试功能,不需要笨重的、体积大的设备,使用小型设备即可完成;同时也不会因为主要设备出现问题就无法测试,提供了离线和在线同步测试的方法,降低了成本;
2、本申请可以实现在无人监管条件下基于计算机视觉的自动体测测评及打分,通过利用Seetaface算法实现人脸识别,采用Mediapipe算法实现姿态评估,提高了检测效率,降低了打分误差,减轻了教师监考及成绩录入的压力,具有比较高的研究意义和应用价值。
附图说明
图1显示为本申请于一实施例中的基于计算机视觉的自动体测评判方法的流程示意图。
图2显示为本申请于一实施例中的基于MediaPipe Pose中的地标模型预测的人体关节点示意图。
图3显示为本申请于一实施例中的基于计算机视觉的自动体测评判装置的模块示意图。
图4显示为本申请于一实施例中的基于计算机视觉的自动体测评判系统的结构示意图。
图5显示为本申请于一实施例中的计算机设备的结构示意图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,在下述描述中,参考附图,附图描述了本申请的若干实施例。应当理解,还可使用其他实施例,并且可以在不背离本申请的精神和范围的情况下进行机械组成、结构、电气以及操作上的改变。下面的详细描述不应该被认为是限制性的,并且本申请的实施例的范围仅由公布的专利的权利要求书所限定。这里使用的术语仅是为了描述特定实施例,而并非旨在限制本申请。空间相关的术语,例如“上”、“下”、“左”、“右”、“下面”、“下方”、“下部”、“上方”、“上部”等,可在文中使用以便于说明图中所示的一个元件或特征与另一元件或特征的关系。
在通篇说明书中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”、“固持”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。
再者,如同在本文中所使用的,单数形式“一”、“一个”和“该”旨在也包括复数形式,除非上下文中有相反的指示。本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。应当进一步理解,术语“包含”、“包括”表明存在所述的特征、操作、元件、组件、项目、种类、和/或组,但不排除一个或多个其他特征、操作、元件、组件、项目、种类、和/或组的存在、出现或添加。此处使用的术语“或”和“和/或”被解释为包括性的,或意味着任一个或任何组合。因此,“A、B或C”或者“A、B和/或C”意味着“以下任一个:A;B;C;A和B;A和C;B和C;A、B和C”。仅当元件、功能或操作的组合在某些方式下内在地互相排斥时,才会出现该定义的例外。
为了使本发明的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本发明实施例中的技术方案的进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定发明。
为解决现有问题,本申请提出一种基于计算机视觉的自动体测评判方法、装置、系统及介质,用于自动评判待测对象的体测项目,以解决现有技术中无法自动化、多样化进行体测的技术问题。
如图1所示,展示为本申请于一实施例中的基于计算机视觉的自动体测评判方法的流程示意图,所述方法应用于用户端;所述用户端具体包括:手机、平板电脑、笔记本电脑、智能可穿戴设备等等。
所述基于计算机视觉的自动体测评判方法具体包括以下步骤:
步骤S1:接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功。
于本申请一实施例中,所述数据库包括:本地数据库和服务器数据库;当识别到网络断开时,打开本地数据库;当识别到网络连接时,打开服务器数据库,并将本地数据库更新到服务器数据库。
需说明的是,所述待测对象的身份信息包括:姓名、学号、脸部图像、学院、专业、班级等中任一种或多种组合。
于本申请一实施例中,所述待测对象的登录请求信息包括:人脸识别登录请求或账号密码登录请求。
需说明的是,本申请提供至少两种登录方式:
方式一:人脸识别登录,其具体过程为:采集所述待测对象的脸部图像;基于人脸识别算法对比查询数据库中存储的所述待测对象的脸部图像,如果查询到对应信息,则登录成功,输出待测对象的姓名和学号;否则,登录失败。
其中,所述服务器数据库中部署有Docker镜像的人脸识别算法。所述Docker是一个开源的应用容器引擎,让开发者可以打包他们的应用以及依赖包到一个可移植的容器中,然后发布到任何流行的Linux或Windows操作系统的机器上,也可以实现虚拟化,容器是完全使用沙箱机制,相互之间不会有任何接口。使用Docker会更加轻巧,容器内的应用直接运行在宿主机的内核,容器是没有自己的内核,也没有虚拟我们的硬件,所以更加轻便。
优选的,采用seetaface人脸识别算法进行人脸识别,因为其包含人脸识别的基本能力:人脸检测、关键点定位、人脸识别,同时增加了活体检测、质量评估、年龄性别估计,并且顺应实际应用需求,开放口罩检测以及口罩佩戴场景下的人脸识别模型。并且,SeetaFace算法部署方式灵活,除适用于高精度的服务器外,也可以在终端设备上很好地适应运行。
方式二:账号密码登录,其具体过程为:获取所述待测对象输入的学号及姓名;对比查询数据库中存储的所述待测对象的身份信息,如果查询到对应信息,则登录成功;否则,登录失败。
另外,本申请还可以通过指纹识别登录、虹膜识别登录等多种方式进行登录。
步骤S2:当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果。
需说明的是,所述体测项目包括但不限于引体向上、仰卧起坐、立定跳远等,例如,体测项目还包括坐位体前屈等。
优选的,所述集成有人脸识别、人体姿态估计及手势识别的机器视觉模型采用MediaPipe算法。MediaPipe不仅可以被部署在服务器端,更可以在多个移动端(安卓和苹果IOS)和嵌入式平台(Google Coral和树莓派)中作为设备端机器学习推理(On-deviceMachine Learning Inference)框架。同时,MediaPipe分别利用MediaPipe Pose,MediaPipe Face Mesh和MediaPipe Hands中的姿势、面部和手界标模型来生成总共543个界标,包括33个姿势界标、468个脸部界标和21个手界标。而且,MediaPipe的姿势检测具有高保真(高质量)和低延迟(超快)的效果,可以在低端设备(即手机、笔记本电脑等)的实时视频源中检测到人体的33个关键节点的3D地标。
如图2所示,展示为本申请于一实施例中的基于MediaPipe Pose中的地标模型预测的人体关键节点示意图。图中数字代表人体各个关键节点,具体表示为:0表示鼻子;1表示左眼内部;2表示左眼;3表示左眼外部;4表示右眼内部;5表示右眼;6表示右眼外部;7表示左耳;8表示右耳;9表示鼻子左侧;10表示鼻子右侧;11表示左肩膀;12表示右肩膀;13表示左肘;14表示右肘;15表示左腕;16表示右腕;17表示左手小指;18表示右手小指;19表示左手食指;20表示右手食指;21表示左手大拇指;22表示右手大拇指;23表示左髋;24表示右髋;25表示左膝;26表示右膝;27表示左脚踝;28表示右脚踝;29表示左脚跟;30表示右脚跟;31表示左脚第二脚趾;32表示右脚第二脚趾。
于本申请一实施例中,所述体测项目包括引体向上;所述引体向上的评判过程包括:以第一预设时间间隔提取待测对象的引体向上视频帧,当检测到所述待测对象双手为抓握状态且与单杆部分重叠,并且所述待测对象的双臂垂悬于单杆下方时开始测试;当检测到引体向上的初始动作满足第一预设标准以及引体向上的完成动作满足第二预设标准,且初始动作和完成动作均满足合格标准时,记为一个完整有效的引体向上动作;所述初始动作和完成动作之间满足不超过第二预设时间间隔。
举例来说,第一预设时间间隔可以设为30毫秒,所述第一预设时间间隔越小,对待测对象引体向上视频的识别越快,判断越准确;第二预设时间间隔设为10秒,引体向上测试基本标准时向上、向下之间间隔不超过10秒,第二预设时间间隔设置不宜太大,会使体测失去意义。
于本申请一实施例中,所述第一预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时小于第一预设角度值,且嘴部位于单杆之上;所述第二预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时大于第二预设角度值;所述合格标准为:左髋节点、左膝节点以及左脚踝节点连线形成的角度和右髋节点、右膝节点以及右脚踝节点连线形成的角度同时大于第二预设角度值。
举例来说,第一预设角度值可以设为20°,所述第一预设角度值设置越小,引体向上的难度会越大,对待测对象的测试要求越高;第二预设角度值可以设为170°,所述第二预设角度值不宜超过180°,即当所述待测对象在引体向上的完成动作中处于悬挂于单杆下方时为最佳状态。
具体的,所述待测对象站于单杆后方,每隔30毫秒提取一次所述待测对象的引体向上视频帧,当检测到所述待测对象的双手握于单杆,且双臂垂悬于单杆下方时开始测试。结合图2所示,当检测到所述待测对象在引体向上的初始动作即身体向上时,(11,13,15)连线形成的角度和(12,14,16)连线形成的角度同时小于20°,且(9,10)位于单杆之上时,记为有效的引体向上的初始动作;当检测到所述待测对象在引体向上的完成动作即身体向下时,(11,13,15)连线形成的角度和(12,14,16)连线形成的角度同时大于170°,记为有效的引体向上的完成动作。同时,当检测到引体向上的整个过程中,(23,25,27)连线形成的角度和(24,26,28)连线形成的角度同时大于170°,即引体向上过程中所述待测对象的下半身尽量处于自然垂悬不发力的状态时,记为合格的引体向上;当初始动作和完成动作均为合格时,记为一个完整有效的引体向上动作。并且,所述初始动作和完成动作之间不超过10秒。
于本申请一实施例中,所述体测项目包括仰卧起坐;所述仰卧起坐的评判过程包括:语音提示所述待测对象做好准备并进行开始测试倒计时提示;当检测到仰卧起坐的坐起动作满足第三预设标准以及仰卧起坐的躺下动作满足第四预设标准时,记为一个完整的仰卧起坐动作;测试时长为一分钟,当满足预设倒计时长时,语音提示所述待测对象测试即将结束;其中,所述第三预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时小于第三预设角度值;所述第四预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时大于第四预设角度值。
需说明的是,所述开始测试倒计时和所述预设倒计时长可以设置为5秒,从数字5、4、3、2、1倒计时开始计数以语音提示所述待测对象准备仰卧起坐测试或者即将结束测试。所述开始测试倒计时不宜太长,节省体测周期,并且减少所述待测对象的等待时间;所述预设倒计时长不宜太长以避免干扰待测对象的状态影响测试成绩,也不宜太短以使所述待测对象没有反应时间。
举例来说,所述第三预设角度值可以设为60°,由于仰卧起坐中所述待测对象是屈膝脚踩地仰卧于地面,双腿与地面成锐角夹角(大概45°~60°),所以第三预设角度值不宜设置过大,需要待测对象卷起上半身使仰卧起坐坐起时腹部找向大腿的方向,否则会失去测试意义;所述第四预设角度值可以设为120°,不宜过小,要符合仰卧起坐的标准姿态。
具体的,当检测到所述待测对象屈膝脚踩地仰卧于地面时,语音提示所述待测对象做好准备并从数字5、4、3、2、1倒计时开始计数进入仰卧起坐测试。结合图2所示,当检测到所述待测对象在仰卧起坐的坐起动作中,(11,23,25)连线形成的角度和(11,23,25)连线形成的角度同时小于60°,并且,所述待测对象在仰卧起坐的躺下动作中,(11,23,25)连线形成的角度和(11,23,25)连线形成的角度同时大于120°时,记为一个完整的仰卧起坐动作。测试时长为一分钟,当距离结束还有5秒时,语音提示待测对象测试即将结束。
于本申请一实施例中,所述体测项目还包括立定跳远;所述立定跳远的评判过程包括:获取跳远测试范围内起始位置到预设位置的实际距离,并通过所述机器视觉模型获取对应两个位置的三维坐标以计算得到两者之间的欧氏距离,进而得到实际距离与模型测距的映射关系;当检测到立定跳远的起跳动作满足第五预设标准以及立定跳远的落地动作满足第六预设标准时,通过所述机器视觉模型分别获取所述待测对象的起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标,并分别保存起跳动作和落地动作对应的视频帧;根据起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标以得到两者之间的欧氏距离,结合实际距离与模型测距的映射关系,以得到最终的跳远距离。
其中,所述第五预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足预设角度范围;所述第六预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足小于第五预设角度值。
需说明的是,所述预设角度范围为150°~170°,符合立定跳远的起跳动作人在空中的身体曲度即可;所述第五预设角度值可以设置为40°,符合立定跳远的落地动作人身体前弯折叠向下的自然状态。结合图2所示,当检测到所述待测对象在立定跳远的起跳动作中,(12,24,26)连线形成的角度和(11,23,25)连线形成的角度同时落于150°~170°范围内;且检测到所述待测对象在立定跳远的落地动作中,(12,24,26)连线形成的角度和(11,23,25)连线形成的角度同时小于40°时,记为一个有效的立定跳远。
于本申请一实施例中,所述最终的跳远距离的表达式为:
DJump=Dist(Point(1),Point(0))*Kd; 公式1)
其中,Point(1)表示所述落地动作的脚后跟位置坐标;Point(0)表示所述起跳动作的脚后跟位置坐标;Dist(Point(1),Point(0))表示所述起跳动作和所述落地动作分别对应的脚后跟位置之间的欧氏距离;Kd表示实际距离与模型测距的映射关系,其表达式为:
Figure BDA0003803002340000091
其中,dxy表示跳远测试范围内起始位置到预设位置的实际距离,通过直接测量得到;dm表示跳远测试范围内起始位置到预设位置之间的欧氏距离。
结合图2所示,Point(1)和Point(0)可以通过Mediapipe Pose分别得到(29,30)对应的3D坐标。
具体的,标定测距以得到实际距离与模型测距的映射关系Kd的过程中,优选通过激光测距传感器进行标定测量,节省标定工具减少测量时间并且测量精度高;也可通过人为标定进行直接测量。当使用激光测距传感器进行标定测量时,所述待测对象站于起始位置,通过激光测距传感器标定为起跳点,通过Mediapipe Pose模型得到此时所述待测对象的脚跟位置(29,30)的3D坐标;在跳远测试范围内,所述待测对象站于某一预设位置(可以是跳远测试范围内的除起跳点以外的任意位置),通过激光测距传感器标定为距离参考点,并通过Mediapipe Pose模型得到此时所述待测对象(29,30)对应的3D坐标;所述激光测距传感器可输出起跳点与距离参考点之间的实际距离dxy;并通过计算Mediapipe Pose模型输出的分别对应起始位置与预设位置的(29,30)的3D坐标以得到两位置之间的欧氏距离dm
需说明的是,在立定跳远的起始位置处,左脚跟(29)和右脚跟(30)要尽量保持平行,此时通过Mediapipe Pose模型得到所述待测对象的(29,30)的3D坐标相差无几;在立定跳远的预设位置或者落地处,选取左脚跟(29)或右脚跟(30)对应较远的一点作为测量点。或者,分别计算对应起始位置与预设位置或者落地处的左脚跟(29)或右脚跟(30)之间的距离,择优选用。
步骤S3:将所述体测视频和所述体测评判结果上传至所述数据库。
需说明的是,所述数据库中存储有待测对象的身份信息、体测视频、体测评判结果(即体测成绩)等信息,以进行信息存储和管理。
如图3所示,展示为本申请于一实施例中的基于计算机视觉的自动体测评判装置的模块示意图。所述基于计算机视觉的自动体测评判装置300包括:
登录模块310,用于接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;
体测评判模块320,用于当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;
数据库更新模块330,用于将所述体测视频和所述体测评判结果上传至所述数据库。
应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现;也可以全部以硬件的形式实现;还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如,数据库更新模块330可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现,此外,也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上数据库更新模块330的功能。其它模块的实现与之类似。此外这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。
例如,以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),或,一个或多个微处理器(digital signal processor,简称DSP),或,一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。再如,当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,例如中央处理器(Central Processing Unit,简称CPU)或其它可以调用程序代码的处理器。再如,这些模块可以集成在一起,以片上系统(system-on-a-chip,简称SOC)的形式实现。
如图4显示为本申请于一实施例中的基于计算机视觉的自动体测评判系统的结构示意图。所述系统包括:用户端410、管理端420和服务器430;并且,所述用户端410、管理端420分别与所述服务器430通信连接。
用户端410,设有摄像装置,用于采集待测对象的脸部图像进行人脸识别登录,以及采集待测对象的体测视频以进行评判;所述用户端还设有WiFi查询模块,以自动连接测试场所WiFi进而访问服务器数据库。
需说明的是,所述摄像装置连接有语音计时器,以进行倒计时语音提示;例如,进行仰卧起坐测试时,从数字5、4、3、2、1倒计时开始计数以语音提醒所述待测对象准备好开始进行测试;并在测试一分钟快要结束的最后5秒进行倒计时播报以提醒所述待测对象测试即将结束。另外,所述摄像装置还可以以灯闪逐渐变快方式提示待测对象测试即将开始或结束。
所述摄像装置还连接有激光测距传感器,用于定位所述待测对象的位置,以及标定测距以得到所述机器视觉模型中两位置之间欧氏距离与实际距离的映射关系。
需说明的是,所述用户端410包括登录页面、体测评判页面、成绩上传页面;所述登录页面用于登录系统;所述体测评判页面用于测试体测项目并进行评判;所述成绩上传页面用于上传成绩信息即体测评判结果。所述用户端410还包括文件下载页面;所述文件下载页面用于下载文件信息。其中,文件信息包括各类考试题库,如:中环体育考试题库、体育心理学考试题库、体育教师专业知识考试题库、体育考试题库等等。
管理端420,用于采集和管理待测对象的身份信息、体测评判结果,以及查询体测评判结果、管理文件。
需说明的是,所述管理端420用户信息管理页面、成绩信息管理页面、成绩查询页面、文件上传页面;所述用户信息管理页面用于管理用户信息,包括录入、删除用户信息等;所述成绩信息管理页面用于管理用户体测成绩信息,包括查询、删除、调整用户成绩信息等;所述成绩查询页面用于查询成绩信息;所述文件上传页面用于上传文件信息。
服务器端430,存储有所述待测对象的身份信息、待测对象的体测评判结果、待测对象的体测视频,用于进行信息交互;
需说明的是,所述服务器端430包括注册登录模块、用户信息数据库、离线成绩数据库、在线成绩数据库、成绩查询模块、文件管理数据库;所述注册登录模块用于管理注册登录过程;所述用户信息数据库用于存储、管理用户信息;所述离线成绩数据库用于存储、管理用户离线体测成绩信息;所述在线成绩数据库用于存储、管理用户在线体测成绩信息;所述成绩查询模块用于管理成绩查询过程;所述文件管理数据库用于存储、管理文件信息。
如图5所示,展示为本申请于一实施例中的计算机设备500的结构示意图。所述计算机设备500包括:存储器510、处理器520及通信器530;所述存储器510用于存储计算机指令;所述处理器520运行计算机指令实现如图1所述的方法;所述通信器530用于与外部设备通信。
在一些实施例中,所述计算机设备500中的所述存储器510、所述处理器520和所述通信器530的数量均可以是一或多个,而图5中均以一个为例。
于本申请一实施例中,所述计算机设备500中的处理器520会按照如图1所述的步骤,将一个或多个以应用程序的进程对应的指令加载到存储器510中,并由处理器520来运行存储在存储器510中的应用程序,从而实现如图1所述的方法。
所述存储器510可以包括随机存取存储器(Random Access Memory,简称RAM),也可以包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。所述存储器510存储有操作系统和操作指令、可执行模块或者数据结构,或者它们的子集,或者它们的扩展集,其中,操作指令可包括各种操作指令,用于实现各种操作。操作系统可包括各种系统程序,用于实现各种基础业务以及处理基于硬件的任务。
所述处理器520可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(ApplicationSpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field Programmable GateArray,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
所述通信器530用于实现数据库访问装置与其他设备(例如客户端、读写库和只读库)之间的通信连接。所述通信器530可包含一组或多组不同通信方式的模块,例如,与CAN总线通信连接的CAN通信模块。所述通信连接可以是一个或多个有线/无线通讯方式及其组合。通信方式包括:互联网、CAN、内联网、广域网(WAN)、局域网(LAN)、无线网络、数字用户线(DSL)网络、帧中继网络、异步传输模式(ATM)网络、虚拟专用网络(VPN)和/或任何其它合适的通信网络中的任何一个或多个。例如:WIFI、蓝牙、NFC、GPRS、GSM、及以太网中任意一种及多种组合。
在一些具体的应用中,所述计算机设备500的各个组件通过总线系统耦合在一起,其中总线系统除包括数据总线之外,还可以包括电源总线、控制总线和状态信号总线等。但是为了清除说明起见,在图5中将各种总线都成为总线系统。
于本申请一实施例中,本申请提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如图1所述的方法。
在任何可能的技术细节结合层面,本申请可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本申请的各个方面的计算机可读程序指令。
计算机可读存储介质可以是可以保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以是(但不限于)电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。这里所使用的计算机可读存储介质不被解释为瞬时信号本身,诸如无线电波或者其他自由传播的电磁波、通过波导或其他传输媒介传播的电磁波(例如,通过光纤电缆的光脉冲)、或者通过电线传输的电信号。
这里所描述的计算机可读程序可以从计算机可读存储介质下载到各个计算/处理设备,或者通过网络、例如因特网、局域网、广域网和/或无线网下载到外部计算机或外部存储设备。网络可以包括铜传输电缆、光纤传输、无线传输、路由器、防火墙、交换机、网关计算机和/或边缘服务器。每个计算/处理设备中的网络适配卡或者网络接口从网络接收计算机可读程序指令,并转发该计算机可读程序指令,以供存储在各个计算/处理设备中的计算机可读存储介质中。
用于执行本申请操作的计算机程序指令可以是汇编指令、指令集架构(ISA)指令、机器指令、机器相关指令、微代码、固件指令、状态设置数据、集成电路配置数据或者以一种或多种编程语言的任意组合编写的源代码或目标代码,所述编程语言包括面向对象的编程语言—诸如Smalltalk、C++等,以及过程式编程语言—诸如“C”语言或类似的编程语言。计算机可读程序指令可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络—包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。在一些实施例中,通过利用计算机可读程序指令的状态信息来个性化定制电子电路,例如可编程逻辑电路、现场可编程门阵列(FPGA)或可编程逻辑阵列(PLA),该电子电路可以执行计算机可读程序指令,从而实现本申请的各个方面。
综上所述,本申请提供了一种基于计算机视觉的自动体测评判方法、装置、系统及介质,所述方法应用于用户端,包括:接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;将所述体测视频和所述体测评判结果上传至所述数据库。
本申请具有仰卧起坐、立定跳远、引体向上等多项体测项目的测试功能,不需要笨重的、体积大的设备,使用小型设备即可完成;同时也不会因为主要设备出现问题就无法测试,提供了离线和在线同步测试的方法,降低了成本;本申请可以实现在无人监管条件下基于计算机视觉的自动体测测评及打分,通过利用Seetaface算法实现人脸识别,采用Mediapipe算法实现姿态评估,提高了检测效率,降低了打分误差,减轻了教师监考及成绩录入的压力,具有比较高的研究意义和应用价值。
本申请有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (12)

1.一种基于计算机视觉的自动体测评判方法,其他特征在于,应用于用户端,所述方法包括:
接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;
当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;
将所述体测视频和所述体测评判结果上传至所述数据库。
2.根据权利要求1所述的基于计算机视觉的自动体测评判方法,其特征在于,所述数据库包括:本地数据库和服务器数据库;
当识别到网络断开时,打开本地数据库;
当识别到网络连接时,打开服务器数据库,并将本地数据库更新到服务器数据库。
3.根据权利要求1所述的基于计算机视觉的自动体测评判方法,其特征在于,所述待测对象的登录请求信息包括:人脸识别登录请求或账号密码登录请求。
4.根据权利要求1所述的基于计算机视觉的自动体测评判方法,其特征在于,所述体测项目包括引体向上;所述引体向上的评判过程包括:
以第一预设时间间隔提取待测对象的引体向上视频帧,当检测到所述待测对象双手为抓握状态且与单杆部分重叠,并且所述待测对象的双臂垂悬于单杆下方时开始测试;
当检测到引体向上的初始动作满足第一预设标准以及引体向上的完成动作满足第二预设标准,且初始动作和完成动作均满足合格标准时,记为一个完整有效的引体向上动作;所述初始动作和完成动作之间满足不超过第二预设时间间隔。
5.根据权利要求4所述的基于计算机视觉的自动体测评判方法,其特征在于,所述第一预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时小于第一预设角度值,且嘴部位于单杆之上;所述第二预设标准为:左肩节点、左肘节点以及左腕节点连线形成的角度和右肩节点、右肘节点以及右腕节点连线形成的角度同时大于第二预设角度值;所述合格标准为:左髋节点、左膝节点以及左脚踝节点连线形成的角度和右髋节点、右膝节点以及右脚踝节点连线形成的角度同时大于第二预设角度值。
6.根据权利要求1所述的基于计算机视觉的自动体测评判方法,其特征在于,所述体测项目包括仰卧起坐;所述仰卧起坐的评判过程包括:
语音提示所述待测对象做好准备并进行开始测试倒计时提示;
当检测到仰卧起坐的坐起动作满足第三预设标准以及仰卧起坐的躺下动作满足第四预设标准时,记为一个完整的仰卧起坐动作;
测试时长为一分钟,当满足预设倒计时长时,语音提示所述待测对象测试即将结束;
其中,所述第三预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时小于第三预设角度值;所述第四预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时大于第四预设角度值。
7.根据权利要求1所述的基于计算机视觉的自动体测评判方法,其特征在于,所述体测项目还包括立定跳远;所述立定跳远的评判过程包括:
获取跳远测试范围内起始位置到预设位置的实际距离,并通过所述机器视觉模型获取对应两个位置的三维坐标以计算得到两者之间的欧氏距离,进而得到实际距离与模型测距的映射关系;
当检测到立定跳远的起跳动作满足第五预设标准以及立定跳远的落地动作满足第六预设标准时,通过所述机器视觉模型分别获取所述待测对象的起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标,并分别保存起跳动作和落地动作对应的视频帧;
根据起跳动作的脚后跟位置坐标和落地动作的脚后跟位置坐标以得到两者之间的欧氏距离,结合实际距离与模型测距的映射关系,以得到最终的跳远距离;
其中,所述第五预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足预设角度范围;所述第六预设标准为:右肩节点、右髋节点以及右膝节点连线形成的角度和左肩节点、左髋节点以及左膝节点连线形成的角度同时满足小于第五预设角度值。
8.根据权利要求7所述的基于计算机视觉的自动体测评判方法,其特征在于,所述最终的跳远距离的表达式为:
DJump=Dist(Point(1),Point(0))*Kd
其中,Point(1)表示所述落地动作的脚后跟位置坐标;Point(0)表示所述起跳动作的脚后跟位置坐标;Dist(Point(1),Point(0))表示所述起跳动作和所述落地动作分别对应的脚后跟位置之间的欧氏距离;Kd表示实际距离与模型测距的映射关系,其表达式为:
Figure FDA0003803002330000021
其中,dxy表示跳远测试范围内起始位置到预设位置的实际距离,通过直接测量得到;dm表示跳远测试范围内起始位置到预设位置之间的欧氏距离。
9.一种基于计算机视觉的自动体测评判装置,其特征在于,包括:
登录模块,用于接收待测对象的登录请求信息,并查询数据库,当所述登录请求信息与所述数据库中存储的待测对象身份信息一致时登录成功;
体测评判模块,用于当成功登录后,接收所述待测对象所选的体测项目信息,采集待测对象的体测视频并使用集成有人脸识别、人体姿态估计及手势识别的机器视觉模型进行体测评判以得到该体测项目的体测评判结果;
数据库更新模块,用于将所述体测视频和所述体测评判结果上传至所述数据库。
10.一种基于计算机视觉的自动体测评判系统,其特征在于,包括:
用户端,设有摄像装置,用于采集待测对象的脸部图像进行人脸识别登录,以及采集待测对象的体测视频以进行评判;所述用户端还设有WiFi查询模块,以自动连接测试场所WiFi进而访问服务器数据库;
管理端,用于采集和管理待测对象的身份信息、体测评判结果,以及查询体测评判结果、管理文件;
服务器端,存储有所述待测对象的身份信息、待测对象的体测评判结果、待测对象的体测视频,用于进行信息交互;
其中,所述用户端、管理端分别与所述服务器通信连接。
11.一种计算机设备,其特征在于,所述设备包括:存储器、处理器及通信器;
所述存储器用于存储计算机程序;所述处理器用于执行所述存储器存储的计算机程序,以使所述设备执行如权利要求1至8中任意一项所述的方法;所述通信器用于与外部设备通信。
12.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至8中任一项所述基于计算机视觉的自动体测评判方法。
CN202210988640.2A 2022-08-17 2022-08-17 基于计算机视觉的自动体测评判方法、装置、系统及介质 Pending CN115359558A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210988640.2A CN115359558A (zh) 2022-08-17 2022-08-17 基于计算机视觉的自动体测评判方法、装置、系统及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210988640.2A CN115359558A (zh) 2022-08-17 2022-08-17 基于计算机视觉的自动体测评判方法、装置、系统及介质

Publications (1)

Publication Number Publication Date
CN115359558A true CN115359558A (zh) 2022-11-18

Family

ID=84001901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210988640.2A Pending CN115359558A (zh) 2022-08-17 2022-08-17 基于计算机视觉的自动体测评判方法、装置、系统及介质

Country Status (1)

Country Link
CN (1) CN115359558A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116350203A (zh) * 2023-06-01 2023-06-30 广州华夏汇海科技有限公司 一种体质测试数据处理方法及系统
CN116492634A (zh) * 2023-06-26 2023-07-28 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116350203A (zh) * 2023-06-01 2023-06-30 广州华夏汇海科技有限公司 一种体质测试数据处理方法及系统
CN116350203B (zh) * 2023-06-01 2023-08-18 广州华夏汇海科技有限公司 一种体质测试数据处理方法及系统
CN116492634A (zh) * 2023-06-26 2023-07-28 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法
CN116492634B (zh) * 2023-06-26 2023-09-26 广州思林杰科技股份有限公司 基于图像视觉定位的立定跳远测试方法

Similar Documents

Publication Publication Date Title
CN115359558A (zh) 基于计算机视觉的自动体测评判方法、装置、系统及介质
US10994417B2 (en) Systems, devices, and methods for the distribution and collection of multimodal data associated with robots
CN108499107B (zh) 虚拟现实中虚拟角色的控制方法、装置及存储介质
US9846843B2 (en) Methods and systems for facilitating interactions between a robot and user
CN107194987A (zh) 对人体测量数据进行预测的方法
CN105159452B (zh) 一种基于人脸姿态估计的控制方法与系统
CN109117893A (zh) 一种基于人体姿态的动作识别方法及装置
CN110334573B (zh) 一种基于密集连接卷积神经网络的人体运动状态判别方法
Ongvisatepaiboon et al. Smartphone-based tele-rehabilitation system for frozen shoulder using a machine learning approach
CN107909023B (zh) 运动参数的识别方法、装置、终端及存储介质
CN110956071B (zh) 眼部关键点的标注及其检测模型的训练方法和装置
CN109472217A (zh) 智能化运动训练模型构建方法及装置、训练方法及装置
CN107492377A (zh) 用于控制自拍飞行器的方法和装置
CN107170039A (zh) 人体三维数据模型库的生成方法
WO2024094227A1 (zh) 一种基于卡尔曼滤波和深度学习的手势姿态估计方法
CN110738650A (zh) 一种传染病感染识别方法、终端设备及存储介质
CN110222734B (zh) 贝叶斯网络学习方法、智能设备及存储装置
CN108379815A (zh) 基于弹性智能传感器节点的带实时反馈的自动化训练系统
KR20160075884A (ko) 스켈레톤 트래킹 방법 및 이를 이용한 스켈레톤 트래킹 시스템
Wang et al. Machine learning for soft robot sensing and control: A tutorial study
CN113325950B (zh) 功能控制方法、装置、设备以及存储介质
de Dios et al. Landmark-based methods for temporal alignment of human motions
CN114167993B (zh) 信息处理方法及装置
CN114998643A (zh) 类别描述的特征信息的获取方法、图像的处理方法及设备
CN114067422A (zh) 一种用于辅助驾驶的视线检测方法、装置及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination