CN116580813A - 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 - Google Patents
一种基于深度学习的腰背肌锻炼监测与评估装置及方法 Download PDFInfo
- Publication number
- CN116580813A CN116580813A CN202310834109.4A CN202310834109A CN116580813A CN 116580813 A CN116580813 A CN 116580813A CN 202310834109 A CN202310834109 A CN 202310834109A CN 116580813 A CN116580813 A CN 116580813A
- Authority
- CN
- China
- Prior art keywords
- human body
- exercise
- deep learning
- action
- vector space
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 30
- 238000000034 method Methods 0.000 title claims abstract description 28
- 210000003205 muscle Anatomy 0.000 title claims abstract description 28
- 238000013135 deep learning Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 59
- 230000009471 action Effects 0.000 claims abstract description 49
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims description 11
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 abstract description 8
- 238000007635 classification algorithm Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001373 regressive effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 206010050296 Intervertebral disc protrusion Diseases 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002980 postoperative effect Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 208000008035 Back Pain Diseases 0.000 description 1
- 241000202296 Delphinium Species 0.000 description 1
- 241000167880 Hirundinidae Species 0.000 description 1
- 208000008930 Low Back Pain Diseases 0.000 description 1
- 206010033425 Pain in extremity Diseases 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 230000006378 damage Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000001568 sexual effect Effects 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H20/00—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
- G16H20/30—ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to physical therapies or activities, e.g. physiotherapy, acupressure or exercising
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Physical Education & Sports Medicine (AREA)
- Biophysics (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Social Psychology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于深度学习的腰背肌锻炼监测与评估装置及方法,采用BlazePose算法进行目标识别和人体关键点定位,该算法能够在不同场景下实现高精度的人体姿态识别。通过回归出的人体关键点坐标向量空间,采用KNN分类算法进行分类,以判断当前状态下人体的动作种类。最后,将向量空间与标准动作的向量空间计算余弦相似度,设置权重和阈值,从而完成打分和评估。本发明将基于深度学习的blazepose网络与学习算法KNN相结合,不仅能够精准回归出人体关键点,还能够对动作进行分类识别,同时提供引导和提示,使得康复训练更加高效。
Description
技术领域
本发明涉及锻炼检测、运动医学领域技术领域,具体涉及一种基于深度学习的腰背肌锻炼监测与评估装置及方法。
背景技术
研究显示,因各种不良习惯以及身体疾病导致腰椎间盘突出症高发,同时引发腰腿疼患者日益增多,患者治疗周期长,易复发,严重影响日常生活等一系列问题。有治疗需求的人群数量以惊人的速度逐年增加。需求端的扩大导致医疗领域出现医疗人员紧缺、医疗效率低下的问题。而且在传统的腰椎治疗训练中,一般要依靠专业技术人员进行指导,以此避免手术不当造成的身体伤害,而且还需要特定的环境进行康复训练,因此如何做到通过“术前预防”及“术后护理”的方式,来达到避免手术抑或预防复发的目的,具有很大的研究空间。人工智能技术的发展为运动医学领域提供了新的发展思路,将深度学习算法与腰背肌锻炼模式相结合可以对既有的腰椎间盘突出症患者及术后患者的功能锻炼与康复提供有效干预,预防再次复发或尽量避免手术,提高患者的主动训练参与度与自信度。
基于深度学习的人体姿态估计算法被广泛应用于人脸识别、智能安防、无人驾驶等领域。在人体姿态检测方面的研究算法主要分为两个方面:(1)自上而下方法,主要包括人体检测和单个人体关键点检测两个部分,即先通过目标检测算法将图像中存在的人体检测出来,然后在检测出人体的基础上,对每个人体的关键点进行检测。该类算法的优势在于识别效率一般比较高,但由于算法需要对图像中的每个个体进行检测,因此运行速度较慢。(2)自下而上的方法,主要包含关键点检测以及对检测出来的关键点进行聚类组合两部分,即首先将图像中的所有人的关键点检测出来,而后对检测出来的关键点进行聚类分析组合成不同的个体。该类算法主要优势在于速度快,且不受图像中人数的影响,但由于聚类本身的不确定性就会导致整个算法的识别准确率较低。
目前对于医疗锻炼辅助装置大都是通用性医疗设备,不仅针对性有待提高,而且价格昂贵,不利于携带。虽然现有腰背肌专用设备可以解决没有机械辅助的情况下,患者独立完成小飞燕等锻炼非常困难的问题,但是还存在着锻炼方式单一,不方便患者选择合适的康复训练方式,且调节装置高度不便,导致患者不方便根据实际情况调节装置训练的强度的问题。
从上述背景中可以清晰地得到利用深度学习的多功能腰背肌辅助锻炼监测与评估装置必须要解决的四个关键点是:(1)算法模型必须能够有效抑制环境因素的影响,如光线、遮挡等,具有强鲁棒性,克服普通图像的局限性。(2)算法模型必须保障高分辨率、高处理性能,这样才能代替现医疗人员的指导并且还要保证评估的标准性。(3)装置必须具有性价比高、实用性强、自由度高、灵活性好等特点。(4)评估标准需要进行量化表示,能够对待检测动作做出打分并对危险动作进行报警。
发明内容
针对上述问题,本发明提供一种基于深度学习的腰背肌锻炼监测与评估装置及方法,
本发明采用下述的技术方案:
一种基于深度学习的腰背肌锻炼监测与评估方法,包括以下步骤:
S1、实时采集锻炼者的锻炼动作数据;
S2、基于深度学习的人体姿态估计模型对步骤S1所述锻炼动作数据先进行目标识别,识别到人体位置后再进行人体关键点回归,得到人体关键点坐标向量空间;
S3、采用KNN算法计判断人体关键点坐标向量空间的锻炼动作种类并计数;
S4、将所述步骤S3判断出的锻炼动作种类的人体关键点坐标向量空间与标准动作的向量空间计算余弦相似度,根据余弦相似度大小采用动作标准度评分公式进行动作标准度评分;
S5、根据所述步骤S4评分结果进行评估;
进一步的,步骤S3中,所述KNN算法的具体步骤包括:
S31、计算每个测试样本与训练集中每个样本的距离;
S32、根据步骤S31计算出的每个测试样本与训练集中每个样本的距离后,选择距离最近的K个样本作为预测该测试样本类别;
S33、预测类别。
进一步的,步骤S31中,计算距离的方法采用欧式距离数学表达式,公式表达如下:
其中,为输入值的向量空间,/>为标准样本的向量空间。
进一步的,根据步骤S3判断锻炼动作种类进行计数。
进一步的,所述余弦相似度具体计算公式为:
其中,x和y是两个向量,x·y表示向量x和向量y的内积,||x||和||y||分别表示向量x和向量y的模长。
进一步的,所述动作标准度评分公式为:
其中,X表示输入的人体关键点向量空间,S表示评判某个动作的关键人体部位的集合,表示输入的关键人体部位的向量,/>表示标准的关键人体部位向量,/>表示该关键人体部位的向量的权重。
本发明的另一方面,提供了一种基于深度学习的腰背肌锻炼监测与评估装置,包括:
获取图像模块,用于采集锻炼者锻炼动作的图像;
目标识别模块,用于识别人体位置;
锻炼动作判断模块,用于判断锻炼者锻炼动作;
评分模块,用于对锻炼动作进行评分。
本发明的有益效果是:
本发明将基于深度学习的人体姿态估计模型与传统机器学习算法KNN相结合,不仅能够精准回归出人体关键点,还能够对动作进行分类识别。这种创新的方法不仅适用于当前的腰背肌锻炼,而且可以应用到未来更多的锻炼动作中。整个算法可以自动地判断锻炼者的腰背肌锻炼状态,同时提供引导和提示,使得康复训练更加高效。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例的附图作简单地介绍,显而易见地,下面描述中的附图仅仅涉及本发明的一些实施例,而非对本发明的限制。
图1为本发明方法流程图;
图2为本发明提供的实施例装置示意图;
图中:1-装置外壳 2-摄像装置 3-触摸显示装置 4-音响 5-核心板
图3为本发明提供的实施例多功能锻炼装置人机交互界面;
图中:101-锻炼目标设置 102-动作类型选择 103-存储锻炼结果按钮 104-音乐播放器 105-开始锻炼按钮 106-退出锻炼监测和评估系统
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图和实施例对本发明进一步说明。
如图1所示,一种基于深度学习的腰背肌锻炼监测与评估方法,包括以下步骤:
步骤一、实时采集锻炼者的锻炼动作数据。
将装置(如图2所示)固定于距离人体1.5米左右的距离,使整个人体侧面都能进入其视野范围内。借助装置上配备的摄像装置2,实时采集锻炼者的锻炼动作数据。之后会利用采样到的视频进行实时处理。
进一步的,所述装置还包括装置外壳1、触摸显示装置3、音响4、核心板5;所述核心板为jetson nano核心板。
步骤二、基于深度学习的BlazePose人体姿态估计模型对步骤S1所述锻炼动作数据先进行目标识别,识别到人体位置后再进行人体关键点回归。
BlazePose神经网络是基于卷积神经网络(Convolutional Neural Network,CNN)的深度学习模型。网络由两个主要的部分组成:姿态估计(Pose Estimation)和关键点定位(Keypoint Localization)。其中姿态估计是通过一个基于卷积神经网络的分类器来实现的,该分类器将输入的人体图像划分到几个离散的姿态中。而关键点定位是通过一个回归器来实现的,该回归器会对每个关键点的坐标进行预测,最终形成一组完整的人体姿态。BlazePose神经网络使用了多个损失函数来进行训练,以提高训练效果和稳定性。其中最主要的损失函数是SmoothL1 Loss,用于估计关键点的坐标。此外,还使用了Cross-EntropyLoss和Binary Cross-Entropy Loss等损失函数来进行训练。
步骤三、采用KNN算法判断人体关键点坐标向量空间的锻炼动作种类。
根据采集到的关键点数据,采用KNN算法将其与标准动作样本进行比对,计算输入的人体关键点向量与处于“锻炼”状态的样本的欧氏距离,以此判断锻炼的状态。
KNN算法的基本思想是通过计算样本之间的距离,找出与新样本最近的K个训练样本,然后根据这K个训练样本的类别来预测新样本的类别。KNN算法的流程可以概括为以下几个步骤:
1、准备数据集:将数据集划分为训练集和测试集。
2、计算距离:对于每个测试样本,计算其与训练集中每个样本的距离。常用的距离度量方法包括欧氏距离、曼哈顿距离、闵可夫斯基距离等。其中,计算欧氏距离的数学表达式如下:
其中,为输入值的向量空间,/>为标准样本的向量空间。
3、选择K值:根据距离度量计算出每个测试样本与训练集中所有样本的距离后,选择距离最近的K个样本作为预测该测试样本类别的依据。K值的选择通常通过交叉验证来确定。
4、预测类别:对于分类问题,将K个样本的类别进行统计,选择出现次数最多的类别作为测试样本的类别。
进一步的,根据步骤S3判断锻炼动作种类进行计数,动作计数的算法原理是,根据步骤三的KNN算法判断人体是否处于锻炼状态,进行一轮锻炼时,人体进入锻炼状态和退出锻炼状态后计数增加,以飞燕式动作为例,锻炼者俯卧与硬板床上,头,双上肢,双下肢后伸,腹部接触床的面积尽量小,呈飞燕状,根据关键点向量判断锻炼者处于飞燕式状态,之后锻炼者身体放松后,计数增加。
步骤四、将所述步骤S3判断出的锻炼动作种类的人体关键点坐标向量空间与标准动作的向量空间计算余弦相似度,根据余弦相似度大小采用动作标准度评分公式进行动作标准度评分。
余弦相似度是一种常用的相似度度量方法,用于比较两个向量之间的相似程度。在机器学习和自然语言处理等领域,余弦相似度常用于计算两个向量之间的相似度。余弦相似度的值范围在[-1,1]之间,值越接近1表示两个向量越相似,即动作与标准动作越相似,得分越高,越接近-1则表示两个向量越不相似,即动作与标准动作不相似,得分就越低,而值为0则表示两个向量之间没有相似性。具体计算公式为:
其中,x和y是两个向量,x·y表示向量x和向量y的内积,||x||和||y||分别表示向量x和向量y的模长。内积是两个向量对应元素的乘积之和,模长是向量的长度,计算方法为对应元素平方和的平方根。
动作标准度的评分公式为:
其中,X表示输入的人体关键点向量空间,S表示评判某个动作的关键人体部位的集合,以飞燕式动作为例,S={arm,leg,trunk},因为该动作的关键评判指标为手臂、腿和躯干标准度,表示输入的关键人体部位的向量,/>表示标准的关键人体部位向量,/>表示该关键人体部位的向量的权重。
进一步的,本发明提供的实施例人机交互界面如图3所示,旨在为使用者提供方便、高效、全面的锻炼监测和评估体验,下面将依次介绍每个按钮的功能:
锻炼目标设置101:使用者可以自行调节锻炼的目标时间和目标个数,达到目标后,监测和评估过程会自动停止,从而达到个性化锻炼的目的。
动作类型选择102:装置提供了四种常见的腰背肌锻炼种类:飞燕式锻炼、五点支撑、三点支撑、平板支撑。使用者可以根据自己的健康状况和身体状况选择适合自己的锻炼种类,每种锻炼方法都有不同的评分、计数标准,以满足不同用户的需求。
存储锻炼结果按钮103:装置提供了数据存储按钮,一轮锻炼结束后可以进行数据存储,结果保存在本地的csv文件中,用户可以通过蓝牙或者读取SD卡的方式将数据转移到手机或者电脑中进行数据分析,以便更好地掌握自己的锻炼情况。
音乐播放器104:装置提供了音乐播放器功能,可以在锻炼进行的同时播放背景音乐,用户可以自行调节曲目、音量等,以提高锻炼的乐趣和效果。
开始锻炼按钮105:使用者设置好锻炼目标、动作类别、音乐等功能后,可以点击“打开摄像头”按钮开始锻炼的监测与评估。装置会实时显示评估和处理的结果,并伴随语音计数、播报等功能,以便使用者更好地掌握自己的锻炼情况。
退出锻炼监测和评估系统106:用户可以随时退出腰背肌锻炼监测与评估系统,以结束当前的锻炼过程。
整个人机交互界面的设计,能够为使用者提供方便、高效、全面的腰背肌锻炼监测和评估服务,帮助使用者更好地了解自己的身体状况,达到健康的目的。
本发明的整体方案具有一个完善的从监测到分析再到评估的流程,用于视频采集的广角摄像头可以夹持在距离人体1.5米左右,使整个人体侧面都能进入其视野范围内。借助装置上配备的摄像头,实时采集锻炼者的锻炼动作数据。
本发明采用了基于深度学习的动作监测评估方法,通过大量样本训练的深度学习模型,实现了对不同场景下的人体姿态识别工作。具有泛化性强、适应性强、可移植性好等优点,可以实时判断锻炼者的状态,并给出得分和评价,同时可以在没有其他人的监督下完成锻炼的评估过程。在该方法中,采用了BlazePose算法进行目标识别和人体关键点定位,该算法能够在不同场景下实现高精度的人体姿态识别。通过回归出的人体关键点坐标向量空间,我们采用了KNN分类算法进行分类,以判断当前状态下人体的动作种类。最后,将向量空间与标准动作的向量空间计算余弦相似度,设置权重和阈值,从而完成打分和评估的效果。这种方法的可靠性和准确性能够有效地评估锻炼者的运动状态,提高锻炼效率,为人们的健康保驾护航。
本发明的腰背肌锻炼监测和评估系统是一款易于操作的装置,其监测和评估系统界面包含多个功能,可以通过触摸屏进行人机交互,具有便利性和易用性。用户可以通过设定锻炼目标和时间,选择音乐播放等功能,系统将实时显示评估和处理的结果,并配有语音计数、播报等功能,使用户更加方便、高效地进行锻炼监测和评估。该装置的设计针对腰背肌锻炼,可以为需要康复训练的锻炼者提供更大的帮助作用。此外,该装置不具备通信模块,可在需要保密性的场所进行部署和使用,例如军队宿舍等。综合以上特点,本发明的腰背肌锻炼监测和评估系统旨在为用户提供方便、高效、全面的锻炼监测和评估体验。
以上所述,仅是本发明的较佳实施例而已,并非对本发明作任何形式上的限制,虽然本发明已以较佳实施例揭露如上,然而并非用以限定本发明,任何熟悉本专业的技术人员,在不脱离本发明技术方案范围内,当可利用上述揭示的技术内容作出些许更动或修饰为等同变化的等效实施例,但凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与修饰,均仍属于本发明技术方案的范围内。
Claims (7)
1.一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,包括以下步骤:
S1、实时采集锻炼者的锻炼动作数据;
S2、基于深度学习的人体姿态估计模型对步骤S1所述锻炼动作数据先进行目标识别,识别到人体位置后再进行人体关键点回归,得到人体关键点坐标向量空间;
S3、采用KNN算法判断人体关键点坐标向量空间的锻炼动作种类;
S4、将所述步骤S3判断出的锻炼动作种类的人体关键点坐标向量空间与标准动作的向量空间计算余弦相似度,根据余弦相似度大小采用动作标准度评分公式进行动作标准度评分;
S5、根据所述步骤S4评分结果进行评估。
2.根据权利要求1所述一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,步骤S3中,所述KNN算法的具体步骤包括:
S31、计算每个测试样本与训练集中每个样本的距离;
S32、根据步骤S31计算出的每个测试样本与训练集中每个样本的距离后,选择距离最近的K个样本作为预测该测试样本类别;
S33、预测类别。
3.根据权利要求2所述一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,步骤S31中,计算距离的方法采用欧式距离数学表达式,公式表达如下:
其中,为输入值的向量空间,/>为标准样本的向量空间。
4.根据权利要求1所述一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,根据步骤S3判断锻炼动作种类进行计数。
5.根据权利要求1所述一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,所述余弦相似度具体计算公式为:
其中,x和y是两个向量,x·y表示向量x和向量y的内积,||x||和||y||分别表示向量x和向量y的模长。
6.根据权利要求1所述一种基于深度学习的腰背肌锻炼监测与评估方法,其特征在于,所述动作标准度评分公式为:
其中,X表示输入的人体关键点向量空间,S表示评判某个动作的关键人体部位的集合,表示输入的关键人体部位的向量,/>表示标准的关键人体部位向量, />表示该关键人体部位的向量的权重。
7.采用权利要求1-6任一所述一种深度学习的腰背肌锻炼监测与评估方法的装置,其特征在于,包括:
获取图像模块,用于采集锻炼者锻炼动作的图像;
目标识别模块,用于识别人体位置;
锻炼动作判断模块,用于判断锻炼者锻炼动作;
评分模块,用于对锻炼动作进行评分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310834109.4A CN116580813A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310834109.4A CN116580813A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116580813A true CN116580813A (zh) | 2023-08-11 |
Family
ID=87539979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310834109.4A Pending CN116580813A (zh) | 2023-07-10 | 2023-07-10 | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116580813A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210284A (zh) * | 2019-04-12 | 2019-09-06 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能评价方法 |
CN115393964A (zh) * | 2022-10-26 | 2022-11-25 | 天津科技大学 | 基于BlazePose的健身动作识别方法及装置 |
CN115661930A (zh) * | 2022-10-28 | 2023-01-31 | 上海探世家健康科技有限公司 | 动作评分方法、装置、动作评分设备及存储介质 |
CN115661856A (zh) * | 2022-10-10 | 2023-01-31 | 西南交通大学 | 一种基于Lite-HRNet的自定义康复训练监测与评估方法 |
CN115761901A (zh) * | 2022-12-08 | 2023-03-07 | 浙江工业大学 | 一种骑马姿势检测评估方法 |
CN116052272A (zh) * | 2023-01-04 | 2023-05-02 | 成都全景星科科技有限公司 | 一种智能化体能训练自动识别方法 |
-
2023
- 2023-07-10 CN CN202310834109.4A patent/CN116580813A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210284A (zh) * | 2019-04-12 | 2019-09-06 | 哈工大机器人义乌人工智能研究院 | 一种人体姿态行为智能评价方法 |
CN115661856A (zh) * | 2022-10-10 | 2023-01-31 | 西南交通大学 | 一种基于Lite-HRNet的自定义康复训练监测与评估方法 |
CN115393964A (zh) * | 2022-10-26 | 2022-11-25 | 天津科技大学 | 基于BlazePose的健身动作识别方法及装置 |
CN115661930A (zh) * | 2022-10-28 | 2023-01-31 | 上海探世家健康科技有限公司 | 动作评分方法、装置、动作评分设备及存储介质 |
CN115761901A (zh) * | 2022-12-08 | 2023-03-07 | 浙江工业大学 | 一种骑马姿势检测评估方法 |
CN116052272A (zh) * | 2023-01-04 | 2023-05-02 | 成都全景星科科技有限公司 | 一种智能化体能训练自动识别方法 |
Non-Patent Citations (1)
Title |
---|
VALENTIN BAZAREVSKY 等: "BlazePose: On-device Real-time Body Pose tracking", 《HTTPS://ARXIV.ORG/PDF/2006.10204.PDF》, pages 1 - 4 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Mortazavi et al. | Determining the single best axis for exercise repetition recognition and counting on smartwatches | |
Velloso et al. | Qualitative activity recognition of weight lifting exercises | |
US7840031B2 (en) | Tracking a range of body movement based on 3D captured image streams of a user | |
CN105118236B (zh) | 瘫倒监测和预防装置及其处理方法 | |
Liu et al. | Multisensor data fusion for physical activity assessment | |
Connaghan et al. | Multi-sensor classification of tennis strokes | |
CN112464918B (zh) | 健身动作纠正方法、装置、计算机设备和存储介质 | |
CN107145236B (zh) | 一种基于腕部肌腱压力相关特性的手势识别方法及系统 | |
KR102481501B1 (ko) | 스마트 골프 운동 장치, 시스템 및 제어방법 | |
Bleser et al. | Personalized physical activity monitoring using wearable sensors | |
Xie et al. | HearFit: Fitness monitoring on smart speakers via active acoustic sensing | |
Kavuncuoğlu et al. | Investigating the performance of wearable motion sensors on recognizing falls and daily activities via machine learning | |
KR20190047648A (ko) | 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법 | |
CN109078318A (zh) | 基于大数据的全人群室外健身器材智能终端系统 | |
CN113515695B (zh) | 健身辅助方法、装置、电子设备和计算机可读存储介质 | |
Yasser et al. | Smart coaching: Enhancing weightlifting and preventing injuries | |
Ferreira et al. | Transformers for workout video segmentation | |
Samadani | EMG channel selection for improved hand gesture classification | |
Tanjaya et al. | Pilates Pose Classification Using MediaPipe and Convolutional Neural Networks with Transfer Learning | |
Zhang et al. | Fine-fit: A fine-grained gym exercises recognition system | |
Sun et al. | IoT motion tracking system for workout performance evaluation: a case study on dumbbell | |
CN116580813A (zh) | 一种基于深度学习的腰背肌锻炼监测与评估装置及方法 | |
EP3973448A1 (en) | System and method for exercise type recognition using wearables | |
Yen et al. | Feature Fusion-Based Deep Learning Network to Recognize Table Tennis Actions. | |
US20230381591A1 (en) | Apparatus and method for providing customized exercise information on basis of motion tracking information about user |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20230811 |
|
RJ01 | Rejection of invention patent application after publication |