CN117218728A - 一种智能穿戴设备的身体姿势识别方法、系统及介质 - Google Patents
一种智能穿戴设备的身体姿势识别方法、系统及介质 Download PDFInfo
- Publication number
- CN117218728A CN117218728A CN202311486121.7A CN202311486121A CN117218728A CN 117218728 A CN117218728 A CN 117218728A CN 202311486121 A CN202311486121 A CN 202311486121A CN 117218728 A CN117218728 A CN 117218728A
- Authority
- CN
- China
- Prior art keywords
- gesture
- data
- user
- training
- wearable device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 238000012549 training Methods 0.000 claims abstract description 120
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000012795 verification Methods 0.000 claims description 32
- 230000008859 change Effects 0.000 claims description 20
- 230000001133 acceleration Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000012216 screening Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 9
- 210000003414 extremity Anatomy 0.000 description 6
- 238000011176 pooling Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013526 transfer learning Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 230000002079 cooperative effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Landscapes
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种智能穿戴设备的身体姿势识别方法、系统及介质,该方法包括:通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端;通过姿势识别模型对用户姿势数据进行实时分析,得到用户身体姿势识别信息,能够快速地对用户的姿势进行实时监测和反馈。
Description
技术领域
本申请涉及姿势识别领域,具体而言,涉及一种智能穿戴设备的身体姿势识别方法、系统及介质。
背景技术
智能手环、智能手表等设备内置了加速度计、陀螺仪、心率传感器等多种传感器,可以实时采集用户的运动数据,通过对采集到的数据进行处理和分析,利用机器学习和深度学习等算法,可以识别用户的运动姿势,并提供反馈和指导,目前智能穿戴设备在运动姿势识别方面的准确性还有待提高。由于运动过程中涉及到多个关节和肌肉的协同活动,姿势变化复杂多样,对于一些特定的细微动作或复杂动作的识别仍存在困难,不同的人在进行相同运动时可能存在差异,例如身体结构、运动习惯等因素会影响姿势的表现,以提供更准确和个性化的指导,针对上述问题,目前亟待有效的技术解决方案。
发明内容
本申请实施例的目的在于提供一种智能穿戴设备的身体姿势识别方法、系统及介质,通过姿势识别模型对用户姿势数据进行实时分析,得到用户身体姿势识别信息,能够快速地对用户的姿势进行实时监测和反馈。
本申请实施例还提供了一种智能穿戴设备的身体姿势识别方法,包括:
通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别方法中,通过智能穿戴设备获取用户的姿势数据之后,还包括:
获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
将训练集输入预设的网络模型进行训练,得到姿势识别模型。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别方法中,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
判断所述训练结果是否收敛;
若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别方法中,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据,具体为:
获取用户姿势数据,提取用户姿势特征;
将用户姿势特征与预设的特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则剔除对应的用户姿势特征;
若小于,则将用户姿势特征进行归一化处理,得到优化后的姿势数据。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别方法中,将训练集输入预设的网络模型进行训练,得到姿势识别模型,还包括:
获取优化后的姿势数据,将优化后的姿势数据作为模型的输入,输出姿势信息;
将姿势信息与正确的姿势标签进行比较,得到训练结果;
通过反向传播算法调整模型的权重和参数,使得训练结构趋于预设的结果。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别方法中,获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息之后,还包括:
获取用户当前姿势数据,通过姿势识别模型得到身体姿势识别信息;
根据身体姿势识别信息分别获取用户四肢与身体的运动状态;
根据用户四肢与身体的运行状态进行计算用户的姿势变化信息;
根据用户的姿势变化信息分析用户的动作变化信息;
根据用户的动作变化信息得到用户运动信息。
第二方面,本申请实施例提供了一种智能穿戴设备的身体姿势识别系统,该系统包括:存储器及处理器,所述存储器中包括智能穿戴设备的身体姿势识别方法的程序,所述智能穿戴设备的身体姿势识别方法的程序被所述处理器执行时实现以下步骤:
通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别系统中,通过智能穿戴设备获取用户的姿势数据之后,还包括:
获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
将训练集输入预设的网络模型进行训练,得到姿势识别模型。
可选地,在本申请实施例所述的智能穿戴设备的身体姿势识别系统中,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
判断所述训练结果是否收敛;
若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
第三方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质中包括智能穿戴设备的身体姿势识别方法程序,所述智能穿戴设备的身体姿势识别方法程序被处理器执行时,实现如上述任一项所述的智能穿戴设备的身体姿势识别方法的步骤。
由上可知,本申请实施例提供的一种智能穿戴设备的身体姿势识别方法、系统及介质,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端;通过姿势识别模型对用户姿势数据进行实时分析,得到用户身体姿势识别信息,能够快速地对用户的姿势进行实时监测和反馈。
本申请的其他特征和优点将在随后的说明书阐述,本申请的目的和优点通过所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的智能穿戴设备的身体姿势识别方法的流程图;
图2为本申请实施例提供的智能穿戴设备的身体姿势识别方法的姿势识别模型获取流程图;
图3为本申请实施例提供的智能穿戴设备的身体姿势识别方法的姿势识别模型迭代计算流程图;
图4为本申请实施例提供的智能穿戴设备的身体姿势识别系统的结构示意图。
具体实施方式
下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
应注意到,相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
请参照图1,图1是本申请一些实施例中的一种智能穿戴设备的身体姿势识别方法的流程图。该智能穿戴设备的身体姿势识别方法用于终端设备中,该智能穿戴设备的身体姿势识别方法,包括以下步骤:
S101,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
S102,将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
S103,获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
S104,将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
需要说明的是,通过判断用户的姿态,对用户姿态进行分析,得到用户姿态信息,此时得到的用户姿态信息具有噪音,需要对用户姿态数据进行处理优化,使用户姿态数据更加精准,在对用户姿态进行分析时,偏差较小,将处理后的用户姿态输入姿势识别模型进行用户姿势的实时识别,能够准确地学习和识别不同的运动姿势。
请参照图2,图2是本申请一些实施例中的一种智能穿戴设备的身体姿势识别方法的姿势识别模型获取流程图。根据本发明实施例,通过智能穿戴设备获取用户的姿势数据之后,还包括:
S201,获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
S202,根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
S203,根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
S204,根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
S205,将训练集输入预设的网络模型进行训练,得到姿势识别模型。
需要说明的是,通过姿势数据量的权重配比将姿势数据进行分类,实现不同比例的训练集与验证集,可以灵活的对网络模型进行训练,提高模型训练精度。
请参照图3,图3是本申请一些实施例中的一种智能穿戴设备的身体姿势识别方法的姿势识别模型迭代计算流程图。根据本发明实施例,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
S301,获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
S302,判断训练结果是否收敛;
S303,若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
S304,若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
需要说明的是,在模型训练过程中通过判断训练结果是否收敛,进行分析模型训练结果是否符合要求,若不符合要求,则增加迭代次数进行多次迭代,使模型逐渐趋于稳定,保证模型的精准性。
根据本发明实施例,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据,具体为:
获取用户姿势数据,提取用户姿势特征;
将用户姿势特征与预设的特征进行比较,得到特征偏差率;
判断特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则剔除对应的用户姿势特征;
若小于,则将用户姿势特征进行归一化处理,得到优化后的姿势数据。
根据本发明实施例,将训练集输入预设的网络模型进行训练,得到姿势识别模型,还包括:
获取优化后的姿势数据,将优化后的姿势数据作为模型的输入,输出姿势信息;
将姿势信息与正确的姿势标签进行比较,得到训练结果;
通过反向传播算法调整模型的权重和参数,使得训练结构趋于预设的结果。
需要说明的是,通过分析姿势数据,进行分析姿势变化与正确的姿势标签之间的差异,从而精准的分析用户姿势变化的精准情况,同时通过反向传播孙发对模型进行权重与参数调整,使模型更加精准,保证模型的输出结果更加贴近实际值。
根据本发明实施例,获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息之后,还包括:
获取用户当前姿势数据,通过姿势识别模型得到身体姿势识别信息;
根据身体姿势识别信息分别获取用户四肢与身体的运动状态;
根据用户四肢与身体的运行状态进行计算用户的姿势变化信息;
根据用户的姿势变化信息分析用户的动作变化信息;
根据用户的动作变化信息得到用户运动信息。
需要说明的是,使用智能穿戴设备收集用户的姿势数据。这些数据可以包括传感器记录的加速度、陀螺仪、磁力计等信息,以及可能的图像或视频数据,对采集到的数据进行预处理,如去除噪声、标准化和归一化处理等,以提高后续算法的准确性和稳定性,使用预处理后的数据训练CNN模型(卷积神经网络模型);训练过程中,将输入的姿势数据作为模型的输入,同时提供正确的姿势标签作为监督信号,通过反向传播算法不断调整模型的权重和参数,使得模型能够准确地学习和识别不同的运动姿势,经过训练的CNN模型可以应用于实时的姿势识别任务。智能穿戴设备采集到的新数据将输入到已训练好的模型中,模型会对输入数据进行分析和处理,最终输出识别结果,即用户当前的运动姿势。
根据本发明实施例,CNN算法在图像和空间数据处理方面具有优秀的表现,能够有效捕捉姿势特征,并对不同的姿势进行精准分类和识别。
基于CNN的姿势识别算法可以在智能穿戴设备上实时运行,无需依赖云端服务器或复杂的计算资源,能够快速地对用户的姿势进行实时监测和反馈,通过对大量姿势数据的训练,CNN模型可以根据每个用户的身体特征和习惯进行个性化定制,提供针对性的运动指导和建议,帮助用户更好地改善姿势和运动效果,CNN算法具有良好的泛化能力,可以适应多种不同的运动类型和姿势识别任务,包括跑步、骑行、瑜伽等各种类型的姿势,基于CNN的姿势识别算法可以通过增加训练数据、调整网络结构和参数等方式进行扩展和优化,以适应更复杂的姿势识别任务和提高算法的准确性。
具体的,CNN能够自动学习图像中的特征表示,而无需手工设计特征提取器,CNN通过多层卷积和池化操作,可以从原始图像中学习到更高级别的抽象特征。
CNN对于输入图像的局部结构非常敏感,这使得它能够捕捉到图像中的空间关系和局部模式。卷积层通过共享权重的方式,在不同位置上应用滤波器来提取局部特征,这使得CNN对于平移、旋转和缩放等图像变换具有一定的不变性。
CNN的参数共享和稀疏连接使得网络的训练和推理变得高效。参数共享指的是在整个图像中使用相同的权重来提取特征,这减少了需要学习的参数数量。稀疏连接指的是每个神经元仅与局部区域的输入相连接,减少了计算量和存储需求。
CNN可以轻松地扩展到更复杂的任务和更大规模的数据集。通过增加网络的深度和宽度,以及使用全局池化和全连接层等结构,可以提高模型的表达能力。此外,CNN还可以通过迁移学习和预训练模型来利用在大规模数据上预训练的特征提取器,从而加速训练过程。
请参照图4,图4是本申请一些实施例中的一种智能穿戴设备的身体姿势识别系统的结构示意图。第二方面,本申请实施例提供了一种智能穿戴设备的身体姿势识别系统4,该系统包括:存储器41及处理器42,存储器41中包括智能穿戴设备的身体姿势识别方法的程序,智能穿戴设备的身体姿势识别方法的程序被处理器执行时实现以下步骤:
通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
需要说明的是,通过判断用户的姿态,对用户姿态进行分析,得到用户姿态信息,此时得到的用户姿态信息具有噪音,需要对用户姿态数据进行处理优化,使用户姿态数据更加精准,在对用户姿态进行分析时,偏差较小,将处理后的用户姿态输入姿势识别模型进行用户姿势的实时识别,能够准确地学习和识别不同的运动姿势。
根据本发明实施例,通过智能穿戴设备获取用户的姿势数据之后,还包括:
获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
将训练集输入预设的网络模型进行训练,得到姿势识别模型。
需要说明的是,通过姿势数据量的权重配比将姿势数据进行分类,实现不同比例的训练集与验证集,可以灵活的对网络模型进行训练,提高模型训练精度。
根据本发明实施例,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
判断训练结果是否收敛;
若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
需要说明的是,在模型训练过程中通过判断训练结果是否收敛,进行分析模型训练结果是否符合要求,若不符合要求,则增加迭代次数进行多次迭代,使模型逐渐趋于稳定,保证模型的精准性。
根据本发明实施例,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据,具体为:
获取用户姿势数据,提取用户姿势特征;
将用户姿势特征与预设的特征进行比较,得到特征偏差率;
判断特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则剔除对应的用户姿势特征;
若小于,则将用户姿势特征进行归一化处理,得到优化后的姿势数据。
根据本发明实施例,将训练集输入预设的网络模型进行训练,得到姿势识别模型,还包括:
获取优化后的姿势数据,将优化后的姿势数据作为模型的输入,输出姿势信息;
将姿势信息与正确的姿势标签进行比较,得到训练结果;
通过反向传播算法调整模型的权重和参数,使得训练结构趋于预设的结果。
需要说明的是,通过分析姿势数据,进行分析姿势变化与正确的姿势标签之间的差异,从而精准的分析用户姿势变化的精准情况,同时通过反向传播孙发对模型进行权重与参数调整,使模型更加精准,保证模型的输出结果更加贴近实际值。
根据本发明实施例,获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息之后,还包括:
获取用户当前姿势数据,通过姿势识别模型得到身体姿势识别信息;
根据身体姿势识别信息分别获取用户四肢与身体的运动状态;
根据用户四肢与身体的运行状态进行计算用户的姿势变化信息;
根据用户的姿势变化信息分析用户的动作变化信息;
根据用户的动作变化信息得到用户运动信息。
需要说明的是,使用智能穿戴设备收集用户的姿势数据。这些数据可以包括传感器记录的加速度、陀螺仪、磁力计等信息,以及可能的图像或视频数据,对采集到的数据进行预处理,如去除噪声、标准化和归一化处理等,以提高后续算法的准确性和稳定性,使用预处理后的数据训练CNN模型(卷积神经网络模型);训练过程中,将输入的姿势数据作为模型的输入,同时提供正确的姿势标签作为监督信号,通过反向传播算法不断调整模型的权重和参数,使得模型能够准确地学习和识别不同的运动姿势,经过训练的CNN模型可以应用于实时的姿势识别任务。智能穿戴设备采集到的新数据将输入到已训练好的模型中,模型会对输入数据进行分析和处理,最终输出识别结果,即用户当前的运动姿势。
根据本发明实施例,CNN算法在图像和空间数据处理方面具有优秀的表现,能够有效捕捉姿势特征,并对不同的姿势进行精准分类和识别。
基于CNN的姿势识别算法可以在智能穿戴设备上实时运行,无需依赖云端服务器或复杂的计算资源,能够快速地对用户的姿势进行实时监测和反馈,通过对大量姿势数据的训练,CNN模型可以根据每个用户的身体特征和习惯进行个性化定制,提供针对性的运动指导和建议,帮助用户更好地改善姿势和运动效果,CNN算法具有良好的泛化能力,可以适应多种不同的运动类型和姿势识别任务,包括跑步、骑行、瑜伽等各种类型的姿势,基于CNN的姿势识别算法可以通过增加训练数据、调整网络结构和参数等方式进行扩展和优化,以适应更复杂的姿势识别任务和提高算法的准确性。
具体的,CNN能够自动学习图像中的特征表示,而无需手工设计特征提取器。传统的图像处理方法需要根据具体任务手动选择和设计特征提取器,而CNN通过多层卷积和池化操作,可以从原始图像中学习到更高级别的抽象特征。
CNN对于输入图像的局部结构非常敏感,这使得它能够捕捉到图像中的空间关系和局部模式。卷积层通过共享权重的方式,在不同位置上应用滤波器来提取局部特征,这使得CNN对于平移、旋转和缩放等图像变换具有一定的不变性。
CNN的参数共享和稀疏连接使得网络的训练和推理变得高效。参数共享指的是在整个图像中使用相同的权重来提取特征,这减少了需要学习的参数数量。稀疏连接指的是每个神经元仅与局部区域的输入相连接,减少了计算量和存储需求。
CNN可以轻松地扩展到更复杂的任务和更大规模的数据集。通过增加网络的深度和宽度,以及使用全局池化和全连接层等结构,可以提高模型的表达能力。此外,CNN还可以通过迁移学习和预训练模型来利用在大规模数据上预训练的特征提取器,从而加速训练过程。
本发明第三方面提供了一种计算机可读存储介质,可读存储介质中包括智能穿戴设备的身体姿势识别方法程序,智能穿戴设备的身体姿势识别方法程序被处理器执行时,实现如上述任一项的智能穿戴设备的身体姿势识别方法的步骤。
本发明公开的一种智能穿戴设备的身体姿势识别方法、系统及介质,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端;通过姿势识别模型对用户姿势数据进行实时分析,得到用户身体姿势识别信息,能够快速地对用户的姿势进行实时监测和反馈。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
Claims (10)
1.一种智能穿戴设备的身体姿势识别方法,其特征在于,包括:
通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
2.根据权利要求1所述的智能穿戴设备的身体姿势识别方法,其特征在于,通过智能穿戴设备获取用户的姿势数据之后,还包括:
获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
将训练集输入预设的网络模型进行训练,得到姿势识别模型。
3.根据权利要求2所述的智能穿戴设备的身体姿势识别方法,其特征在于,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
判断所述训练结果是否收敛;
若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
4.根据权利要求3所述的智能穿戴设备的身体姿势识别方法,其特征在于,通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据,具体为:
获取用户姿势数据,提取用户姿势特征;
将用户姿势特征与预设的特征进行比较,得到特征偏差率;
判断所述特征偏差率是否大于或等于预设的特征偏差率阈值;
若大于或等于,则剔除对应的用户姿势特征;
若小于,则将用户姿势特征进行归一化处理,得到优化后的姿势数据。
5.根据权利要求4所述的智能穿戴设备的身体姿势识别方法,其特征在于,将训练集输入预设的网络模型进行训练,得到姿势识别模型,还包括:
获取优化后的姿势数据,将优化后的姿势数据作为模型的输入,输出姿势信息;
将姿势信息与正确的姿势标签进行比较,得到训练结果;
通过反向传播算法调整模型的权重和参数,使得训练结构趋于预设的结果。
6.根据权利要求5所述的智能穿戴设备的身体姿势识别方法,其特征在于,获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息之后,还包括:
获取用户当前姿势数据,通过姿势识别模型得到身体姿势识别信息;
根据身体姿势识别信息分别获取用户四肢与身体的运动状态;
根据用户四肢与身体的运行状态进行计算用户的姿势变化信息;
根据用户的姿势变化信息分析用户的动作变化信息;
根据用户的动作变化信息得到用户运动信息。
7.一种智能穿戴设备的身体姿势识别系统,其特征在于,该系统包括:存储器及处理器,所述存储器中包括智能穿戴设备的身体姿势识别方法的程序,所述智能穿戴设备的身体姿势识别方法的程序被所述处理器执行时实现以下步骤:
通过智能穿戴设备获取用户的姿势数据,将姿势数据进行预处理,得到优化后的姿势数据;
将优化后的姿势数据输入预设的网络模型进行训练,得到姿势识别模型;
获取用户当前姿势数据,将用户当前姿势数据输入姿势识别模型,输出身体姿势识别信息;
将身体姿势识别信息按照预定的方式传输至智能穿戴设备终端。
8.根据权利要求7所述的智能穿戴设备的身体姿势识别系统,其特征在于,通过智能穿戴设备获取用户的姿势数据之后,还包括:
获取用户多源姿势数据,多源姿势数据包括加速度、陀螺仪、磁力计采集的数据信息与采集用户的图像或视频数据;
根据多源姿势数据的类型进行权重计算,得到各个类型的权重值;
根据权重值将不同类型的姿势数据量进行权重配比,得到数据量比例;
根据数据量比例将不同类型的姿势数据量进行筛选,得到训练集;
将训练集输入预设的网络模型进行训练,得到姿势识别模型。
9.根据权利要求8所述的智能穿戴设备的身体姿势识别系统,其特征在于,将训练集输入预设的网络模型进行训练,得到姿势识别模型,具体为:
获取数据量比例,根据数据量比例将多源姿势数据分类为训练集与验证集,将训练集输入预设的网络模型进行训练,得到训练结果;
判断所述训练结果是否收敛;
若收敛,则得到姿势识别模型,将验证集输入姿势识别模型进行参数验证,得到验证结果,根据验证结果对参数进行调整;
若不收敛,则获取模型训练迭代次数,将迭代次数进行增加。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括智能穿戴设备的身体姿势识别方法程序,所述智能穿戴设备的身体姿势识别方法程序被处理器执行时,实现如权利要求1至6中任一项所述的智能穿戴设备的身体姿势识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311486121.7A CN117218728A (zh) | 2023-11-09 | 2023-11-09 | 一种智能穿戴设备的身体姿势识别方法、系统及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311486121.7A CN117218728A (zh) | 2023-11-09 | 2023-11-09 | 一种智能穿戴设备的身体姿势识别方法、系统及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117218728A true CN117218728A (zh) | 2023-12-12 |
Family
ID=89046693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311486121.7A Pending CN117218728A (zh) | 2023-11-09 | 2023-11-09 | 一种智能穿戴设备的身体姿势识别方法、系统及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117218728A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW202010556A (zh) * | 2018-09-06 | 2020-03-16 | 宏碁股份有限公司 | 智慧型背帶及定義人體姿態的方法 |
JP2020195734A (ja) * | 2019-06-05 | 2020-12-10 | トヨタ紡織株式会社 | 姿勢特定装置、姿勢特定システム、および姿勢特定方法 |
WO2021051579A1 (zh) * | 2019-09-17 | 2021-03-25 | 平安科技(深圳)有限公司 | 形体姿态识别方法、系统、装置及存储介质 |
KR102369152B1 (ko) * | 2021-11-04 | 2022-03-02 | 아이픽셀 주식회사 | 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법 |
CN114897025A (zh) * | 2022-05-23 | 2022-08-12 | 武汉纺织大学 | 一种人体姿态识别模型建立方法和人体姿态识别方法 |
CN116186561A (zh) * | 2023-04-27 | 2023-05-30 | 华南师范大学 | 基于高维时序图网络的跑步姿势识别纠正方法及系统 |
-
2023
- 2023-11-09 CN CN202311486121.7A patent/CN117218728A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TW202010556A (zh) * | 2018-09-06 | 2020-03-16 | 宏碁股份有限公司 | 智慧型背帶及定義人體姿態的方法 |
JP2020195734A (ja) * | 2019-06-05 | 2020-12-10 | トヨタ紡織株式会社 | 姿勢特定装置、姿勢特定システム、および姿勢特定方法 |
WO2021051579A1 (zh) * | 2019-09-17 | 2021-03-25 | 平安科技(深圳)有限公司 | 形体姿态识别方法、系统、装置及存储介质 |
KR102369152B1 (ko) * | 2021-11-04 | 2022-03-02 | 아이픽셀 주식회사 | 인공지능을 이용한 실시간 자세 동작 인식 시스템 및 인식 방법 |
CN114897025A (zh) * | 2022-05-23 | 2022-08-12 | 武汉纺织大学 | 一种人体姿态识别模型建立方法和人体姿态识别方法 |
CN116186561A (zh) * | 2023-04-27 | 2023-05-30 | 华南师范大学 | 基于高维时序图网络的跑步姿势识别纠正方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110569795B (zh) | 一种图像识别方法、装置以及相关设备 | |
Gholamiangonabadi et al. | Deep neural networks for human activity recognition with wearable sensors: Leave-one-subject-out cross-validation for model selection | |
KR102071582B1 (ko) | 딥 뉴럴 네트워크(Deep Neural Network)를 이용하여 문장이 속하는 클래스(class)를 분류하는 방법 및 장치 | |
CN109409222B (zh) | 一种基于移动端的多视角人脸表情识别方法 | |
CN111507378A (zh) | 训练图像处理模型的方法和装置 | |
KR102387305B1 (ko) | 멀티모달 데이터 학습 방법 및 장치 | |
CN111160350B (zh) | 人像分割方法、模型训练方法、装置、介质及电子设备 | |
KR20200022739A (ko) | 데이터 증강에 기초한 인식 모델 트레이닝 방법 및 장치, 이미지 인식 방법 및 장치 | |
CN111079658B (zh) | 基于视频的多目标连续行为分析方法、系统、装置 | |
CN111553419B (zh) | 一种图像识别方法、装置、设备以及可读存储介质 | |
WO2020224433A1 (zh) | 基于机器学习的目标对象属性预测方法及相关设备 | |
US11386288B2 (en) | Movement state recognition model training device, movement state recognition device, methods and programs therefor | |
Halvardsson et al. | Interpretation of swedish sign language using convolutional neural networks and transfer learning | |
CN112633425B (zh) | 图像分类方法和装置 | |
Mutegeki et al. | Feature-representation transfer learning for human activity recognition | |
CN111738403A (zh) | 一种神经网络的优化方法及相关设备 | |
CN113946218A (zh) | 设备上的活动识别 | |
KR102363879B1 (ko) | 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법 | |
CN112529149A (zh) | 一种数据处理方法及相关装置 | |
CN115238909A (zh) | 一种基于联邦学习的数据价值评估方法及其相关设备 | |
CN113449548A (zh) | 更新物体识别模型的方法和装置 | |
Nooruddin et al. | A multi-resolution fusion approach for human activity recognition from video data in tiny edge devices | |
Zhu et al. | Support vector machine optimized using the improved fish swarm optimization algorithm and its application to face recognition | |
CN112801283B (zh) | 一种神经网络模型、动作识别方法、装置及存储介质 | |
CN117218728A (zh) | 一种智能穿戴设备的身体姿势识别方法、系统及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |