CN114492520A - 动作识别方法及装置 - Google Patents

动作识别方法及装置 Download PDF

Info

Publication number
CN114492520A
CN114492520A CN202210060022.1A CN202210060022A CN114492520A CN 114492520 A CN114492520 A CN 114492520A CN 202210060022 A CN202210060022 A CN 202210060022A CN 114492520 A CN114492520 A CN 114492520A
Authority
CN
China
Prior art keywords
information
action
motion
recognized
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210060022.1A
Other languages
English (en)
Inventor
王博朋
杨斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Calorie Information Technology Co ltd
Original Assignee
Beijing Calorie Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Calorie Information Technology Co ltd filed Critical Beijing Calorie Information Technology Co ltd
Priority to CN202210060022.1A priority Critical patent/CN114492520A/zh
Publication of CN114492520A publication Critical patent/CN114492520A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B71/00Games or sports accessories not covered in groups A63B1/00 - A63B69/00
    • A63B71/06Indicating or scoring devices for games or players, or for other sports activities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Physiology (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • General Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Artificial Intelligence (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Physical Education & Sports Medicine (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请提供动作识别方法及装置,其中所述动作识别方法包括:采集待识别动作的待识别动作信息;基于所述待识别动作信息计算所述待识别动作的姿态信息;从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。通过本方法可以准确快捷的确定待识别动作的动作类型。

Description

动作识别方法及装置
技术领域
本申请涉及自动识别技术领域,特别涉及一种动作识别方法。本申请同时涉及一种动作识别装置,一种计算设备,以及一种计算机可读存储介质。
背景技术
随着社会的发展,越来越多的人开始注重自己的身体健康,从而参与到健身运动中来,例如举重、拳击、打篮球、踢足球、跑步等等。当通过某项运动进行健身时,通常都需要采集各项指标数据,例如运动的时长、心肺数据、运动距离等等,但是无法直接获取到运动动作的类型信息,例如无法识别举重的动作类型、拳击的动作等等,从而无法全面的统计运动数据,也无法为用户提供更科学的训练建议。
发明内容
有鉴于此,本申请实施例提供了一种动作识别方法。本申请同时涉及一种动作识别装置,一种计算设备,以及一种计算机可读存储介质,以解决现有技术中存在的无法识别运动动作对应的动作类型的问题。
根据本申请实施例的第一方面,提供了一种动作识别方法,包括:
采集待识别动作的待识别动作信息;
基于所述待识别动作信息计算所述待识别动作的姿态信息;
从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;
将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
根据本申请实施例的第二方面,提供了一种动作识别装置,包括:
采集模块,被配置为采集待识别动作的待识别动作信息;
计算模块,被配置为基于所述待识别动作信息计算所述待识别动作的姿态信息;
提取模块,被配置为从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;
识别模块,被配置为将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
根据本申请实施例的第三方面,提供了一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,所述处理器执行所述计算机指令时实现所述动作识别方法的步骤。
根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机指令,该计算机指令被处理器执行时实现所述动作识别方法的步骤。
本申请提供的动作识别方法,采集待识别动作的待识别动作信息;基于所述待识别动作信息计算所述待识别动作的姿态信息;从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
本申请一实施例实现了通过采集待识别动作的待识别动作信息,并进行相关转换获取姿态信息,通过在待识别动作信息和姿态信息中找到待识别动作的动作特征信息,辅助确定待识别动作的动作类型,再通过将动作特征信息输入动作识别模型中进行识别,通过人工智能模型辅助分析动作特征信息,可以更准确和快捷的确定待识别动作的动作类型。
附图说明
图1是本申请一实施例提供的一种动作识别方法的流程图;
图2是本申请一实施例提供的一种应用于识别拳击动作的场景示意图;
图3是本申请一实施例提供的一种应用于识别拳击动作的动作识别方法的处理流程图;
图4是本申请一实施例提供的一种动作识别装置的结构示意图;
图5是本申请一实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
IMU:(Inertial Measurement Unit,惯性测量单元),主要用来检测和测量加速度与旋转运动的传感器,包括加速度计和角速度计(陀螺仪),其中,加速度计能获得各个轴方向的加速度,陀螺仪可以得到各个轴的角速度,从而确定角度信息。有的惯性测量单元还包括磁力计,可以获得周围的磁场信息。
加速度信息:通过牛顿第二定律来测量各个轴的加速度信息。
角度信息:陀螺仪直接测量的是角速度,需要通过一次对角速度的积分处理,获得角度信息。
偏航角:是实际航向与计划航向之间的夹角。
俯仰角:机体轴(沿机头方向)与地平面(水平面)之间的夹角。
滚动角:物体绕前后轴线转动的角度为横滚角。
在本申请中,提供了一种动作识别方法,本申请同时涉及一种动作识别装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
图1示出了根据本申请一实施例提供的一种动作识别方法的流程图,具体包括以下步骤:
步骤102:采集待识别动作的待识别动作信息。
其中,待识别动作具体是指需要进行动作识别操作的动作,例如某个挥臂动作、举手动作、出拳动作、举重动作等等,待识别动作信息具体是指做出该待识别动作时的相关信息。在后续的处理过程中,需要通过待识别动作信息来对待识别动作进行分析,从而确定待识别动作的动作类型。
在实际应用中,通常是用可穿戴智能设备来采集待识别动作的待识别动作信息,可穿戴智能设备可以是智能手表、智能手环或配置有智能芯片的服装配饰。用户佩戴有可穿戴智能设备,做出相应的待识别动作,可穿戴智能设备可以采集该待识别动作的待识别动作信息。
用户通常会连续的做多个动作,对于每个待识别动作,通常都是连续的动作,例如用户在举重时,手臂会有向上运动的动作;用户在打拳时,拳头会有相应的出拳动作。因此,采集待识别动作的待识别动作信息,包括:
确定待识别动作的动作时间区间;
采集所述动作时间区间内的待识别动作信息。
其中,动作时间区间具体是指待识别动作从开始姿态到结束姿态的时间段,例如对于一个举重动作,动作时间区间是手臂从初始向下的姿态开始到最后举起杠铃到头顶的姿态间的时间段;对于出拳动作,动作时间区间是从拳头收回姿态到拳头出击完成姿态间的时间段。
在确定该动作时间区间后,即可认为该待识别动作已经完成,通过可穿戴智能设备即可采集该动作时间区间内的待识别动作信息。
更近一步的,可穿戴智能设备中通常会设置有动作信息采集器,例如IMU(Inertial Measurement Unit,惯性测量单元),IMU通常包括加速度计和角速度计(陀螺仪),被称为六轴传感器(六轴运动传感器),IMU采集用户在做出待识别动作时的待识别动作信息,该待识别动作信息通常为加速度信息和角速度信息,更进一步的,可以是三轴加速度信息和三轴角速度信息。有的IMU还包括磁力计,用于获得周围的磁场信息,将磁场信息作为待识别动作信息。
在本申请提供的一具体实施方式中,以待识别动作为举重动作为例,用户佩戴智能手环,完成一次举重动作,通过智能手环采集该举重动作的三轴加速度信息和三轴角速度信息。
在本申请提供的另一具体实施方式中,以待识别动作为拳击动作为例,用户佩戴设置有智能芯片的拳击手套,完成一个出拳动作,通过拳击手套可以采集该出拳动作的三轴加速度信息和三轴角速度信息。
步骤104:基于所述待识别动作信息计算所述待识别动作的姿态信息。
姿态信息具体是指待识别动作的姿势状态信息,姿态信息通常包括偏航角、俯仰角、翻滚角等参数。即在获得待识别动作信息之后,通过待识别动作信息来计算待识别动作的偏航角、俯仰角、翻滚角。
具体的,所述待识别动作信息包括加速度信息和角速度信息;
基于所述待识别动作信息计算所述待识别动作的姿态信息,包括:
基于所述加速度信息和所述角速度信息计算所述待识别动作的姿态信息。
如上述步骤中所述,待识别动作信息包括加速度信息和角速度信息,更具体的,待识别动作信息为三轴加速度信息和三轴角速度信息。因此,可以通过加速度信息和角速度信息来计算待识别动作的姿态信息。
进一步的,基于所述加速度信息和所述角速度信息计算所述待识别动作的姿态信息,包括S1042-S1046:
S1042、根据所述加速度信息计算所述待识别动作的第一子姿态信息。
在实际应用中,IMU数据只是采集到的原始数据,还需要通过欧拉角与旋转矩阵来对IMU原始数据进行姿态求解,并进行数据融合,最终得到待识别动作的姿态信息。
为了便于理解,在本申请中,选用的旋转顺序为ZYX,即IMU数据坐标系初始时刻与大地坐标系重合,然后依次绕自己的Z、Y、X轴旋转。绕IMU的Z轴旋转,称为偏航角(yaw);绕IMU的Y轴旋转,称为俯仰角(pitch);绕IMU的X轴旋转,称为横滚角(row)。
具体的,加速度计测量的是加速度信息,在静止的时候,其本身是没有加速运动的,但出现相应动作时,在加速度计中可以读取到3个轴的加速度值,再通过相应的旋转矩阵,将3个轴的加速度值转换为对应的第一偏航角信息、第一俯仰角信息、第一横滚角信息。
S1044、根据所述角速度信息计算所述待识别动作的第二子姿态信息。
陀螺仪测量的是绕3个轴转动的角速度,在获得角速度后,还需要对三个角速度进行基于时间的积分,可以得到角度信息。姿态角度的变化量可以动过角速度与采用的时间周期积分集合。通过对陀螺仪测量的角速度信息计算到的角度信息,并通过角度信息和旋转矩阵结合,可以获得待识别动作的第二偏航角信息、第二俯仰角信息和第二横滚角信息。
S1046、融合所述第一子姿态信息和所述第二子姿态信息获得所述待识别动作的姿态信息。
通过上述的操作,可以通过加速度信息计算获得第一偏航角信息、第一俯仰角信息、第一横滚角信息,通过角速度信息计算获得待识别动作的第二偏航角信息、第二俯仰角信息和第二横滚角信息。而实际上,加速度仅在静止时刻可以得到较为准确的姿态,陀螺仪仅对转动时的姿态变化敏感,且陀螺仪本身存在误差,又经过连续的时间积分,误差会不断增大,因此,需要结合两者计算待识别动作的最终姿态,进行互补融合。具体的融合算法包括但不限于互补滤波、madgwick算法等。
通过对第一子姿态信息和第二子姿态信息的融合可以获得较为准确的待识别动作的姿态信息。
在本申请提供的一具体实施方式中,以待识别动作为举重动作为例,基于采集到的三轴加速度信息和三轴角速度信息计算举重动作的姿态信息Q。
在本申请提供的另一具体实施方式中,以待识别动作为拳击动作为例,基于采集到的三轴加速度信息和三轴角速度信息,计算出拳动作的姿态信息K。
步骤106:从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息。
在获得待识别动作的姿态信息之后,即可从待识别动作信息和姿态信息中提取用于表征待识别动作的动作特征信息,其中,动作特征信息具体是指可以更好的描述待识别动作的特征信息,例如加速度三轴数据的变化率,待识别动作的最大幅值,偏航角、俯仰角、翻滚角的角度变化、任意两轴数据之间的相关性等等。
在实际应用中,从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息,包括S1062-S1066:
S1062、拼接所述待识别动作信息和所述姿态信息获得待处理特征信息集合。
在获得待识别动作信息和姿态信息之后,为了更好从两者之间提取待识别动作的动作特征信息,可以将两者进行拼接,从而获得多个维度的待处理特征信息集合。通过待处理特征集合可以在后续的特征提取步骤中,使得各个特征之间的关系更加清晰。
在实际应用中,在待识别动作信息和姿态信息中通常包括一些无效的干扰特征信息,对后续的特征提取不利,因此,拼接所述待识别动作信息和所述姿态信息获得待处理特征信息集合,进一步包括:
拼接所述待识别动作信息和所述姿态信息获得初始待处理特征信息集合;
过滤所述初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。
其中,初始待处理特征信息集合具体是指单纯将待识别动作信息和姿态信息进行按列拼接之后获得的特征信息集合。在获得初始待处理特征信息之后,还可以对其进行滤波、归一化等处理,过滤初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。滤波方法可以是均值滤波、低通滤波、高斯滤波、卡尔曼滤波等等。
通过过滤初始待处理特征信息中的干扰特征信息,可以在一定程度上减少干扰特征信息导致的差距,提高后续提取待处理特征信息的精度。
S1064、根据预设的特征提取规则从所述待处理特征信息集合中确定至少一个待处理特征信息。
在获得待处理特征信息集合后,即可根据预设的特征提取规则确定待处理特征信息,预设的特征提取规则具体是由技术人员确定的,技术人员通过过往的研究,确定了该特征提取规则,通过该特征提取规则,在待处理特征信息集合中确定待处理特征信息。
例如,特征提取规则中包括提取加速度信息中每个轴的最大幅度、最大变化率等等。根据该特征提取规则,确定加速度信息中每个轴的最大幅度、最大变化率。
S1066、提取所述至少一个待处理特征信息,获得所述待识别动作的动作特征信息。
在确定至少一个待处理特征信息之后,即提取待处理特征信息,再进行特征信息的拼接,获得待识别动作的动作特征信息。例如,通过特征提取规则确定了加速度信息中每个轴的最大幅度值、最大变化率等,提取x轴的最大幅度值为10、最大变化率为8,提取y轴的最大幅度值为11、最大变化率为9,提取z轴的最大幅度值为18、最大变化率为7……,将待处理特征信息进行拼接获得待识别动作的动作特征信息(10,8,11,9,18,7……)。
在本申请提供的一具体实施方式中,以待识别动作为举重动作为例,将三轴加速度信息、三轴角速度信息和姿态信息Q进行拼接,获得待处理特征信息集合A,并根据预设的特征提取规则,从待处理特征信息集合中提取举重动作的动作特征信息(A1、A2、……An)。
在本申请提供的另一具体实施方式中,以待识别动作为拳击动作为例,将三轴加速度信息、三轴角速度信息和姿态信息K进行拼接,获得待处理特征信息集合B,并根据预设的特征提取规则,从待处理特征信息集合中提取出拳动作的动作特征信息(B1、B2、……Bn)。
步骤108:将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
将动作特征信息输入至预先训练好的动作识别模型进行动作识别,动作识别模型可以通过输入的动作特征信息进行分析,从而输出待识别动作的动作类型。动作识别模型应用了动作识别算法,动作识别算法包括但不限于支持向量机、决策树、多层感知机等等。
在实际应用中,动作识别模型是需要进行预先训练的,训练动作识别模型还需要相应的模型训练数据,因此,所述方法还包括:
采集样本动作的样本动作信息以及所述样本动作的样本动作类型;
基于所述样本动作信息计算所述样本动作的样本姿态信息;
从所述样本动作信息和所述样本姿态信息中提取所述样本动作的样本动作特征信息;
根据所述样本动作特征信息和所述样本动作类型训练所述动作识别模型。
具体的,样本动作的样本动作信息和样本动作的样本动作类型均为已知的信息,可以是人工标注的数据,例如需要对举重动作中的抓举动作采集相应的动作信息,则相关测试人员执行抓举动作,同时采集相应的动作信息,其中,样本动作为举重动作,样本动作信息为执行抓举动作时采集的动作信息,样本动作类型为抓举动作。
又例如对拳击动作中的直拳动作进行采集,则相关测试人员执行直拳动作,采集相应的动作信息,其中,样本动作为拳击动作,样本动作信息为打出直拳动作的动作信息,样本动作类型为直拳。
在获得样本动作信息之后,根据样本动作信息即可计算相应的样本姿态信息,根据样本动作信息计算样本姿态信息的具体计算方法,参见上述步骤中根据待识别动作信息计算待识别动作的姿态信息的相关描述,在此不在赘述。
在获取到样本姿态信息后,即从所述样本动作信息和所述样本姿态信息中提取所述样本动作的样本动作特征信息,相应的,从所述样本动作信息和所述样本姿态信息中提取所述样本动作的样本动作特征信息的方法,与从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息的方法相同,具体的操作步骤,参见上述相关实施例的描述,在此不在赘述。
在获取样本动作特征信息之后,即可将样本动作特征信息和样本动作类型组成训练样本对,训练样本对用于对动作识别模型进行训练。
具体的,根据所述样本动作特征信息和所述样本动作类型训练所述动作识别模型,包括:
将所述样本动作特征信息输入至动作识别模型;
获得所述动作识别模型输出的预测动作类型;
根据所述预测动作类型和所述样本动作类型计算模型损失值;
基于所述模型损失值调整所述动作识别模型的模型参数,并继续训练所述动作识别模型,直至达到训练停止条件。
在实际的动作识别模型的训练过程中,会有多个训练样本对,每个训练样本对均包括样本动作特征信息和样本动作特征信息对应的样本动作类型,具体的,将样本动作特征信息输入至待训练的动作识别模型中进行处理,动作识别模型响应于样本动作特征信息输出预测动作类型。
需要注意的是,此时的预测动作模型是由未训练好的动作识别模型预测出来的,其与实际的动作类型还有一定的差距,因此,需要通过预测动作类型和样本动作类型来进行比对,具体的,通过预测动作类型和样本动作类型来计算模型损失值,计算模型损失值的损失函数在实际应用中可以为0-1损失函数、平方损失函数、交叉熵损失函数等,在本申请中,对损失函数的选取不做限定,以实际应用为准。
在计算模型损失值之后,即可将模型损失值反向传播至动作识别模型中,对动作识别模型的模型参数进行调整,如学习率参数、Batch_Size参数等等,至此当前次的训练结束,还需要用下一批次的样本数据继续训练该动作识别模型,直至达到模型训练停止条件。
模型训练停止条件在实际应用中包括模型损失值小于预设阈值和/或模型的训练轮次达到预设的轮次,在本申请中,对模型训练停止条件不做限定,以实际应用为准。
在本申请提供的一具体实施方式中,以待识别动作为举重动作为例,将动作特征信息(A1、A2、……An),输入至动作识别模型中处理,获得动作识别模型输出的动作类型为抓举。
在本申请提供的另一具体实施方式中,以待识别动作为拳击动作为例,将动作特征信息(B1、B2、……Bn)输入至动作识别模型中处理,获得动作识别模型输出的动作类型为直拳。
在本申请提供的另一具体实施方式中,在获取所述动作识别模型输出的所述待识别动作对应的动作类型之后,所述方法还包括:
统计多个待识别动作的动作类型,获得统计列表。
在实际应用中,当可以识别每个待识别动作的动作类型后,还可以统计多个待识别动作的动作类型,生成统计列表,在统计列表中可以包括动作类型、动作次数等各种与动作相关的信息,通过统计列表,可以为用户提供一种多维度全面化的直观信息,为用户的后续锻炼、健身提供指导。
本申请提供的动作识别方法,通过采集待识别动作的待识别动作信息;基于所述待识别动作信息计算所述待识别动作的姿态信息;从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。实现了可以实时采集用户的动作数据,并通过将动作数据输入至动作识别模型中进行识别,获得动作类型,解决了现有的只能统计动作次数,无识别动作类型的问题,同时通过使用动作识别模型,提高了动作识别的准确度。
其次,通过大量的样本数据训练动作识别模型,可以使得动作识别模型的识别能力更精准,误差更小,降低识别错误率,提升用户的使用体验。
最后,通过统计用户的待识别动作的动作类型,并生成统计列表,可以更直观的看到用户动作类型是否标准,为给用户提供更个性化的训练计划提供针对性的参考,帮助用户更好的健身训练。
下述结合附图2和附图3,以本申请提供的动作识别方法在识别拳击动作的应用为例,对所述动作识别方法进行进一步说明。拳击作为一种锻炼+防身的运动类型,越来越受到大家的欢迎,为了更科学的训练,通常需要统计用户的出拳次数及种类,例如左勾拳50次,右直拳50次等等,但是目前市面上的辅助拳击训练的设备仅能识别出拳次数,无法识别出拳种类(直拳、勾拳、摆拳、闪躲等)。如图2所示,图2示出了本申请一实施例提供的一种应用于识别拳击动作的场景示意图,用户佩戴智能拳击手套,智能拳击手套采集待识别拳击动作的待识别动作信息,并通过待识别动作信息计算姿态信息,从待识别动作信息和姿态信息中提取动作特征信息,并将动作特征信息输入至动作识别模型,从而获得动作识别模型输出的动作类型,其中,动作识别模型是通过大量的样本动作信息和样本动作类型组成的训练样本对训练获得的。
图3示出了本申请一实施例提供的一种应用于识别拳击动作的动作识别方法的处理流程图,用于解决上述无法识别拳击动作中无法识别出拳种类的问题,该方法具体包括以下步骤:
步骤302:确定待识别拳击动作的拳击动作时间区间。
具体的,确定待识别拳击动作的动作时间区间为100ms(毫秒)。
步骤304:采集所述拳击动作时间区间内的三轴加速度信息和三轴角速度信息。
具体的,可以通过用户穿戴的智能拳击手套或佩戴于用户手腕处的智能手环采集该拳击动作在100ms内的三轴加速度信息和三轴角速度信息,即x、y、z轴的加速度信息和x、y、z轴的角速度信息。
步骤306:根据所述三轴加速度信息计算所述待识别拳击动作的第一子姿态信息。
具体的,根据x、y、z轴的加速度信息计算该待识别拳击动作的第一翻滚角信息、第一俯仰角信息和第一偏航角信息。
步骤308:根据所述三轴加速度信息计算所述待识别拳击动作的第二子姿态信息。
具体的,根据x、y、z轴的角速度信息计算该待识别拳击动作的第二翻滚角信息、第二俯仰角信息、第二偏航角信息。
步骤310:融合所述第一子姿态信息和所述第二子姿态信息获得所述待识别拳击动作的姿态信息。
具体的,对第一翻滚角信息和第二翻滚角信息、第一俯仰角信息和第二俯仰角信息、第一偏航角信息和第二偏航角信息分别进行融合,获得该待识别拳击动作的姿态信息,即待识别拳击动作的翻滚角信息、俯仰角信息和偏航角信息。
步骤312:拼接所述三轴加速度信息、所述三轴角速度信息和所述姿态信息获得初始待处理特征信息集合。
具体的,将翻滚角信息、俯仰角信息和偏航角信息与x、y、z轴的加速度信息和x、y、z轴的角速度信息按列进行数据拼接,组成多维度数据流,即初始待处理特征信息集合。
步骤314:过滤所述初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。
具体的,对拼接后的初始待处理特征信息集合做卡尔曼滤波处理,过滤初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。
步骤316:根据预设的特征提取规则从所述待处理特征信息集合中确定至少一个待处理特征信息。
具体的,再根据预设的特征提取规则,从待处理特征信息集合中确定用于后续动作识别的待处理特征信息,例如三轴数据的最大幅度值、最大变化率、平均变化率、变化率方差、任意两轴数据之间的关联度、角度变化值等等。
步骤318:提取所述至少一个待处理特征信息,获得所述待识别拳击动作的动作特征信息。
具体的,需要注意的是,待处理特征信息通常会有多个值,按照预先设定的规则,提取出待处理特征信息之后,再将其进行拼接,获得待识别拳击动作的动作特征信息。
步骤320:将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别拳击动作对应的动作类型。
具体的,将动作特征信息输入至动作识别模型进行处理,获得动作识别模型输出的待识别拳击动作的动作类型。
其中,动作识别模型预先被训练为根据动作特征信息输出动作类型,工作人员预先采集了大量的训练数据组成训练样本对,用于训练该动作识别模型。
步骤322:统计多个待识别拳击动作的动作类型,获得拳击动作统计列表。
具体的,统计多个待识别拳击动作的动作类型,从而生成拳击动作统计列表,在统计列表中除了包括拳击动作的动作类型,还可以包括出拳速度、出拳次数等信息。该拳击动作统计列表用于为用户展示拳击的各维度数据,并为用户提供更为详细的拳击训练计划。
本申请实施例提供的动作识别方法,应用在拳击动作识别的场景,通过采集拳击动作的三轴加速度信息和三轴角速度信息,从而计算拳击动作的姿态信息,再从三轴加速度信息、三轴角速度信息、姿态信息中提取拳击动作的动作特征信息,并将该动作特征信息输入至动作识别模型中进行分析,获得动作识别模型输出的动作类型。并对识别结果进行统计分析,为用户提供更为详细的拳击训练数据和拳击训练计划,辅助用户有针对性的训练健身,提升用户的使用体验。
与上述方法实施例相对应,本申请还提供了动作识别装置实施例,图4示出了本申请一实施例提供的一种动作识别装置的结构示意图。如图4所示,该装置包括:
采集模块402,被配置为采集待识别动作的待识别动作信息;
计算模块404,被配置为基于所述待识别动作信息计算所述待识别动作的姿态信息;
提取模块406,被配置为从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;
识别模块408,被配置为将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
可选的,所述采集模块402,进一步被配置为:
确定待识别动作的动作时间区间;
采集所述动作时间区间内的待识别动作信息。
可选的,所述待识别动作信息包括加速度信息和角速度信息;
所述计算模块404,进一步被配置为:
基于所述加速度信息和所述角速度信息计算所述待识别动作的姿态信息。
可选的,所述计算模块404,进一步被配置为:
根据所述加速度信息计算所述待识别动作的第一子姿态信息;
根据所述角速度信息计算所述待识别动作的第二子姿态信息;
融合所述第一子姿态信息和所述第二子姿态信息获得所述待识别动作的姿态信息。
可选的,所述提取模块406,进一步被配置为:
拼接所述待识别动作信息和所述姿态信息获得待处理特征信息集合;
根据预设的特征提取规则从所述待处理特征信息集合中确定至少一个待处理特征信息;
提取所述至少一个待处理特征信息,获得所述待识别动作的动作特征信息。
可选的,所述提取模块406,进一步被配置为:
拼接所述待识别动作信息和所述姿态信息获得初始待处理特征信息集合;
过滤所述初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。
可选的,所述装置还包括:
样本采集模块,被配置为采集样本动作的样本动作信息以及所述样本动作的样本动作类型;
样本计算模块,被配置为基于所述样本动作信息计算所述样本动作的样本姿态信息;
样本提取模块,被配置为从所述样本动作信息和所述样本姿态信息中提取所述样本动作的样本动作特征信息;
模型训练模块,被配置为根据所述样本动作特征信息和所述样本动作类型训练所述动作识别模型。
可选的,所述模型训练模块,进一步被配置为:
将所述样本动作特征信息输入至动作识别模型;
获得所述动作识别模型输出的预测动作类型;
根据所述预测动作类型和所述样本动作类型计算模型损失值;
基于所述模型损失值调整所述动作识别模型的模型参数,并继续训练所述动作识别模型,直至达到训练停止条件。
可选的,所述装置还包括:
统计模块,被配置为统计多个待识别动作的动作类型,获得统计列表。
本申请提供的动作识别装置,通过采集待识别动作的待识别动作信息;基于所述待识别动作信息计算所述待识别动作的姿态信息;从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。实现了可以实时采集用户的动作数据,并通过将动作数据输入至动作识别模型中进行识别,获得动作类型,解决了现有的只能统计动作次数,无识别动作类型的问题,同时通过使用动作识别模型,提高了动作识别的准确度。
其次,通过大量的样本数据训练动作识别模型,可以使得动作识别模型的识别能力更精准,误差更小,降低识别错误率,提升用户的使用体验。
最后,通过统计用户的待识别动作的动作类型,并生成统计列表,可以更直观的看到用户动作类型是否标准,为给用户提供更个性化的训练计划提供针对性的参考,帮助用户更好的健身训练。
上述为本实施例的一种动作识别装置的示意性方案。需要说明的是,该动作识别装置的技术方案与上述的动作识别方法的技术方案属于同一构思,动作识别装置的技术方案未详细描述的细节内容,均可以参见上述动作识别方法的技术方案的描述。
图5示出了根据本申请一实施例提供的一种计算设备500的结构框图。该计算设备500的部件包括但不限于存储器510和处理器520。处理器520与存储器510通过总线530相连接,数据库550用于保存数据。
计算设备500还包括接入设备540,接入设备540使得计算设备500能够经由一个或多个网络560通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备540可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备500的上述部件以及图5中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图5所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备500可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备500还可以是移动式或静止式的服务器。
其中,处理器520执行所述计算机指令时实现所述的动作识别方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的动作识别方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述动作识别方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机指令,该计算机指令被处理器执行时实现如前所述动作识别方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的动作识别方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述动作识别方法的技术方案的描述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。

Claims (12)

1.一种动作识别方法,其特征在于,包括:
采集待识别动作的待识别动作信息;
基于所述待识别动作信息计算所述待识别动作的姿态信息;
从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;
将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
2.如权利要求1所述的动作识别方法,其特征在于,采集待识别动作的待识别动作信息,包括:
确定待识别动作的动作时间区间;
采集所述动作时间区间内的待识别动作信息。
3.如权利要求1所述的动作识别方法,其特征在于,所述待识别动作信息包括加速度信息和角速度信息;
基于所述待识别动作信息计算所述待识别动作的姿态信息,包括:
基于所述加速度信息和所述角速度信息计算所述待识别动作的姿态信息。
4.如权利要求3所述的动作识别方法,其特征在于,基于所述加速度信息和所述角速度信息计算所述待识别动作的姿态信息,包括:
根据所述加速度信息计算所述待识别动作的第一子姿态信息;
根据所述角速度信息计算所述待识别动作的第二子姿态信息;
融合所述第一子姿态信息和所述第二子姿态信息获得所述待识别动作的姿态信息。
5.如权利要求1-4任意一项所述的动作识别方法,其特征在于,从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息,包括:
拼接所述待识别动作信息和所述姿态信息获得待处理特征信息集合;
根据预设的特征提取规则从所述待处理特征信息集合中确定至少一个待处理特征信息;
提取所述至少一个待处理特征信息,获得所述待识别动作的动作特征信息。
6.如权利要求5所述的动作识别方法,其特征在于,拼接所述待识别动作信息和所述姿态信息获得待处理特征信息集合,包括:
拼接所述待识别动作信息和所述姿态信息获得初始待处理特征信息集合;
过滤所述初始待处理特征信息集合中的干扰特征信息,获得待处理特征信息集合。
7.如权利要求1所述的动作识别方法,其特征在于,所述方法还包括:
采集样本动作的样本动作信息以及所述样本动作的样本动作类型;
基于所述样本动作信息计算所述样本动作的样本姿态信息;
从所述样本动作信息和所述样本姿态信息中提取所述样本动作的样本动作特征信息;
根据所述样本动作特征信息和所述样本动作类型训练所述动作识别模型。
8.如权利要求7所述的动作识别方法,其特征在于,根据所述样本动作特征信息和所述样本动作类型训练所述动作识别模型,包括:
将所述样本动作特征信息输入至动作识别模型;
获得所述动作识别模型输出的预测动作类型;
根据所述预测动作类型和所述样本动作类型计算模型损失值;
基于所述模型损失值调整所述动作识别模型的模型参数,并继续训练所述动作识别模型,直至达到训练停止条件。
9.如权利要求1所述的动作识别方法,其特征在于,在获取所述动作识别模型输出的所述待识别动作对应的动作类型之后,所述方法还包括:
统计多个待识别动作的动作类型,获得统计列表。
10.一种动作识别装置,其特征在于,包括:
采集模块,被配置为采集待识别动作的待识别动作信息;
计算模块,被配置为基于所述待识别动作信息计算所述待识别动作的姿态信息;
提取模块,被配置为从所述待识别动作信息和所述姿态信息中提取所述待识别动作的动作特征信息;
识别模块,被配置为将所述动作特征信息输入至动作识别模型,获取所述动作识别模型输出的所述待识别动作对应的动作类型。
11.一种计算设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机指令,其特征在于,所述处理器执行所述计算机指令时实现权利要求1-9任意一项所述方法的步骤。
12.一种计算机可读存储介质,其存储有计算机指令,其特征在于,该计算机指令被处理器执行时实现权利要求1-9任意一项所述方法的步骤。
CN202210060022.1A 2022-01-19 2022-01-19 动作识别方法及装置 Pending CN114492520A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210060022.1A CN114492520A (zh) 2022-01-19 2022-01-19 动作识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210060022.1A CN114492520A (zh) 2022-01-19 2022-01-19 动作识别方法及装置

Publications (1)

Publication Number Publication Date
CN114492520A true CN114492520A (zh) 2022-05-13

Family

ID=81473246

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210060022.1A Pending CN114492520A (zh) 2022-01-19 2022-01-19 动作识别方法及装置

Country Status (1)

Country Link
CN (1) CN114492520A (zh)

Similar Documents

Publication Publication Date Title
AU2020273327B2 (en) Systems and methods of swimming analysis
CN107908288A (zh) 一种面向人机交互的快速人体动作识别方法
Chaudhari et al. Yog-guru: Real-time yoga pose correction system using deep learning methods
CN109117893A (zh) 一种基于人体姿态的动作识别方法及装置
WO2010090867A2 (en) Multi-state performance monitoring system
CN108171278B (zh) 一种基于运动训练数据的运动模式识别方法和系统
Shin et al. Korean sign language recognition using EMG and IMU sensors based on group-dependent NN models
CN107273857B (zh) 运动动作的识别方法及装置、电子设备
Beily et al. A sensor based on recognition activities using smartphone
CN111914643A (zh) 一种基于骨骼关键点检测的人体动作识别方法
CN110532898A (zh) 一种基于智能手机多传感器融合的人体活动识别方法
CN108827290A (zh) 一种人体运动状态反演装置及方法
EP4167129A1 (en) Method and system for recognizing user actions
CN106970705A (zh) 动作捕捉方法、装置和电子设备
CN113663312A (zh) 一种基于微惯性的无器械健身动作质量评估方法
KR101793934B1 (ko) 피트니스 운동의 유형을 자동으로 분류하기 위한 방법 및 장치
KR102363879B1 (ko) 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법
CN108051001A (zh) 一种机器人移动控制方法、系统及惯性传感控制装置
CN110705599B (zh) 一种基于在线迁移学习的人体动作识别方法
CN114341947A (zh) 用于使用可穿戴设备的锻炼类型辨识的系统和方法
CN114492520A (zh) 动作识别方法及装置
CN113916223B (zh) 定位方法及装置、设备、存储介质
CN111982149B (zh) 一种计步识别方法、装置、设备及可读存储介质
CN107329563A (zh) 一种动作类型的识别方法、装置和设备
CN116071829A (zh) 动作识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination