CN110236560A - 智能穿戴设备的六轴姿态检测方法、系统 - Google Patents

智能穿戴设备的六轴姿态检测方法、系统 Download PDF

Info

Publication number
CN110236560A
CN110236560A CN201910490568.9A CN201910490568A CN110236560A CN 110236560 A CN110236560 A CN 110236560A CN 201910490568 A CN201910490568 A CN 201910490568A CN 110236560 A CN110236560 A CN 110236560A
Authority
CN
China
Prior art keywords
user
motion profile
posture
characteristic point
axis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910490568.9A
Other languages
English (en)
Inventor
郭小龙
欧阳田
周波
吴海阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Jinyidaneng Technology Co ltd
Original Assignee
Shenzhen Federal Jiawei Industrial Equipment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Federal Jiawei Industrial Equipment Co Ltd filed Critical Shenzhen Federal Jiawei Industrial Equipment Co Ltd
Priority to CN201910490568.9A priority Critical patent/CN110236560A/zh
Publication of CN110236560A publication Critical patent/CN110236560A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1121Determining geometric values, e.g. centre of rotation or angular range of movement
    • A61B5/1122Determining geometric values, e.g. centre of rotation or angular range of movement of movement trajectories
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface

Abstract

本发明公开了一种智能穿戴设备的六轴姿态检测方法、系统,所述方法应用于智能穿戴设备的六轴姿态检测系统,所述方法包括以下步骤:获取用户运动姿态中每个特征点的运动轨迹;将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;将所述用户的整体运动姿态的运动轨迹发送至后台管理终端,实现管理者与劳动用户之间的远程沟通与互联。相对于现有技术,本发明提高了用户的工作效率和管理者的管理效率。

Description

智能穿戴设备的六轴姿态检测方法、系统
技术领域
本发明涉及智能穿戴设备技术领域,尤其涉及一种智能穿戴设备的六轴姿态检测方法、系统。
背景技术
目前,当环卫工人工作状态比较散,在某一个地方工作时,工人的工作状态得不到了解,管理者安排工作时,要到现场了解工人的工作状态,再安排工作,某些工作现场离管理办公室路程遥远,工人完成某项工作后,得不到其他工作安排指令,需要到管理处进行了解或者接受任务,工人的工作效率和管理者的管理效率非常低。
发明内容
为解决上述技术问题,本发明提供一种智能穿戴设备的六轴姿态检测方法、系统及存储介质。
为实现上述目的,本发明提供一种智能穿戴设备的六轴姿态检测方法,所述方法应用于智能穿戴设备的六轴姿态检测系统,所述方法包括以下步骤:
获取用户运动姿态中每个特征点的运动轨迹;
将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;
将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
本发明的进一步的技术方案是,所述将所述整体动作的运动轨迹发送至后台终端的步骤之后还包括:
由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹获取用户的工作状态,并根据所述工作状态对用户进行管理。
本发明的进一步的技术方案是,所述获取用户运动姿态中每个特征点的运动轨迹的步骤包括:
获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度;
根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量;
将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
本发明的进一步的技术方案是,所述将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤之前包括:
采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹;
所述将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤包括:
将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
为实现上述目的,本发明还提出一种智能穿戴设备的六轴姿态检测系统,所述系统包括三轴陀螺仪,三轴加速度传感器,与所述三轴陀螺仪、三轴加速度传感器通信连接的微控制器,所述微控制器通过通信模块与后台管理终端连接,以及存储器、处理器、存储在所述存储器上的人体动作数据库,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时实现以下步骤:
通过所述三轴陀螺仪和三轴加速度传感器获取用户运动姿态中每个特征点的运动轨迹;
通过所述微控制器将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;
通过所述控制器将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
本发明的进一步的技术方案是,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹判断用户的工作状态,并根据所述工作状态对用户进行管理。
本发明的进一步的技术方案是,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述三轴加速度传感器、三轴陀螺仪获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度;
通过所述微控制器根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量;
通过所述微控制器将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
本发明的进一步的技术方案是,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述控制器采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹;
通过所述微控制器将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
以上所述智能穿戴设备采集的姿态数据及运行的处理的运动轨迹数据传输到计算机存储介质上,建立人体动作姿态数据库。
为实现上述目的,本发明还提出一种计算机可读存储介质,该计算机可读存储介质上存储人体初步姿态模型数据库,智能穿戴设备采集的数据被传输保存在可读存储介质上,并不断完善人体姿态模型数据库,所述智能穿戴设备的六轴姿态检测程序被微控制器运行、通讯模块传输、后台数据处理时实现如上所述的方法的步骤。
本发明的有益效果是:本发明智能穿戴设备的六轴姿态检测方法、系统及存储介质通过上述技术方案,获取用户运动姿态中每个特征点的运动轨迹;将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;将所述用户的整体运动姿态的运动轨迹发送至后台管理终端,建立管理者与劳动者用户之间的沟通互联,提高了用户的工作效率和管理者的管理效率。
附图说明
图1是本发明智能穿戴设备的六轴姿态检测方法第一实施例的流程示意图;
图2是本发明智能穿戴设备的六轴姿态检测方法第二实施例的流程示意图;
图3是本发明智能穿戴设备的六轴姿态检测方法第二实施例中步骤S10 的细化流程示意图;
图4是本发明智能穿戴设备的六轴姿态检测方法第三实施例的流程示意图;
图5是单点姿态系统的原理示意图;
图6是使用密集轨迹算法进行动作识别的算法流程示意图;
图7是每个空间尺度密集采样示意图;
图8是特征点描述子构建流程图;
图9是智能穿戴设备的六轴姿态检测系统的系统框架图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
请参照图1,图1是本发明智能穿戴设备的六轴姿态检测方法较佳实施例的流程示意图。
如图1所示,本实施例中,该方法包括以下步骤:
步骤S10,获取用户运动姿态中每个特征点的运动轨迹。
需要说明的是,本发明应用于智能穿戴设备的六轴姿态检测系统,该六轴姿态检测系统采用姿态传感器检测人体单点姿态。
姿态传感器是基于MEMS技术的高性能三维运动姿态测量系统。它包含三轴陀螺仪、三轴加速度计(即IMU),三轴电子罗盘等辅助运动传感器,通过内嵌的低功耗ARM处理器输出校准过的角速度,加速度,磁数据等,通过基于四元数的传感器数据算法进行运动姿态测量,实时输出以四元数、欧拉角等表示的零漂移三维姿态数据。
步骤S20,将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
可以理解的是,由于人体姿态动作没有规则和标准的运动轨迹动作,因此,本实施例将人体轨迹分解成很多个点的运动轨迹的集成,单个点的运动轨迹分解成这个点在一段时间点瞬间姿态矢量的矢量集成。
在获取用户运动姿态中每个特征点的运动轨迹后,再将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
步骤S30,将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
本实施例中,所述后台管理终端例如可以为手机、PC、Ipad等智能终端,该智能终端与智能穿戴设备通信连接。
需要说明的是,本发明智能穿戴设备的六轴姿态检测方法可以用于工人劳动的动作识别,劳动者配戴此方案的智能穿戴设备,可以采集到劳动者动作的姿态数据,数据通过区域蓝牙系统透传到后台PC机上,将信息传递给管理者,管理者根据劳动者的动作判断工人劳动状况,从而根据实际的工作进行其他工作的指令推送与安排。
由此,本实施例通过上述技术方案,获取用户运动姿态中每个特征点的运动轨迹;将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;将所述用户的整体运动姿态的运动轨迹发送至后台管理终端,能提高用户的工作效率和管理者的管理效率。
进一步的,请参照图2,基于本发明智能穿戴设备的六轴姿态检测方法第一实施例提出本发明智能穿戴设备的六轴姿态检测方法第二实施例。
在本实施例中,上述步骤S30,将所述用户的整体运动姿态的运动轨迹发送至后台管理终端的步骤之后还包括:
步骤40,由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹获取用户的工作状态,并根据所述工作状态对用户进行管理。
例如,在所述后台管理终端根据所述用户的整体运动姿态的运动轨迹获取到用户当前处于休息状态时,则可以对该用户发送安排其他工作的指令。由此进一步提高用户的工作效率和管理者的管理效率。
进一步的,请参照图3,图3是本实施例中步骤S10,获取用户运动姿态中每个特征点的运动轨迹的细化流程示意图。
如图3所示,本实施例中,上述步骤S10包括以下步骤:
步骤S101,获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、 Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度。
具体实施时,可以采用加速度传感器获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、 Y轴方向、Z轴方向的角加速度。
步骤S102,根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量。
在获取到用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度后,再根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量。
步骤S103,将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
在获取到每个特征点在该瞬间的瞬间姿态矢量后,再将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
进一步的,请参照图4,基于本发明智能穿戴设备的六轴姿态检测方法第一实施例提出本发明智能穿戴设备的六轴姿态检测方法第三实施例。
本实施例中,上述步骤S20,将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤之前包括:
步骤S201,采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹。
上述步骤S20,将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤包括:
步骤S202,将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
以下对本发明智能穿戴设备的六轴姿态检测方法做进一步的详细阐述。
本发明主要提供一种姿态识别的检测方法和姿态数据采集、姿态的合成方法。
由于人体姿态动作没有规则和标准的运动轨迹动作,因此,本发明将人体轨迹分解成很多个点的运动轨迹的集成,单个点的运动轨迹分解成这个点在一段时间点瞬间姿态矢量的矢量集成。单个点瞬间矢量姿态测量方法是某个瞬间单点的动作矢量分解成空间三个加速度矢量和三个角加速度矢量。
本发明采用的方法是利用智能穿戴设备的三轴传感器测量该点在某个瞬间空间X轴方向、Y轴方向、Z轴方向的矢量加速度数据,利用三轴陀螺仪测量该点在此瞬间的与X轴方向、Y轴方向、Z轴方向的角加速度矢量,六个矢量合成一个动作瞬间矢量,随着时间的推移,每个瞬间的动作瞬间矢量组合成为动作运动的矢量轨迹。智能穿戴设备通过采集某一个区域密集型样点的矢量数据和运动轨迹,计算和合成人体的整体动作。动作矢量的数据通过在某区域的蓝牙透传传到PC机的大数据库上,实现工人劳动状态远程互通互联。
将人体姿态动作分解成多个人体单点,各个人体单点采用本发明中的智能穿戴设备进行数据采集和单点的运动轨迹姿态的识别,将人体整体的动作姿态分解成便于检测的多个单个的姿态,通过对单点姿态进行若干特征点数据采样和运动分析,完成人体单点姿态或人体总体姿态动作的识别。
本发明采用姿态传感器检测人体单点姿态,姿态传感器基于MEMS技术的高性能三维运动姿态测量系统。它包含三轴陀螺仪、三轴加速度计(即IMU),三轴电子罗盘等辅助运动传感器,通过内嵌的低功耗ARM处理器输出校准过的角速度,加速度,磁数据等,通过基于四元数的传感器数据算法进行运动姿态测量,实时输出以四元数、欧拉角等表示的零漂移三维姿态数据。
对于在三维空间里的一个参考系,任何坐标系的取向,都可以用三个欧拉角来表现。而坐标系则固定于刚体,随着刚体的旋转而旋转。在地球上任何位置的物体受到重力的作用而产生一个加速度,加速度传感器可以用来测量变化或者恒定的速度,
本发明单点姿态识别的方法:将瞬间某点姿态分解成为六个矢量,空间三个加速度方向和三个角加速度方向,六个矢量合成瞬间某点的姿态矢量。在相对静止的状态下,当物体姿态改变时,加速度传感器的敏感轴相对于重力发生变化,加速度传感器三个敏感轴分别输出重力在其相应的方向产生的重力信号。当系统处于变速运动状态时,由于加速度传感器同时受到重力加速度和系统自身加速度的影响,其返回值是重力加速度同系统自身加速度的矢量和。陀螺仪能够提供瞬间的动态角度变化,见图5单点姿态系统的原理。
1、单点姿态原理
加速度数据采集与处理,控制器从加速度传感器采集获得三轴加速度GX、GY、GZ静止时,系统三轴加速度的矢量和为重力矢量可得:
对矢量进行归一化:
得到归一化重力方向矢量
由归一化矢量方向可得到重力矢量同坐标系轴的夹角θX、θY、θZ
系统从陀螺仪获得系统转动角速度wX、wY、wZ,得到系统的转动角度,采样时间间隔为△T:
由上一时刻的加速度矢量的估计值和当前转动角速度可得到当前时刻重力矢量的另一个估值利用式3得:
由4式公式,
可得
同理可得:
其中θX、θY、θZ为前一时刻重力矢量同坐标轴的夹角与系统转动角度△θX、△θY、△θZ之和。
重力矢量为
传感器数据融合
当前时刻的重力矢量由从加速度传感器得到的当前重力加速度矢量加权平均得到
其中W为陀螺仪权值。
2、单点轨迹集成时基于密集轨迹的动作识别方法:
人体单点采集每个瞬动作数据后,形成人体单点瞬时姿态,单点瞬时姿态运动时随着时间的推移,人体单点形成一个姿态运动曲线,从而形成在某段时间内的姿态动作。采用密集轨迹方法优化动作姿态识别。密集轨迹方法算法框架主要包括密集采样特征点、特征点轨迹跟踪、基于轨迹的特征提取、特征编码、分类器分类,使用密集轨迹进行动作识别的算法流程如图6所示。
密集采样:密集采样特征点具体分为如下几个步骤:将动作过程划分为多个空间尺度,在每个空间尺度上通过网格划分的方式密集采样特征点,如图7所示;除一些缺乏变化的无法跟踪的特征点,通过计算各点自相关矩阵的特征值,去除低于某个阈值的特征点;在时间序列上跟踪这些特征点,从而形成轨迹。
对特征点的跟踪形成轨迹,跟踪是在提前光流场中进行的,迭代方程为:
Pt+1=(xt+1,yt+1)=(xt,yt)+(M*wt)(x′t,y′t)
Pt+1为第t+1帧的特征点,M为中值滤波器,wt为光流场对应数值。其中 wt=(ut,vt)为密集光流场,u和v分别代表光流的水平和垂直分量。而M则代表中值滤波器。故该式子是通过计算特征点邻域内的光流中指来得到特征点的运动方向的。(xt′,yt′)为(xt,yt)的近似位置。
某个特征点在连续的L帧空间尺度上的位置即构成了一段轨迹, (Pt,Pt+1,...,Pt+L)(Pt,Pt+1,...,Pt+L),后续的特征提取即沿着各个轨迹进行。由于特征点的跟踪存在漂移现象,故长时间的跟踪是不可靠的,所以每L帧要重新密集采样一次特征点,重新进行跟踪。
此外,轨迹本身也可以构成轨迹形状特征描述子。对于一个长度为L的轨迹,其形状可以用(△Pt,△Pt+1,...,△pt+L-1)(△Pt,△Pt+1,...,△pt+L-1)来描述,在进行正则化后就可以得到轨迹特征描述子了。正则化方式为为了克服轨迹漂移问题,在描述轨迹的形状时,相对位置移动表达式为:
△Pt=(Pt+1-Pt)=(xt+1-xt,yt+1-yt)
其中轨迹的位移矢量为(Xt+1-Xt,Yt+1-Yt)(Xt+1-Xt,Yt+1-Yt)
最终归一化的轨迹形状描子为:
将轨迹邻域划分成更小的子空间,然后对每个子空间构造HOG(描述静态特征),HOF(特征点绝对运动特征),MBH(特征点相对运动特征),整体的特征点提取到描述子构建流程图如图8所示。
本发明中,人体单体单点姿态经过微控制器优化纠正后的数据经过无线模块通道,将数据传输到云平台,云平台接收数据并根据数据绘制出单点姿态的3D运动曲线,此曲线作为人体姿态运动的基础。
姿态检测系统基于ARM CortexM3内核的STM32微控器为控制核心,用于数据的采集、处理及传输。陀螺仪和加速传感器检测姿态数据后,通过微控制器采集数据,微控制器对数据进行均值低通滤波和计算系统姿态参数的修正。数据融合处理后通过无线信号通道传输到云平台进行姿态处理。如图9 所示,本发明中,陀螺仪、加速度传感器、微控制器、滤波及传感器数据融合的算法、无线射模块属于智能穿戴设备。智能穿戴设备采集数据后,通过无线发射模块将数据传输输出,无线模块接收设备接收到数据后,将人体数据传输到PC机上显示,PC机将人体姿态进行还原。
综上所述,本发明智能穿戴设备的六轴姿态检测方法通过上述技术方案,获取用户运动姿态中每个特征点的运动轨迹;将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;将所述用户的整体运动姿态的运动轨迹发送至后台管理终端,提高了用户的工作效率和管理者的管理效率。
为实现上述目的,本发明还提出一种智能穿戴设备的六轴姿态检测系统,其特征在于,所述系统包括三轴陀螺仪,三轴加速度传感器,与所述三轴陀螺仪、三轴加速度传感器连接的控制器,所述微控制器通过通信模块与后台管理终端连接,以及存储器、处理器、存储在所述存储器上的智能穿戴设备的六轴姿态检测程序,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时实现以下步骤:
通过所述三轴陀螺仪和三轴加速度传感器获取用户运动姿态中每个特征点的运动轨迹;
通过所述微控制器将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;
通过所述微控制器将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹判断用户的工作状态,并根据所述工作状态对用户进行管理。
所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述三轴陀螺仪、三轴加速度传感器获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度;
通过所述微控制器根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量;
通过所述微控制器将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述微控制器采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹;
通过所述微控制器将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
本发明智能穿戴设备的六轴姿态检测系统通过上述技术方案,通过所述三轴陀螺仪和三轴加速度传感器获取用户运动姿态中每个特征点的运动轨迹;通过所述微控制器将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;通过所述微控制器将所述用户的整体运动姿态的运动轨迹发送至后台管理终端,提高了用户的工作效率和管理者的管理效率。
为实现上述目的,本发明还提出一种计算机可读存储介质,该计算机可读存储介质上存储有智能穿戴设备的六轴姿态检测程序,所述智能穿戴设备的六轴姿态检测程序被微控制器运行时实现如上实施例所述的方法的步骤,这里不再赘述。
以上所述仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种智能穿戴设备的六轴姿态检测方法,其特征在于,所述方法应用于智能穿戴设备的六轴姿态检测系统,所述方法包括以下步骤:
获取用户运动姿态中每个特征点的运动轨迹;
将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;
将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
2.根据权利要求1所述的智能穿戴设备的六轴姿态检测方法,其特征在于,所述将所述整体动作的运动轨迹发送至后台终端的步骤之后还包括:
由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹获取用户的工作状态,并根据所述工作状态对用户进行管理。
3.根据权利要求2所述的智能穿戴设备的六轴姿态检测方法,其特征在于,所述获取用户运动姿态中每个特征点的运动轨迹的步骤包括:
获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度;
根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量;
将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
4.根据权利要求1所述的智能穿戴设备的六轴姿态检测方法,其特征在于,所述将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤之前包括:
采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹;
所述将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹的步骤包括:
将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
5.一种智能穿戴设备的六轴姿态检测系统,其特征在于,所述系统包括三轴陀螺仪,三轴加速度传感器,与所述三轴陀螺仪、三轴加速度传感器连接的微控制器,所述微控制器通过通信模块与后台管理终端连接,以及存储器、处理器、存储在微控制器的智能穿戴设备的六轴姿态检测程序,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时实现以下步骤:
通过所述三轴陀螺仪和三轴加速度传感器获取用户运动姿态中每个特征点的运动轨迹;
通过所述微控制器将所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹;
通过所述通信模块将所述用户的整体运动姿态的运动轨迹发送至后台管理终端。
6.根据权利要求5所述的智能穿戴设备的六轴姿态检测系统,其特征在于,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
由所述后台管理终端根据所述用户的整体运动姿态的运动轨迹判断用户的工作状态,并根据所述工作状态对用户进行管理。
7.根据权利要求6所述的智能穿戴设备的六轴姿态检测系统,其特征在于,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述三轴加速度传感器、三轴陀螺仪获取用户运动姿态中每个特征点瞬间在X轴方向、Y轴方向、Z轴方向的线加速度,以及该瞬间在X轴方向、Y轴方向、Z轴方向的角加速度;
通过所述微控制器根据所述线加速度、角加速度获取每个特征点在该瞬间的瞬间姿态矢量;
通过所述微控制器将每个特征点在所有瞬间的瞬间姿态矢量合成为每个特征点的运动轨迹。
8.根据权利要求5所述的智能穿戴设备的六轴姿态检测系统,其特征在于,所述智能穿戴设备的六轴姿态检测程序被所述微控制器运行时还实现以下步骤:
通过所述微控制器采用密集轨迹算法对所述用户运动姿态中每个特征点的运动轨迹进行优化识别,获得优化后的每个特征点的运动轨迹;
通过所述微控制器将优化后的所有特征点的运动轨迹合成为用户的整体运动姿态的运动轨迹。
CN201910490568.9A 2019-06-06 2019-06-06 智能穿戴设备的六轴姿态检测方法、系统 Pending CN110236560A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910490568.9A CN110236560A (zh) 2019-06-06 2019-06-06 智能穿戴设备的六轴姿态检测方法、系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910490568.9A CN110236560A (zh) 2019-06-06 2019-06-06 智能穿戴设备的六轴姿态检测方法、系统

Publications (1)

Publication Number Publication Date
CN110236560A true CN110236560A (zh) 2019-09-17

Family

ID=67886357

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910490568.9A Pending CN110236560A (zh) 2019-06-06 2019-06-06 智能穿戴设备的六轴姿态检测方法、系统

Country Status (1)

Country Link
CN (1) CN110236560A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113345603A (zh) * 2021-03-26 2021-09-03 重庆布瑞斯科技有限公司 一种六轴动作捕捉系统及动作捕捉方法
US20210290181A1 (en) * 2020-03-17 2021-09-23 Anirudha Surabhi Venkata Jagannadha Rao System and method for monitoring, identifying and reporting impact events in real-time

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008075926A1 (fr) * 2006-12-21 2008-06-26 Eugen Moraru Procédé de détermination de la trajectoire de mouvement (d'orientation) d'une personne (d'un sportif) ou de certaines parties de son corps et dispositif de mise en oeuvre correspondant
CN204683569U (zh) * 2015-06-01 2015-10-07 广州市巨硅信息科技有限公司 一种人体运动姿态检测设备
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法
CN105105759A (zh) * 2015-08-31 2015-12-02 张昊华 康复行为辅助方法及移动智能动作监测康复指导仪
CN105787458A (zh) * 2016-03-11 2016-07-20 重庆邮电大学 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN105956517A (zh) * 2016-04-20 2016-09-21 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于密集轨迹的动作识别方法
CN106295745A (zh) * 2016-08-11 2017-01-04 广联达科技股份有限公司 定位扫描方法和装置、信息处理装置和通信系统
CN106491105A (zh) * 2016-11-02 2017-03-15 沈阳大学 一种敬老院智能监护系统
CN107368186A (zh) * 2017-07-11 2017-11-21 青岛海信移动通信技术股份有限公司 Ar或vr系统及计算其中从机馈感增益变化量的方法
CN109115224A (zh) * 2018-08-30 2019-01-01 衡阳市衡山科学城科技创新研究院有限公司 一种九轴传感器的高动态轨迹处理方法及装置
CN109631888A (zh) * 2019-01-04 2019-04-16 北京卡路里信息技术有限公司 动作轨迹识别方法、装置、可穿戴设备及存储介质
CN109688372A (zh) * 2018-11-16 2019-04-26 万翼科技有限公司 一种智能穿戴设备的管理方法
CN109758154A (zh) * 2019-01-09 2019-05-17 北京卡路里信息技术有限公司 一种运动状态确定方法、装置、设备及存储介质

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008075926A1 (fr) * 2006-12-21 2008-06-26 Eugen Moraru Procédé de détermination de la trajectoire de mouvement (d'orientation) d'une personne (d'un sportif) ou de certaines parties de son corps et dispositif de mise en oeuvre correspondant
CN204683569U (zh) * 2015-06-01 2015-10-07 广州市巨硅信息科技有限公司 一种人体运动姿态检测设备
CN105069434A (zh) * 2015-08-12 2015-11-18 河海大学常州校区 一种视频中人体动作行为识别方法
CN105105759A (zh) * 2015-08-31 2015-12-02 张昊华 康复行为辅助方法及移动智能动作监测康复指导仪
CN105787458A (zh) * 2016-03-11 2016-07-20 重庆邮电大学 基于人工设计特征和深度学习特征自适应融合的红外行为识别方法
CN105956517A (zh) * 2016-04-20 2016-09-21 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于密集轨迹的动作识别方法
CN106295745A (zh) * 2016-08-11 2017-01-04 广联达科技股份有限公司 定位扫描方法和装置、信息处理装置和通信系统
CN106491105A (zh) * 2016-11-02 2017-03-15 沈阳大学 一种敬老院智能监护系统
CN107368186A (zh) * 2017-07-11 2017-11-21 青岛海信移动通信技术股份有限公司 Ar或vr系统及计算其中从机馈感增益变化量的方法
CN109115224A (zh) * 2018-08-30 2019-01-01 衡阳市衡山科学城科技创新研究院有限公司 一种九轴传感器的高动态轨迹处理方法及装置
CN109688372A (zh) * 2018-11-16 2019-04-26 万翼科技有限公司 一种智能穿戴设备的管理方法
CN109631888A (zh) * 2019-01-04 2019-04-16 北京卡路里信息技术有限公司 动作轨迹识别方法、装置、可穿戴设备及存储介质
CN109758154A (zh) * 2019-01-09 2019-05-17 北京卡路里信息技术有限公司 一种运动状态确定方法、装置、设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210290181A1 (en) * 2020-03-17 2021-09-23 Anirudha Surabhi Venkata Jagannadha Rao System and method for monitoring, identifying and reporting impact events in real-time
CN113345603A (zh) * 2021-03-26 2021-09-03 重庆布瑞斯科技有限公司 一种六轴动作捕捉系统及动作捕捉方法

Similar Documents

Publication Publication Date Title
CN106445130B (zh) 一种用于手势识别的动作捕捉手套及其校准方法
Sunny et al. Applications and challenges of human activity recognition using sensors in a smart environment
Lu et al. Gesture recognition using data glove: An extreme learning machine method
Fang et al. Development of a wearable device for motion capturing based on magnetic and inertial measurement units
Thiemjarus et al. A study on instance-based learning with reduced training prototypes for device-context-independent activity recognition on a mobile phone
CN107390867B (zh) 一种基于安卓手表的人机交互系统
CN210402266U (zh) 一种手语翻译系统和手语翻译手套
CN112633059B (zh) 一种基于LabVIEW和MATLAB的跌倒远程监控系统
Li Dance motion capture based on data fusion algorithm and wearable sensor network
Liu Human motion state recognition based on MEMS sensors and Zigbee network
CN104345904A (zh) 一种手指式空中鼠标
Wu et al. Indoor positioning system based on inertial MEMS sensors: Design and realization
CN110236560A (zh) 智能穿戴设备的六轴姿态检测方法、系统
CN111552383A (zh) 虚拟增强现实交互设备的手指识别方法、系统及交互设备
Lin RETRACTED ARTICLE: Research on film animation design based on inertial motion capture algorithm
CN106970705A (zh) 动作捕捉方法、装置和电子设备
Wang et al. Effective inertial hand gesture recognition using particle filtering based trajectory matching
Wang et al. Spatiotemporal co-attention hybrid neural network for pedestrian localization based on 6D IMU
KR20210083198A (ko) 증강 현실 장치 및 위치 설정 방법
CN206270980U (zh) 一种用于手势识别的动作捕捉手套
Chandel et al. Airite: Towards accurate & infrastructure-free 3-d tracking of smart devices
CN113029153A (zh) 基于智能手机多传感器融合和svm分类的多场景pdr定位方法
US10156907B2 (en) Device for analyzing the movement of a moving element and associated method
Bulugu Real-time Complex Hand Gestures Recognition Based on Multi-Dimensional Features.
Oh A study on MTL device design and motion tracking in virtual reality environments

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20200309

Address after: 212000 Zuo Hu Village, Jingkou Industrial Park, Jingkou District, Zhenjiang, Jiangsu

Applicant after: JIANGSU JINYIDANENG TECHNOLOGY Co.,Ltd.

Address before: 518000 Huarong Road, Tongsheng Community, Dalang Street, Longhua District, Shenzhen City, Guangdong Province

Applicant before: Shenzhen Federal Jiawei Industrial Equipment Co.,Ltd.

TA01 Transfer of patent application right
RJ01 Rejection of invention patent application after publication

Application publication date: 20190917

RJ01 Rejection of invention patent application after publication