CN108245880A - 基于多穿戴环带传感器融合的体感检测可视化方法和系统 - Google Patents

基于多穿戴环带传感器融合的体感检测可视化方法和系统 Download PDF

Info

Publication number
CN108245880A
CN108245880A CN201810012338.7A CN201810012338A CN108245880A CN 108245880 A CN108245880 A CN 108245880A CN 201810012338 A CN201810012338 A CN 201810012338A CN 108245880 A CN108245880 A CN 108245880A
Authority
CN
China
Prior art keywords
sensor
annulus
module
user end
mobile phone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810012338.7A
Other languages
English (en)
Inventor
徐文超
刘彦博
杨艳琴
陈晓琛
宋凡迪
黄雪峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Normal University
Original Assignee
East China Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Normal University filed Critical East China Normal University
Priority to CN201810012338.7A priority Critical patent/CN108245880A/zh
Publication of CN108245880A publication Critical patent/CN108245880A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/23Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console
    • A63F13/235Input arrangements for video game devices for interfacing with the game device, e.g. specific interfaces between game controller and console using a wireless connection, e.g. infrared or piconet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/33Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections
    • A63F13/335Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers using wide area network [WAN] connections using Internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/105Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals using inertial sensors, e.g. accelerometers, gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/40Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterised by details of platform network
    • A63F2300/407Data transfer via internet
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8094Unusual game types, e.g. virtual cooking

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Cardiology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种基于多穿戴环带传感器的体感检测可视化系统和方法,包括可穿戴的多个环带传感器和电脑用户端、手机用户端,环带传感器与电脑用户端通信、手机用户端通信;其中,环带传感器包括依次连接的用于检测环境及运动传感器信息的传感器模块、用于生成判据数据的控制模块、用于存储数据的存储模块和传输模块,传输模块通过网关与电脑用户端和手机连接,通过LTCP协议传送到云端服务器,用户通过电脑终端和手机APP可以实现可视化体感检测平台。本发明普适性好,体态姿势识别准确,实时实现体态检测律动可视化,成本低廉,携带方便。

Description

基于多穿戴环带传感器融合的体感检测可视化方法和系统
技术领域
本发明涉及传感器信息处理和手势识别技术领域,特别是一种集于三维传感器数据建模与多通道智能控制传输结合,人机交互基于多个穿戴环带传感器融合的体感检测可视化系统和方法。
背景技术
随着科技的不断发展,控制和传感器技术的不断提高,越来越多的设备采用了传感器进行采集观测人体行为特征。
目前市场上的智能环带传感器,因其具有可穿戴、体积小、多传感器、蓝牙4.0无线传输等特点,使得智能设备进入人们的生活当中。通过环带传感器和智能手机结合测量心跳,计步数和记录人体睡眠数据等信息。市场上的环带传感器都是以单环带传感器的形式存在,对于设备的控制来说,单环带传感器姿势的识别范围小也缺乏稳定性。
本发明提出了一种基于多个穿戴环带传感器融合的体感检测可视化系统和方法。该方法和系统是在基于双环带传感器融合的智能远程控制系统及其方法的基础上丰富算法深度,和协议架构,并通过无线传输模块实时传送数据,对用户腕带传感器的行为轨迹协同运算模型的建立,从而对不同情景进行可视化显示。
本发明将通过腕带传感器的多体态建模,记录人体姿态行为,可以对人体姿态上进行测试。将获取数据进行可视化处理,并通过数据分析,对用户姿态识别。在智能控制上,可以通过腕带传感器采集人体姿势识别,对通信报文内容协议设定,规定不同姿势对应不同对象;在竞技比赛中,可以通过腕带传感器的多体态建模,记录人体姿态行为,可以对人体姿态上进行测试,对竞技比赛有巨大的潜能;在体态动律上,可以通过腕带传感器的多体态建模,通过记录人体姿势变化,进行情景分析,可视化体验感受。
发明内容
本发明提出了一种基于多穿戴环带传感器的体感检测可视化方法,该方法包括如下步骤:
步骤一:将环带传感器设分别置于人体上肢腕带处和/或下肢腕带处,利用所述环带中的传感器采集人体上肢和/或下肢的运动信号,所述运动信号包括三维加速度信号和三维角速度信号;
步骤二:根据所述运动信号构造每个环带传感器的特征向量;所述特征向量包括人体的初始姿态,初始姿态为人体初始静止状态下的俯仰角、滚动角和偏航角,根据初始姿态计算传感器坐标系与地面坐标系的偏差量,利用偏差量修正环带传感器坐标系并生成变化后的特征向量,特征向量组成特征矩阵;
步骤三:将所述运动信号通过初级KALMAN滤波后进行处理得到人体上肢和/或下肢的方位运动信息,所述方位运动信息用于构造上肢和/或下肢动作特征向量;
步骤四:将双环带传感器的运动信号通过无线传输模块生成报文,传送到无线模块接收器;
步骤五:所述无线模块接收器解析报文后,分别连接手机和电脑用户端;
步骤六:所述手机用户端和所述电脑用户端访问云服务器端,下载体态检测可视化程序并加载,用户通过所述手机用户端或所述电脑用户端通过的unity3D读取接口的判据信息、手部的方位运动信息,对用户的身体行为姿态活动特征进行可视化展示,显示体感律动情景。
本发明提出的所述基于多穿戴环带传感器融合的可视化方法中,获取人体手部的方位运动信息的过程具体包含如下步骤:
步骤a1:所述传感器采集三轴加速度信号与三轴角速度信号,三轴分别为相互处置的X轴、Y轴与Z轴;
步骤a2:存储所述三轴加速度信号与三轴角速度信号,构造每个环带传感器的特征向量经过初态卡尔曼滤波和二次高斯协方差白噪声矩阵处理,得到人体上肢和/或下肢的方位运动信息;
步骤a3:采集信息后,采集模块根据用户选择的情景选择后处理模块功能及上肢和/或下肢的方位运动信息,从而以LTCP协议用CJSON报文传送到无线模块接收器,传输到分别通过TPYEC接口连接手机、USB3.0接口连接电脑用户端。
本发明提出的所述基于多穿戴环带传感器融合的可视化方法中,基于unity3D获取判据信息的过程具体包含如下步骤:
步骤b1:每个环带传感器的所述特征向量经过初态卡尔曼滤波算法滤二次高斯协方差白噪声后,获得用于动态时间规整算法的样本序列;
步骤b2:通过环带传感器三轴加速计对人体加速度进行采样,并把采样获得的加速度信号转换成加速度信号幅值;
步骤b3:环带传感器将处理后的信号通过无线传输模块传输到接收器模块;
步骤b4:根据情景以及unity3D模型结合3DsMax或Maya不同情景封装块,对上肢和/或下肢的方位运动信息、人体行为特征进行情景可视化。
本发明提出的所述基于多穿戴环带传感器融合的可视化方法中,对上肢和/或下肢的方位运动信息、人体行为特征进行情景可视化的过程中,基于动态时间归整的ROM等效模糊分群SOM神经元算法获取判据信息,具体包含如下步骤:
步骤c1:记录环带传感器的加速度信号加速度幅值SVM,只记录X和Y轴的幅值趋势,SVM(x)和SVM(y);
步骤c2:使用模糊神分群经元算法将所有环带传感器的数据分成多个群,分别求出其群中心点;
步骤c3:针对每一种情景,求出环带传感器的重心位置;
步骤c4:对所求出其重心位置进行运算处理,得到ROM(i)等效数值;
步骤c5:将所得到的ROM(i)的等效值通过串口传输到手机用户端和电脑用户端。
本发明还提出了一种基于多穿戴环带传感器融合的体感检测可视化系统,包括可穿戴的环带传感器和手机用户端、电脑用户端、云端服务器;其中,所述环带传感器包括依次连接的用于检测环境及运动传感器信息的传感器模块、用于生成判据数据的控制模块、用于存储数据的存储模块、传输模块、接收器模块;
所述传感器模块、所述存储模块、所述传输模块分别和所述控制模块连接,所述传输模块进一步与所述接收器模块连接;
所述接收器模块根据用户选择的情景,对数据做循环传输处理,通过TPYEC接口连接手机、USB3.0接口连接电脑用户端,电脑客户端和手机客户端访问所述云端服务器,实现对情景模式的下载从而对用户传感器进行情景可视化显示。
本发明提出的所述多穿戴环带传感器融合的体感检测可视化系统中,所述环带传感器内设有:6度传感器,包含了3度加速度计和3度陀螺仪,分别用于获得三维加速度信号和三维角速度信号进行初始标定校正,防漂移测准;采集人体运动过程中上肢运动信号;对采集到的运动信号进行去噪声、滤波处理;将采集到的运到信号保存到存储设备中;
本发明提出的所述多穿戴环带传感器融合的体感检测可视化系统中,所述传输模块将信息通过LTCP协议传输到所述接收器模块,所述接收器模块连接手机用户端和电脑用户端,手机用户端和电脑用户端通过HTTP协议访问云端服务器。
本发明提出的所述多穿戴环带传感器融合的体感检测可视化系统中,所述云端服务器采用Nignx+Nodejs+Express+MongoDB架构设计;所述云端服务器端开放多个端口分别用于数据收发及网页应用,根据用户所发起的不同请求进行相应的响应,完成包括与客户端的信息交互、数据存储及利用前端框架实现管理页面显示的功能,所述云端服务器服务器后端采用Nginx+Nodejs+MongoDB的设计。
本发明的有益效果:本系统的功能设计充分考虑用户的使用不同的情景模式。针对不同情景模式的选择,可以对用户进行单个用户行为识别和多个用户行为识别,从而增加用户的使用体验。单个用户行为识别可以识别用户上肢和下肢体态运动状态。多个用户行为识别可以识别2个用户的上肢体态运动状态,结合不同的情景模式从而对用户的运动状态做可视化显示。
附图说明:
图1是本发明基于多个穿戴环带传感器融合的体感检测可视化系统和方法,整体系统架构图。
图2是本发明中环带传感器的整体框架图。
图3是本发明中腕带传感器ROM值流程图。
图4(a)是双节点传感器ROM计算图;
图4(b)是多节点传感器ROM计算图;
图4(c)是双节点传感器人体佩戴下肢单腿ROM计算图;
图4(d)是双节点传感器人体佩戴上肢单臂ROM计算图;
图4(e)是多节点传感器人体佩戴上肢双臂ROM计算图。
图5是本发明中检测模块和存储模块流程图。
图6是本发明中SOM神经元排序图。
图7是本发明中无线传输模块和云端服务器的LEDP协议传输方式。
图8是本发明中实例应用例1图。
图9是本发明中实例应用例2图。
图10是本发明中实例应用例3图。
图11是本发明中实例应用例4图。
具体实施方式
结合以下具体实施例和附图,对本发明作进一步的详细说明。实施本发明的过程、条件、实验方法等,除以下专门提及的内容之外,均为本领域的普遍知识和公知常识,本发明没有特别限制内容。
本发明旨在设计一个基于多个穿戴环带传感器融合的体感检测可视化系统,该系统主要由可穿戴的环带传感器和接收器、用户端、云端服务器构成。环带传感器内包括微型控制处理器(以下称MCU)、三轴9DOF传感器、压力传感器、传输模块等功能模块组成。控制端通过环带传感器上传感器采集手部运动信息,经过滤波处理之后进行动作的判断,然后将判据结果、传感器信息,通过传输模块发送到接收器,接收器通过USB3.0或者TYPEC接口连接电脑用户端和手机用户端,访问云端服务器,实现对用户体感检测可视化显示;用户通过电脑用户端和手机用户端的不同选择,从服务器下载情景模式从而达到用户不同选择要求。
本发明创新点在一种基于多个穿戴环带传感器融合的体感检测可视化系统及其方法上,增加了对人体行为识别的基于动态时间归整的ROM等效模糊分群SOM神经元算法。与市面上的单环带传感器相比,系统在之前双环带传感器的控制基础上增加多环带传感器的协同控制,即情景模式1下对4个腕带传感器可视化显示,情景模式2下对2组双环带传感器可视化显示,从而识别更多的动作具有更高的稳定性。
在识别出手势姿态的情况下,结合三个轴向的不同加速度通过动态时间归整算法判断手势加速度是否失常。ROM等效模糊分群SOM模型计算出各个三轴9DOF传感器之间的偏移位置信息。神经元模型将每个腕带传感器等效成神经元,神经元间经过优化排序将传感器信息通过传输模块上传至接收器。传输协议是基于TCP协议基础上改进的LTCP(low costTCP)协议。手机客户端和电脑客户端的需要增加或减少传输报文频次,来改善环带传感器上传数据的功耗。
本发明所设计的基于多个腕带传感器融合的体感检测可视化系统,结构简单,操作方便,扩展性强,同时支持个性化定制服务,具有广阔的应用前景。具体如下:
1.信息处理的多样性:能补偿单环带传感器姿态单一性问题,增设对用户需求可对单人或多人进行体态检测。
2.信息处理的互补性:结合增设动态时间归整的ROM等效模糊分群SOM神经元算法,对人体腕部采集数据作融合,进行多层次、多空间的信息互补和优化组合处理,最终产生对观测环境的一致性解释。
3.信息处理的及时性:各传感器的处理过程相互独立,整个处理过程可以采用并行处理机制,从而使系统具有更快的处理速度。观测信息通过传输模块上传到接收器,用过手机APP用户和电脑用户需要,和上传信息的需要,增加对观测者的频次。
4.信息处理的交互性:多传感器的处理数据信息,传输至处理器,将多传感器的信息和三维传感器数据建模结合,人机交互,增强用于感官体验。
本发明建立了强实时、多线程的传输模块双工数据通道。选用数据融合算法对数据进行处理,对已有的数据融合算法进行优化开发。通过实验测试,在检测到运动行为姿势的基础上增设了基于动态时间归整的ROM等效模糊分群SOM神经元算法,更详细地获得了用户腕部姿态的信息。延续了一种基于多个穿戴环带传感器融合的体感检测可视化系统及其方法对数据进行优化处理和模型的推断归纳,保证了腕带传感器内存不发生泄漏以及三维传感器数据控制建模与算法反演。
总体来说,系统要实现以下六个目标:
1.能够对腕部进行上肢或者下肢的信息采集;
2.实现腕部传感器多通道的搭建;
3.实现低功耗高稳定的无线通道的搭建;
4.对多通道采集的数据用融合算法进行识别;
5.根据动态时间归整的ROM等效模糊分群SOM神经元算法做判据;
6.接收器接收传感器信息、位置信息、判据信息传输到手机用户端APP用户,电脑用户;
7.搭建云端服务器,手机用户端APP用户,电脑用户平台访问云端服务器下载情景模式;
8.手机用户端APP用户,电脑用户平台显示用户体感检测运动状态。
根据以上的八个系统要实现的总体目标,可以得出系统的基本工作流程如下图1所示,双手同时运动,腕带传感器对腕部状态信进行采集,随后运用设定好参数的融合算法对多通道的数据进行融合,使用融合输出的数据控制智能设备。
再进一步进行功能模块分析,要实现以上的功能,系统大概要分为两大主要模块。一个是发送端,其主要任务是对多通道的腕带传感器信息,进行采集并进行初步处理,然后对其进行融合处理,经过算法得到判据结果上传到接收器,接收器连接手机用户端和电脑用户平台访问服务器对下载情景模式,对用户选择情景模式显示体态状态。
在初步设计好的系统功能之后,需要进一步对系统功能进行具体的实现,这会涉及到对元器件的选取,如下将详细介绍系统将要使用的元器件。
传感器模块是腕带传感器的核心部分,是整个系统的起点,它的稳定工作是整个系统正常运转的前提,选取合适的传感器非常重要。
在本发明中,选取的传感器模块,集成了3轴MEMS陀螺仪,3轴MEMS加速度计,以及一个可扩展的数字运动处理器,可用I2C总线连接一个第三方的数字传感器。扩展之后就可以通过其I2C或SPI接口输出一个9轴的信号。
传输通信部分的主要任务是将发送端的信息通过无线传输方式发送给接收器。接收器主要的任务是对腕带传感器的信息进行接受处理,并进行融合的输出。在本发明中,系统选取的接收器,能通过各种各样的传感器来感知环境,通过传感器数据的融合,通过手势姿态得到综合判据。
如图1给出整个系统传输的信息,腕带传感器采集的各项数据。从采集数据,处理数据再到融合数据,一个通畅的数据流量的通道至关重要。如图2给出的是本系统的整体的数据流向和细节信息。整个系统的信息流向图,用数据流图进行表现,每一个箭头都表示一种数据的流向。图3给出了基于腕带相对位置信息数据获得方式。图5出了检测数据流图的过程主要有腕带传感器,卡尔曼滤波算法,驱动接口等;流程主要有采集,量化,融合,和数据阈值判决等。在这些过程中,还要注意数据的存储。
步骤1:腕带传感器持续的读取加速度传感器的三轴数据。腕带传感器通过I2C总线协议来读取加速度传感器的数据接口数据。该加速度计用一个包含瞬时加速度数据的命令来回复每一个请求,整个过程是在以一个设置默认为125Hz频率进行整体加速度的查询的。利用传感器采集人体上肢运动手腕上传感器和下肢运动脚腕上传感器的运动信号,运动信号包括三维加速度信号和三维角速度信号;
步骤2:根据采集运动信号,获得构造每个腕带传感器的特征向量,所获的特征向量包括人体的初始姿态,初始姿态包括人体初始静止状态下的俯仰角、滚动角和偏航角,根据人体初始姿态获得传感器坐标系与地面坐标系的偏差量,利用偏差量修正传感器坐标系变化后的特征向量,特征向量可以组成特征矩阵,控制模块2对加速度传感器数据处理。因为加速度传感器初级采集的数据是噪声的,采用卡尔曼滤波器对数据进行初步处理,保证在初始阶段的可操作性;
步骤3:腕带传感器对加速度传感器数据处理后的数据信息将进行第一次处理,对数据进行量化处理,这是软件实现的,具有可行性。根据所采集到的运动信号,通过多态KALMAN滤波,对所得到的信息进行处理,根据初步采集的运动信号检测人体上肢手腕的运动,进而获得人体的手部的方位运动信息,根据动态时间归整的ROM等效模糊分群SOM神经元算法得到判据,然后将相对位置信息、传感器信息、判据信息传输到传输模块;
步骤4:传输模块将信息以CJSON报文的格式以LTCP协议传输给接收器;
步骤5:接收器收到CJSON报文后,解析数据。将数据中不同传感器的信息、相对位置信息、判据分析。
步骤6:接收器通过USB3.0和TYPEC连接到电脑终端和手机终端,手机用户平台和电脑用户平台通过HTTP协议访问云端服务器,根据不同情景模式下载到用户端。用户端调用unity3D,unity3D模型结合3DsMax、Maya等不同情景封装块,对手部方位运动信息、人体行为特征进行情景可视化。
根据步骤6中,提出了基于由Web服务描述语言的公共接口式的约定和访问地址三方面的基本内容,并且基于XML格式,详细地定义了服务的名称、服务方法的名称、方法的参数等等。通过此功能可以知道服务更提供什么样的功能、采取什么样的消息格式。Web服务发现通过将语义信息和Web服务发现相结合来提高服务的准确率。并且根据Web服务集成协议,提供了分布式的平台独立的Web服务注册中心的开发框架。注册中心是以XML格式来存储核管理各类服务信息,并提供服务的发布和发现机制。
如图1所示,本发明基于多个穿戴环带传感器融合的体感识别检测可视化系统及其方法:自动采集每个传感器信息,并依据所得信息构造传感器的特征向量,并通过融合算法将多个传感器的特征向量合并形成整体的手势姿态识别特征向量,经过算法得到判据结果,将传感器信息、判据信息、相对位置信息编辑成CJSON报文,通过传输模块以LTCP协议上传到手机用户端和电脑用户,用户端通过HTTP协议访问服务器下载情景模式后,对手部方位运动信息、人体行为特征进行情景可视化。
在步骤1中:如图2所示,本发明中数据采集融合控制流程图中,三轴传感器中,有加速度计和陀螺仪。根据采集运动信号,获得构造每个环带传感器上的特征向量中,MEMs模块获取的数据被传送到系统,数据首先被卡尔曼滤波器滤波,本发明在欧拉角的基础上计算旋转矩阵(滚动、俯仰和航向),通过这个旋转矩阵可以转换得到来自人的加速度数据。卡尔曼滤波是一种线性高斯系统的滤波和预测技术。它由一个处理模型和一个测量模型组成。
数据处理原理主要就是双通道数据的融合,延续了一种基于双环带传感器融合的智能遥感控制系统及其方法,检测和估计系统状态的技术将传感器数据进行融合。为了连续地估计手部动作状态空间模型如下:
x(k-1)=Mz(k-1)+u(k-1)(1)
在步骤2中:对步骤1进行再一步数据处理时进行的空间状态分配处理。x(k-1)表示进行第一步数据处理时的输出结果,M是定义的量化映射表,z(k-1)是传感器的原始输出数据,u(k-1)是系统的噪声。本发明延续了一种基于双环带传感器融合的智能遥感控制系统及其方法得到了融合映射表,y(k-1)=(x1(k-1),x2(k-1)),表示双通道的信息集合。y(k-1)通过融合映射表后,得到手势运动方向。手势运动方向的控制,BDFLR分别代表后(B代表back)、下(D代表down)、前(F代表forward)、左(L代表left)和右(R代表right)。设定只有两通道发送状态如下的控制字符时控制字符才有效,否则无效。比如只有两个环带传感器控制,融合姿态处理判断字符状态转换因子Ri(i=12,3,4)为
在步骤3中:基于动态时间归整的ROM等效模糊分群SOM神经元算法:腕带传感器三轴加速计对人体加速度进行采样,并把采样获得的加速度信号转换成加速度信号幅值作为动态时间规整的样本序列;如图4(b)传感器1、传感器2、传感器3、传感器4的加速度信号加速度幅值SVM,损失严重Z轴的摇摆不影响X和Y轴的幅值趋势,因此只记录SVM(x)和SVM(y)两个值,对加速度信号幅值(SVM)进行端点检测,预测腕部运动状态。
如图4(b)所示,使用模糊神分群经元算法将传感器1、传感器2、传感器3、传感器4的数据分成六个群,分别求出其群众中心点(Fcm1,Fcm2,Fcm3,Fcm4)。对情景1中每一组传感器求出群聚中心点,并求出其重心位置(GM1,GM2,GM3,GM4)。对情景2中每一组传感器求出群聚中心点,并求出其重心位置(GM1,GM2,GM3,GM4)。
图3于判定中同一时间两个相邻节点ROM等效值之差大于10°判据成立,同一节点相邻时间点ROM等效值之差大于10°判据成立。判据成立,则可能发生有效位移。有效位移可以用于人体行为等效偏移量的测量。同时该判据作为LTCP协议传输的条件触发源之一。
如图4(a)所示分别计算出重心位置的SVM(x)和SVM(y)值的反三角:
两者相减得到等效ROM:
ROM(1,1)=θG(1+1)G(1) (5)
如图4(b)所示分别计算出重心位置(GM1,GM2,GM3,GM4)所对应的SVM(x)和SVM(y)值的反三角:
两者相减得到等效ROM(i):
ROM(i,k)=θG(k+i)G(k) (8)
如图5所示,设定当加速度信号幅值阈值大于I1(m/s2),认为会发生摔倒。再结合传感器进行最终的判决,手势方向、人体行为习惯一致性特征。当加速度信号幅值阈值处于I2(m/s2)至I3(m/s2)范围内,判决为剧烈运动;当加速度信号幅值阈值处于I4(m/s2)至I5(m/s2)范围内.判决为静止状态。
F(k)为结构单元的做运动状态:
F(k)=H(i)||R(i)||ROM(i,k) (9)
SOM是一种自组织(竞争型)神经网络,自组织(竞争型)神经网络的结构及其学习规则与其他神经网络相比有自己的特点。在网络结构上,它一般是由输入层和竞争层构成的两层网络;两层之间各神经元实现双向连接。
如图6所示,由输入层、竞争层和输出层组成。输入层是重心位置(GA1,GA2,GA3,GA4)不同腕带传感器采集后处理状态。网络神经元之间相互竞争以求被激活,结果在每一时刻只有一个输出神经元被激活。这个被激活的神经元称为竞争获胜神经元,而其它神经元的状态被抑制。权值大或者波动大的将被优先输出NET(k)。作为体态检测的第一输出值,依次第二输出值,第三输出值,进而显示体态变化。
式中,H(i)表示当前群落偏离幅值,表示等效距离均值;ROM(i,k)表示ROM等效距离值;t表示当前时间;i表示当前群落;k表示当前群落节点。
在步骤4中,如图7所示为CJSON数据格式上传至接收器,在后端显示的结果,双环带传感器100传送数据转换成CJSON格式后传送到接收器。如图7所示LTCP协议(即是Lowcost TCP)。图3中,ROM等效值之差作为LTCP协议传输的条件触发源之一。当该触发源为触发时,降低握手请求;反之,当触发源唤醒频繁时,增加握手请求。
在步骤5中,多个腕带传感器上传的信息上传到接收器后,所在用户状态信息,此时通过Add_REQ请求信息传输到多个腕带传感器上,此时腕带传感器收到Add_REQ信息后增加上传信息频次,可以根据实际情景模式需求动态调整。如图7所示:CONN_REQ表示连接建立请求、CONN_RESP表示连接建立响应、SAVE_DATA表示存储(&转发)数据。
在步骤6中,手机用户平台和电脑用户平台访问云端服务器,调用不同情景模式信息、从云端下载不同程序。然后手机用户平台和电脑用户平台根据串口检测的传感器信息进行可视化显示。
实施例1:
在本实例中,测试者手腕处,包裹双环带传感器,采集到的数据传输至接收器,接收器与电脑相连。图8显示,通过检测用户双手的信息可以对图中,unity3D下的情景模式进行控制可视化显示。“静止状态”、“手向上向上”等改变状态时呈现出不同状态,当静止时,unity3D情景模式下自行车停止;当手向前时,unity3D情景模式下自行车向前。
本实例提供的基于双环带传感器人体姿态控制方法,能够解决现有技术技术使用的算法有效性问题,并且能够通过双环带传感器融合的传感器数据能够精确地控制智能设备,实时采集速度和加速度的新算法,能够判断特定姿态下的状态。
实施例2:
环带传感器中两组腕带传感器,采集到的数据传输至接收器,接收器与电脑相连。图9显示,通过检测用户双手的信息可以对图中,unity3D下的情景模式进行控制可视化显示。“手掌翻转180度旋转”改变状态时呈现出不同状态,当左侧用户手掌翻转180度旋转,unity3D情景模式下左侧乒乓球选手对乒乓球击打;当右侧用户手掌翻转180度旋转,unity3D情景模式下右侧乒乓球选手对乒乓球击打。
本实例提供的情景模式2场景下,对多组用户人体姿态控制可视化显示,能够解决现有技术使用的算法有效性问题,并且能够通过多组双环带传感器融合的传感器数据能够精确地控制智能设备,实时采集速度和加速度的新算法,能够判断特定姿态下的状态。
实施例3:
在本实例中,测试者如图4(d)可将双节点传感器人体佩戴上肢单臂手腕处,包裹双环带传感器,采集到的数据传输至接收器,接收器与电脑相连。图10显示,通过检测用户双手的信息可以对图中,unity3D下的情景模式进行控制可视化显示。根据ROM采集不同,用户在unity3D环境下可对盒子选择性触碰。此环境可以用于用户康复四肢运动,也可用于脑力康复运动,根据用户身体健康程度改变状态,呈现出不同状态,盒子静止时,unity3D情景模式下用户触碰;盒子运动时,unity3D情景模式下用户触碰。
实施例4:
在本实例中,测试者如图4(e)可将多节点传感器人体佩戴上肢双臂手腕处,包裹两组双环带传感器,采集到的数据传输至接收器,接收器与电脑相连。图11显示,通过检测用户双手的信息可以对图中,unity3D下的情景模式进行控制可视化显示。根据ROM采集不同,用户在unity3D环境下可对动画对象进行控制。双臂单位时间内的ROM值决定了动画运动速度。此环境可以用于用户康复四肢运动,也可用于脑力康复运动,根据用户身体健康程度改变状态,呈现出不同状态,当双臂交替运动时,unity3D情景模式下动画对象运动;当双臂同时运动时,unity3D情景模式下动画跳跃;当双臂静止时,unity3D情景模式下动画对象静止。
通过本发明方法,上述测试者可以通过人体姿势识别融合对体感检测可视化显示。同时,本发明方法应用具有成本低、易操作等优势,适合商用推广。
本发明的保护内容不局限于以上实施例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。

Claims (9)

1.一种基于多穿戴环带传感器的体感检测可视化方法,其特征在于,该方法包括如下步骤:
步骤一:将环带传感器设分别置于人体上肢腕带处和/或下肢腕带处,利用所述环带中的传感器采集人体上肢和/或下肢的运动信号,所述运动信号包括三维加速度信号和三维角速度信号;
步骤二:根据所述运动信号构造每个环带传感器的特征向量;所述特征向量包括人体的初始姿态,初始姿态为人体初始静止状态下的俯仰角、滚动角和偏航角,根据初始姿态计算传感器坐标系与地面坐标系的偏差量,利用偏差量修正环带传感器坐标系并生成变化后的特征向量,特征向量组成特征矩阵;
步骤三:将所述运动信号通过初级KALMAN滤波后进行处理得到人体上肢和/或下肢的方位运动信息,所述方位运动信息用于构造上肢和/或下肢动作特征向量;
步骤四:将环带传感器的运动信号通过无线传输模块生成报文,传送到无线模块接收器;
步骤五:所述无线模块接收器解析报文后,分别连接手机和电脑用户端;
步骤六:所述手机用户端和所述电脑用户端访问云服务器端,下载体态检测可视化程序并加载,用户通过所述手机用户端或所述电脑用户端通过的unity3D读取接口的判据信息、手部的方位运动信息,对用户的身体行为姿态活动特征进行可视化展示,显示体感律动情景。
2.如权利要求1所述的基于多穿戴环带传感器融合的可视化方法,其特征在于,获取人体手部的方位运动信息的过程具体包含如下步骤:
步骤a1:所述传感器采集三轴加速度信号与三轴角速度信号,三轴分别为相互处置的X轴、Y轴与Z轴;
步骤a2:存储所述三轴加速度信号与三轴角速度信号,构造每个环带传感器的特征向量经过初态卡尔曼滤波和二次高斯协方差白噪声矩阵处理,得到人体上肢和/或下肢的方位运动信息;
步骤a3:采集信息后,采集模块根据用户选择的情景选择后处理模块功能及上肢和/或下肢的方位运动信息,从而以LTCP协议用CJSON报文传送到无线模块接收器,传输到分别通过TPYEC接口连接手机、USB3.0接口连接电脑用户端。
3.如权利要求2所述的基于多穿戴环带传感器融合的可视化方法,其特征在于,基于unity3D获取判据信息的过程具体包含如下步骤:
步骤b1:每个环带传感器的所述特征向量经过初态卡尔曼滤波算法滤二次高斯协方差白噪声后,获得用于动态时间规整算法的样本序列;
步骤b2:通过环带传感器三轴加速计对人体加速度进行采样,并把采样获得的加速度信号转换成加速度信号幅值;
步骤b3:环带传感器将处理后的信号通过无线传输模块传输到接收器模块;
步骤b4:根据情景以及unity3D模型结合3DsMax或Maya不同情景封装块,对上肢和/或下肢的方位运动信息、人体行为特征进行情景可视化。
4.如权利要求2所述的基于多穿戴环带传感器融合的可视化方法,其特征在于,对上肢和/或下肢的方位运动信息、人体行为特征进行情景可视化的过程中,基于动态时间归整的ROM等效模糊分群SOM神经元算法获取判据信息,具体包含如下步骤:
步骤c1:记录环带传感器的加速度信号加速度幅值SVM,只记录X和Y轴的幅值趋势,SVM(x)和SVM(y);
步骤c2:使用模糊神分群经元算法将所有环带传感器的数据分成多个群,分别求出其群中心点;
步骤c3:针对每一种情景,求出环带传感器的重心位置;
步骤c4:对所求出其重心位置进行运算处理,得到ROM(i)等效数值;
步骤c5:将所得到的ROM(i)的等效值通过串口传输到手机用户端和电脑用户端。
5.一种环带传感器,其特征在于,包括:传感器模块、控制模块、存储模块、传输模块和接收器模块;其中,
所述传感器模块、所述存储模块、所述传输模块分别和所述控制模块连接,所述传输模块进一步与所述接收器模块连接;
所述接收器模块上设置有TPYEC接口和USB3.0接口;
所述传感器模块为6度传感器,所述6度传感器包含了3度加速度计和3度陀螺仪。
6.一种基于多穿戴环带传感器融合的体感检测可视化系统,其特征在于,包括如权利要求5所述的环带传感器、手机用户端、电脑用户端和云端服务器;其中,所述环带传感器的接收器模块根据用户选择的情景,对数据做循环传输处理,通过TPYEC接口连接手机、USB3.0接口连接电脑用户端;所述电脑客户端和所述手机客户端访问所述云端服务器,实现对情景模式的下载从而对用户传感器进行情景可视化显示。
7.根据权利要求6所述的基于多穿戴环带传感器融合的体感检测可视化系统,其特征在于,所述传感器模块中的3度加速度计和3度陀螺仪,分别用于获得三维加速度信号和三维角速度信号进行初始标定校正,防漂移测准;采集人体运动过程中上肢运动信号;对采集到的运动信号进行去噪声、滤波处理;将采集到的运到信号保存到存储模块中。
8.根据权利要求6所述的基于多穿戴环带传感器融合的体感检测可视化系统,其特征在于,所述环带传感器的传输模块将信息通过LTCP协议传输到所述接收器模块,所述手机用户端和所述电脑用户端通过HTTP协议访问所述云端服务器。
9.根据权利要求6所述的基于多穿戴环带传感器融合的体感检测可视化系统,其特征在于,所述云端服务器采用Nignx+Nodejs+Express+MongoDB架构设计;所述云端服务器端开放多个端口分别用于数据收发及网页应用,根据用户所发起的不同请求进行相应的响应,完成包括与客户端的信息交互、数据存储及利用前端框架实现管理页面显示的功能,所述云端服务器服务器后端采用Nginx+Nodejs+MongoDB的设计。
CN201810012338.7A 2018-01-05 2018-01-05 基于多穿戴环带传感器融合的体感检测可视化方法和系统 Pending CN108245880A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810012338.7A CN108245880A (zh) 2018-01-05 2018-01-05 基于多穿戴环带传感器融合的体感检测可视化方法和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810012338.7A CN108245880A (zh) 2018-01-05 2018-01-05 基于多穿戴环带传感器融合的体感检测可视化方法和系统

Publications (1)

Publication Number Publication Date
CN108245880A true CN108245880A (zh) 2018-07-06

Family

ID=62725764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810012338.7A Pending CN108245880A (zh) 2018-01-05 2018-01-05 基于多穿戴环带传感器融合的体感检测可视化方法和系统

Country Status (1)

Country Link
CN (1) CN108245880A (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110179643A (zh) * 2019-03-21 2019-08-30 华东师范大学 一种基于环带传感器的颈部康复训练系统和训练方法
CN110584898A (zh) * 2019-10-08 2019-12-20 南京邮电大学 一种基于多传感器的脑控轮椅自动避障方法
CN110807471A (zh) * 2019-10-12 2020-02-18 深圳大学 一种多模态传感器的行为识别系统及识别方法
CN111427754A (zh) * 2020-02-28 2020-07-17 北京腾云天下科技有限公司 一种用户行为识别方法及移动终端
CN111504124A (zh) * 2020-04-16 2020-08-07 广州大学 一种可视化射击训练系统、方法、终端设备及存储介质
CN111603750A (zh) * 2020-05-26 2020-09-01 深圳市蝙蝠云科技有限公司 基于边缘计算的动作捕捉识别评估系统及方法
CN111897220A (zh) * 2020-09-01 2020-11-06 北京清立科技有限公司 一种基于神经网络运行模式的工程项目控制方法及控制系统
CN112212916A (zh) * 2020-09-25 2021-01-12 常熟云开智能科技有限公司 一种适用于线下和云端设备状态采集系统
CN112426709A (zh) * 2020-11-24 2021-03-02 深圳金龄互娱科技有限公司 前臂运动姿态识别方法、界面交互的控制方法及装置
CN112773338A (zh) * 2021-01-29 2021-05-11 中山大学 一种监测人体生理信息的牙套及头部运动数据采集方法
CN113344137A (zh) * 2021-07-06 2021-09-03 电子科技大学成都学院 基于som的数据融合方法、装置、存储介质及电子设备
CN113663312A (zh) * 2021-08-16 2021-11-19 东南大学 一种基于微惯性的无器械健身动作质量评估方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070105629A1 (en) * 2005-11-04 2007-05-10 Konami Sports & Life Co., Ltd. Movement-information processing system, terminal unit for use in the system, and battery recharging unit for use with the terminal unit
JP2009112631A (ja) * 2007-11-08 2009-05-28 Koto:Kk ゲームキャラクタ表示制御システム
CN102024179A (zh) * 2010-12-07 2011-04-20 南京邮电大学 一种基于半监督学习的ga-som聚类方法
CN104971495A (zh) * 2014-04-02 2015-10-14 苹果杰克199有限合伙公司 在虚拟环境中表示游戏者的化身的基于传感器的游戏系统
CN106468951A (zh) * 2016-08-29 2017-03-01 华东师范大学 一种基于双手环传感器融合的智能遥感控制系统及其方法
CN107330240A (zh) * 2017-05-22 2017-11-07 华东师范大学 一种基于双手环传感器的智能远程特护监控系统及方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070105629A1 (en) * 2005-11-04 2007-05-10 Konami Sports & Life Co., Ltd. Movement-information processing system, terminal unit for use in the system, and battery recharging unit for use with the terminal unit
JP2009112631A (ja) * 2007-11-08 2009-05-28 Koto:Kk ゲームキャラクタ表示制御システム
CN102024179A (zh) * 2010-12-07 2011-04-20 南京邮电大学 一种基于半监督学习的ga-som聚类方法
CN104971495A (zh) * 2014-04-02 2015-10-14 苹果杰克199有限合伙公司 在虚拟环境中表示游戏者的化身的基于传感器的游戏系统
CN106468951A (zh) * 2016-08-29 2017-03-01 华东师范大学 一种基于双手环传感器融合的智能遥感控制系统及其方法
CN107330240A (zh) * 2017-05-22 2017-11-07 华东师范大学 一种基于双手环传感器的智能远程特护监控系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈洪波,高青,冯涛,朱振朋,刘喻: ""基于足底压力信息的跌倒姿态聚类识别方法"", 《电子技术应用》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110179643A (zh) * 2019-03-21 2019-08-30 华东师范大学 一种基于环带传感器的颈部康复训练系统和训练方法
CN110584898A (zh) * 2019-10-08 2019-12-20 南京邮电大学 一种基于多传感器的脑控轮椅自动避障方法
CN110807471B (zh) * 2019-10-12 2024-02-02 深圳大学 一种多模态传感器的行为识别系统及识别方法
CN110807471A (zh) * 2019-10-12 2020-02-18 深圳大学 一种多模态传感器的行为识别系统及识别方法
CN111427754A (zh) * 2020-02-28 2020-07-17 北京腾云天下科技有限公司 一种用户行为识别方法及移动终端
CN111504124A (zh) * 2020-04-16 2020-08-07 广州大学 一种可视化射击训练系统、方法、终端设备及存储介质
CN111603750A (zh) * 2020-05-26 2020-09-01 深圳市蝙蝠云科技有限公司 基于边缘计算的动作捕捉识别评估系统及方法
CN111897220A (zh) * 2020-09-01 2020-11-06 北京清立科技有限公司 一种基于神经网络运行模式的工程项目控制方法及控制系统
CN112212916A (zh) * 2020-09-25 2021-01-12 常熟云开智能科技有限公司 一种适用于线下和云端设备状态采集系统
CN112426709A (zh) * 2020-11-24 2021-03-02 深圳金龄互娱科技有限公司 前臂运动姿态识别方法、界面交互的控制方法及装置
CN112773338A (zh) * 2021-01-29 2021-05-11 中山大学 一种监测人体生理信息的牙套及头部运动数据采集方法
CN113344137A (zh) * 2021-07-06 2021-09-03 电子科技大学成都学院 基于som的数据融合方法、装置、存储介质及电子设备
CN113663312A (zh) * 2021-08-16 2021-11-19 东南大学 一种基于微惯性的无器械健身动作质量评估方法
CN113663312B (zh) * 2021-08-16 2022-05-13 东南大学 一种基于微惯性的无器械健身动作质量评估方法

Similar Documents

Publication Publication Date Title
CN108245880A (zh) 基于多穿戴环带传感器融合的体感检测可视化方法和系统
CN102707305B (zh) 摔倒检测定位系统的工作方法
US8812260B2 (en) Methods and systems for geo-location optimized tracking and updating for events having combined activity and location information
CN103761083B (zh) 一种数据分享方法、装置及终端
US9795323B2 (en) Methods and systems for generation and rendering interactive events having combined activity and location information
US9730025B2 (en) Calendar integration methods and systems for presentation of events having combined activity and location information
CN102184549B (zh) 一种运动参数确定方法、装置和运动辅助设备
CN103884337A (zh) 多姿态步距校正定位系统与方法
CN105359054B (zh) 在空间中对设备进行定位和取向
CN109579853A (zh) 基于bp神经网络的惯性导航室内定位方法
CN103729281B (zh) 应用程序使用信息采集方法及移动终端
CN107330240A (zh) 一种基于双手环传感器的智能远程特护监控系统及方法
CN107754225A (zh) 一种智能健身教练系统
CN108703760A (zh) 基于九轴传感器的人体运动姿态识别系统及方法
CN104436596A (zh) 运动支持装置及运动支持方法
CN104091053B (zh) 用于自动检测行为模式的方法和设备
CN105492868B (zh) 用于可靠运动分类的半步频率特性
KR102089002B1 (ko) 행동에 대한 피드백을 제공하는 웨어러블 디바이스 및 방법
CN106468951A (zh) 一种基于双手环传感器融合的智能遥感控制系统及其方法
CN107766930A (zh) 基于dtw群集模糊分群som神经元的等效rom距离计算方法
CN110169774A (zh) 一种基于区块链的运动状态识别系统及方法
CN108827290A (zh) 一种人体运动状态反演装置及方法
CN104056442A (zh) 一种实现健身设备智能化的方法、装置和系统
Chen et al. [Retracted] Impact of Sports Wearable Testing Equipment Based on Vision Sensors on the Sports Industry
CN104519123B (zh) 用于使活动跟踪设备与计算设备数据同步的方法、系统和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20180706