CN105549746B - 一种基于加速度传感芯片的动作识别方法 - Google Patents

一种基于加速度传感芯片的动作识别方法 Download PDF

Info

Publication number
CN105549746B
CN105549746B CN201610061443.0A CN201610061443A CN105549746B CN 105549746 B CN105549746 B CN 105549746B CN 201610061443 A CN201610061443 A CN 201610061443A CN 105549746 B CN105549746 B CN 105549746B
Authority
CN
China
Prior art keywords
acceleration
active
array
action
acceleration information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610061443.0A
Other languages
English (en)
Other versions
CN105549746A (zh
Inventor
吴远豪
杨东岳
林鹏
余海鹏
夏尧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuxi Tanggu Semiconductor Co ltd
Original Assignee
Guangzhou Intelligent Wave Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Intelligent Wave Co Ltd filed Critical Guangzhou Intelligent Wave Co Ltd
Priority to CN201610061443.0A priority Critical patent/CN105549746B/zh
Publication of CN105549746A publication Critical patent/CN105549746A/zh
Application granted granted Critical
Publication of CN105549746B publication Critical patent/CN105549746B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种基于加速度传感芯片的动作识别方法,应用于六轴加速度传感器,包括以下步骤:计算减去重力后的加速度数据;获取一个连贯动作中的所有加速度数据,依次根据每个加速度数据计算对应的夹角数据;将夹角数据依次存储至数组active中;对数组active进行降维处理,得到数组hp_active;对数组hp_active进行dbscan算法处理,再进行K‑means算法处理,得到若干个动作聚类;分别计算数组hp_active与每个动作聚类的中心的欧氏距离;获取最短的欧氏距离所对应的动作聚类。本发明实现单一传感器识别用户的手势动作,计算出绝对的方向向量,准确判断用户手势。

Description

一种基于加速度传感芯片的动作识别方法
技术领域
本发明涉及一种基于加速度传感芯片的动作识别方法。
背景技术
目前市面对动作传感,动作识别的技术普遍使用图形图像识别方法,需要采用摄像头,对使用者进行观察,识别出使用者每一帧图像中的肢体变动,判断使用者的动作;
该实现方法具有精度高,响应快,适用性强一些列有点,例如目前最为广泛使用的体感类游戏机;但该方案同样具有一些缺点:必须使用摄像头进行图像获取,且被观察对象需要距离摄像头一个合适的距离,一般情况下,只能在室内使用,而且摄像头需要固定在一个位置,因此使用的范围极为有限,对空间的要求很高。
发明内容
为了克服现有技术的不足,本发明的目的在于提供一种基于加速度传感芯片的动作识别方法,实现单一传感器识别用户的手势动作,计算出绝对的方向向量,准确判断用户手势。
为解决上述问题,本发明所采用的技术方案如下:
一种基于加速度传感芯片的动作识别方法,应用于六轴加速度传感器,包括以下步骤:
S1、计算减去重力后的加速度数据,加速度数据包括ax、ay和az;
S2、获取一个连贯动作中的所有加速度数据,依次根据每个加速度数据计算对应的夹角数据,夹角数据包括αx、αy和αz;其中,αx为加速度向量与现实空间的X轴夹角,αy为加速度向量与现实空间的Y轴夹角,αz为加速度向量与现实空间的Z轴夹角;
S3、将夹角数据依次存储至数组active中,判断数组active的长度是否在预设的长度区间内,若是,则执行S4,若否,则返回步骤S1;
S4、对数组active进行降维处理,得到数组hp_active;
S5、对数组hp_active进行dbscan算法处理,再进行K-means算法处理,得到若干个动作聚类;
S6、分别计算数组hp_active与每个动作聚类的中心的欧氏距离;
S7、获取最短的欧氏距离所对应的动作聚类,该对应的动作聚类为目标动作聚类。
优选的,步骤S1中,计算减去重力后的加速度数据的步骤包括:
S11、从六轴加速度传感器中分别获取X、Y、Z轴上的加速度,记为Ax、Ay、Az,以及获取四元数q[0]、q[1]、q[2]、q[3];
S12、根据四元数转换公式分别计算重力在X、Y、Z轴上的分力G[0]、G[1]、G[2],其中,G[0]=((q[1]*q[3]-q[0]*q[2]))/16384,G[1]=((q[0]*q[1]+q[2]*q[3]))/16384,G[2]=(q[0]*q[0]-q[1]*q[1]-q[2]*q[2]+q[3]*q[3])/32768;
S13、计算加速度数据ax、ay和az,其中,ax=Ax-G[0],ay=Ay-G[1],az=Az-G[2]。
优选的,在步骤S2中,判断一个连贯动作的条件为:
获取的加速度数据中,若ax大于阈值f1,ay大于阈值f2,且az大于阈值f3,则将该次获取的加速度数据记为连贯动作的开始;
在获取连贯动作中的加速度数据时,若连续三次获取到的ax的绝对值小于阈值f4,ay的绝对值小于阈值f5,且az的绝对值小于阈值f6,则将最后一次获取到的加速度数据记为连贯动作的结束。
优选的,在步骤S2中,利用点积公式计算每个加速度数据对应的夹角数据。
优选的,在步骤S4中,降维处理包括以下步骤:
S41、对数组active进行haar小波变换处理,得到数组haar_active;
S42、对数组haar_active进行PCA处理,得到数组hp_active。
优选的,在步骤S6中还包括,判断最短的欧氏距离是否小于预设的欧氏距离阈值,若是,则执行步骤S7,若否,则返回步骤S1。
相比现有技术,本发明的有益效果在于:只需要通过单一的六轴加速度传感器即可识别出用户的手势动作,而且能够计算出用户在现实空间中的动作方向,更加准确地识别出用户的手势动作,避免了传感器的位置对用户的动作判断产生影响。
附图说明
图1为本发明的基于加速度传感芯片的动作识别方法流程图。
具体实施方式
下面,结合附图以及具体实施方式,对本发明做进一步描述:
参考图1,一种基于加速度传感芯片的动作识别方法,应用于六轴加速度传感器,包括以下步骤:
S1、计算减去重力后的加速度数据,加速度数据包括ax、ay和az。其中,计算减去重力后的加速度数据的步骤包括:
S11、从六轴加速度传感器中分别获取X、Y、Z轴上的加速度,记为Ax、Ay、Az,以及获取四元数q[0]、q[1]、q[2]、q[3]。
S12、根据四元数转换公式分别计算重力在X、Y、Z轴上的分力G[0]、G[1]、G[2],其中,G[0]=((q[1]*q[3]-q[0]*q[2]))/16384,G[1]=((q[0]*q[1]+q[2]*q[3]))/16384,G[2]=(q[0]*q[0]-q[1]*q[1]-q[2]*q[2]+q[3]*q[3])/32768。
S13、计算加速度数据ax、ay和az,其中,ax=Ax-G[0],ay=Ay-G[1],az=Az-G[2]。
其中,在步骤S11和S12中所述的X、Y、Z轴是指六轴加速度传感器中设定的X、Y、Z轴。计算得到的加速度数据是指三轴减去了重力在各个轴上的分力得到的加速度。
S2、获取一个连贯动作中的所有加速度数据,依次根据每个加速度数据计算对应的夹角数据,夹角数据包括αx、αy和αz;其中,αx为加速度向量与现实空间的X轴夹角,αy为加速度向量与现实空间的Y轴夹角,αz为加速度向量与现实空间的Z轴夹角。
其中,判断一个连贯动作的条件为:
获取的加速度数据中,若ax大于阈值f1,ay大于阈值f2,且az大于阈值f3,则将该次获取的加速度数据记为连贯动作的开始;
在获取连贯动作中的加速度数据时,若连续三次获取到的ax的绝对值小于阈值f4,ay的绝对值小于阈值f5,且az的绝对值小于阈值f6,则将最后一次获取到的加速度数据记为连贯动作的结束。
上述的阈值f1、f2、f3、f4、f5和f6均为根据实验经验所预设的值。根据上述的连贯动作判断条件可以获取到一个连贯动作中的所有加速度数据,然后就针对每个加速度数据结合点积公式计算对应的夹角数据,利用点积公式计算夹角的计算方法为现有技术,在此不做赘述。需要说明的是,计算出来的夹角数据,即αx、αy和αz分别为加速度与现实空间对应的轴的夹角,也就是可以得到用户施加的力在现实空间的绝对方向。
S3、将夹角数据依次存储至数组active中,判断数组active的长度是否在预设的长度区间内,若是,则执行S4,若否,则返回步骤S1。
其中,获取的夹角数据按顺序存储至数组active中,例如,加速度传感器一般每0.01秒会采集一次加速度数据,也就是每0.01秒得到一次夹角数据,用户的一次手部连贯动作一般是0.3-0.9秒,一次数组active中有30-90个夹角数据,每个夹角数据中都包括αx、αy和αz。此时需要判断数组active的长度,若数组active在预设的长度区间内就表示该数组active中的数据为有效动作数据,否则为无效动作,继续监听获取传感器的数据。
S4、对数组active进行降维处理,得到数组hp_active。
其中,由于得到的数组active中的数据长度一般为30-90,若对原始数据进行特征提取以及聚类、匹配的话,数据量太大,需要较强的处理能力,而且每次动作不可能完全一致,采集的数据存在大量噪声,因此需进行数据降维处理。降维处理包括以下步骤:
S41、对数组active进行haar小波变换处理,得到数组haar_active;
S42、对数组haar_active进行PCA处理,得到数组hp_active。
以上的haar小波变换处理和PCA处理均为现有的处理算法。
S5、对数组hp_active进行dbscan算法处理,再进行K-means算法处理,得到若干个动作聚类。
其中,对数组hp_active进行dbscan算法处理的优点是:可设置训练样本存在的最少类别进行聚类,dbscan与实际的使用场景类似,用户在使用过程中,可能存在一些误操作,此类误操作,若一同进行聚类,将会造成样本噪声,降低准确度,而经过dbscan聚类后,可聚合相似特征的样本,以及区分出无效噪声。进行了dbscan算法处理后,再进行K-means算法处理,进一步优化和区分聚类数据。另外,在本发明中,每个动作聚类仅是代表不同的简单连贯动作,简单连贯动作是指不间断不停顿的动作,例如,不同的动作聚类分别代表往某一方向上所作出的直线或者弧线动作。因此,本发明的方法是针对简单连贯动作的识别。
S6、分别计算数组hp_active与每个动作聚类的中心的欧氏距离,然后判断最短的欧氏距离是否小于预设的欧氏距离阈值,若是,则执行步骤S7,若否,则返回步骤S1。
其中,计算欧氏距离实质上是计算数组hp_active所在的坐标点与每个动作聚类的中心的坐标点之间的距离,而数组hp_active的坐标点和聚类的中心坐标点的计算均为现有技术。
S7、获取最短的欧氏距离所对应的动作聚类,该对应的动作聚类为目标动作聚类。其中,得到的欧氏距离越小,就代表该数组hp_active代表的动作与该欧氏距离对应的动作聚类越相似,因此若最小的欧氏距离所对应的动作聚类就代表用户的动作。当然,最小的欧氏距离也要满足步骤S6中的小于预设的欧氏距离阈值,设置预设的欧氏距离阈值可以进一步排除无效的动作。
本发明的动作识别方法的优点在于:只需要通过单一的六轴加速度传感器即可识别出用户的手势动作,而且能够计算出用户在现实空间中的动作方向,更加准确地识别出用户的手势动作,避免了传感器的位置对用户的动作判断产生影响。
对本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及形变,而所有的这些改变以及形变都应该属于本发明权利要求的保护范围之内。

Claims (3)

1.一种基于加速度传感芯片的动作识别方法,其特征在于,应用于六轴加速度传感器,包括以下步骤:
S1、计算减去重力后的加速度数据,加速度数据包括ax、ay和az;
S2、获取一个连贯动作中的所有加速度数据,依次根据每个加速度数据计算对应的夹角数据,夹角数据包括αx、αy和αz;其中,αx为加速度向量与现实空间的X轴夹角,αy为加速度向量与现实空间的Y轴夹角,αz为加速度向量与现实空间的Z轴夹角;
S3、将夹角数据依次存储至数组active中,判断数组active的长度是否在预设的长度区间内,若是,则执行S4,若否,则返回步骤S1;
S4、对数组active进行降维处理,得到数组hp_active;
S5、对数组hp_active进行dbscan算法处理,再进行K-means算法处理,得到若干个动作聚类;
S6、分别计算数组hp_active与每个动作聚类的中心的欧氏距离;
S7、获取最短的欧氏距离所对应的动作聚类,该对应的动作聚类为目标动作聚类;
步骤S1中,计算减去重力后的加速度数据的步骤包括:
S11、从六轴加速度传感器中分别获取X、Y、Z轴上的加速度,记为Ax、Ay、Az,以及获取四元数q[0]、q[1]、q[2]、q[3];
S12、根据四元数转换公式分别计算重力在X、Y、Z轴上的分力G[0]、G[1]、G[2],其中,G[0]=(q[1]*q[3]-q[0]*q[2])/16384,G[1]=(q[0]*q[1]+q[2]*q[3])/16384,G[2]=(q[0]*q[0]-q[1]*q[1]-q[2]*q[2]+q[3]*q[3])/32768;
S13、计算加速度数据ax、ay和az,其中,ax=Ax-G[0],ay=Ay-G[1],az=Az-G[2];
在步骤S2中,判断一个连贯动作的条件为:
获取的加速度数据中,若ax大于阈值f1,ay大于阈值f2,且az大于阈值f3,则将该次获取的加速度数据记为连贯动作的开始;
在获取连贯动作中的加速度数据时,若连续三次获取到的ax的绝对值小于阈值f4,ay的绝对值小于阈值f5,且az的绝对值小于阈值f6,则将最后一次获取到的加速度数据记为连贯动作的结束;
在步骤S4中,降维处理包括以下步骤:
S41、对数组active进行haar小波变换处理,得到数组haar_active;
S42、对数组haar_active进行PCA处理,得到数组hp_active。
2.根据权利要求1所述的基于加速度传感芯片的动作识别方法,其特征在于,在步骤S2中,利用点积公式计算每个加速度数据对应的夹角数据。
3.根据权利要求1所述的基于加速度传感芯片的动作识别方法,其特征在于,在步骤S6中还包括,判断最短的欧氏距离是否小于预设的欧氏距离阈值,若是,则执行步骤S7,若否,则返回步骤S1。
CN201610061443.0A 2016-01-28 2016-01-28 一种基于加速度传感芯片的动作识别方法 Active CN105549746B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610061443.0A CN105549746B (zh) 2016-01-28 2016-01-28 一种基于加速度传感芯片的动作识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610061443.0A CN105549746B (zh) 2016-01-28 2016-01-28 一种基于加速度传感芯片的动作识别方法

Publications (2)

Publication Number Publication Date
CN105549746A CN105549746A (zh) 2016-05-04
CN105549746B true CN105549746B (zh) 2018-10-30

Family

ID=55828971

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610061443.0A Active CN105549746B (zh) 2016-01-28 2016-01-28 一种基于加速度传感芯片的动作识别方法

Country Status (1)

Country Link
CN (1) CN105549746B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109738860A (zh) * 2018-11-23 2019-05-10 青岛小鸟看看科技有限公司 外接设备的定位方法及装置、虚拟现实头戴设备及系统

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107493371B (zh) * 2016-06-13 2020-12-29 中兴通讯股份有限公司 一种终端的运动特征的识别方法、装置及终端
CN106372673A (zh) * 2016-09-06 2017-02-01 深圳市民展科技开发有限公司 一种装置动作识别方法
CN106598234B (zh) * 2016-11-28 2019-05-28 电子科技大学 基于惯性传感的手势识别方法
CN107506749A (zh) * 2017-09-12 2017-12-22 广东技术师范学院 一种手语识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853380A (zh) * 2010-06-18 2010-10-06 华南理工大学 一种基于加速度传感器的手势识别的旋转特征提取方法
CN102184549A (zh) * 2011-04-29 2011-09-14 韩铮 一种运动参数确定方法、装置和运动辅助设备
CN104731307A (zh) * 2013-12-20 2015-06-24 孙伯元 一种体感动作识别方法及人机交互装置
CN104866099A (zh) * 2015-05-27 2015-08-26 东南大学 基于运动传感器提高智能设备手势识别精度的误差补偿方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120254809A1 (en) * 2011-03-31 2012-10-04 Nokia Corporation Method and apparatus for motion gesture recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853380A (zh) * 2010-06-18 2010-10-06 华南理工大学 一种基于加速度传感器的手势识别的旋转特征提取方法
CN102184549A (zh) * 2011-04-29 2011-09-14 韩铮 一种运动参数确定方法、装置和运动辅助设备
CN104731307A (zh) * 2013-12-20 2015-06-24 孙伯元 一种体感动作识别方法及人机交互装置
CN104866099A (zh) * 2015-05-27 2015-08-26 东南大学 基于运动传感器提高智能设备手势识别精度的误差补偿方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109738860A (zh) * 2018-11-23 2019-05-10 青岛小鸟看看科技有限公司 外接设备的定位方法及装置、虚拟现实头戴设备及系统
CN109738860B (zh) * 2018-11-23 2020-09-08 青岛小鸟看看科技有限公司 外接设备的定位方法及装置、虚拟现实头戴设备及系统

Also Published As

Publication number Publication date
CN105549746A (zh) 2016-05-04

Similar Documents

Publication Publication Date Title
CN105549746B (zh) 一种基于加速度传感芯片的动作识别方法
JP4459137B2 (ja) 画像処理装置及びその方法
CN105740781B (zh) 一种三维人脸活体检测的方法和装置
JP5159950B2 (ja) 画像処理装置、方法、プログラム
JP2017016192A (ja) 立体物検知装置及び立体物認証装置
CN104731307B (zh) 一种体感动作识别方法及人机交互装置
KR20120048370A (ko) 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법
WO2006030065A1 (en) Recognition of live object in motion
Jensen et al. Classification of kinematic swimming data with emphasis on resource consumption
US10740589B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
CN111860101B (zh) 一种人脸关键点检测模型的训练方法及装置
KR20150127381A (ko) 얼굴 특징점 추출 방법 및 이를 수행하는 장치
CN105518717B (zh) 一种人脸识别方法和装置
US20150023606A1 (en) Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program
CN108614987A (zh) 数据处理的方法、装置和机器人
US10740590B2 (en) Skin information processing method, skin information processing device, and non-transitory computer-readable medium
Kavita et al. A contemporary survey of unimodal liveness detection techniques: Challenges & opportunities
Kekre et al. Dynamic signature pre-processing by modified digital difference analyzer algorithm
CN108563939B (zh) 基于步态轨迹曲线特征的人体身份识别
CN112766097A (zh) 视线识别模型的训练方法、视线识别方法、装置及设备
JP6003367B2 (ja) 画像認識装置、画像認識方法および画像認識プログラム
CN105024817B (zh) 一种身份认证方法及装置
CN111580660A (zh) 一种操作触发方法、装置、设备及可读存储介质
Leyva et al. Accelerometer dense trajectories for activity recognition and people identification
KR101972231B1 (ko) 딥러닝을 이용한 서명 인증 장치 및 방법

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190925

Address after: 314000 Floor 1, Building No. 18, East Century Road, Huimin Street, Jiashan County, Jiaxing City, Zhejiang Province

Patentee after: Zhejiang Hanguang Display Technology Co.,Ltd.

Address before: 510000, room 5, 463 Dongming Avenue, Huangcun village, Guangzhou, Guangdong, Tianhe District

Patentee before: GUANGZHOU INTELLIGENT WAVE Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200911

Address after: Unit 4-a404, creative industry park, No. 328, Xinghu street, Suzhou Industrial Park, Suzhou, Jiangsu Province

Patentee after: Suzhou Tanggu Photoelectric Technology Co.,Ltd.

Address before: 314000 Floor 1, Building No. 18, East Century Road, Huimin Street, Jiashan County, Jiaxing City, Zhejiang Province

Patentee before: Zhejiang Hanguang Display Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230802

Address after: 204-11, Conference Center, Wuxi IoT Industrial Base, Zhongdian Haikang, No. 78 Jinghui East Road, Xinwu District, Wuxi City, Jiangsu Province, 214028

Patentee after: Wuxi Tanggu Semiconductor Co.,Ltd.

Address before: 215021 unit 4-a404, creative industry park, 328 Xinghu street, Suzhou Industrial Park, Suzhou City, Jiangsu Province

Patentee before: Suzhou Tanggu Photoelectric Technology Co.,Ltd.

TR01 Transfer of patent right