CN105046281A - 一种基于Kinect的人体行为检测方法 - Google Patents
一种基于Kinect的人体行为检测方法 Download PDFInfo
- Publication number
- CN105046281A CN105046281A CN201510502314.6A CN201510502314A CN105046281A CN 105046281 A CN105046281 A CN 105046281A CN 201510502314 A CN201510502314 A CN 201510502314A CN 105046281 A CN105046281 A CN 105046281A
- Authority
- CN
- China
- Prior art keywords
- human body
- kinect
- bone node
- relative distance
- test sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于Kinect的人体行为检测方法,包括:采用Kinect体感设备捕捉待测人体姿态下的各个骨骼节点的坐标数据,得到测试样本;计算测试样本各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为测试样本的特征向量;将测试样本的特征向量输入训练完成的人体姿态分类器,识别得到待测人体姿态的类别。本发明采用Kinect体感设备对人体姿态进行实时捕捉,与传统的对摄像头捕捉的视频图像进行分析相比,较少受外部环境的影响,检测结果更加准确。
Description
技术领域
本发明涉及智能家庭监控技术领域,具体是一种基于Kinect的人体行为检测方法。
背景技术
随着近年智能家庭监控的飞速发展,越来越多的人通过智能化的产品提高生活体验。人体行为检测是智能家庭监控的一个重要组成部分,传统的检测方法是用摄像头来捕捉图像并分析,但是从实际使用来说,这种视频分析效果受干扰非常大,并且只能通过人体的轮廓来判断人体的姿态,准确度不高。
微软公司推出了一款名为Kinect的产品,这款产品提供了实时表示人体姿态的方法,也能捕捉人体全身上下的动作,并用三维链式骨骼的形式对检测到的人体姿态进行表示,可以准确表达人体的头、手、腰、腿等关节处节点的位置。
发明内容
本发明的目的在于提供一种检测结果更加准确的基于Kinect的人体行为检测方法。
本发明的技术方案为:
一种基于Kinect的人体行为检测方法,该方法包括以下步骤:
(1)采用Kinect体感设备捕捉待测人体姿态下的各个骨骼节点的坐标数据,得到测试样本;
(2)计算测试样本各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为测试样本的特征向量;
(3)将测试样本的特征向量输入训练完成的人体姿态分类器,识别得到待测人体姿态的类别。
所述的基于Kinect的人体行为检测方法,步骤(2)中,所述计算测试样本各个骨骼节点两两之间的相对距离,采用以下公式:
其中,dij表示第i个骨骼节点与第j个骨骼节点之间的相对距离,(xi,yi,zi)表示第i个骨骼节点的坐标,(xj,yj,zj)表示第j个骨骼节点的坐标。
所述的基于Kinect的人体行为检测方法,步骤(3)中,所述人体姿态分类器的获得,包括:
a、采用Kinect体感设备采集各种预设人体姿态下的各个骨骼节点的坐标数据,得到若干训练样本;
b、对每一个训练样本,计算各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为该训练样本的特征向量;
c、将所有训练样本的特征向量输入SVM分类器进行训练,得到人体姿态分类器。
由上述技术方案可知,本发明采用Kinect体感设备对人体姿态进行实时捕捉,与传统的对摄像头捕捉的视频图像进行分析相比,较少受外部环境的影响,检测结果更加准确。
附图说明
图1是本发明的方法流程图;
图2是人体骨骼节点示意图;
图3是数据采集示意图一;
图4是数据采集示意图二。
具体实施方式
下面结合附图和具体实施例进一步说明本发明。
如图1所示,一种基于Kinect的人体行为检测方法,包括:
S1、采用Kinect体感设备采集各种预设人体姿态下的各个骨骼节点的坐标数据,得到若干训练样本;
如图2所示,人体骨骼节点共有20个,通过这些骨骼节点的相互位置关系,可以判断人体姿态。
如图3、图4所示,采集数据时,需要不同的实验者来重复做需要检测的动作姿态,比如坐姿(包括正坐、跷二郎腿等坐姿)、站立、举手、弯腰等动作,采用Kinect体感设备提取各种姿态下的各个骨骼节点的坐标数据(所有动作如果有不同姿态需要分开采集数据,比如正坐和跷二郎腿都属于坐姿,但需要分开采集数据)。
让多个实验者按照预定动作进行演示,如可以选实验者50人,每个人做8组动作,每组动作都按设定的姿态做一遍,这样每组动作都有50组数据。也可以只用上半身的骨骼节点展示简单的动作,如图4中右边的坐姿男生所示。实验者越多越好,少量的数据也可以使用,多的话实验结果更加精准。
S2、对每一个训练样本,采用以下公式计算20个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为该训练样本的特征向量;
其中,dij表示第i个骨骼节点与第j个骨骼节点之间的相对距离,(xi,yi,zi)表示第i个骨骼节点的坐标,(xj,yj,zj)表示第j个骨骼节点的坐标。
S3、将所有训练样本的特征向量输入SVM分类器进行训练,得到人体姿态分类器。
S4、采用Kinect体感设备捕捉待测人体姿态下的各个骨骼节点的坐标数据,得到测试样本。
S5、计算测试样本各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为测试样本的特征向量。
S6、将测试样本的特征向量输入训练完成的人体姿态分类器,识别得到待测人体姿态的类别。
本发明通过Kinect体感设备获取使用者的人体骨骼节点坐标数据,通过训练完成的人体姿态分类器预测使用者的姿态,可以用来智能控制家电或家居,也可以用来对使用者的状态进行统计分析以给使用者提供相应的健康建议。本发明针对家庭智能监控提出了一种全新的解决方案,具有很高的实用价值。
以上所述实施方式仅仅是对本发明的优选实施方式进行描述,并非对本发明的范围进行限定,在不脱离本发明设计精神的前提下,本领域普通技术人员对本发明的技术方案作出的各种变形和改进,均应落入本发明的权利要求书确定的保护范围内。
Claims (3)
1.一种基于Kinect的人体行为检测方法,其特征在于,该方法包括以下步骤:
(1)采用Kinect体感设备捕捉待测人体姿态下的各个骨骼节点的坐标数据,得到测试样本;
(2)计算测试样本各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为测试样本的特征向量;
(3)将测试样本的特征向量输入训练完成的人体姿态分类器,识别得到待测人体姿态的类别。
2.根据权利要求1所述的基于Kinect的人体行为检测方法,其特征在于,步骤(2)中,所述计算测试样本各个骨骼节点两两之间的相对距离,采用以下公式:
其中,dij表示第i个骨骼节点与第j个骨骼节点之间的相对距离,(xi,yi,zi)表示第i个骨骼节点的坐标,(xj,yj,zj)表示第j个骨骼节点的坐标。
3.根据权利要求1所述的基于Kinect的人体行为检测方法,其特征在于,步骤(3)中,所述人体姿态分类器的获得,包括:
a、采用Kinect体感设备采集各种预设人体姿态下的各个骨骼节点的坐标数据,得到若干训练样本;
b、对每一个训练样本,计算各个骨骼节点两两之间的相对距离,将得到的相对距离的集合作为该训练样本的特征向量;
c、将所有训练样本的特征向量输入SVM分类器进行训练,得到人体姿态分类器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510502314.6A CN105046281A (zh) | 2015-08-14 | 2015-08-14 | 一种基于Kinect的人体行为检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510502314.6A CN105046281A (zh) | 2015-08-14 | 2015-08-14 | 一种基于Kinect的人体行为检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105046281A true CN105046281A (zh) | 2015-11-11 |
Family
ID=54452810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510502314.6A Pending CN105046281A (zh) | 2015-08-14 | 2015-08-14 | 一种基于Kinect的人体行为检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105046281A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106856063A (zh) * | 2015-12-09 | 2017-06-16 | 朱森 | 一种新型教学平台 |
CN106951071A (zh) * | 2017-03-01 | 2017-07-14 | 海尔优家智能科技(北京)有限公司 | 一种基于动作捕捉的设备控制方法和装置 |
CN107153829A (zh) * | 2017-06-09 | 2017-09-12 | 南昌大学 | 基于深度图像的不良坐姿提醒方法和装置 |
CN108701398A (zh) * | 2016-07-04 | 2018-10-23 | 唯达模型有限公司 | 警觉装置和设备 |
CN109214292A (zh) * | 2018-08-06 | 2019-01-15 | 广东技术师范学院 | 一种基于bp神经网络的人体屈体角度识别方法及设备 |
CN110321780A (zh) * | 2019-04-30 | 2019-10-11 | 苏州大学 | 基于时空运动特性的异常摔倒行为检测方法 |
CN111274854A (zh) * | 2018-12-05 | 2020-06-12 | 北京悉见科技有限公司 | 一种人体动作识别方法和视觉增强处理系统 |
-
2015
- 2015-08-14 CN CN201510502314.6A patent/CN105046281A/zh active Pending
Non-Patent Citations (1)
Title |
---|
张丹等: "基于Kinect骨骼预定义的体态识别算法", 《计算机应用》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106856063A (zh) * | 2015-12-09 | 2017-06-16 | 朱森 | 一种新型教学平台 |
CN105608467A (zh) * | 2015-12-16 | 2016-05-25 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN105608467B (zh) * | 2015-12-16 | 2019-03-22 | 西北工业大学 | 基于Kinect的无接触式学生体质测评方法 |
CN106022213A (zh) * | 2016-05-04 | 2016-10-12 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN106022213B (zh) * | 2016-05-04 | 2019-06-07 | 北方工业大学 | 一种基于三维骨骼信息的人体动作识别方法 |
CN108701398A (zh) * | 2016-07-04 | 2018-10-23 | 唯达模型有限公司 | 警觉装置和设备 |
CN106951071B (zh) * | 2017-03-01 | 2020-09-01 | 海尔优家智能科技(北京)有限公司 | 一种基于动作捕捉的设备控制方法和装置 |
CN106951071A (zh) * | 2017-03-01 | 2017-07-14 | 海尔优家智能科技(北京)有限公司 | 一种基于动作捕捉的设备控制方法和装置 |
CN107153829A (zh) * | 2017-06-09 | 2017-09-12 | 南昌大学 | 基于深度图像的不良坐姿提醒方法和装置 |
CN109214292A (zh) * | 2018-08-06 | 2019-01-15 | 广东技术师范学院 | 一种基于bp神经网络的人体屈体角度识别方法及设备 |
CN111274854A (zh) * | 2018-12-05 | 2020-06-12 | 北京悉见科技有限公司 | 一种人体动作识别方法和视觉增强处理系统 |
CN111274854B (zh) * | 2018-12-05 | 2023-11-03 | 北京悉见科技有限公司 | 一种人体动作识别方法和视觉增强处理系统 |
CN110321780A (zh) * | 2019-04-30 | 2019-10-11 | 苏州大学 | 基于时空运动特性的异常摔倒行为检测方法 |
CN110321780B (zh) * | 2019-04-30 | 2022-05-17 | 苏州大学 | 基于时空运动特性的异常摔倒行为检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105046281A (zh) | 一种基于Kinect的人体行为检测方法 | |
CN111368810B (zh) | 基于人体及骨骼关键点识别的仰卧起坐检测系统及方法 | |
CN109815907B (zh) | 一种基于计算机视觉技术的仰卧起坐姿态检测与指导方法 | |
Agrawal et al. | Implementation of machine learning technique for identification of yoga poses | |
CN105608467B (zh) | 基于Kinect的无接触式学生体质测评方法 | |
CN109726672B (zh) | 一种基于人体骨架序列和卷积神经网络的摔倒检测方法 | |
CN107007263B (zh) | 一种普适化的睡眠质量测评方法和系统 | |
CN109409348A (zh) | 一种用户体征的确定方法、装置、设备和存储介质 | |
CN110490080A (zh) | 一种基于图像的人体跌倒判别方法 | |
WO2017161734A1 (zh) | 通过电视和体感配件矫正人体动作及系统 | |
CN109344790A (zh) | 一种基于姿态分析的人体行为分析方法及系统 | |
CN104473648A (zh) | 一种结合生理参数监测的人体摔倒预警和检测方法 | |
Goyal et al. | Yoga pose perfection using deep learning: An algorithm to estimate the error in yogic poses | |
CN103310191B (zh) | 运动信息图像化的人体动作识别方法 | |
CN115568823A (zh) | 一种人体平衡能力评估的方法、系统和装置 | |
Barnes et al. | Objective profiling of varied human motion based on normative assessment of magnetometer time series data | |
CN113255623B (zh) | 一种智能识别俯卧撑动作姿态完成状况的系统和方法 | |
Connolly et al. | A new method to determine joint range of movement and stiffness in rheumatoid arthritic patients | |
Blythman et al. | Assessment of deep learning pose estimates for sports collision tracking | |
Lafayette et al. | Hybrid solution for motion capture with kinect v2 to different biotypes recognition | |
Chang et al. | iFitness: A Deep Learning-Based Physical Fitness Motion Detection System for Elderly People | |
He et al. | Static hand posture classification based on the biceps brachii muscle synergy features | |
Karungaru | Human action recognition using wearable sensors and neural networks | |
Otsuka et al. | Validity of block start performance without arm forces or by kinematics-only methods | |
Veer et al. | Extraction and Analysis of above elbow SEMG for Pattern classification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: 230088, 12 Dream Garden Road, hi tech Zone, Anhui, Hefei Applicant after: ANHUI CREARO TECHNOLOGY CO., LTD. Address before: 230088, 12 Dream Garden Road, hi tech Zone, Anhui, Hefei Applicant before: Anhui Crearo Technology Co., Ltd. |
|
COR | Change of bibliographic data | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20151111 |