CN112633411A - 坐姿检测装置及坐姿检测方法 - Google Patents
坐姿检测装置及坐姿检测方法 Download PDFInfo
- Publication number
- CN112633411A CN112633411A CN202110001649.5A CN202110001649A CN112633411A CN 112633411 A CN112633411 A CN 112633411A CN 202110001649 A CN202110001649 A CN 202110001649A CN 112633411 A CN112633411 A CN 112633411A
- Authority
- CN
- China
- Prior art keywords
- sitting posture
- user
- posture
- sitting
- detection area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 168
- 230000036544 posture Effects 0.000 claims description 391
- 239000011159 matrix material Substances 0.000 claims description 61
- 238000012549 training Methods 0.000 claims description 60
- 230000006698 induction Effects 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 34
- 238000010801 machine learning Methods 0.000 claims description 8
- 230000004438 eyesight Effects 0.000 abstract description 10
- 238000002360 preparation method Methods 0.000 abstract description 5
- 238000012937 correction Methods 0.000 abstract description 4
- 210000003128 head Anatomy 0.000 description 37
- 230000008859 change Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 230000002159 abnormal effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000007405 data analysis Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000003066 decision tree Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003014 reinforcing effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21S—NON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
- F21S6/00—Lighting devices intended to be free-standing
- F21S6/002—Table lamps, e.g. for ambient lighting
- F21S6/003—Table lamps, e.g. for ambient lighting for task lighting, e.g. for reading or desk work, e.g. angle poise lamps
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F21—LIGHTING
- F21V—FUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
- F21V33/00—Structural combinations of lighting devices with other articles, not otherwise provided for
- F21V33/0064—Health, life-saving or fire-fighting equipment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种坐姿检测装置及坐姿检测方法,所述坐姿检测方法包括:实时采集一检测区内的用户姿态特征;将所述用户姿态特征录入至坐姿检测模型;以及获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。本发明不仅可以解决用户工作或学习时无人提醒坐姿不端正的烦恼,还可以简化坐姿检测装置使用的准备步骤,有效提醒用户端正坐姿,以免降低视力。
Description
技术领域
本发明涉及灯具领域,特别涉及一种坐姿检测装置及坐姿检测方法。
背景技术
在医疗与科技不断发展的今天,我们生活越来越便捷的同时很多人的身体却出现了问题,由于不正确的坐姿导致越来越多的人早早地进入了模糊的世界,现如今医疗手术可以使人们享受到恢复视力的福利,但是却不能令人们得到一劳永逸安全无风险的保障,要想从根本上解决视力下降的烦恼,还是要从调整坐姿开始。
大多数人都会因为无人提醒坐姿不端而导致保持错误姿势很长时间,如今市面上出现了很多坐姿提醒设备,这些设备十之八九都是基于图像识别技术以及重力检测等技术来实现,其中基于图像识别技术的坐姿提醒设备通过摄像头实时采集用户图像信息,使用图像识别技术判断用户坐姿极大程度上依赖对用户头部位置的定位进行判定,当用户头部不在图像画面之中时,图像识别方式对坐姿状态的识别效果就会出现极大误差,此外基于图像识别技术的台灯产品通常价格昂贵,不适用于普通家庭,产生受众范围小的问题。而基于重力检测的设备通常安装于用户所使用的椅子之类的物件上,而大多数的椅子高度不可调,不能满足身高不同人的需求,并且设置在椅子上的坐姿检测设备使用时需同时使用配套的椅子,局限性较大。除基于红外线技术或重力检测以外的设备大多是通过要求用户佩戴额外的辅助设备,繁琐的准备过程会给用户带来不必要的麻烦。
基于上述问题,我们需要发明一种坐姿检测装置,不仅可以解决用户工作或学习时无人提醒坐姿不端正的问题,还可以简化坐姿检测装置使用的准备步骤。
发明内容
本发明的目的是提供一种坐姿检测装置及其方法,通过对用户到坐姿检测装置距离的实时监测,推算用户眼部到桌面距离的实时距离,解决用户工作或学习时坐姿不端正的问题。
为实现上述目的,本发明提供一种坐姿检测方法,实时采集一检测区内的用户姿态特征;将所述用户姿态特征录入至坐姿检测模型;以及获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
进一步地,在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一感应点阵,与所述检测区相对设置;所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
进一步地,所述用户姿态特征为点阵数据,其包括:所述感应点阵中多个距离传感器采集的距离数据的集合;以及采集到距离数据的距离传感器在所述感应点阵中的位置;其中,所述距离数据为检测区内的物体或人体与所述感应点阵的距离值。
进一步地,在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一影像传感器,与所述检测区相对设置。
进一步地,所述用户姿态特征为检测区内的人体影像。
进一步地,所述坐姿检测模型的生成方法,包括如下步骤:采集两组以上的训练样本,每一组样本包括多个相同坐姿对应的用户姿态特征,所述用户姿态特征为点阵数据或人体影像,训练样本的组别标签为不同种类的坐姿;将所述训练样本录入至一机器学习模型进行训练;以及生成一坐姿检测模型。
进一步地,当一用户姿态特征被录入至所述坐姿检测模型时,所述坐姿检测模型能够判断出与该用户姿态特征匹配的组别标签,也即坐姿的种类。
进一步地,在所述实时采集点阵数据的步骤之后,在所述将所述用户姿态特征录入至坐姿检测模型的步骤之前,还包括如下步骤:判断所述检测区是否存在用户;若是,执行下一步骤;若否,返回所述实时采集一检测区内的用户姿态特征的步骤。
进一步地,判断所述检测区是否存在用户的步骤,具体包括如下步骤:比较所述点阵数据中每一像素点对应的距离值与一预设距离阈值;记录距离值小于预设距离阈值的像素点为标记点;判断所述标记点的数量是否小于一预设数量值,若是,判定所述检测区存在用户;若否,判定所述检测区不存在用户。
进一步地,在输出该人体的坐姿的步骤之后,还包括如下步骤:判断所述用户坐姿是否为正确坐姿,若否,发出报警信号。
本发明还提供一种坐姿检测装置包括:姿态采集传感器,用于实时采集一检测区内的用户姿态特征;以及处理器,用于将所述用户姿态特征录入至坐姿检测模型,获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
进一步地,所述坐姿检测装置还包括感应点阵,电性连接至所述处理器,且与所述检测区相对设置;所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
进一步地,所述坐姿检测装置还包括所述姿态采集传感器为距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
进一步地,所述坐姿检测装置还包括所述感应点阵的横向、纵向分别设置6-10个距离传感器。
进一步地,所述坐姿检测装置还包括所述姿态采集传感器为影像传感器,电性连接至所述处理器,且与所述检测区相对设置;所述影像传感器包括相机、摄像头、立体相机及三维摄像头。
进一步地,所述坐姿检测装置还包括台灯,包括灯座、灯头以及连杆,所述连杆连接所述灯座及灯头;所述姿态采集传感器安装至灯头或连杆;所述姿态采集传感器与所述检测区相对设置。
进一步地,所述坐姿检测装置还包括告警装置,连接至所述处理器;所述告警装置为语音输出装置;或者,所述告警装置为开关控制电路,连接至所述照明装置的光源。
本发明的有益效果是:监控用户坐姿是否正确,及时提醒用户端正坐姿,以保护用户视力。本发明可以分辨用户的错误坐姿类型,对用户进行相应的语音提醒,让用户准确调整身体姿势至正坐姿态。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显然,下面描述中的附图仅仅是本发明的一些实施例。
图1是本发明实施例1中所述坐姿检测装置的结构示意图。
图2是本发明实施例1中所述处理器的结构示意图。
图3是本发明实施例1中所述坐姿检测装置使用状态示意图。
图4是本发明实施例1中所述坐姿检测方法的流程图。
图5是本发明实施例1中所述生成坐姿检测模块的流程图。
图6本发明实施例2中台灯的结构示意图。
图7是本发明实施例2中所述坐姿检测方法的流程图。
图中部件标识如下:
11姿态采集传感器,12处理器,13告警装置,14AD转换模块;
15人机交互模块,16电源,17照明装置,18影像传感器,19感应点阵;
100用户,200桌面;
111视场域;
121坐姿检测模型,122WIFI模块,123数据分析整理模块;
171连杆,172灯头,173灯座,1721光源。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1-3所示,本发明提供了一种坐姿检测装置,包括:姿态采集传感器11、处理器12、告警装置13、AD转换器14、人机交互模块15、电源16以及照明装置17,其中姿态采集传感器11在本实施例中优选为一种距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
感应点阵19与处理器12相连接,其中,感应点阵19的横向、纵向分别由6-10个姿态采集传感器11(即距离传感器)组成,感应点阵19为可检测物体或人体到感应点阵19的距离,例如:通过计算传感器发射到接收红外线的时间判断人体或物体到传感器的距离。感应点阵19的点阵优选为6*6、7*7、8*8、8*9、9*9、10*10、10*9的点阵,其中,每一距离传感器为该点阵中的一个像素点,从而生成由距离值形成的点阵数据。
感应点阵19上每个像素点(距离传感器)都可以采集到检测区内的人体或物体与该像素点的距离值,例如:上述检测装置设置于书桌上,当用户坐在椅子上面对感应面时,上述检测区为感应面朝向用户一侧的空间。
感应点阵19将点阵数据发送至处理器12中进行坐姿检测判定。本实施例中优选为TOF传感器(飞行时间),TOF传感器可以精准捕捉用户的位置变化,达到准确监测用户坐姿变化的目的。在其他实施例中,感应点阵19中的距离传感器还可以为结构光传感器、超声波距离传感器,等等。
处理器12由一个或是多个控制单元组成,并与姿态采集传感器11、AD转换器14、人机交互模块15以及电源16相连接。处理器12中设有一坐姿检测模型121,坐姿检测模型121获取感应点阵19生成的点阵数据,对检测区内某一用户的坐姿的状态进行判定,坐姿检测模型121是通过采集两组以上训练样本进行机器学习训练得到的,本实施例优选为四组训练样本,每一样本中包括相同的坐姿对应的点阵数据,四组训练样本的组别标签互不相同,组别标签分为左侧姿、右侧姿、低头姿以及正坐姿,其中,左侧姿样本中包括大量(如8000~10000张)人体坐姿偏左的点阵数据,右侧姿样本中包括大量(如8000~10000张)人体坐姿偏右的点阵数据,低头姿样本中包括大量(如8000~10000张)人体低头坐着时的点阵数据,正坐姿样本中包括大量(如8000~10000张)人体坐姿端正的点阵数据。其中正坐姿标记为无需告警,其余坐姿标记为告警。
将上述四组训练样本录入一机器学习模型中进行训练,训练结束后对初步形成的坐姿检测模型检测其准确度,检验方法为将一组检验样本输入坐姿检测模型121中计算准确率,检验样本包括大量(如8000~10000张)坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的点阵数据,若坐姿检测模型的准确率在95%以上,则得到可以应用于坐姿检测装置中的坐姿检测模型121,若准确率不足95%,则重新对训练样本进行分组,或者增加样本数量,重新训练或迭代训练,直至准确率达到95%以上。
当有一未知组别的新样本(实时采集的、位于检测区内一用户对应的点阵数据)被录入至训练后的坐姿检测模型121中时,该坐姿检测模型121可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。若是,证明用户实时坐姿为左侧姿、右侧姿或是低头姿中的一种,输出与每一姿态相应的告警信号。
本实施例中应用XGBoost函数进行机器学习,XGBoost是boosting算法的一种,是以决策树为基础的一种梯度提升算法。通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提高最终分类器的精度。弱分类器一般会选择为CART TREE(也就是分类回归树,同时XGBoost还支持线性分类器)。由于上述高偏差和简单的要求每个分类回归树的深度不会很深。最终的总分类器是将每轮训练得到的弱分类器加权求和得到的(也就是加法模型)。
XGBoost是对梯度提升(Gradient Boosting)算法的一种改进,求解Lossfunction(损失函数)极值时使用牛顿法,牛顿法是将损失函数泰勒二阶展开,在损失函数中加入了正则化项。模型的目标函数由两部分构成,第一部分为梯度提升算法损失,第二部分为正则化项。
其损失函数定义为:
若训练样本的函数样本数目为n,对单个样本的损失为l,假设其是凸函数,y'i为模型对训练样本的预测值,yi为训练样本的真实标签值。正则化项定义了模型的复杂程度:
其中,Υ和λ为人工设置的参数,w为决策树所有叶子节点值形成的向量,T为叶子节点数。
人机交互模块15可以为机械按键开关或是触摸按键,优选为一种触控按键,通过AD转换器14与处理器12相连,用于接收用户的触摸操作,可以对照明装置17进行亮度的调节以及手动对照明装置17进行开关,例如:当照明装置17开启时,用户按压第一次触摸按键的时间小于2秒,降低照明装置17的亮度,再次触摸可使照明装置17关闭,若第一次触摸按键的时间大于2秒,照明装置17将直接关闭。
用户的触摸操作经AD转换器14转换后,将数字信号发送至所述处理器12,并由处理器12作出相应指示对照明装置17的亮度进行调节。触控控制模块的原理是在电路板上形成两片极板,人手指作为导体在触摸极板时会使极板间的固定电容产生变化,触控控制能识别这种电容变化,并通过AD转换器14将其转换为电信号发送给处理器12处理。
告警装置13可以为语音输出装置,如扬声器,用以提醒用户坐姿不标准,在语音输出装置中可以设定不同的提醒语音,类似于“抬起头可以保护视力免遭学习侵害哦”以及“坐姿偏右啦,快快调整”等,增强坐姿检测装置的人性化特点,柔和的提醒方式可以降低用户使用时被纠正坐姿所产生的消极情绪。
告警装置13还可以为连接照明装置中光源1721的开关控制电路,当用户的不标准坐姿维持一段时间,即坐姿检测模型121连续n次(n为自然数,优选为3-5)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源1721,提醒用户坐姿不标准,迫使用户调整坐姿,关闭照明装置中光源1721的可以有效地使用户调整坐姿,避免用户在错误坐姿的状态下保持过长时间,达到保护用户视力的目的。
电源16与照明装置17以及处理器12相连,电源16将线电压转换为一种或多种合适的电压,为处理器12以及照明装置17等用电模块提供电力支持。照明装置17,与电源16相连,用于为坐姿检测装置提供照明功能,可以根据处理器12的指令进行调节亮度,为用户提供更加良好的学习以及工作环境,使用户在使用过程中能感受到照明亮度带来的舒适感。
如图2所示的处理器的结构示意图,为了增强坐姿检测装置对于用户坐姿调整的功能,坐姿检测装置还增设了WIFI模块122以及数据分析整理模块123,WIFI模块122与处理器12相连,用于收集用户坐姿信息以及坐姿检测装置使用时长等数据,并根据用户需要汇总整理出相关信息。数据分析整理模块123用于对上述整理出的相关信息进行统计分析,给用户呈现一段时间内的坐姿检测装置的使用状况信息,以便更好地改善使用习惯。
例如,数据分析整理模块123分析后得出时长数据,如一段时间内用户每日使用坐姿检测装置的时长以及该时间段内用户坐姿的标准时长,及时反馈给用户。
用户信息与设备绑定,在本发明中允许用户将设备与服务器上的用户信息进行绑定。用户在完成绑定操作后,后台服务器会接收用户设备发来的设备使用信息(包括设备ID、照明时长、坐姿状态等),经过数据库映射程序,在后台为用户建立一个完整的用户档案,后台服务器会统计一段时间内用户的坐姿情况(包括用户的坐姿不标准的概率以及常使用的不标准坐姿等),并根据统计的结果为用户提供科学的使用建议,从而更好的保护用户的视力。
后台服务器经过大数据分析技术可以将用户发送的设备使用信息转换为对用户有用的健康信息,同时,服务器会将用户的有效坐姿时间和台灯的照明时间数据进行对照,并利用专用的算法进行分析,得出用户的学习时间。
服务器会收集一段时间内(周、月、季度)的用户坐姿信息进行记录和分析,从而了解用户的坐姿的变化情况,并及时反馈至用户的手机上,服务器还会记录用户每次使用坐姿检测装置时设定的良好坐姿距离标准值,并跟踪记录在一段时间内的标准值变化情况,假如该值在一段时间内突然变小,我们就会提醒用户注意视力和坐姿的变化,及时进行预防和治疗。
本发明会记录用户坐姿的实时变化情况,并上传至服务器,服务器会分析用户坐姿变化的相关数据,并通过特定算法将其转换为学习的专注度信息。
如图3所示,本实施例还提供了一种坐姿检测装置,优选台灯,包括照明装置17、连杆171、灯座173以及姿态采集传感器11,姿态采集传感器与检测区相对设置安装至连杆,姿态采集装置11为感应点阵19,照明装置17包括光源1721,光源1721可以由LED灯、荧光灯或是其他可以发光装置构成,感应点阵19置于连杆171的一侧,
用户使用台灯时将感应点阵19朝向身体,感应点阵19由排成矩阵的多个传感器组成。
照明装置17可旋转式连接连杆172,当用户想改变照明装置17照射处时,可以通过手动旋转灯头172实现其目的,为用户提供更多的照明角度,方便用户的工作生活。灯座173通过连杆171连接照明装置17,为坐姿台灯提供稳固的基座,防止坐姿检测台灯因防止不稳而摔落损坏。
感应点阵19用于测量用户或物体与感应点阵19之间的距离值,用户使用上述台灯时,置于照明装置17上的感应点阵19会对用户到感应点阵19的距离进行监测,通过对用户头顶到眼部距离的估算以及用户头顶位置的到桌面的高度,推算出用户眼部到桌面的距离,处理器12可依据点阵数据分布计算出头部或眼部到桌面的高度,可以解决当用户头部偏移时,人体坐姿在感应点阵19中显示的高度与正坐状态下相同,但是不同姿态下头部到传感器的距离不同的问题。
感应点阵19发出的光脉冲(如:红外线等)反射回坐姿检测装置,计算往返时间并结合光速可以达到测距目的,当用户移动时,测距的结果也会随之改变,达到对用户姿态实时监测的目的。
如图4所示,基于前文所述的坐姿检测装置,本实施例还提供了一种坐姿检测的方法,包括如下步骤S101~S109。
步骤S101)采用机器学习技术生成坐姿检测模型。如图5所示,步骤S101包括如下步骤S1011~S1015,
S1011)采集四组不同的训练样本。每一组样本中包括相同坐姿对应的点阵数据,训练样本的组别标签相应为左侧姿、右侧姿、低头姿及正坐姿,左侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏左的点阵数据,右侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏右的点阵数据,低头姿标签中的训练样本为大量(如8000~10000张)低头坐姿的点阵数据,正坐姿标签中的训练样本为大量(如8000~10000张)坐姿端正的点阵数据。
S1012)将训练样本对录入模型进行训练。训练后可以得到初步成型的坐姿检测模型。
S1013)判断初步成型的坐姿检测模型是否合格。对初步成型的坐姿检测模型进行检验,检验方法为将一组检验样本输入坐姿检测模型中计算准确率,检验样本包括大量坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的点阵数据,若是,即坐姿检测模型的准确率在95%以上,则执行步骤S1014,若否,即准确率不足95%,则重新选择训练样本,或重新将训练样本分组,执行步骤S1014。
S1014)对初步形成的坐姿检测模型重新训练。录入新的训练样本或重新分组的训练样本至模型中,重新进行训练,并再次验证其准确率,重复执行步骤S1012-S1014,直至准确率达到95%以上。
S1015)得到可以应用于坐姿检测装置中的坐姿检测模型。
步骤S102)用户确定检测区。将坐姿检测装置摆放于用户的相对面,设置感应点阵位置,其中,感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。感应点阵到用户标准坐姿时的最小距离应为生产商预设的固定值,固定值优选范围为55~58厘米。
步骤S103)感应点阵实时采集检测区内用户姿态特征。用户姿态特征为一种点阵数据,点阵数据中包括:感应点阵中多个距离传感器采集的距离数据的集合以及采集到距离数据的距离传感器在所述感应点阵中的位置,其中,距离数据为检测区内的物体或人体与所述感应点阵的距离值。采集时间间隔优选为1秒。
步骤S104)判断检测区是否存在用户。处理器根据感应点阵采集到的点阵数据判断所述检测区是否存在用户,比较点阵数据中每一像素点对应的距离值与预设距离阈值之间的大小关系,记录距离值小于预设距离阈值的像素点为标记点,判断标记点的数量是否小于预设数量值。
若是,判定所述检测区存在用户,执行步骤S105,判断待检测坐姿是否符合标准。若否,判定检测区不存在用户,当连续n次(n为自然数,优选为3-5)判定检测区不存在用户时,执行步骤S103,并经过预设时间间隔后进入无人状态。
其中,预设距离阈值为数值范围,如53cm~57cm,优选55cm,预设数量值为a个(a为自然数),优选为3-5个,预设时间间隔为5秒,无人状态是指通过处理器将照明装置关闭,坐姿检测模型处于待机状态。
步骤S105)将步骤S103中实时采集到的用户实时姿态特征录入至坐姿检测模型中,用户实时姿态特征为感应点阵实时采集到的点阵数据,包括:感应点阵中多个距离传感器采集的距离数据的集合以及采集到距离数据的距离传感器在所述感应点阵中的位置。
步骤S106)获取匹配姿态特征的坐姿。处理器根据存在用户的点阵数据进行姿态分析,通过坐姿检测模型对点阵数据进行分类,坐姿检测模型可以判断出与该点阵数据匹配的组别标签。
步骤S107)坐姿检测模型输出坐姿,坐姿检测模型输出用户姿态特征的判断结果,得到该用户姿态特征对应的组别标签,即该用户实时坐姿是否为左侧姿、右侧姿、低头姿以及正坐姿中的一种。
步骤S108)判断姿态特征是否符合标准。对坐姿检测模型得出的分类结果,即用户姿态特征对应的组别标签进行判断,判断结果可以分为正确坐姿以及不正确坐姿,正确坐姿中包括正坐姿,不正确坐姿中包括左侧姿、右侧姿以及低头姿,当判断结果为不正确坐姿时,执行步骤S109,若判断结果为正确坐姿时,返回步骤S103。
步骤S109)告警装置提醒。根据步骤S105发送的坐姿判定结果对用户进行相应的提醒,若坐姿不正确,输出告警语音或告警信号。当告警装置为语音输出装置时,通过播报不同的语句提醒用户调整坐姿。当告警装置为连接照明装置光源的开关控制电路时,若用户的不标准坐姿持续时间大于一预设阈值时,即坐姿检测模型连续n次(n为自然数,优选为3)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源,提醒用户及时调整坐姿。告警装置提醒结束后返回步骤S103。
本实施例的有益效果是:解决用户工作或学习时无人提醒坐姿不端正的问题,简化坐姿检测装置使用的准备步骤,全面检测用户坐姿,有效提醒用户端正坐姿,以免降低视力,并且可以分辨用户不同的错误坐姿进行相应的语音提醒,让用户正确地意识到如何调整坐姿至端正状态,同时,提升坐姿检测装置与用户之间的互动性,增强用户使用时的趣味性。
实施例2
本实施例包括实施例1中大部分内容,其区别特征在于:
如图6所示,本实施例所述的坐姿检测装置,其姿态采集传感器11优选为一种影像传感器,电性连接至所述处理器,且与所述检测区相对设置。所述影像传感器包括相机、摄像头、立体相机及三维摄像头,等等。
如图7所示,本实施例所述的坐姿检测方法,其用户姿态特征不是点阵数据,而是人体影像;其坐姿检测模型的训练样本及验证样本并不包括点阵数据,而是包括检测区内的人体影像;所述坐姿检测方法中对检测区内是否存在用户并不进行判断。
实施例2所述的坐姿检测装置中,姿态采集传感器11与检测区相对设置安装至灯头,姿态采集装置11为影像传感器18,影像传感器18置于灯头172的前端,所述前端为朝向检测区、用户的一侧,影像传感器18包括相机、摄像头、立体相机及三维摄像头,优选为摄像头。影像传感器18与检测区相对设置,该影像传感器18的镜头朝向所述检测区,用以实时采集用户100在检测区内的影像,例如:上述坐姿检测装置设置于桌面200上,当用户100坐在椅子上面对影像传感器18时,上述检测区为影像传感器18朝向用户100一侧的空间。
由影像传感器18放射出的视场域111大致呈四棱锥状,处理器12可依据人体影像的分布计算出头部或眼部到桌面200的高度,可以解决当用户100头部偏移时,人体坐姿在视场域111的高度与正坐状态下相同,但是不同姿态下头部到传感器的距离不同的问题。
坐姿检测装置内包括处理器12,处理器12由一个或是多个控制单元组成,并与影像传感器18相连接。处理器12中设有一坐姿检测模型121,坐姿检测模型121获取影像传感器18生成的用户姿态特征,即人体影像,对检测区内某一用户100的坐姿的状态进行判定,坐姿检测模型121是通过采集两组以上训练样本进行机器学习训练得到的,本实施例优选为四组训练样本,每一样本中包括相同的坐姿对应的人体影像,四组训练样本的组别标签互不相同,组别标签分为左侧姿、右侧姿、低头姿以及正坐姿,其中,左侧姿样本中包括大量(如8000~10000张)人体坐姿偏左的人体影像,右侧姿样本中包括大量(如8000~10000张)人体坐姿偏右的人体影像,低头姿样本中包括大量(如8000~10000张)人体低头坐着时的人体影像,正坐姿样本中包括大量(如8000~10000张)人体坐姿端正的人体影像。其中正坐姿标记为无需告警,其余坐姿标记为告警,其中人体影像为人体坐姿图片,该人体坐姿图片中除人体坐姿图像外无其他图像或数据。
将上述四组训练样本录入一机器学习模型中进行训练,训练结束后对初步形成的坐姿检测模型检测其准确度,检验方法为将一组检验样本输入坐姿检测模型121中计算准确率,检验样本包括大量(如8000~10000张)坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的人体影像,若坐姿检测模型的准确率在95%以上,则得到可以应用于坐姿检测装置中的坐姿检测模型121,若准确率不足95%,则重新对训练样本进行分组,或者增加样本数量,重新训练或迭代训练,直至准确率达到95%以上。
当有一未知组别的新样本(实时采集的、位于检测区内一用户对应的点阵数据)被录入至训练后的坐姿检测模型121中时,该坐姿检测模型121可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。若是,证明用户实时坐姿为左侧姿、右侧姿或是低头姿中的一种,输出与每一姿态相应的告警信号。
如图7所示,基于前文所述的坐姿检测装置,本实施例还提供了一种坐姿检测的方法,包括如下步骤S201~S208。
步骤S201)生成坐姿检测模型。如图5所示,步骤S201包括如下步骤S1011~S1015,
S1011)采集四组不同的训练样本。每一组样本中包括相同坐姿对应的多张人体影像,训练样本的组别标签为一种坐姿,如左侧姿、右侧姿、低头姿及正坐姿,左侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏左的人体影像,右侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏右的人体影像,低头姿标签中的训练样本为大量(如8000~10000张)低头坐姿的人体影像,正坐姿标签中的训练样本为大量(如8000~10000张)坐姿端正的人体影像。
S1012)将训练样本录入模型进行训练,训练后可以得到初步成型的坐姿检测模型。
S1013)判断初步成型的坐姿检测模型是否合格。对初步成型的坐姿检测模型进行检验,检验方法为将一组检验样本输入坐姿检测模型中计算准确率,检验样本包括大量坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的人体影像,若是,即坐姿检测模型的准确率在95%以上,则执行步骤S1014,若否,即准确率不足95%,执行步骤S1014。
S1014)对初步形成的坐姿检测模型重新训练。录入新的训练样本或重新分组的训练样本至模型中,重新进行训练,并再次验证其准确率,重复执行步骤S1012-S1014,直至准确率达到95%以上。
S1015)得到可以应用于坐姿检测装置中的坐姿检测模型。当所述坐姿检测模型被输入一未知组别的新样本(即新点阵数据)时,该坐姿检测模型可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。
步骤S202)用户确定检测区。将坐姿检测装置摆放于用户的相对面,设置影像传感器位置,使影像传感器与检测区相对设置。影像传感器到用户标准坐姿时的最小距离应为生产商预设的固定值,固定值优选范围为55~58厘米。
步骤S203)影像传感器实时采集用户姿态特征。用户姿态特征为检测区内的人体影像。采集时间间隔优选为1秒。影像传感器采集一张实时图片后,需要与一张预设的环境图片对比,以找出人体影像在实时图片中对应的区域范围。
步骤S204)处理器将姿态特征录入至坐姿检测模型中,所述姿态特征为实时图片中的人体影像。
步骤S205)获取匹配姿态特征的坐姿。处理器根据存在用户的人体影像进行姿态分析,通过处理器中的坐姿检测模型对人体影像进行分类,坐姿检测模型可以判断出与该人体影像匹配的组别标签,即该用户实时坐姿。
步骤S206)输出坐姿。处理器得出用户姿态特征的判断结果,得到该用户姿态特征对应的组别标签,即该用户实时坐姿是否为左侧姿、右侧姿、低头姿以及正坐姿中的一种。
步骤S207)判断姿态特征是否符合标准。对处理器得出的分类结果,即用户姿态特征对应的组别标签进行判断,判断结果可以分为正确坐姿以及不正确坐姿,正确坐姿中包括正坐姿,不正确坐姿中包括左侧姿、右侧姿以及低头姿,当判断结果为不正确坐姿时,执行步骤S208,若判断结果为正确坐姿时,返回步骤S203。
步骤S208)告警装置提醒。对步骤S207发送的坐姿判定结果进行相应的提醒,当告警装置为语音输出装置时,通过播报不同的语句提醒用户调整坐姿。当告警装置为连接照明装置光源的开关控制电路时,若用户的不标准坐姿持续时间大于一预设阈值时,即坐姿检测模型连续n次(n为自然数,优选为3)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源,提醒用户及时调整坐姿。告警装置提醒结束后返回步骤S203。
告警装置提醒结束后返回步骤S203实时采集检测区内的用户姿态特征。
本实施例的有益效果是:影像传感器的应用提高了对用户坐姿捕捉的准确性,解决用户工作或学习时无人提醒坐姿不端正的烦恼,简化坐姿检测装置使用的准备步骤,全面检测用户坐姿,有效提醒用户端正坐姿,以免降低视力,并且可以分辨用户不同的错误坐姿进行相应的语音提醒,让用户正确地意识到如何调整坐姿至端正状态,同时,提升坐姿检测装置与用户之间的互动性,增强用户使用时的趣味性。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的范围。
Claims (17)
1.一种坐姿检测方法,其特征在于,
实时采集一检测区内的用户姿态特征;
将所述用户姿态特征录入至坐姿检测模型;以及
获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
2.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一感应点阵,与所述检测区相对设置;
所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
3.根据权利要求1所述的坐姿检测方法,其特征在于,
所述用户姿态特征为点阵数据,其包括:
所述感应点阵中多个距离传感器采集的距离数据的集合;以及
采集到距离数据的距离传感器在所述感应点阵中的位置;
其中,所述距离数据为检测区内的物体或人体与所述感应点阵的距离值。
4.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一影像传感器,与所述检测区相对设置。
5.根据权利要求1所述的坐姿检测方法,其特征在于,
所述用户姿态特征为检测区内的人体影像。
6.根据权利要求1所述的坐姿检测方法,其特征在于,
所述坐姿检测模型的生成方法,包括如下步骤:
采集两组以上的训练样本,每一组样本包括多个相同坐姿对应的用户姿态特征,所述用户姿态特征为点阵数据或人体影像,训练样本的组别标签为不同种类的坐姿;
将所述训练样本录入至一机器学习模型进行训练;以及
生成一坐姿检测模型。
7.根据权利要求1所述的坐姿检测方法,其特征在于,
当一用户姿态特征被录入至所述坐姿检测模型时,
所述坐姿检测模型能够判断出与该用户姿态特征匹配的组别标签,也即坐姿的种类。
8.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集点阵数据的步骤之后,在所述将所述用户姿态特征录入至坐姿检测模型的步骤之前,还包括如下步骤:
判断所述检测区是否存在用户;若是,执行下一步骤;若否,返回所述实时采集一检测区内的用户姿态特征的步骤。
9.根据权利要求5所述的坐姿检测方法,其特征在于,
判断所述检测区是否存在用户的步骤,具体包括如下步骤:
比较所述点阵数据中每一像素点对应的距离值与一预设距离阈值;
记录距离值小于预设距离阈值的像素点为标记点;
判断所述标记点的数量是否小于一预设数量值,若是,判定所述检测区存在用户;若否,判定所述检测区不存在用户。
10.根据权利要求1所述的坐姿检测方法,其特征在于,
在输出该人体的坐姿的步骤之后,还包括如下步骤:
判断所述用户坐姿是否为正确坐姿,若否,发出报警信号。
11.一种坐姿检测装置,其特征在于,包括:
姿态采集传感器,用于实时采集一检测区内的用户姿态特征;以及
处理器,用于
将所述用户姿态特征录入至坐姿检测模型,
获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
12.根据权利要求11所述的坐姿检测装置,其特征在于,还包括
感应点阵,电性连接至所述处理器,且与所述检测区相对设置;
所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
13.根据权利要求11所述的坐姿检测装置,其特征在于,
所述姿态采集传感器为距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
14.根据权利要求11所述的坐姿检测装置,其特征在于,所述感应点阵的横向、纵向分别设置6-10个距离传感器。
15.根据权利要求11所述的坐姿检测装置,其特征在于,
所述姿态采集传感器为影像传感器,电性连接至所述处理器,且与所述检测区相对设置;
所述影像传感器包括相机、摄像头、立体相机及三维摄像头。
16.根据权利要求11所述的坐姿检测装置,其特征在于,还包括台灯,包括灯座、灯头以及连杆,所述连杆连接所述灯座及灯头;
所述姿态采集传感器安装至灯头或连杆;
所述姿态采集传感器与所述检测区相对设置。
17.根据权利要求11所述的坐姿检测装置,其特征在于,还包括告警装置,连接至所述处理器;
所述告警装置为语音输出装置;或者,
所述告警装置为开关控制电路,连接至所述照明装置的光源。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110001649.5A CN112633411A (zh) | 2021-01-04 | 2021-01-04 | 坐姿检测装置及坐姿检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110001649.5A CN112633411A (zh) | 2021-01-04 | 2021-01-04 | 坐姿检测装置及坐姿检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112633411A true CN112633411A (zh) | 2021-04-09 |
Family
ID=75290853
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110001649.5A Pending CN112633411A (zh) | 2021-01-04 | 2021-01-04 | 坐姿检测装置及坐姿检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112633411A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035696A (zh) * | 2022-07-07 | 2022-09-09 | 中南迅智科技有限公司 | 一种学习过程姿势采集提醒系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109783999A (zh) * | 2019-03-18 | 2019-05-21 | 杭州镜之镜科技有限公司 | 校园近视防控装置及方法 |
CN110458010A (zh) * | 2019-07-05 | 2019-11-15 | 武汉迈格驷友科技有限公司 | 一种智能台灯、一种坐姿检测方法及一种电子设备 |
CN111178313A (zh) * | 2020-01-02 | 2020-05-19 | 深圳数联天下智能科技有限公司 | 一种监督用户坐姿的方法及设备 |
US20200211353A1 (en) * | 2019-01-02 | 2020-07-02 | Beijing Boe Optoelectronics Technology Co., Ltd. | Seat |
CN111685635A (zh) * | 2020-03-19 | 2020-09-22 | 广东蓝水花智能电子有限公司 | 一种人体坐姿矫正方法 |
-
2021
- 2021-01-04 CN CN202110001649.5A patent/CN112633411A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200211353A1 (en) * | 2019-01-02 | 2020-07-02 | Beijing Boe Optoelectronics Technology Co., Ltd. | Seat |
CN109783999A (zh) * | 2019-03-18 | 2019-05-21 | 杭州镜之镜科技有限公司 | 校园近视防控装置及方法 |
CN110458010A (zh) * | 2019-07-05 | 2019-11-15 | 武汉迈格驷友科技有限公司 | 一种智能台灯、一种坐姿检测方法及一种电子设备 |
CN111178313A (zh) * | 2020-01-02 | 2020-05-19 | 深圳数联天下智能科技有限公司 | 一种监督用户坐姿的方法及设备 |
CN111685635A (zh) * | 2020-03-19 | 2020-09-22 | 广东蓝水花智能电子有限公司 | 一种人体坐姿矫正方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035696A (zh) * | 2022-07-07 | 2022-09-09 | 中南迅智科技有限公司 | 一种学习过程姿势采集提醒系统 |
CN115035696B (zh) * | 2022-07-07 | 2024-05-10 | 中南迅智科技有限公司 | 一种学习过程姿势采集提醒系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020186480A1 (zh) | 近视预测系统及方法 | |
Erden et al. | Hand gesture based remote control system using infrared sensors and a camera | |
CN111178313B (zh) | 一种监督用户坐姿的方法及设备 | |
Huang et al. | Face detection from cluttered images using a polynomial neural network | |
Heydarzadeh et al. | In-bed posture classification using deep autoencoders | |
JP2000146538A (ja) | 3次元物体識別装置 | |
US20020039111A1 (en) | Automated visual tracking for computer access | |
JPH06202787A (ja) | ペン・コンピュータ | |
CN109783999B (zh) | 校园近视防控装置及方法 | |
CN110897425A (zh) | 儿童坐姿检测坐垫、与坐垫交互的装置以及坐姿监测方法 | |
Xu et al. | A sensing cushion using simple pressure distribution sensors | |
US20190329364A1 (en) | Object Recognition and Presentation for the Visually Impaired | |
CN212679100U (zh) | 姿态检测系统、姿态检测装置以及桌子套件 | |
CN112633411A (zh) | 坐姿检测装置及坐姿检测方法 | |
CN108647657A (zh) | 一种基于多元行为数据的云端教学过程评价方法 | |
CN114255508A (zh) | 一种基于OpenPose的学生体态检测分析及效率评估方法 | |
CN205208239U (zh) | 一种具有坐姿检测功能的智能护眼台灯 | |
CN111695520A (zh) | 一种高精度的儿童坐姿检测与矫正方法及装置 | |
CN109343694B (zh) | 一种用于猜拳划拳游戏的手势识别系统和方法 | |
Islam et al. | Improving real-time hand gesture recognition system for translation: Sensor development | |
KR100969927B1 (ko) | 사용자 지향적 비접촉식 상호 작용 디스플레이 장치 | |
CN106815264B (zh) | 一种信息处理方法及系统 | |
CN110489005B (zh) | 具有触摸定位功能的二维点显器及其二维触点驱动方法 | |
CN112084814B (zh) | 一种学习辅助方法和智能装置 | |
Essakki et al. | EchoSight: Blending Deep Learning and Computer Vision for Unparalleled Navigational Support for the Visually Impaired |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |