CN112633411A - 坐姿检测装置及坐姿检测方法 - Google Patents

坐姿检测装置及坐姿检测方法 Download PDF

Info

Publication number
CN112633411A
CN112633411A CN202110001649.5A CN202110001649A CN112633411A CN 112633411 A CN112633411 A CN 112633411A CN 202110001649 A CN202110001649 A CN 202110001649A CN 112633411 A CN112633411 A CN 112633411A
Authority
CN
China
Prior art keywords
sitting posture
user
posture
sitting
detection area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110001649.5A
Other languages
English (en)
Inventor
章勇
郑天航
张正华
丁冉
孙国涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Opple Lighting Co Ltd
Suzhou Op Lighting Co Ltd
Original Assignee
Opple Lighting Co Ltd
Suzhou Op Lighting Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Opple Lighting Co Ltd, Suzhou Op Lighting Co Ltd filed Critical Opple Lighting Co Ltd
Priority to CN202110001649.5A priority Critical patent/CN112633411A/zh
Publication of CN112633411A publication Critical patent/CN112633411A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21SNON-PORTABLE LIGHTING DEVICES; SYSTEMS THEREOF; VEHICLE LIGHTING DEVICES SPECIALLY ADAPTED FOR VEHICLE EXTERIORS
    • F21S6/00Lighting devices intended to be free-standing
    • F21S6/002Table lamps, e.g. for ambient lighting
    • F21S6/003Table lamps, e.g. for ambient lighting for task lighting, e.g. for reading or desk work, e.g. angle poise lamps
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F21LIGHTING
    • F21VFUNCTIONAL FEATURES OR DETAILS OF LIGHTING DEVICES OR SYSTEMS THEREOF; STRUCTURAL COMBINATIONS OF LIGHTING DEVICES WITH OTHER ARTICLES, NOT OTHERWISE PROVIDED FOR
    • F21V33/00Structural combinations of lighting devices with other articles, not otherwise provided for
    • F21V33/0064Health, life-saving or fire-fighting equipment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

本发明公开了一种坐姿检测装置及坐姿检测方法,所述坐姿检测方法包括:实时采集一检测区内的用户姿态特征;将所述用户姿态特征录入至坐姿检测模型;以及获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。本发明不仅可以解决用户工作或学习时无人提醒坐姿不端正的烦恼,还可以简化坐姿检测装置使用的准备步骤,有效提醒用户端正坐姿,以免降低视力。

Description

坐姿检测装置及坐姿检测方法
技术领域
本发明涉及灯具领域,特别涉及一种坐姿检测装置及坐姿检测方法。
背景技术
在医疗与科技不断发展的今天,我们生活越来越便捷的同时很多人的身体却出现了问题,由于不正确的坐姿导致越来越多的人早早地进入了模糊的世界,现如今医疗手术可以使人们享受到恢复视力的福利,但是却不能令人们得到一劳永逸安全无风险的保障,要想从根本上解决视力下降的烦恼,还是要从调整坐姿开始。
大多数人都会因为无人提醒坐姿不端而导致保持错误姿势很长时间,如今市面上出现了很多坐姿提醒设备,这些设备十之八九都是基于图像识别技术以及重力检测等技术来实现,其中基于图像识别技术的坐姿提醒设备通过摄像头实时采集用户图像信息,使用图像识别技术判断用户坐姿极大程度上依赖对用户头部位置的定位进行判定,当用户头部不在图像画面之中时,图像识别方式对坐姿状态的识别效果就会出现极大误差,此外基于图像识别技术的台灯产品通常价格昂贵,不适用于普通家庭,产生受众范围小的问题。而基于重力检测的设备通常安装于用户所使用的椅子之类的物件上,而大多数的椅子高度不可调,不能满足身高不同人的需求,并且设置在椅子上的坐姿检测设备使用时需同时使用配套的椅子,局限性较大。除基于红外线技术或重力检测以外的设备大多是通过要求用户佩戴额外的辅助设备,繁琐的准备过程会给用户带来不必要的麻烦。
基于上述问题,我们需要发明一种坐姿检测装置,不仅可以解决用户工作或学习时无人提醒坐姿不端正的问题,还可以简化坐姿检测装置使用的准备步骤。
发明内容
本发明的目的是提供一种坐姿检测装置及其方法,通过对用户到坐姿检测装置距离的实时监测,推算用户眼部到桌面距离的实时距离,解决用户工作或学习时坐姿不端正的问题。
为实现上述目的,本发明提供一种坐姿检测方法,实时采集一检测区内的用户姿态特征;将所述用户姿态特征录入至坐姿检测模型;以及获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
进一步地,在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一感应点阵,与所述检测区相对设置;所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
进一步地,所述用户姿态特征为点阵数据,其包括:所述感应点阵中多个距离传感器采集的距离数据的集合;以及采集到距离数据的距离传感器在所述感应点阵中的位置;其中,所述距离数据为检测区内的物体或人体与所述感应点阵的距离值。
进一步地,在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一影像传感器,与所述检测区相对设置。
进一步地,所述用户姿态特征为检测区内的人体影像。
进一步地,所述坐姿检测模型的生成方法,包括如下步骤:采集两组以上的训练样本,每一组样本包括多个相同坐姿对应的用户姿态特征,所述用户姿态特征为点阵数据或人体影像,训练样本的组别标签为不同种类的坐姿;将所述训练样本录入至一机器学习模型进行训练;以及生成一坐姿检测模型。
进一步地,当一用户姿态特征被录入至所述坐姿检测模型时,所述坐姿检测模型能够判断出与该用户姿态特征匹配的组别标签,也即坐姿的种类。
进一步地,在所述实时采集点阵数据的步骤之后,在所述将所述用户姿态特征录入至坐姿检测模型的步骤之前,还包括如下步骤:判断所述检测区是否存在用户;若是,执行下一步骤;若否,返回所述实时采集一检测区内的用户姿态特征的步骤。
进一步地,判断所述检测区是否存在用户的步骤,具体包括如下步骤:比较所述点阵数据中每一像素点对应的距离值与一预设距离阈值;记录距离值小于预设距离阈值的像素点为标记点;判断所述标记点的数量是否小于一预设数量值,若是,判定所述检测区存在用户;若否,判定所述检测区不存在用户。
进一步地,在输出该人体的坐姿的步骤之后,还包括如下步骤:判断所述用户坐姿是否为正确坐姿,若否,发出报警信号。
本发明还提供一种坐姿检测装置包括:姿态采集传感器,用于实时采集一检测区内的用户姿态特征;以及处理器,用于将所述用户姿态特征录入至坐姿检测模型,获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
进一步地,所述坐姿检测装置还包括感应点阵,电性连接至所述处理器,且与所述检测区相对设置;所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
进一步地,所述坐姿检测装置还包括所述姿态采集传感器为距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
进一步地,所述坐姿检测装置还包括所述感应点阵的横向、纵向分别设置6-10个距离传感器。
进一步地,所述坐姿检测装置还包括所述姿态采集传感器为影像传感器,电性连接至所述处理器,且与所述检测区相对设置;所述影像传感器包括相机、摄像头、立体相机及三维摄像头。
进一步地,所述坐姿检测装置还包括台灯,包括灯座、灯头以及连杆,所述连杆连接所述灯座及灯头;所述姿态采集传感器安装至灯头或连杆;所述姿态采集传感器与所述检测区相对设置。
进一步地,所述坐姿检测装置还包括告警装置,连接至所述处理器;所述告警装置为语音输出装置;或者,所述告警装置为开关控制电路,连接至所述照明装置的光源。
本发明的有益效果是:监控用户坐姿是否正确,及时提醒用户端正坐姿,以保护用户视力。本发明可以分辨用户的错误坐姿类型,对用户进行相应的语音提醒,让用户准确调整身体姿势至正坐姿态。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显然,下面描述中的附图仅仅是本发明的一些实施例。
图1是本发明实施例1中所述坐姿检测装置的结构示意图。
图2是本发明实施例1中所述处理器的结构示意图。
图3是本发明实施例1中所述坐姿检测装置使用状态示意图。
图4是本发明实施例1中所述坐姿检测方法的流程图。
图5是本发明实施例1中所述生成坐姿检测模块的流程图。
图6本发明实施例2中台灯的结构示意图。
图7是本发明实施例2中所述坐姿检测方法的流程图。
图中部件标识如下:
11姿态采集传感器,12处理器,13告警装置,14AD转换模块;
15人机交互模块,16电源,17照明装置,18影像传感器,19感应点阵;
100用户,200桌面;
111视场域;
121坐姿检测模型,122WIFI模块,123数据分析整理模块;
171连杆,172灯头,173灯座,1721光源。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1-3所示,本发明提供了一种坐姿检测装置,包括:姿态采集传感器11、处理器12、告警装置13、AD转换器14、人机交互模块15、电源16以及照明装置17,其中姿态采集传感器11在本实施例中优选为一种距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
感应点阵19与处理器12相连接,其中,感应点阵19的横向、纵向分别由6-10个姿态采集传感器11(即距离传感器)组成,感应点阵19为可检测物体或人体到感应点阵19的距离,例如:通过计算传感器发射到接收红外线的时间判断人体或物体到传感器的距离。感应点阵19的点阵优选为6*6、7*7、8*8、8*9、9*9、10*10、10*9的点阵,其中,每一距离传感器为该点阵中的一个像素点,从而生成由距离值形成的点阵数据。
感应点阵19上每个像素点(距离传感器)都可以采集到检测区内的人体或物体与该像素点的距离值,例如:上述检测装置设置于书桌上,当用户坐在椅子上面对感应面时,上述检测区为感应面朝向用户一侧的空间。
感应点阵19将点阵数据发送至处理器12中进行坐姿检测判定。本实施例中优选为TOF传感器(飞行时间),TOF传感器可以精准捕捉用户的位置变化,达到准确监测用户坐姿变化的目的。在其他实施例中,感应点阵19中的距离传感器还可以为结构光传感器、超声波距离传感器,等等。
处理器12由一个或是多个控制单元组成,并与姿态采集传感器11、AD转换器14、人机交互模块15以及电源16相连接。处理器12中设有一坐姿检测模型121,坐姿检测模型121获取感应点阵19生成的点阵数据,对检测区内某一用户的坐姿的状态进行判定,坐姿检测模型121是通过采集两组以上训练样本进行机器学习训练得到的,本实施例优选为四组训练样本,每一样本中包括相同的坐姿对应的点阵数据,四组训练样本的组别标签互不相同,组别标签分为左侧姿、右侧姿、低头姿以及正坐姿,其中,左侧姿样本中包括大量(如8000~10000张)人体坐姿偏左的点阵数据,右侧姿样本中包括大量(如8000~10000张)人体坐姿偏右的点阵数据,低头姿样本中包括大量(如8000~10000张)人体低头坐着时的点阵数据,正坐姿样本中包括大量(如8000~10000张)人体坐姿端正的点阵数据。其中正坐姿标记为无需告警,其余坐姿标记为告警。
将上述四组训练样本录入一机器学习模型中进行训练,训练结束后对初步形成的坐姿检测模型检测其准确度,检验方法为将一组检验样本输入坐姿检测模型121中计算准确率,检验样本包括大量(如8000~10000张)坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的点阵数据,若坐姿检测模型的准确率在95%以上,则得到可以应用于坐姿检测装置中的坐姿检测模型121,若准确率不足95%,则重新对训练样本进行分组,或者增加样本数量,重新训练或迭代训练,直至准确率达到95%以上。
当有一未知组别的新样本(实时采集的、位于检测区内一用户对应的点阵数据)被录入至训练后的坐姿检测模型121中时,该坐姿检测模型121可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。若是,证明用户实时坐姿为左侧姿、右侧姿或是低头姿中的一种,输出与每一姿态相应的告警信号。
本实施例中应用XGBoost函数进行机器学习,XGBoost是boosting算法的一种,是以决策树为基础的一种梯度提升算法。通过多轮迭代,每轮迭代产生一个弱分类器,每个分类器在上一轮分类器的残差基础上进行训练。对弱分类器的要求一般是足够简单,并且是低方差和高偏差的。因为训练的过程是通过降低偏差来不断提高最终分类器的精度。弱分类器一般会选择为CART TREE(也就是分类回归树,同时XGBoost还支持线性分类器)。由于上述高偏差和简单的要求每个分类回归树的深度不会很深。最终的总分类器是将每轮训练得到的弱分类器加权求和得到的(也就是加法模型)。
XGBoost是对梯度提升(Gradient Boosting)算法的一种改进,求解Lossfunction(损失函数)极值时使用牛顿法,牛顿法是将损失函数泰勒二阶展开,在损失函数中加入了正则化项。模型的目标函数由两部分构成,第一部分为梯度提升算法损失,第二部分为正则化项。
其损失函数定义为:
Figure BDA0002881632340000061
若训练样本的函数样本数目为n,对单个样本的损失为l,假设其是凸函数,y'i为模型对训练样本的预测值,yi为训练样本的真实标签值。正则化项定义了模型的复杂程度:
Figure BDA0002881632340000062
其中,Υ和λ为人工设置的参数,w为决策树所有叶子节点值形成的向量,T为叶子节点数。
人机交互模块15可以为机械按键开关或是触摸按键,优选为一种触控按键,通过AD转换器14与处理器12相连,用于接收用户的触摸操作,可以对照明装置17进行亮度的调节以及手动对照明装置17进行开关,例如:当照明装置17开启时,用户按压第一次触摸按键的时间小于2秒,降低照明装置17的亮度,再次触摸可使照明装置17关闭,若第一次触摸按键的时间大于2秒,照明装置17将直接关闭。
用户的触摸操作经AD转换器14转换后,将数字信号发送至所述处理器12,并由处理器12作出相应指示对照明装置17的亮度进行调节。触控控制模块的原理是在电路板上形成两片极板,人手指作为导体在触摸极板时会使极板间的固定电容产生变化,触控控制能识别这种电容变化,并通过AD转换器14将其转换为电信号发送给处理器12处理。
告警装置13可以为语音输出装置,如扬声器,用以提醒用户坐姿不标准,在语音输出装置中可以设定不同的提醒语音,类似于“抬起头可以保护视力免遭学习侵害哦”以及“坐姿偏右啦,快快调整”等,增强坐姿检测装置的人性化特点,柔和的提醒方式可以降低用户使用时被纠正坐姿所产生的消极情绪。
告警装置13还可以为连接照明装置中光源1721的开关控制电路,当用户的不标准坐姿维持一段时间,即坐姿检测模型121连续n次(n为自然数,优选为3-5)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源1721,提醒用户坐姿不标准,迫使用户调整坐姿,关闭照明装置中光源1721的可以有效地使用户调整坐姿,避免用户在错误坐姿的状态下保持过长时间,达到保护用户视力的目的。
电源16与照明装置17以及处理器12相连,电源16将线电压转换为一种或多种合适的电压,为处理器12以及照明装置17等用电模块提供电力支持。照明装置17,与电源16相连,用于为坐姿检测装置提供照明功能,可以根据处理器12的指令进行调节亮度,为用户提供更加良好的学习以及工作环境,使用户在使用过程中能感受到照明亮度带来的舒适感。
如图2所示的处理器的结构示意图,为了增强坐姿检测装置对于用户坐姿调整的功能,坐姿检测装置还增设了WIFI模块122以及数据分析整理模块123,WIFI模块122与处理器12相连,用于收集用户坐姿信息以及坐姿检测装置使用时长等数据,并根据用户需要汇总整理出相关信息。数据分析整理模块123用于对上述整理出的相关信息进行统计分析,给用户呈现一段时间内的坐姿检测装置的使用状况信息,以便更好地改善使用习惯。
例如,数据分析整理模块123分析后得出时长数据,如一段时间内用户每日使用坐姿检测装置的时长以及该时间段内用户坐姿的标准时长,及时反馈给用户。
用户信息与设备绑定,在本发明中允许用户将设备与服务器上的用户信息进行绑定。用户在完成绑定操作后,后台服务器会接收用户设备发来的设备使用信息(包括设备ID、照明时长、坐姿状态等),经过数据库映射程序,在后台为用户建立一个完整的用户档案,后台服务器会统计一段时间内用户的坐姿情况(包括用户的坐姿不标准的概率以及常使用的不标准坐姿等),并根据统计的结果为用户提供科学的使用建议,从而更好的保护用户的视力。
后台服务器经过大数据分析技术可以将用户发送的设备使用信息转换为对用户有用的健康信息,同时,服务器会将用户的有效坐姿时间和台灯的照明时间数据进行对照,并利用专用的算法进行分析,得出用户的学习时间。
服务器会收集一段时间内(周、月、季度)的用户坐姿信息进行记录和分析,从而了解用户的坐姿的变化情况,并及时反馈至用户的手机上,服务器还会记录用户每次使用坐姿检测装置时设定的良好坐姿距离标准值,并跟踪记录在一段时间内的标准值变化情况,假如该值在一段时间内突然变小,我们就会提醒用户注意视力和坐姿的变化,及时进行预防和治疗。
本发明会记录用户坐姿的实时变化情况,并上传至服务器,服务器会分析用户坐姿变化的相关数据,并通过特定算法将其转换为学习的专注度信息。
如图3所示,本实施例还提供了一种坐姿检测装置,优选台灯,包括照明装置17、连杆171、灯座173以及姿态采集传感器11,姿态采集传感器与检测区相对设置安装至连杆,姿态采集装置11为感应点阵19,照明装置17包括光源1721,光源1721可以由LED灯、荧光灯或是其他可以发光装置构成,感应点阵19置于连杆171的一侧,
用户使用台灯时将感应点阵19朝向身体,感应点阵19由排成矩阵的多个传感器组成。
照明装置17可旋转式连接连杆172,当用户想改变照明装置17照射处时,可以通过手动旋转灯头172实现其目的,为用户提供更多的照明角度,方便用户的工作生活。灯座173通过连杆171连接照明装置17,为坐姿台灯提供稳固的基座,防止坐姿检测台灯因防止不稳而摔落损坏。
感应点阵19用于测量用户或物体与感应点阵19之间的距离值,用户使用上述台灯时,置于照明装置17上的感应点阵19会对用户到感应点阵19的距离进行监测,通过对用户头顶到眼部距离的估算以及用户头顶位置的到桌面的高度,推算出用户眼部到桌面的距离,处理器12可依据点阵数据分布计算出头部或眼部到桌面的高度,可以解决当用户头部偏移时,人体坐姿在感应点阵19中显示的高度与正坐状态下相同,但是不同姿态下头部到传感器的距离不同的问题。
感应点阵19发出的光脉冲(如:红外线等)反射回坐姿检测装置,计算往返时间并结合光速可以达到测距目的,当用户移动时,测距的结果也会随之改变,达到对用户姿态实时监测的目的。
如图4所示,基于前文所述的坐姿检测装置,本实施例还提供了一种坐姿检测的方法,包括如下步骤S101~S109。
步骤S101)采用机器学习技术生成坐姿检测模型。如图5所示,步骤S101包括如下步骤S1011~S1015,
S1011)采集四组不同的训练样本。每一组样本中包括相同坐姿对应的点阵数据,训练样本的组别标签相应为左侧姿、右侧姿、低头姿及正坐姿,左侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏左的点阵数据,右侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏右的点阵数据,低头姿标签中的训练样本为大量(如8000~10000张)低头坐姿的点阵数据,正坐姿标签中的训练样本为大量(如8000~10000张)坐姿端正的点阵数据。
S1012)将训练样本对录入模型进行训练。训练后可以得到初步成型的坐姿检测模型。
S1013)判断初步成型的坐姿检测模型是否合格。对初步成型的坐姿检测模型进行检验,检验方法为将一组检验样本输入坐姿检测模型中计算准确率,检验样本包括大量坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的点阵数据,若是,即坐姿检测模型的准确率在95%以上,则执行步骤S1014,若否,即准确率不足95%,则重新选择训练样本,或重新将训练样本分组,执行步骤S1014。
S1014)对初步形成的坐姿检测模型重新训练。录入新的训练样本或重新分组的训练样本至模型中,重新进行训练,并再次验证其准确率,重复执行步骤S1012-S1014,直至准确率达到95%以上。
S1015)得到可以应用于坐姿检测装置中的坐姿检测模型。
步骤S102)用户确定检测区。将坐姿检测装置摆放于用户的相对面,设置感应点阵位置,其中,感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。感应点阵到用户标准坐姿时的最小距离应为生产商预设的固定值,固定值优选范围为55~58厘米。
步骤S103)感应点阵实时采集检测区内用户姿态特征。用户姿态特征为一种点阵数据,点阵数据中包括:感应点阵中多个距离传感器采集的距离数据的集合以及采集到距离数据的距离传感器在所述感应点阵中的位置,其中,距离数据为检测区内的物体或人体与所述感应点阵的距离值。采集时间间隔优选为1秒。
步骤S104)判断检测区是否存在用户。处理器根据感应点阵采集到的点阵数据判断所述检测区是否存在用户,比较点阵数据中每一像素点对应的距离值与预设距离阈值之间的大小关系,记录距离值小于预设距离阈值的像素点为标记点,判断标记点的数量是否小于预设数量值。
若是,判定所述检测区存在用户,执行步骤S105,判断待检测坐姿是否符合标准。若否,判定检测区不存在用户,当连续n次(n为自然数,优选为3-5)判定检测区不存在用户时,执行步骤S103,并经过预设时间间隔后进入无人状态。
其中,预设距离阈值为数值范围,如53cm~57cm,优选55cm,预设数量值为a个(a为自然数),优选为3-5个,预设时间间隔为5秒,无人状态是指通过处理器将照明装置关闭,坐姿检测模型处于待机状态。
步骤S105)将步骤S103中实时采集到的用户实时姿态特征录入至坐姿检测模型中,用户实时姿态特征为感应点阵实时采集到的点阵数据,包括:感应点阵中多个距离传感器采集的距离数据的集合以及采集到距离数据的距离传感器在所述感应点阵中的位置。
步骤S106)获取匹配姿态特征的坐姿。处理器根据存在用户的点阵数据进行姿态分析,通过坐姿检测模型对点阵数据进行分类,坐姿检测模型可以判断出与该点阵数据匹配的组别标签。
步骤S107)坐姿检测模型输出坐姿,坐姿检测模型输出用户姿态特征的判断结果,得到该用户姿态特征对应的组别标签,即该用户实时坐姿是否为左侧姿、右侧姿、低头姿以及正坐姿中的一种。
步骤S108)判断姿态特征是否符合标准。对坐姿检测模型得出的分类结果,即用户姿态特征对应的组别标签进行判断,判断结果可以分为正确坐姿以及不正确坐姿,正确坐姿中包括正坐姿,不正确坐姿中包括左侧姿、右侧姿以及低头姿,当判断结果为不正确坐姿时,执行步骤S109,若判断结果为正确坐姿时,返回步骤S103。
步骤S109)告警装置提醒。根据步骤S105发送的坐姿判定结果对用户进行相应的提醒,若坐姿不正确,输出告警语音或告警信号。当告警装置为语音输出装置时,通过播报不同的语句提醒用户调整坐姿。当告警装置为连接照明装置光源的开关控制电路时,若用户的不标准坐姿持续时间大于一预设阈值时,即坐姿检测模型连续n次(n为自然数,优选为3)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源,提醒用户及时调整坐姿。告警装置提醒结束后返回步骤S103。
本实施例的有益效果是:解决用户工作或学习时无人提醒坐姿不端正的问题,简化坐姿检测装置使用的准备步骤,全面检测用户坐姿,有效提醒用户端正坐姿,以免降低视力,并且可以分辨用户不同的错误坐姿进行相应的语音提醒,让用户正确地意识到如何调整坐姿至端正状态,同时,提升坐姿检测装置与用户之间的互动性,增强用户使用时的趣味性。
实施例2
本实施例包括实施例1中大部分内容,其区别特征在于:
如图6所示,本实施例所述的坐姿检测装置,其姿态采集传感器11优选为一种影像传感器,电性连接至所述处理器,且与所述检测区相对设置。所述影像传感器包括相机、摄像头、立体相机及三维摄像头,等等。
如图7所示,本实施例所述的坐姿检测方法,其用户姿态特征不是点阵数据,而是人体影像;其坐姿检测模型的训练样本及验证样本并不包括点阵数据,而是包括检测区内的人体影像;所述坐姿检测方法中对检测区内是否存在用户并不进行判断。
实施例2所述的坐姿检测装置中,姿态采集传感器11与检测区相对设置安装至灯头,姿态采集装置11为影像传感器18,影像传感器18置于灯头172的前端,所述前端为朝向检测区、用户的一侧,影像传感器18包括相机、摄像头、立体相机及三维摄像头,优选为摄像头。影像传感器18与检测区相对设置,该影像传感器18的镜头朝向所述检测区,用以实时采集用户100在检测区内的影像,例如:上述坐姿检测装置设置于桌面200上,当用户100坐在椅子上面对影像传感器18时,上述检测区为影像传感器18朝向用户100一侧的空间。
由影像传感器18放射出的视场域111大致呈四棱锥状,处理器12可依据人体影像的分布计算出头部或眼部到桌面200的高度,可以解决当用户100头部偏移时,人体坐姿在视场域111的高度与正坐状态下相同,但是不同姿态下头部到传感器的距离不同的问题。
坐姿检测装置内包括处理器12,处理器12由一个或是多个控制单元组成,并与影像传感器18相连接。处理器12中设有一坐姿检测模型121,坐姿检测模型121获取影像传感器18生成的用户姿态特征,即人体影像,对检测区内某一用户100的坐姿的状态进行判定,坐姿检测模型121是通过采集两组以上训练样本进行机器学习训练得到的,本实施例优选为四组训练样本,每一样本中包括相同的坐姿对应的人体影像,四组训练样本的组别标签互不相同,组别标签分为左侧姿、右侧姿、低头姿以及正坐姿,其中,左侧姿样本中包括大量(如8000~10000张)人体坐姿偏左的人体影像,右侧姿样本中包括大量(如8000~10000张)人体坐姿偏右的人体影像,低头姿样本中包括大量(如8000~10000张)人体低头坐着时的人体影像,正坐姿样本中包括大量(如8000~10000张)人体坐姿端正的人体影像。其中正坐姿标记为无需告警,其余坐姿标记为告警,其中人体影像为人体坐姿图片,该人体坐姿图片中除人体坐姿图像外无其他图像或数据。
将上述四组训练样本录入一机器学习模型中进行训练,训练结束后对初步形成的坐姿检测模型检测其准确度,检验方法为将一组检验样本输入坐姿检测模型121中计算准确率,检验样本包括大量(如8000~10000张)坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的人体影像,若坐姿检测模型的准确率在95%以上,则得到可以应用于坐姿检测装置中的坐姿检测模型121,若准确率不足95%,则重新对训练样本进行分组,或者增加样本数量,重新训练或迭代训练,直至准确率达到95%以上。
当有一未知组别的新样本(实时采集的、位于检测区内一用户对应的点阵数据)被录入至训练后的坐姿检测模型121中时,该坐姿检测模型121可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。若是,证明用户实时坐姿为左侧姿、右侧姿或是低头姿中的一种,输出与每一姿态相应的告警信号。
如图7所示,基于前文所述的坐姿检测装置,本实施例还提供了一种坐姿检测的方法,包括如下步骤S201~S208。
步骤S201)生成坐姿检测模型。如图5所示,步骤S201包括如下步骤S1011~S1015,
S1011)采集四组不同的训练样本。每一组样本中包括相同坐姿对应的多张人体影像,训练样本的组别标签为一种坐姿,如左侧姿、右侧姿、低头姿及正坐姿,左侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏左的人体影像,右侧姿标签中的训练样本为大量(如8000~10000张)坐姿偏右的人体影像,低头姿标签中的训练样本为大量(如8000~10000张)低头坐姿的人体影像,正坐姿标签中的训练样本为大量(如8000~10000张)坐姿端正的人体影像。
S1012)将训练样本录入模型进行训练,训练后可以得到初步成型的坐姿检测模型。
S1013)判断初步成型的坐姿检测模型是否合格。对初步成型的坐姿检测模型进行检验,检验方法为将一组检验样本输入坐姿检测模型中计算准确率,检验样本包括大量坐姿偏左、坐姿偏右、低头坐姿以及坐姿端正的人体影像,若是,即坐姿检测模型的准确率在95%以上,则执行步骤S1014,若否,即准确率不足95%,执行步骤S1014。
S1014)对初步形成的坐姿检测模型重新训练。录入新的训练样本或重新分组的训练样本至模型中,重新进行训练,并再次验证其准确率,重复执行步骤S1012-S1014,直至准确率达到95%以上。
S1015)得到可以应用于坐姿检测装置中的坐姿检测模型。当所述坐姿检测模型被输入一未知组别的新样本(即新点阵数据)时,该坐姿检测模型可以判断出此样本的组别,即该用户实时坐姿是否为左侧姿、右侧姿以及低头姿中的一种。
步骤S202)用户确定检测区。将坐姿检测装置摆放于用户的相对面,设置影像传感器位置,使影像传感器与检测区相对设置。影像传感器到用户标准坐姿时的最小距离应为生产商预设的固定值,固定值优选范围为55~58厘米。
步骤S203)影像传感器实时采集用户姿态特征。用户姿态特征为检测区内的人体影像。采集时间间隔优选为1秒。影像传感器采集一张实时图片后,需要与一张预设的环境图片对比,以找出人体影像在实时图片中对应的区域范围。
步骤S204)处理器将姿态特征录入至坐姿检测模型中,所述姿态特征为实时图片中的人体影像。
步骤S205)获取匹配姿态特征的坐姿。处理器根据存在用户的人体影像进行姿态分析,通过处理器中的坐姿检测模型对人体影像进行分类,坐姿检测模型可以判断出与该人体影像匹配的组别标签,即该用户实时坐姿。
步骤S206)输出坐姿。处理器得出用户姿态特征的判断结果,得到该用户姿态特征对应的组别标签,即该用户实时坐姿是否为左侧姿、右侧姿、低头姿以及正坐姿中的一种。
步骤S207)判断姿态特征是否符合标准。对处理器得出的分类结果,即用户姿态特征对应的组别标签进行判断,判断结果可以分为正确坐姿以及不正确坐姿,正确坐姿中包括正坐姿,不正确坐姿中包括左侧姿、右侧姿以及低头姿,当判断结果为不正确坐姿时,执行步骤S208,若判断结果为正确坐姿时,返回步骤S203。
步骤S208)告警装置提醒。对步骤S207发送的坐姿判定结果进行相应的提醒,当告警装置为语音输出装置时,通过播报不同的语句提醒用户调整坐姿。当告警装置为连接照明装置光源的开关控制电路时,若用户的不标准坐姿持续时间大于一预设阈值时,即坐姿检测模型连续n次(n为自然数,优选为3)传输的点阵数据被判定为不标准坐姿时,关闭照明装置的光源,提醒用户及时调整坐姿。告警装置提醒结束后返回步骤S203。
告警装置提醒结束后返回步骤S203实时采集检测区内的用户姿态特征。
本实施例的有益效果是:影像传感器的应用提高了对用户坐姿捕捉的准确性,解决用户工作或学习时无人提醒坐姿不端正的烦恼,简化坐姿检测装置使用的准备步骤,全面检测用户坐姿,有效提醒用户端正坐姿,以免降低视力,并且可以分辨用户不同的错误坐姿进行相应的语音提醒,让用户正确地意识到如何调整坐姿至端正状态,同时,提升坐姿检测装置与用户之间的互动性,增强用户使用时的趣味性。
虽然在本文中参照了特定的实施方式来描述本发明,但是应该理解的是,这些实施例仅仅是本发明的原理和应用的示例。因此应该理解的是,可以对示例性的实施例进行许多修改,并且可以设计出其他的布置,只要不偏离所附权利要求所限定的本发明的范围。

Claims (17)

1.一种坐姿检测方法,其特征在于,
实时采集一检测区内的用户姿态特征;
将所述用户姿态特征录入至坐姿检测模型;以及
获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
2.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一感应点阵,与所述检测区相对设置;
所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
3.根据权利要求1所述的坐姿检测方法,其特征在于,
所述用户姿态特征为点阵数据,其包括:
所述感应点阵中多个距离传感器采集的距离数据的集合;以及
采集到距离数据的距离传感器在所述感应点阵中的位置;
其中,所述距离数据为检测区内的物体或人体与所述感应点阵的距离值。
4.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集一检测区内的用户姿态特征的步骤之前,还包括如下步骤:设置一影像传感器,与所述检测区相对设置。
5.根据权利要求1所述的坐姿检测方法,其特征在于,
所述用户姿态特征为检测区内的人体影像。
6.根据权利要求1所述的坐姿检测方法,其特征在于,
所述坐姿检测模型的生成方法,包括如下步骤:
采集两组以上的训练样本,每一组样本包括多个相同坐姿对应的用户姿态特征,所述用户姿态特征为点阵数据或人体影像,训练样本的组别标签为不同种类的坐姿;
将所述训练样本录入至一机器学习模型进行训练;以及
生成一坐姿检测模型。
7.根据权利要求1所述的坐姿检测方法,其特征在于,
当一用户姿态特征被录入至所述坐姿检测模型时,
所述坐姿检测模型能够判断出与该用户姿态特征匹配的组别标签,也即坐姿的种类。
8.根据权利要求1所述的坐姿检测方法,其特征在于,
在所述实时采集点阵数据的步骤之后,在所述将所述用户姿态特征录入至坐姿检测模型的步骤之前,还包括如下步骤:
判断所述检测区是否存在用户;若是,执行下一步骤;若否,返回所述实时采集一检测区内的用户姿态特征的步骤。
9.根据权利要求5所述的坐姿检测方法,其特征在于,
判断所述检测区是否存在用户的步骤,具体包括如下步骤:
比较所述点阵数据中每一像素点对应的距离值与一预设距离阈值;
记录距离值小于预设距离阈值的像素点为标记点;
判断所述标记点的数量是否小于一预设数量值,若是,判定所述检测区存在用户;若否,判定所述检测区不存在用户。
10.根据权利要求1所述的坐姿检测方法,其特征在于,
在输出该人体的坐姿的步骤之后,还包括如下步骤:
判断所述用户坐姿是否为正确坐姿,若否,发出报警信号。
11.一种坐姿检测装置,其特征在于,包括:
姿态采集传感器,用于实时采集一检测区内的用户姿态特征;以及
处理器,用于
将所述用户姿态特征录入至坐姿检测模型,
获取匹配所述用户姿态特征的用户坐姿,并输出该用户坐姿。
12.根据权利要求11所述的坐姿检测装置,其特征在于,还包括
感应点阵,电性连接至所述处理器,且与所述检测区相对设置;
所述感应点阵为多个距离传感器组成的矩阵,每一距离传感器为该点阵中的一个像素点。
13.根据权利要求11所述的坐姿检测装置,其特征在于,
所述姿态采集传感器为距离传感器,所述距离传感器包括TOF传感器、超声波传感器、激光传感器及结构光传感器。
14.根据权利要求11所述的坐姿检测装置,其特征在于,所述感应点阵的横向、纵向分别设置6-10个距离传感器。
15.根据权利要求11所述的坐姿检测装置,其特征在于,
所述姿态采集传感器为影像传感器,电性连接至所述处理器,且与所述检测区相对设置;
所述影像传感器包括相机、摄像头、立体相机及三维摄像头。
16.根据权利要求11所述的坐姿检测装置,其特征在于,还包括台灯,包括灯座、灯头以及连杆,所述连杆连接所述灯座及灯头;
所述姿态采集传感器安装至灯头或连杆;
所述姿态采集传感器与所述检测区相对设置。
17.根据权利要求11所述的坐姿检测装置,其特征在于,还包括告警装置,连接至所述处理器;
所述告警装置为语音输出装置;或者,
所述告警装置为开关控制电路,连接至所述照明装置的光源。
CN202110001649.5A 2021-01-04 2021-01-04 坐姿检测装置及坐姿检测方法 Pending CN112633411A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110001649.5A CN112633411A (zh) 2021-01-04 2021-01-04 坐姿检测装置及坐姿检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110001649.5A CN112633411A (zh) 2021-01-04 2021-01-04 坐姿检测装置及坐姿检测方法

Publications (1)

Publication Number Publication Date
CN112633411A true CN112633411A (zh) 2021-04-09

Family

ID=75290853

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110001649.5A Pending CN112633411A (zh) 2021-01-04 2021-01-04 坐姿检测装置及坐姿检测方法

Country Status (1)

Country Link
CN (1) CN112633411A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035696A (zh) * 2022-07-07 2022-09-09 中南迅智科技有限公司 一种学习过程姿势采集提醒系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109783999A (zh) * 2019-03-18 2019-05-21 杭州镜之镜科技有限公司 校园近视防控装置及方法
CN110458010A (zh) * 2019-07-05 2019-11-15 武汉迈格驷友科技有限公司 一种智能台灯、一种坐姿检测方法及一种电子设备
CN111178313A (zh) * 2020-01-02 2020-05-19 深圳数联天下智能科技有限公司 一种监督用户坐姿的方法及设备
US20200211353A1 (en) * 2019-01-02 2020-07-02 Beijing Boe Optoelectronics Technology Co., Ltd. Seat
CN111685635A (zh) * 2020-03-19 2020-09-22 广东蓝水花智能电子有限公司 一种人体坐姿矫正方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200211353A1 (en) * 2019-01-02 2020-07-02 Beijing Boe Optoelectronics Technology Co., Ltd. Seat
CN109783999A (zh) * 2019-03-18 2019-05-21 杭州镜之镜科技有限公司 校园近视防控装置及方法
CN110458010A (zh) * 2019-07-05 2019-11-15 武汉迈格驷友科技有限公司 一种智能台灯、一种坐姿检测方法及一种电子设备
CN111178313A (zh) * 2020-01-02 2020-05-19 深圳数联天下智能科技有限公司 一种监督用户坐姿的方法及设备
CN111685635A (zh) * 2020-03-19 2020-09-22 广东蓝水花智能电子有限公司 一种人体坐姿矫正方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035696A (zh) * 2022-07-07 2022-09-09 中南迅智科技有限公司 一种学习过程姿势采集提醒系统
CN115035696B (zh) * 2022-07-07 2024-05-10 中南迅智科技有限公司 一种学习过程姿势采集提醒系统

Similar Documents

Publication Publication Date Title
WO2020186480A1 (zh) 近视预测系统及方法
Erden et al. Hand gesture based remote control system using infrared sensors and a camera
CN111178313B (zh) 一种监督用户坐姿的方法及设备
Huang et al. Face detection from cluttered images using a polynomial neural network
Heydarzadeh et al. In-bed posture classification using deep autoencoders
JP2000146538A (ja) 3次元物体識別装置
US20020039111A1 (en) Automated visual tracking for computer access
JPH06202787A (ja) ペン・コンピュータ
CN109783999B (zh) 校园近视防控装置及方法
CN110897425A (zh) 儿童坐姿检测坐垫、与坐垫交互的装置以及坐姿监测方法
Xu et al. A sensing cushion using simple pressure distribution sensors
US20190329364A1 (en) Object Recognition and Presentation for the Visually Impaired
CN212679100U (zh) 姿态检测系统、姿态检测装置以及桌子套件
CN112633411A (zh) 坐姿检测装置及坐姿检测方法
CN108647657A (zh) 一种基于多元行为数据的云端教学过程评价方法
CN114255508A (zh) 一种基于OpenPose的学生体态检测分析及效率评估方法
CN205208239U (zh) 一种具有坐姿检测功能的智能护眼台灯
CN111695520A (zh) 一种高精度的儿童坐姿检测与矫正方法及装置
CN109343694B (zh) 一种用于猜拳划拳游戏的手势识别系统和方法
Islam et al. Improving real-time hand gesture recognition system for translation: Sensor development
KR100969927B1 (ko) 사용자 지향적 비접촉식 상호 작용 디스플레이 장치
CN106815264B (zh) 一种信息处理方法及系统
CN110489005B (zh) 具有触摸定位功能的二维点显器及其二维触点驱动方法
CN112084814B (zh) 一种学习辅助方法和智能装置
Essakki et al. EchoSight: Blending Deep Learning and Computer Vision for Unparalleled Navigational Support for the Visually Impaired

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination