CN107169453B - 一种基于深度传感器的坐姿检测方法 - Google Patents

一种基于深度传感器的坐姿检测方法 Download PDF

Info

Publication number
CN107169453B
CN107169453B CN201710343118.8A CN201710343118A CN107169453B CN 107169453 B CN107169453 B CN 107169453B CN 201710343118 A CN201710343118 A CN 201710343118A CN 107169453 B CN107169453 B CN 107169453B
Authority
CN
China
Prior art keywords
sitting posture
view
foreground image
head
sitting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201710343118.8A
Other languages
English (en)
Other versions
CN107169453A (zh
Inventor
许德球
罗武胜
杜列波
鲁琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hunan Juhui Technology Development Co ltd
Original Assignee
Hunan Juhui Technology Development Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hunan Juhui Technology Development Co ltd filed Critical Hunan Juhui Technology Development Co ltd
Priority to CN201710343118.8A priority Critical patent/CN107169453B/zh
Publication of CN107169453A publication Critical patent/CN107169453A/zh
Application granted granted Critical
Publication of CN107169453B publication Critical patent/CN107169453B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

一种基于深度传感器的坐姿检测方法,包括以下步骤:(1)采集人体坐姿数据并存储;(2)建立坐姿训练模型;(3)图像采集,坐姿判定;(4)坐姿提醒。本发明坐姿检测种类多且检测准确度高。

Description

一种基于深度传感器的坐姿检测方法
技术领域
本发明涉及坐姿检测方法,具体是涉及一种基于深度传感器的坐姿检测方法。
背景技术
随着社会的发展,电脑的普及、学习的压力以及工作的需要,人们每天坐立的时间越来越长。据统计,如今人们平均每天坐立的时间超过8个小时。在长时间的坐立情况下,由于人们很难一直保持良好的坐立姿态,因此很容易出现离书桌太近、身体倾斜、头偏等不良坐姿,久而久之,就会很容易患上近视、斜眼、腰椎疾病、颈椎疾病等,严重的影响人们的身体健康。
15年,北京大学教授李玲发布了一份《国民视觉健康报告》,报告显示2012年我国5岁以上人群中,近视和远视的患病人数约有5亿,近视人数在4.5亿左右。其中,高中生和大学生的近视患病率均超过70%,并且在逐年增加,青少年近视患病率已高居世界第一位。引起近视的最主要原因就是坐姿不正确,眼睛离书桌太近以及用眼过度。
对于上班族,经常会长时间的坐在办公室里工作,由于坐立的时间过长、坐姿的不正确、缺乏运动以及身体承受能力的下降,导致70%的人都受到腰椎疾病的困扰。因此对人们的坐姿进行检测,当出现不良的坐姿时及时提醒纠正是非常重要的,也是人们迫切需要的。
目前,已有很多坐姿检测、预防近视、纠正坐姿的技术方案。其中,它们基本上都是通过传感器(红外、压力、加速度、超声波等传感器)实现。例如:申请号为201020571032.4的中国专利申请“智能学习桌”采用红外传感器和超声波传感器,监测用户头部与书桌的距离来判断坐姿是否正确;申请号为201510182899.8的中国专利申请“一种具有坐姿纠正功能的智能座椅”通过安装在椅子上的压力传感器判断人体坐姿是否倾斜;申请号为201610636497.5的中国专利申请“一种学生用防近视眼姿势防控方法”将距离传感器与倾斜传感器套接在用户头上,实现近视与身体倾斜的检测。
上述通过传感器进行坐姿检测的方案具有测量数据准确度高的优点,但是其测量数据过于单一,;另外,传感器需要进行安装或者让用户进行佩戴,这不仅会让用户感到不适,而且安装使用麻烦、成本较高,存在很多局限性。
另外一种方法就是通过图像进行坐姿监测,这种方式虽然图像数据处理比较复杂,但是其获取信息丰富,而且使用方便。因此成为未来主要的研究方向。目前通过图像进行坐姿监测的研究相对来说还比较少,还处于初步探索阶段。现有的通过图像进行坐姿检测的方案有:申请号为200910242665.2的中国专利申请“一种坐姿检测方法及装置”采用电脑上的摄像头采集目标用户图像,检测人脸、眼睛、肩部后得到人脸倾斜角度、眼睛区域面积和头肩曲线,将检测的结果与预设的标准值进行比较,得出坐姿结果。这种方式由于是采用彩色图像容易受到光照的影响,另外不同人的坐姿标准不一样,因此其检测不同的人容易造成误差。201310284585.X的中国专利申请“一种基于椭圆检测的近视预防装置及方法”通过头部重心的高低预防近视,这种检测方法太笼统,并且对于不同身高的人很容易产生错误。申请号为201410134765.4的中国专利申请“一种矫正坐姿的智能书桌及其矫正方法”通过红外线发射器与红外线摄像头进行主动式红外成像,提取结构光的特征点信息,测定特征点的深度信息,复原对象轮廓,完成图像的三维重建,并根据对象轮廓信息运用机器学习的方法识别出人眼、胸部、主要关节、桌面等对象,提取人体脊椎的骨骼模型,计算坐距、视矩,通过骨骼模型与标准的模型进行比较,判断含胸、歪斜等坐姿。这种通过机器学习识别出骨骼模型进行姿态识别具有较好的准确率,但是通过机器学习进行骨骼点的确定识别准确度往往不高,很容易影响坐姿的识别。申请号为201510918810.X的中国专利申请“一种用于监视坐姿的系统”采集坐姿图像,通过图像中目标所占比例与椭圆检测判定是否有人坐立,通过记录时间提醒人时常起身活动,这种方式检测的信息过于单一。申请号为201510864542.8的一中国专利申请“一种多模态学习过程状态信息压缩记录方法”用Kinect采集坐姿信息,根据Hu不变矩、支持向量机(SVM)对端坐、左倾、右倾、前靠、后仰五种坐姿进行了识别,由于人体姿态多变,因此这种方法通过Hu不变矩进行坐姿检测的准确度不高,对于不同的人不同的姿态适用性不好,另外该方法检测的姿态不够丰富。申请号为201610394250.7的一中国专利申请“一种基于双目相机的实时人体坐姿情况检测方法”利用双目相机采集坐姿图像,运用相机标定得到图像的深度信息,随后检测人脸、人眼与肩部点,最后通过头部的姿态角、人体上半身的姿态角、头部与摄像头的距离进行姿态的检测与近视的判定。这种方式获取的深度信息不够准确,会对后续的坐姿判定有影响,另外其通过曲率定位肩部很容易因手部动作与坐姿的变化而影响。
总的来说,现有的坐姿检测技术,存在坐姿检测准确度不高与检测的坐姿种类少两个缺点。
发明内容
本发明所要解决的技术问题是,克服上述背景技术的不足,提供一种基于深度传感器的坐姿检测方法,坐姿检测种类多且检测准确度高。
本发明解决其技术问题采用的技术方案是,一种基于深度传感器的坐姿检测方法,包括以下步骤:
(1)采集人体坐姿数据并存储;
(2)建立坐姿训练模型;
(3)图像采集,坐姿判定;
(4)坐姿提醒。
进一步,步骤(1)中,采集人体坐姿数据并存储的具体方法如下:
(1.1)通过深度传感器采集人体的坐姿深度图像,坐姿深度图像包括正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿,
(1.2)对采集的14种坐姿深度图像进行前景提取,得到坐姿前景图并存储,作为坐姿数据库,坐姿数据库中存储的坐姿前景图包括正直坐姿前景图、左偏头坐姿前景图、右偏头坐姿前景图、低头坐姿前景图、仰头坐姿前景图、身体右斜坐姿前景图、身体左斜坐姿前景图、举右手坐姿前景图、举左手坐姿前景图、右手托腮坐姿前景图、左手托腮坐姿前景图、后躺坐姿前景图、伸展坐姿前景图与趴下坐姿前景图。
进一步,步骤(2)中,建立坐姿训练模型的具体方法如下:
(2.1)提取正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿的特征向量;
(2.2)根据步骤(2.1)中提取的坐姿特征向量通过随机森林训练得到坐姿训练模型。
进一步,步骤(2.1)中,提取正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿的特征向量的具体方法如下:
(2.1.1)提取正直坐姿的投影特征向量;
(2.1.2)提取正直坐姿的HOG特征;
(2.1.3)根据步骤(2.1.1)中的投影特征向量与步骤(2.1.2)中的HOG特征融合得到正直坐姿特征向量;
(2.1.4)按照步骤(2.1.1)、(2.1.2)、(2.1.3)的方法,依次获取左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下坐姿特征向量。
进一步,步骤(2.1.1)中,提取正直坐姿的投影特征向量的具体方法如下:
(2.1.1.1)将正直坐姿前景图在3个笛卡尔平面上进行投影,分别得到前视图、俯视图与侧视图;前视图为原始的正直坐姿前景图,前视图为分辨率是320*240的二维图像;侧视图是从侧面角度观察原始的正直坐姿前景图得到的分辨率是240*255的二维图像;俯视图是从俯视角度观察原始的正直坐姿前景图得到的分辨率是320*255的二维图像;
(2.1.1.2)分别遍历前视图、俯视图与侧视图的每一行与每一列,如果某一行或某一列的所有像素点的像素值全为0,则将该行或该列去除,最终得到饱满的前视图、俯视图与侧视图;
(2.1.1.3)使用双三次插值方法分别对饱满的前视图、俯视图与侧视图进行插值缩放,缩放后的前视图的分辨率为50*70,俯视图的分辨率为50*50,侧视图的分辨率为50*50;
(2.1.1.4)分别对缩放后的前视图、俯视图、侧视图的所有像素点的像素值进行归一化处理,即将所有像素点的像素值都按比例缩放到0-1之间,归一化处理方法如下:
Figure BDA0001295733780000061
其中,D(i,j)为投影图的像素点的像素值,投影图包括前视图、俯视图、侧视图,Dmax为投影图的最大像素值,d(i,j)为归一化后的值;
(2.1.1.5)将归一化处理后的前视图、俯视图、侧视图分别变换为对应的列向量H1,H2,H3,列向量H1,H2,H3按照前视图、俯视图、侧视图的顺序组成一个大的投影特征向量,Hprojection=[H1,H2,H3]T
(2.1.1.6)使用PCA对投影特征向量Hprojection进行降维,降维后保留90%的主成分,得到新的投影特征向量H‘projection,即正直坐姿的投影特征向量。
进一步,步骤(2.1.1.1)中,获取二维的俯视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的俯视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的俯视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的俯视图的像素点及像素值,进而得到二维的俯视图。
进一步,步骤(2.1.1.1)中,获取二维的侧视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的侧视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的侧视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的侧视图的像素点及像素值,进而得到二维的侧视图。
进一步,步骤(2.1.2)中,提取正直坐姿的HOG特征的具体方法如下:
(2.1.2.1)对饱满的前视图进行双三次插值缩放,得到分辨率为64*64的前视图;
(2.1.2.2)对插值缩放的前视图进行两层HOG特征的提取,第一层网格大小为2×2,第二层网格大小为4×4,分别对每一层求取HOG特征后,按行向量的形式排列起来得到正直坐姿的HOG特征HHOG
进一步,步骤(3)中,图像采集,坐姿判定的具体方法如下:
(3.1)通过深度传感器采集人体坐姿深度图像以及坐姿深度图像的深度距离信息,坐姿深度图像的分辨率为320*240;
(3.2)利用坐姿深度图像的深度距离信息,通过阀值分割法实现人体与背景的分割,得到坐姿前景图,通过滤波、腐蚀、膨胀算法实现噪声去除、边缘平滑;
(3.3)提取坐姿前景图的坐姿特征向量;
(3.4)将坐姿特征向量放入坐姿训练模型中测试,判定当前坐姿的类型。
与现有技术相比,本发明的优点如下:采用深度传感器采集人体学习工作时的坐姿图像,建立坐姿训练模型,提取坐姿深度图的投影特征与HOG特征,进行融合后运用随机森林训练与测试,最终实现人体多种坐姿(14种)的实时检测,坐姿检测准确度高。
具体实施方式
下面结合具体实施例对本发明作进一步详细描述。
本实施例包括以下步骤:
(1)采集人体坐姿数据并存储,具体方法如下:
(1.1)通过深度传感器采集人体的坐姿深度图像,坐姿深度图像包括正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿,
(1.2)对采集的14种坐姿深度图像进行前景提取,得到坐姿前景图并存储,作为坐姿数据库,坐姿数据库中存储的坐姿前景图包括正直坐姿前景图、左偏头坐姿前景图、右偏头坐姿前景图、低头坐姿前景图、仰头坐姿前景图、身体右斜坐姿前景图、身体左斜坐姿前景图、举右手坐姿前景图、举左手坐姿前景图、右手托腮坐姿前景图、左手托腮坐姿前景图、后躺坐姿前景图、伸展与趴下坐姿前景图。
(2)建立坐姿训练模型,具体方法如下:
(2.1)提取正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿的特征向量;
以提取正直坐姿的特征向量为例,对坐姿的特征向量提取方法进行详细说明。其他坐姿的特征向量提取方法同正直坐姿。
(2.1.1)提取正直坐姿的投影特征向量;
(2.1.1.1)将正直坐姿前景图在3个笛卡尔平面上进行投影,分别得到前视图、俯视图与侧视图;前视图为原始的正直坐姿前景图,前视图为分辨率是320*240的二维图像;侧视图是从侧面角度观察原始的正直坐姿前景图得到的分辨率是240*255的二维图像;俯视图是从俯视角度观察原始的正直坐姿前景图得到的分辨率是320*255的二维图像;
获取二维的俯视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的俯视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的俯视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的俯视图的像素点及像素值,进而得到二维的俯视图。
例如坐姿前景图的像素点(150,220)的像素值为122,则对应的俯视图的像素点为(150,122),俯视图的像素点(150,122)的像素值加1,坐姿前景图的像素点(180,210)的像素值为0,则对应的俯视图的像素点为(180,0),俯视图的像素点(180,0)的像素值加0。
获取二维的侧视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的侧视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的侧视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的侧视图的像素点及像素值,进而得到二维的侧视图。
例如坐姿前景图的像素点(150,220)的像素值为122,则对应的侧视图的像素点为(220,122),侧视图的像素点(220,122)的像素值加1,坐姿前景图的像素点(150,210)的像素值为0,则对应的侧视图的像素点为(210,0),侧视图的像素点(210,0)的像素值加0。
(2.1.1.2)分别遍历前视图、俯视图与侧视图的每一行与每一列,如果某一行或某一列的所有像素点的像素值全为0,则将该行或该列去除,最终得到饱满的前视图、俯视图与侧视图。
(2.1.1.3)使用双三次插值方法分别对饱满的前视图、俯视图与侧视图进行插值缩放,缩放后的前视图的分辨率为50*70,俯视图的分辨率为50*50,侧视图的分辨率为50*50。
(2.1.1.4)分别对缩放后的前视图、俯视图、侧视图的所有像素点的像素值进行归一化处理,即将所有像素点的像素值都按比例缩放到0-1之间,归一化处理方法如下:
Figure BDA0001295733780000111
其中,D(i,j)为投影图的像素点的像素值,投影图包括前视图、俯视图、侧视图,Dmax为投影图的最大像素值,d(i,j)为归一化后的值。
(2.1.1.5)将归一化处理后的前视图、俯视图、侧视图分别变换为对应的列向量H1,H2,H3,例如分辨率为m*n大小的投影图像,变化为m*n行的列向量。将列向量H1,H2,H3按照前视图、俯视图、侧视图的顺序组成一个大的投影特征向量,Hprojection=[H1,H2,H3]T
(2.1.1.6)使用PCA(主成分分析)对投影特征向量Hprojection进行降维,降维后保留90%的主成分,得到新的投影特征向量H‘projection,即正直坐姿的投影特征向量;
(2.1.2)提取正直坐姿的HOG特征;
提取正直坐姿的HOG特征的具体方法如下:
(2.1.2.1)对饱满的前视图进行双三次插值缩放,得到分辨率为64*64的前视图;
(2.1.2.2)对插值缩放的前视图进行两层HOG特征的提取,第一层网格大小为2×2,第二层网格大小为4×4,分别对每一层求取HOG特征后,按行向量的形式排列起来得到正直坐姿的HOG特征HHOG
(2.1.3)根据步骤(2.1.1)中的投影特征向量与步骤(2.1.2)中的HOG特征融合得到正直坐姿特征向量H;
(2.1.4)按照步骤(2.1.1)、(2.1.2)、(2.1.3)的方法,依次获取左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下坐姿特征向量;
(2.2)根据步骤(2.1)中提取的坐姿特征向量通过随机森林训练得到坐姿训练模型;
(3)图像采集,坐姿判定,具体方法如下:
(3.1)通过深度传感器采集人体坐姿深度图像以及坐姿深度图像的深度距离信息,坐姿深度图像的分辨率为320*240。
(3.2)前景提取
利用坐姿深度图像的深度距离信息,通过阀值分割法实现人体与背景的分割,得到坐姿前景图,通过滤波、腐蚀、膨胀算法实现噪声去除、边缘平滑;
(3.3)提取坐姿前景图的坐姿特征向量;具体方法同步骤(2.1.1)、(2.1.2)、(2.1.3);
(3.4)将坐姿特征向量放入坐姿训练模型中测试,判定当前坐姿的类型。
(4)坐姿提醒
若当前坐姿为左偏头、右偏头、低头、身体右斜、身体左斜时,判断为不良坐姿,若不良坐姿持续30s以上,进行语音提醒,促使人体纠正坐姿;若当前坐姿为正直、仰头、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下,则判断为非不良坐姿。若当前坐姿为正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮以及左手托腮时,则判断为学习状态;若当前坐姿为后躺、伸展与趴下,则判断为非学习状态。
(5)坐姿统计
对每一次学习的所有坐姿进行统计,统计每种姿态出现的时间,最后分别与总的学习时间相比,得到每种姿态的百分比,并用饼状图的形式显示,用于分析坐姿情况。
(6)学习状态评估
定义学习状态的总分为100分,计算正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、右手托腮以及左手托腮的9种姿态的百分比之和,根据百分比之和给予相应的分数,(如9种姿态的百分比之和为70%,则得分为70),另外,根据举右手、举左手的次数进行附加分,举手一次加2分,最后得到总得分。如果总得分大于80,则学习状态为优秀;如果总得分在60-80之间,则学习状态为良好;如果总得分小于60,则学习状态为一般。
(7)坐姿习惯分析:对学习者一个月的学习坐姿情况进行记录存储,最后统计一个总的坐姿百分比,并以给出数据显示,如果某种姿态的百分比比较大就判定学习者具有该坐姿习惯,例如身体右斜的百分比占50%以上,说明学习者有身体右斜的习惯。
本发明直接采用深度传感器采集人体学习工作时的坐姿图像,建立坐姿训练模型,提取坐姿深度图的投影特征与HOG特征,进行融合后运用随机森林训练与测试,最终实现人体多种坐姿的实时检测,坐姿检测准确度高。本发明由于使用的是深度传感器,因此采集的深度信息准确,图像分割方便,不受光照与背景的影响,另外设备安装使用很方便。本发明检测的坐姿内容非常丰富,可以对人体的坐姿习惯进行全面分析,有助于人们纠正不良坐姿,预防近视、斜眼、腰椎疾病与脊椎疾病等。
本领域的技术人员可以对本发明进行各种修改和变型,倘若这些修改和变型在本发明权利要求及其等同技术的范围之内,则这些修改和变型也在本发明的保护范围之内。
说明书中未详细描述的内容为本领域技术人员公知的现有技术。

Claims (4)

1.一种基于深度传感器的坐姿检测方法,其特征在于,包括以下步骤:
(1)采集人体坐姿数据并存储;
(2)建立坐姿训练模型;
(3)图像采集,坐姿判定;
(4)坐姿提醒;
步骤(1)中,采集人体坐姿数据并存储的具体方法如下:
(1.1)通过深度传感器采集人体的坐姿深度图像,坐姿深度图像包括正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿,
(1.2)对采集的14种坐姿深度图像进行前景提取,得到坐姿前景图并存储,作为坐姿数据库,坐姿数据库中存储的坐姿前景图包括正直坐姿前景图、左偏头坐姿前景图、右偏头坐姿前景图、低头坐姿前景图、仰头坐姿前景图、身体右斜坐姿前景图、身体左斜坐姿前景图、举右手坐姿前景图、举左手坐姿前景图、右手托腮坐姿前景图、左手托腮坐姿前景图、后躺坐姿前景图、伸展坐姿前景图与趴下坐姿前景图;
步骤(2)中,建立坐姿训练模型的具体方法如下:
(2.1)提取正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿的特征向量;
(2.2)根据步骤(2.1)中提取的坐姿特征向量通过随机森林训练得到坐姿训练模型;
步骤(2.1)中,提取正直、左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下14种坐姿的特征向量的具体方法如下:
(2.1.1)提取正直坐姿的投影特征向量;
(2.1.2)提取正直坐姿的HOG特征;
(2.1.3)根据步骤(2.1.1)中的投影特征向量与步骤(2.1.2)中的HOG特征融合得到正直坐姿特征向量;
(2.1.4)按照步骤(2.1.1)、(2.1.2)、(2.1.3)的方法,依次获取左偏头、右偏头、低头、仰头、身体右斜、身体左斜、举右手、举左手、右手托腮、左手托腮、后躺、伸展与趴下坐姿特征向量;
步骤(2.1.1)中,提取正直坐姿的投影特征向量的具体方法如下:
(2.1.1.1)将正直坐姿前景图在3个笛卡尔平面上进行投影,分别得到前视图、俯视图与侧视图;前视图为原始的正直坐姿前景图,前视图为分辨率是320*240的二维图像;侧视图是从侧面角度观察原始的正直坐姿前景图得到的分辨率是240*255的二维图像;俯视图是从俯视角度观察原始的正直坐姿前景图得到的分辨率是320*255的二维图像;
(2.1.1.2)分别遍历前视图、俯视图与侧视图的每一行与每一列,如果某一行或某一列的所有像素点的像素值全为0,则将该行或该列去除,最终得到饱满的前视图、俯视图与侧视图;
(2.1.1.3)使用双三次插值方法分别对饱满的前视图、俯视图与侧视图进行插值缩放,缩放后的前视图的分辨率为50*70,俯视图的分辨率为50*50,侧视图的分辨率为50*50;
(2.1.1.4)分别对缩放后的前视图、俯视图、侧视图的所有像素点的像素值进行归一化处理,即将所有像素点的像素值都按比例缩放到0-1之间,归一化处理方法如下:
Figure 424095DEST_PATH_IMAGE002
;其中,
Figure DEST_PATH_IMAGE003
为投影图的像素点的像素值,投影图包括前视图、俯视图、侧视图,
Figure 240742DEST_PATH_IMAGE004
为投影图的最大像素值,
Figure DEST_PATH_IMAGE005
为归一化后的值;
(2.1.1.5)将归一化处理后的前视图、俯视图、侧视图分别变换为对应的列向量H1,H2 ,H3 ,列向量H1,H2 ,H3按照前视图、俯视图、侧视图的顺序组成一个大的投影特征向量 ,
Figure 538605DEST_PATH_IMAGE006
(2.1.1.6)使用PCA对投影特征向量
Figure DEST_PATH_IMAGE007
进行降维,降维后保留90%的主成分,得到新的投影特征向量
Figure 61991DEST_PATH_IMAGE008
,即正直坐姿的投影特征向量;
步骤(3)中,图像采集,坐姿判定的具体方法如下:
(3.1)通过深度传感器采集人体坐姿深度图像以及坐姿深度图像的深度距离信息,坐姿深度图像的分辨率为320*240;
(3. 2)利用坐姿深度图像的深度距离信息,通过阈值分割法实现人体与背景的分割,得到坐姿前景图,通过滤波、腐蚀、膨胀算法实现噪声去除、边缘平滑;
(3. 3)提取坐姿前景图的坐姿特征向量;
(3. 4)将坐姿特征向量放入坐姿训练模型中测试,判定当前坐姿的类型。
2.如权利要求1所述的基于深度传感器的坐姿检测方法,其特征在于:步骤(2.1.1.1)中,获取二维的俯视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的俯视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的俯视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的俯视图的像素点及像素值,进而得到二维的俯视图。
3.如权利要求1所述的基于深度传感器的坐姿检测方法,其特征在于:步骤(2.1.1.1)中,获取二维的侧视图的具体方法如下:获取正直坐姿前景图的所有像素点,如果正直坐姿前景图在某一像素点的像素值不等于0,则该像素点对应的侧视图的像素点的像素值加1,如果正直坐姿前景图在某一像素点的像素值等于0,则该像素点对应的侧视图的像素点的像素值加0;按以上方法依次得到正直坐姿前景图的所有像素点对应的侧视图的像素点及像素值,进而得到二维的侧视图。
4.如权利要求1所述的基于深度传感器的坐姿检测方法,其特征在于:步骤(2.1.2)中,提取正直坐姿的HOG特征的具体方法如下:
(2.1.2.1)对饱满的前视图进行双三次插值缩放,得到分辨率为64*64的前视图;
(2.1.2.2)对插值缩放的前视图进行两层HOG特征的提取,第一层网格大小为2×2,第二层网格大小为4×4,分别对每一层求取HOG特征后,按行向量的形式排列起来得到正直坐姿的HOG特征
Figure DEST_PATH_IMAGE009
CN201710343118.8A 2017-05-16 2017-05-16 一种基于深度传感器的坐姿检测方法 Expired - Fee Related CN107169453B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710343118.8A CN107169453B (zh) 2017-05-16 2017-05-16 一种基于深度传感器的坐姿检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710343118.8A CN107169453B (zh) 2017-05-16 2017-05-16 一种基于深度传感器的坐姿检测方法

Publications (2)

Publication Number Publication Date
CN107169453A CN107169453A (zh) 2017-09-15
CN107169453B true CN107169453B (zh) 2020-07-17

Family

ID=59815085

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710343118.8A Expired - Fee Related CN107169453B (zh) 2017-05-16 2017-05-16 一种基于深度传感器的坐姿检测方法

Country Status (1)

Country Link
CN (1) CN107169453B (zh)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI643096B (zh) * 2017-10-24 2018-12-01 長庚大學 Head and neck posture monitoring method
CN108991797A (zh) * 2018-08-07 2018-12-14 顾哲锴 坐姿自动校正装置
CN109063697A (zh) * 2018-10-11 2018-12-21 浙江工业大学 一种基于信道状态信息的人体坐姿检测方法
CN109785396B (zh) * 2019-01-23 2021-09-28 中国科学院自动化研究所 基于双目相机的写字姿态监测方法、系统、装置
CN110020628B (zh) * 2019-04-10 2021-01-05 刘家祺 基于面部检测的坐姿检测方法、系统、设备及存储介质
CN110148092B (zh) * 2019-04-16 2022-12-13 无锡海鸿信息技术有限公司 基于机器视觉的青少年坐姿及情绪状态的分析方法
CN110440697A (zh) * 2019-08-08 2019-11-12 肖乐 纠正坐姿智能系统及方法
CN112861563A (zh) * 2019-11-12 2021-05-28 北京君正集成电路股份有限公司 一种坐姿检测的检测方法及其系统
CN111127848A (zh) * 2019-12-27 2020-05-08 深圳奥比中光科技有限公司 一种人体坐姿检测系统及方法
CN112329728A (zh) * 2020-11-27 2021-02-05 顾翀 一种基于物体检测的多人坐姿检测方法及系统
CN114639157B (zh) * 2022-05-18 2022-11-22 合肥的卢深视科技有限公司 不良学习行为检测方法、系统、电子设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103999126A (zh) * 2011-12-16 2014-08-20 吕贝克大学 用于估计姿态的方法和装置
CN105389539A (zh) * 2015-10-15 2016-03-09 电子科技大学 一种基于深度数据的三维手势姿态估计方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103999126A (zh) * 2011-12-16 2014-08-20 吕贝克大学 用于估计姿态的方法和装置
CN105389539A (zh) * 2015-10-15 2016-03-09 电子科技大学 一种基于深度数据的三维手势姿态估计方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Recognizing actions using depth motion maps-based histograms of oriented gradients;Xiaodong Yang er.al;《Proceedings of the 20th ACM international conference on Multimedia》;20121031(第1期);第1-4 *
TriViews: A general framework to use 3D depth data effectively for action recognition;WenbinChen et.al;《Journal of Visual Communication and Image Representation》;20150131(第26期);第182-191页 *

Also Published As

Publication number Publication date
CN107169453A (zh) 2017-09-15

Similar Documents

Publication Publication Date Title
CN107169453B (zh) 一种基于深度传感器的坐姿检测方法
CN107169456B (zh) 一种基于坐姿深度图像的坐姿检测方法
CN110934591B (zh) 一种坐姿检测方法及装置
CN109785396B (zh) 基于双目相机的写字姿态监测方法、系统、装置
CN111126180B (zh) 一种基于计算机视觉的面瘫严重程度自动检测系统
CN104915656B (zh) 一种基于双目视觉测量技术的快速人脸识别方法
CN110309787B (zh) 一种基于深度相机的人体坐姿检测方法
CN112308932B (zh) 一种注视检测方法、装置、设备及存储介质
CN112232128B (zh) 基于视线追踪的老年残障人士照护需求识别方法
CN109271918B (zh) 基于重心偏移模型区分平衡能力障碍人群的方法
CN111933275A (zh) 一种基于眼动与面部表情的抑郁评估系统
WO2015192879A1 (en) A gaze estimation method and apparatus
CN111027517A (zh) 一种基于视觉的坐姿矫正提醒系统及方法、应用
Wu et al. Appearance-based gaze block estimation via CNN classification
JP2023549838A (ja) 児童の顔認識に基づく児童の座位姿勢検出の方法及びシステム
CN113065532B (zh) 一种基于rgbd图像的坐姿几何参数检测方法及系统
CN114202795A (zh) 一种老年人瞳孔快速定位方法
CN113989936A (zh) 一种可识别儿童坐姿并自动语音纠正的台灯
CN114022514A (zh) 一种融合头部姿态和眼球跟踪的实时视线推断方法
CN116469174A (zh) 一种基于单目摄像头的深度学习坐姿测量检测方法
CN114550099A (zh) 基于数字孪生的综合健康管理系统
CN106327484B (zh) 一种用于牙医操作姿势评估的方法
CN115294018A (zh) 一种基于rgb-d图像的颈部肌张力障碍识别系统
CN115713800A (zh) 图像分类方法及装置
CN112329640A (zh) 基于眼部肌肉运动分析的面部神经麻痹疾病康复检测系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20200717

CF01 Termination of patent right due to non-payment of annual fee