CN115909394A - 一种坐姿识别的方法、装置、智能台灯及计算机存储介质 - Google Patents

一种坐姿识别的方法、装置、智能台灯及计算机存储介质 Download PDF

Info

Publication number
CN115909394A
CN115909394A CN202211315582.3A CN202211315582A CN115909394A CN 115909394 A CN115909394 A CN 115909394A CN 202211315582 A CN202211315582 A CN 202211315582A CN 115909394 A CN115909394 A CN 115909394A
Authority
CN
China
Prior art keywords
sitting posture
point
target image
human body
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202211315582.3A
Other languages
English (en)
Other versions
CN115909394B (zh
Inventor
潘颢文
张勇
秦璇
罗丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhuhai Shixi Technology Co Ltd
Original Assignee
Zhuhai Shixi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhuhai Shixi Technology Co Ltd filed Critical Zhuhai Shixi Technology Co Ltd
Priority to CN202211315582.3A priority Critical patent/CN115909394B/zh
Publication of CN115909394A publication Critical patent/CN115909394A/zh
Application granted granted Critical
Publication of CN115909394B publication Critical patent/CN115909394B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02BCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
    • Y02B20/00Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
    • Y02B20/40Control techniques providing energy savings, e.g. smart controller or presence detection

Landscapes

  • Image Analysis (AREA)

Abstract

本申请公开了一种坐姿识别的方法、装置、智能台灯及计算机存储介质,用于通过对深度图像中人体的脖子进行检测从而实现坐姿识别,提高坐姿识别的准确率。本申请方法包括:获取人体坐姿的深度图像;以所述深度图像的质心为种子点进行区域生长,得到目标图像;在所述目标图像中检测人体的脖子位置;确定所述脖子位置和所述质心的深度差,并确定所述质心的点云坐标;根据所述深度差和所述点云坐标进行坐姿识别。

Description

一种坐姿识别的方法、装置、智能台灯及计算机存储介质
技术领域
本申请涉及图像处理领域,尤其涉及一种坐姿识别的方法、装置、智能台灯及计算机存储介质。
背景技术
不同的坐姿能够表达用户的不同状态,通过坐姿识别技术能够识别出人们的坐姿种类和坐姿状态,并反馈给用户,实现坐姿干预。
现有技术中,坐姿识别的方法有很多,以前主要是通过传感器来实现,通过传感器实现的方法具有准确度高的优点,但安装传感器过程麻烦,成本高,容易让用户感到不适;随着科技的发展,近些年主要通过机器学习的方法来实现,但使用机器学习的方法检测的准确性与训练集的优质程度相关,如果出现一些样本中没有涉及的情况就可能会出现误判,并且机器学习要实现精度高,就可能要更多的卷积层,意味着更高的算力消耗,运算时间可能会更长,实时性低。
还有一些不通过机器学习的方案,需要用户使用前要预先设定一个标准坐姿,用户使用起来及其不方便。而对于不通过机器学习也不预设标准坐姿的方案,提取特征比较困难,容易造成误判,即现有的坐姿识别方法中存在算力消耗高、使用麻烦以及误判概率高的问题。
发明内容
本申请提供了一种坐姿识别的方法、装置、智能台灯及计算机存储介质,用于通过对深度图像中人体的脖子进行检测从而实现坐姿识别,提高坐姿识别的准确率。
本申请第一方面提供了一种坐姿识别的方法,包括:
获取人体坐姿的深度图像;
以所述深度图像的质心为种子点进行区域生长,得到目标图像;
在所述目标图像中检测人体的脖子位置;
确定所述脖子位置和所述质心的深度差,并确定所述质心的点云坐标;
根据所述深度差和所述点云坐标进行坐姿识别。
可选的,所述在所述目标图像中检测人体的脖子位置包括:
通过卷积模板对所述目标图像进行卷积处理,所述卷积模板包括左模板和右模板;
根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点;
将所述左肩点和右肩点的中点确定为人体的脖子位置。
可选的,在所述通过卷积模板对所述目标图像中进行卷积处理之后,所述根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点之前,所述方法还包括:
对所述卷积处理的结果进行高斯滤波和/或均值滤波。
可选的,所述通过卷积模板对所述目标图像进行卷积处理包括:
分别通过若干种不同大小的卷积模板对所述目标图像进行卷积处理,每一个所述卷积模板对应得到一对左侧点和右侧点;
所述根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点包括:
将得到的若干对左侧点和右侧点中距离最近的左侧点和右侧点确定为人体的左肩点和右肩点。
可选的,在所述通过卷积模板对所述目标图像中进行卷积处理之前,所述方法还包括:
对所述目标图像进行膨胀再侵蚀的处理。
可选的,在所述根据所述深度差和所述点云坐标进行坐姿识别之前,所述方法还包括:
判断所述左肩点和所述右肩点的位置是否发生错位;
所述根据所述深度差和所述点云坐标进行坐姿识别包括:
若否,则根据所述深度差和所述点云坐标进行坐姿识别。
可选的,在所述根据所述深度差和所述点云坐标进行坐姿识别之前,所述方法还包括:
判断所述脖子位置的深度是否为0;
所述根据所述深度差和所述点云坐标进行坐姿识别包括:
若否,则根据所述深度差和所述点云坐标进行坐姿识别。
可选的,在所述根据所述深度差和所述点云坐标进行坐姿识别之后,所述方法还包括:
若用户已完成坐姿初始化,则根据所述坐姿识别的结果提示用户调整坐姿。
若用户未进行坐姿初始化,则根据所述坐姿识别的结果提示用户调整镜头以进行坐姿初始化,当所述坐姿识别的结果为端正坐姿时,提示用户坐姿初始化完毕。
可选的,所述确定所述质心的点云坐标包括:
根据深度相机的光轴在所述目标图像中的位置、所述深度相机的镜头焦距以及所述质心在所述目标图像中的坐标确定所述质心的点云坐标。
可选的,在所述确定所述质心的点云坐标之前,所述方法还包括:
重新计算所述目标图像的质心。
本申请第二方面提供了一种坐姿识别的装置,包括:
获取单元,用于获取人体坐姿的深度图像;
生长单元,用于以所述深度图像的质心为种子点进行区域生长,得到目标图像;
检测单元,用于在所述目标图像中检测人体的脖子位置;
确定单元,用于确定所述脖子位置和所述质心的深度差,并确定所述质心的点云坐标;
识别单元,用于根据所述深度差和所述点云坐标进行坐姿识别。
可选的,所述检测单元包括:
卷积模块,用于通过卷积模板对所述目标图像进行卷积处理,所述卷积模板包括左模板和右模板;
第一确定模块,用于根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点;
第二确定模块,用于将所述左肩点和右肩点的中点确定为人体的脖子位置。
可选的,所述卷积模块还用于:
对所述卷积处理的结果进行高斯滤波和/或均值滤波;
可选的,所述卷积模块具体用于:
分别通过若干种不同大小的卷积模板对所述目标图像进行卷积处理,每一个所述卷积模板对应得到一对左侧点和右侧点;
所述第一确定模块具体用于:
将得到的若干对左侧点和右侧点中距离最近的左侧点和右侧点确定为人体的左肩点和右肩点。
可选的,所述卷积模块还用于:
对所述目标图像进行膨胀再侵蚀的处理。
可选的,所述装置还包括:
第一判断单元,用于判断所述左肩点和所述右肩点的位置是否发生错位;
所述识别单元具体用于当所述第一判断单元的判断结果为否时,根据所述深度差和所述点云坐标进行坐姿识别。
可选的,所述装置还包括:
第二判断单元,用于判断所述脖子位置的深度是否为0;
所述所述识别单元具体用于当所述第二判断单元的判断结果为否时,根据所述深度差和所述点云坐标进行坐姿识别。
可选的,所述装置还包括:
提示单元,用于当用户已完成坐姿初始化时,根据所述坐姿识别的结果提示用户调整坐姿;
所述提示单元还用于当用户未进行坐姿初始化时,根据所述坐姿识别的结果提示用户调整镜头以进行坐姿初始化,当所述坐姿识别的结果为端正坐姿时,提示用户坐姿初始化完毕。
可选的,所述确定单元具体用于:
根据深度相机的光轴在所述目标图像中的位置、所述深度相机的镜头焦距以及所述质心在所述目标图像中的坐标确定所述质心的点云坐标。
可选的,所述确定单元还用于:
重新计算所述目标图像的质心。
本申请第三方面提供了一种智能台灯,所述智能台灯执行第一方面以及第一方面中任一项可选的坐姿识别的方法。
本申请第四方面提供了一种坐姿识别的装置,所述装置包括:
处理器、存储器、输入输出单元以及总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述存储器保存有程序,所述处理器调用所述程序以执行第一方面以及第一方面中任一项可选的坐姿识别的方法。
本申请第五方面提供了一种计算机可读存储介质,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行第一方面以及第一方面中任一项可选的坐姿识别的方法。
从以上技术方案可以看出,本申请具有以下优点:
通过获取人体坐姿的深度图像,并以深度图像的质心为种子点进行区域生长得到目标图像,把人体和背景分离,再在目标图像中检测人体的脖子位置,通过脖子位置和质心的深度差反映人体的前后倾程度,并通过质心的点云坐标反映人体的左右倾程度,由此实现坐姿识别。通过本申请提供的方法进行坐姿识别准确率高且抗干扰能力强,能够排除用户头部偏移对识别结果的干扰,算力消耗低,实时性强。
附图说明
为了更清楚地说明本申请中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请提供的坐姿识别的方法一个实施例流程示意图;
图2为本申请提供的坐姿识别的方法另一个实施例流程示意图;
图3为本申请提供的坐姿识别的方法中目标图像的示意图;
图4为本申请提供的坐姿识别的方法中卷积结果的示意图;
图5为本申请提供的坐姿识别的方法中卷积结果的另一示意图;
图6为本申请提供的坐姿识别的方法中左肩点和右肩点的示意图;
图7为本申请提供的坐姿识别的装置一个实施例结构示意图;
图8为本申请提供的坐姿识别的装置另一实施例结构示意图。
具体实施方式
本申请提供了一种坐姿识别的方法、装置、智能台灯及计算机存储介质,用于通过对深度图像中人体的脖子进行检测从而实现坐姿识别,提高坐姿识别的准确率。
需要说明的是,本申请提供的基于TOF相机的坐姿识别方法,可以应用于终端,还可以应用于服务器上,例如终端可以是智能台灯、深度相机、智能手机或电脑、平板电脑、智能电视、智能手表、便携计算机终端也可以是台式计算机等固定终端。为方便阐述,本申请中以终端为执行主体进行举例说明。
请参阅图1,图1为本申请提供的坐姿识别的方法的一个实施例,该方法包括:
101、获取人体坐姿的深度图像;
在本实施例中,是利用深度图像来进行人体的坐姿识别,深度图像区别于RGB图像,深度图像没有色彩和细内容细节,能够有效保护用户隐私,并且深度图像能够反映图中每一个像素点的深度信息,通过对深度图像进行一定的预处理,能够得到图像中人体的显著图,方便后续的坐姿识别工作。在终端进行坐姿识别时,终端通过深度相机来拍摄用户的坐姿,以获取用户坐姿的深度图像。
具体的,终端向深度相机取流获得深度图像后,还需要进行深度选通,得到人体坐姿的深度图像。在一些具体的实施例中,例如终端为智能台灯,台灯在使用过程中摆放在桌面上,台灯上搭载的深度镜头则主要是对准用户的上半身进行拍摄。需要说明的是,深度选通的深度范围可根据终端与人体的摆放距离作具体设定,一般情况下可设定为200mm~1800mm,终端进行深度选通就是将该深度范围外的点的深度值置0,通过深度选通的操作可以排除大部分干扰点。
102、以深度图像的质心为种子点进行区域生长,得到目标图像;
区域生长是根据同一物体区域内像素的相似性质来聚集像素点的方法,从初始区域(质心)开始,将相邻的具有同样性质的像素归并到目前的区域中从而逐步增长区域,直至没有可以归并的点为止。需要说明的是,本实施例中深度图像的质心是指深度图像中所有有效点坐标的平均值,即所有像素值非0的点坐标的平均值。
具体的,质心坐标为
Figure BDA0003907906980000071
Figure BDA0003907906980000072
Figure BDA0003907906980000073
其中n是非零点的数量,终端将计算得到的质心坐标作为区域生长的第一个种子点。
大部分坐姿识别场景中,例如在基于台灯识别坐姿的环境下,人坐着面对台灯时,人将占据深度相机的大部分视野,因此选择图像的质心作为种子点进行区域生长,把人所在区域生长出来,同时去除掉大部分背景点,由此能够得到人体坐姿显著图,即本实施例中的目标图像。
在一些具体的实施例中,终端从图像质心开始进行区域生长,具体可以通过4临域的方式生长,即从种子点开始,遍历4临域,计算种子点附近上下左右4个点各自和种子点的深度差,如果深度差小于生长阈值,这个点就是新的种子点,新的种子点的数量是0~4个,重复生长过程直至不能获取新的种子点,即完成区域生长。需要说明的是,该生长阈值可根据实际情况作具体设置,设置太大可能会把背景生长出来,设置太小可能会导致人不能完整的生长出来。
103、在目标图像中检测人体的脖子位置;
终端在得到目标图像后,则在目标图像中检测人体的脖子位置,脖子是人体头部和躯干相连接的部分,在人体坐姿发生前、后倾斜时,脖子位置相较于躯干部分移动幅度会更大,利用脖子位置的特征进行坐姿识别不仅可以有效识别用户坐姿,还能够排除用户头部的偏移旋转带来的对坐姿识别结果的干扰。
在一些具体的实施例中,终端可以通过图像侵蚀的方式来检测人体的脖子位置,在另一些具体的实施例中,终端还可以通过特征匹配的方式来检测人体的脖子位置,具体此处不做限定。
104、确定脖子位置和质心的深度差,并确定质心的点云坐标;
在确定目标图像中人体的脖子位置后,终端计算该脖子位置的深度和质心深度的深度差,并确定质心的点云坐标。需要说明的是,该质心的点云坐标是指质心在深度相机坐标系下的点云坐标,质心的点云坐标能够反映该质心在三维空间内的位置信息,由于人体坐姿是在三维空间内发生改变,即可能出现同时出现向前向左倾斜的情况,为了提高坐姿识别的准确程度,因此对于质心采用三维的点云坐标来进行坐姿识别。具体的,终端首先确定质心在目标图像中的像素坐标,该像素坐标经过坐标转换可以计算为点云坐标,该转换的约束条件与深度相机的内参有关。
105、根据深度差和点云坐标进行坐姿识别。
在本实施例中,脖子位置和质心的深度差能够反映人体坐姿前、后倾斜的程度,而质心的点云坐标中的横坐标值能够反映用户左、右倾斜的程度,因此终端可以通过将步骤104中确定的脖子位置和质心的深度差以及质心点云坐标中的横坐标与设定阈值进行比较,以此来实现坐姿识别。
具体的,当脖子位置和质心的深度差为正数时,说明人体坐姿大概率发生前倾斜,且深度差越大说明人体坐姿前倾斜程度越大,当该深度差大于某设定阈值时,可以判定人体坐姿前倾斜。同理,当脖子位置和质心的深度差为负数时,说明人体坐姿大概率发生后倾斜,且深度差越小说明人体坐姿后倾斜程度越大,当该深度差小于某设定阈值时,可以判定人体坐姿后倾斜。左、右倾斜的判断同理,当质心点云坐标中的横坐标值小于某设定阈值时,可以判定人体坐姿左倾斜,当质心点云坐标中的横坐标值大于某设定阈值时,可以判定人体坐姿后倾斜。
在一些具体的实施例中,鉴于深度图本身有波动,而坐姿判断本身不需要过度灵敏,因此可以采用统计的方法降低波动的影响,例如连续统计20帧的上述深度差和质心点云坐标的结果,取其平均值作为最终结果进行坐姿识别。
在本实施例中,通过获取人体坐姿的深度图像,并以深度图像的质心为种子点进行区域生长得到目标图像,把人体和背景分离,再在目标图像中检测人体的脖子位置,通过脖子位置和质心的深度差反映人体的前后倾斜程度,并通过质心的点云坐标反映人体的左右倾斜程度,由此实现坐姿识别。通过本申请提供的方法进行坐姿识别准确率高且抗干扰能力强,能够排除用户头部偏移对识别结果的干扰,算力消耗低,实时性强。
下面对本申请提供的坐姿识别的方法进行详细说明,请参阅图2,图2为本申请提供的坐姿识别的方法的另一个实施例,该方法包括:
201、获取人体坐姿的深度图像;
202、以深度图像的质心为种子点进行区域生长,得到目标图像;
在本实施例中,步骤201-202与前述实施例步骤101-102类似,此处不再赘述。
在一些具体的实施例中,终端在得到目标图像后,还可以重新计算目标图像的质心,并根据新计算出的质心执行后续处理步骤,进一步排除背景带来的干扰,提高坐姿识别准确率。
203、通过卷积模板对目标图像进行卷积处理,卷积模板包括左模板和右模板;
在本实施例中,终端通过特征匹配的方式来检测目标图像中人体的脖子位置,具体的,终端使用卷积模板对目标图像进行卷积:
假设一个3×3的图像的像素值(深度图像的像素值就是深度值)是:
Figure BDA0003907906980000091
卷积模板是
Figure BDA0003907906980000101
那么卷积计算如下:
Figure BDA0003907906980000102
在本实施例中,是通过检测人体左肩点和右肩点来实现脖子位置的检测,因此卷积模板包括左模板和右模板,左模板和右模板均为正方形模板且是水平方向对称的:
左模板具体可设置为
Figure BDA0003907906980000103
右模板具体可设置为
Figure BDA0003907906980000104
需要说明的是,上述1和-1都指代全为1或-1的长宽相等的矩阵,由于模板的形状是正方形,本实施例中统称为边长。
204、根据卷积处理的结果在目标图像中确定人体的左肩点和右肩点;
请参阅图3,图3为本实施例中目标图像的示意图,把图3中白色区域视为1,黑色区域视为0,那么在肩膀与颈部连接处会有明显的拐角特征,因此通过步骤203的卷积处理,卷积结果会在拐角处取得最大化,卷积结果如图4所示,终端则可利用该特征来确定人体的左、右肩点,具体为终端通过卷积模板中的左模板对目标图像进行卷积,在左模板对应的卷积结果中根据拐角特征确定左肩点,再通过右模板对目标图像进行卷积,在右模板对应的卷积结果中根据拐角特征确定右肩点。
在一些具体的实施例中,由于人体耳朵处也会有类似的拐角特征,即从图像上来看,脖子的特征和耳朵会有些相似,但脖子占据的面积比耳朵要大,因此选择一个相对比较大的滤波核对卷积结果进行高斯滤波和/或均值滤波,由此把耳朵的特征给模糊掉,而又对肩膀的特征不会造成太大影响,即在得到卷积结果之后,终端还需要对卷积结果进行高斯滤波和/或均值滤波的处理,以此排除耳朵对左、右肩点识别带来的干扰,降低误识别率。具体的,终端可以对卷积结果进行一个15×15的高斯滤波和/或15×15的均值滤波。
在另一些具体的实施例中,由于眼睛镜片反光,会造成所获得的深度图像中人体眼睛处深度缺失,因此在进行卷积之前要对图像进行一轮先膨胀再侵蚀的操作,以此排除由于深度缺少产生的拐角特征,降低误识别率。
205、将左肩点和右肩点的中点确定为人体的脖子位置;
因为在深度图像中,脖子不容易设置模板去进行特征匹配,因此在本实施例中,选择检测附近的左右肩膀来代替检测脖子,即通过将步骤204中检测到的左、右肩点的中点确定为人体的脖子位置。
需要说明的是,相较于使用图像侵蚀的方式来确定脖子位置,通过检测两个肩膀点的方式检测脖子点的结果的可信度更高,前者是通过图像侵蚀,然后获取图像非零区域的最高点作为脖子点,从形状而言,侵蚀后会产生各种弯曲的形状,与本该是正中脖子点的位置会有比较大的偏差,并且该方式受头部姿势影响比较大,而通过特征匹配检测人体左、右两肩膀点,从而检测脖子点的方式受头部姿势影响比较小,检测结果具有更高的可信度。
进一步的,在一些具体的实施例中,终端可以分别使用三种不同大小的卷积模板(均包含左模板和右模板)对目标图像进行卷积,每个卷积模板都会各识别出一个左肩和一个右肩,即对应会得到三组卷积结果,每组卷积结果包括一对左侧点和右侧点,终端将检测到的所有左侧点放入集合A,所有右侧点放入集合B,确定集合A和集合B中距离最近的左侧点和右侧点,将其确定为检测到的左肩点和右肩点。通过这种方式能够避免选择的卷积模板过大或过小而造成的误识别,进一步提高识别准确率。
请参阅图5,图5为终端分别使用边长为8、16、32的卷积模板对目标图像进行卷积的卷积结果,对应能够得到从上到下的三组卷积结果,终端将三组卷积结果中距离最近的左侧点和右侧点确定为左肩点和右肩点,最后确定的左肩点和右肩点如图6所示。
206、确定脖子位置和质心的深度差,并确定质心的点云坐标;
在确定目标图像中人体的脖子位置后,终端计算脖子位置的深度和质心深度的深度差,记为dz,通过dz可以反映人体前后倾斜程度。
终端还需要计算质心的点云坐标,质心的点云坐标能够反映该质心在三维空间内的位置信息,质心的像素坐标经过坐标转换可以计算为点云坐标具体的,具体转换方式如下:
设质心坐标为(x,y,z);
则质心的点云坐标为(px,py,pz)=((x–cx)*z/fx,(y-cy)*z/fy,z);
其中,(cx,cy)是相机光轴在图像的位置,(fx,fy)是镜头焦距。
207、判断左肩点和右肩点的位置是否发生错位,若否则执行步骤208,若是则返回步骤201;
在本实施例中,终端在进行坐姿识别之前,还需要判断检测到的脖子位置是否正确,仅在确认检测到的脖子位置正确时才进行坐姿识别,避免计算资源的浪费。
具体的,终端判断检测到的左肩点和右肩点是否发生错位,即判断左肩点是否在右肩点的左边,如果不是,则确认发生错位,此时返回步骤201重新获取深度图像,如果满足左肩点是否在右肩点的左边,则确认未发生错位,此时执行步骤208以进行坐姿识别。这种情况由人体的特殊姿势或深度相机本身的波动导致,例如,如果人举起手,并且手臂离颈部比较近的时候,就可能会出现左、右肩点错位的情况。
在另一些具体的实施例中,终端还可以通过判断脖子位置的深度是否为0来确定检测到的脖子位置是否正确,如果检测到的脖子位置的深度为0,显然不符合实际情况,此时则认为检测错误,此时不进行坐姿判断,返回步骤201以重新获取深度图像。
208、根据深度差和点云坐标进行坐姿识别;
脖子位置和质心的深度差能够反映人体坐姿前、后倾斜的程度,而质心的点云坐标中的横坐标值能够反映用户左、右倾斜的程度,因此终端可以通过将步骤104中确定的脖子位置和质心的深度差以及质心点云坐标中的横坐标与设定阈值进行比较,以此来实现坐姿识别。
具体的,当脖子位置和质心的深度差为正数时,说明人体坐姿大概率发生前倾斜,且深度差越大说明人体坐姿前倾斜程度越大,当该深度差大于某设定阈值时,可以判定人体坐姿前倾斜。同理,当脖子位置和质心的深度差为负数时,说明人体坐姿大概率发生后倾斜,且深度差越小说明人体坐姿后倾斜程度越大,当该深度差小于某设定阈值时,可以判定人体坐姿后倾斜。左、右倾斜的判断同理,当质心点云坐标中的横坐标值小于某设定阈值时,可以判定人体坐姿左倾斜,当质心点云坐标中的横坐标值大于某设定阈值时,可以判定人体坐姿后倾斜。例如:
当dz>20时,认为坐姿是前倾斜;
当dz<-80时,认为坐姿是后倾斜;
当px<-100时,认为坐姿是左倾斜;
当px>100时,认为坐姿是右倾斜。
209、若用户未进行坐姿初始化,则根据坐姿识别的结果提示用户调整镜头以进行坐姿初始化,当坐姿识别的结果为端正坐姿时,提示用户坐姿初始化完毕;
在本实施例中,如果没有终端提醒过用户初始化自己的位置,即用户未进行过初始化,终端则根据当前的坐姿识别结果提示用户调整镜头以初始化自己的位置,具体的,在用户为正坐的前提下,如果终端的坐姿识别结果为左倾斜,则可以提醒用户顺时针方向旋转一下镜头,如果终端的坐姿识别结果为右倾斜,则可以提醒用户逆时针方向旋转一下镜头,当坐姿识别结果为端正时,提示用户坐姿初始化完毕。
210、若用户已完成坐姿初始化,则根据坐姿识别的结果提示用户调整坐姿。
在用户已完成坐姿初始化的前提下,终端则根据坐姿识别结果对用户发出坐姿调整提醒,提示用户端正坐姿。
在本实施例中,在本实施例中,通过获取人体坐姿的深度图像,并以深度图像的质心为种子点进行区域生长得到目标图像,把人体和背景分离,再在目标图像中通过卷积模板进行卷积,检测人体左肩点和右肩点,将人体左肩点和右肩点的中点确定为人体的脖子位置,通过脖子位置和质心的深度差反映人体的前后倾斜程度,并通过质心的点云坐标反映人体的左右倾斜程度,由此实现坐姿识别。并且仅在确定脖子位置检测正确才进行坐姿识别,误检的情况下不判断坐姿,避免计算资源的浪费,使坐姿识别结果的可信度更高。
通过本申请提供的方法进行坐姿识别准确率高且抗干扰能力强,能够排除用户头部偏移对识别结果的干扰,算力消耗低,实时性强。
下面对本申请提供的坐姿识别的装置进行详细说明,请参阅图7,图7为本申请提供的坐姿识别的装置另一个实施例,该装置包括:
获取单元701,用于获取人体坐姿的深度图像;
生长单元702,用于以深度图像的质心为种子点进行区域生长,得到目标图像;
检测单元703,用于在目标图像中检测人体的脖子位置;
确定单元704,用于确定脖子位置和质心的深度差,并确定质心的点云坐标;
识别单元705,用于根据深度差和点云坐标进行坐姿识别。
可选的,检测单元703包括:
卷积模块7031,用于通过卷积模板对目标图像进行卷积处理,卷积模板包括左模板和右模板;
第一确定模块7032,用于根据卷积处理的结果在目标图像中确定人体的左肩点和右肩点;
第二确定模块7033,用于将左肩点和右肩点的中点确定为人体的脖子位置。
可选的,卷积模块7031还用于:
对卷积处理的结果进行高斯滤波和/或均值滤波;
可选的,卷积模块7031具体用于:
分别通过若干种不同大小的卷积模板对目标图像进行卷积处理,每一个卷积模板对应得到一对左侧点和右侧点;
第一确定模块7032具体用于:
将得到的若干对左侧点和右侧点中距离最近的左侧点和右侧点确定为人体的左肩点和右肩点。
可选的,卷积模块7031还用于:
对目标图像进行膨胀再侵蚀的处理。
可选的,装置还包括:
第一判断单元706,用于判断左肩点和右肩点的位置是否发生错位;
识别单元705具体用于当第一判断单元706的判断结果为否时,根据深度差和点云坐标进行坐姿识别。
可选的,装置还包括:
第二判断单元707,用于判断脖子位置的深度是否为0;
识别单元705具体用于当第二判断单元707的判断结果为否时,根据深度差和点云坐标进行坐姿识别。
可选的,装置还包括:
提示单元708,用于当用户已完成坐姿初始化时,根据坐姿识别的结果提示用户调整坐姿;
提示单元708还用于当用户未进行坐姿初始化时,根据坐姿识别的结果提示用户调整镜头以进行坐姿初始化,当坐姿识别的结果为端正坐姿时,提示用户坐姿初始化完毕。
可选的,确定单元704具体用于:
根据深度相机的光轴在目标图像中的位置、深度相机的镜头焦距以及质心在目标图像中的坐标确定质心的点云坐标。
可选的,确定单元704还用于:
重新计算目标图像的质心。
本实施例装置中,各单元的功能与前述图1或图2所示方法实施例中的步骤对应,此处不再赘述。
本申请还提供了一种坐姿识别的装置,请参阅图8,图8为本申请提供的坐姿识别的装置一个实施例,该装置包括:
处理器801、存储器802、输入输出单元803、总线804;
处理器801与存储器802、输入输出单元803以及总线804相连;
存储器802保存有程序,处理器801调用程序以执行如上任一坐姿识别的方法。
本申请还涉及一种智能台灯,该智能台灯在使用时执行如上任一坐姿识别的方法。
本申请还涉及一种计算机可读存储介质,计算机可读存储介质上保存有程序,当程序在计算机上运行时,使得计算机执行如上任一坐姿识别的方法。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,read-onlymemory)、随机存取存储器(RAM,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (14)

1.一种坐姿识别的方法,其特征在于,所述方法包括:
获取人体坐姿的深度图像;
以所述深度图像的质心为种子点进行区域生长,得到目标图像;
在所述目标图像中检测人体的脖子位置;
确定所述脖子位置和所述质心的深度差,并确定所述质心的点云坐标;
根据所述深度差和所述点云坐标进行坐姿识别。
2.根据权利要求1所述的方法,其特征在于,所述在所述目标图像中检测人体的脖子位置包括:
通过卷积模板对所述目标图像进行卷积处理,所述卷积模板包括左模板和右模板;
根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点;
将所述左肩点和右肩点的中点确定为人体的脖子位置。
3.根据权利要求2所述的方法,其特征在于,在所述通过卷积模板对所述目标图像中进行卷积处理之后,所述根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点之前,所述方法还包括:
对所述卷积处理的结果进行高斯滤波和/或均值滤波。
4.根据权利要求2所述的方法,其特征在于,所述通过卷积模板对所述目标图像进行卷积处理包括:
分别通过若干种不同大小的卷积模板对所述目标图像进行卷积处理,每一个所述卷积模板对应得到一对左侧点和右侧点;
所述根据所述卷积处理的结果在所述目标图像中确定人体的左肩点和右肩点包括:
将得到的若干对左侧点和右侧点中距离最近的左侧点和右侧点确定为人体的左肩点和右肩点。
5.根据权利要求2所述的方法,其特征在于,在所述通过卷积模板对所述目标图像中进行卷积处理之前,所述方法还包括:
对所述目标图像进行膨胀再侵蚀的处理。
6.根据权利要求2所述的方法,其特征在于,在所述根据所述深度差和所述点云坐标进行坐姿识别之前,所述方法还包括:
判断所述左肩点和所述右肩点的位置是否发生错位;
所述根据所述深度差和所述点云坐标进行坐姿识别包括:
若否,则根据所述深度差和所述点云坐标进行坐姿识别。
7.根据权利要求1所述的方法,其特征在于,在所述根据所述深度差和所述点云坐标进行坐姿识别之前,所述方法还包括:
判断所述脖子位置的深度是否为0;
所述根据所述深度差和所述点云坐标进行坐姿识别包括:
若否,则根据所述深度差和所述点云坐标进行坐姿识别。
8.根据权利要求1所述的方法,其特征在于,在所述根据所述深度差和所述点云坐标进行坐姿识别之后,所述方法还包括:
若用户已完成坐姿初始化,则根据所述坐姿识别的结果提示用户调整坐姿。
若用户未进行坐姿初始化,则根据所述坐姿识别的结果提示用户调整镜头以进行坐姿初始化,当所述坐姿识别的结果为端正坐姿时,提示用户坐姿初始化完毕。
9.根据权利要求1所述的方法,其特征在于,所述确定所述质心的点云坐标包括:
根据深度相机的光轴在所述目标图像中的位置、所述深度相机的镜头焦距以及所述质心在所述目标图像中的坐标确定所述质心的点云坐标。
10.根据权利要求1至9中任一项所述的方法,其特征在于,在所述确定所述质心的点云坐标之前,所述方法还包括:
重新计算所述目标图像的质心。
11.一种智能台灯,其特征在于,所述智能台灯执行如权利要求1至10中任一项所述方法。
12.一种坐姿识别的装置,其特征在于,所述装置包括:
获取单元,用于获取人体坐姿的深度图像;
生长单元,用于以所述深度图像的质心为种子点进行区域生长,得到目标图像;
检测单元,用于在所述目标图像中检测人体的脖子位置;
确定单元,用于确定所述脖子位置和所述质心的深度差,并确定所述质心的点云坐标;
识别单元,用于根据所述深度差和所述点云坐标进行坐姿识别。
13.一种坐姿识别的装置,其特征在于,所述装置包括:
处理器、存储器、输入输出单元以及总线;
所述处理器与所述存储器、所述输入输出单元以及所述总线相连;
所述存储器保存有程序,所述处理器调用所述程序以执行如权利要求1至10中任一项所述方法。
14.一种计算机可读存储介质,所述计算机可读存储介质上保存有程序,所述程序在计算机上执行时执行如权利要求1至10中任一项所述方法。
CN202211315582.3A 2022-10-25 2022-10-25 一种坐姿识别的方法、装置、智能台灯及计算机存储介质 Active CN115909394B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211315582.3A CN115909394B (zh) 2022-10-25 2022-10-25 一种坐姿识别的方法、装置、智能台灯及计算机存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211315582.3A CN115909394B (zh) 2022-10-25 2022-10-25 一种坐姿识别的方法、装置、智能台灯及计算机存储介质

Publications (2)

Publication Number Publication Date
CN115909394A true CN115909394A (zh) 2023-04-04
CN115909394B CN115909394B (zh) 2024-04-05

Family

ID=86488866

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211315582.3A Active CN115909394B (zh) 2022-10-25 2022-10-25 一种坐姿识别的方法、装置、智能台灯及计算机存储介质

Country Status (1)

Country Link
CN (1) CN115909394B (zh)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109685025A (zh) * 2018-12-27 2019-04-26 中科院合肥技术创新工程院 肩部特征和坐姿行为识别方法
US20190188895A1 (en) * 2017-12-14 2019-06-20 Magic Leap, Inc. Contextual-based rendering of virtual avatars
CN109919141A (zh) * 2019-04-09 2019-06-21 广东省智能制造研究所 一种基于骨架姿态的行人再识别方法
CN111127848A (zh) * 2019-12-27 2020-05-08 深圳奥比中光科技有限公司 一种人体坐姿检测系统及方法
CN111414780A (zh) * 2019-01-04 2020-07-14 卓望数码技术(深圳)有限公司 一种坐姿实时智能判别方法、系统、设备及存储介质
CN113012042A (zh) * 2019-12-20 2021-06-22 海信集团有限公司 显示装置、虚拟合照生成方法及存储介质
WO2021174697A1 (zh) * 2020-03-06 2021-09-10 平安科技(深圳)有限公司 人体姿态评估方法、装置、计算机设备及存储介质
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN114332951A (zh) * 2022-01-06 2022-04-12 杭州鳑鲏智能科技有限公司 坐姿检测方法、系统及电子设备
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN114724241A (zh) * 2022-03-29 2022-07-08 平安科技(深圳)有限公司 基于骨骼点距离的动作识别方法、装置、设备及存储介质
CN114782984A (zh) * 2022-03-25 2022-07-22 珠海视熙科技有限公司 一种基于tof相机的坐姿识别遮挡判定方法及智能台灯

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190188895A1 (en) * 2017-12-14 2019-06-20 Magic Leap, Inc. Contextual-based rendering of virtual avatars
CN109685025A (zh) * 2018-12-27 2019-04-26 中科院合肥技术创新工程院 肩部特征和坐姿行为识别方法
CN111414780A (zh) * 2019-01-04 2020-07-14 卓望数码技术(深圳)有限公司 一种坐姿实时智能判别方法、系统、设备及存储介质
CN109919141A (zh) * 2019-04-09 2019-06-21 广东省智能制造研究所 一种基于骨架姿态的行人再识别方法
CN113012042A (zh) * 2019-12-20 2021-06-22 海信集团有限公司 显示装置、虚拟合照生成方法及存储介质
CN111127848A (zh) * 2019-12-27 2020-05-08 深圳奥比中光科技有限公司 一种人体坐姿检测系统及方法
WO2021174697A1 (zh) * 2020-03-06 2021-09-10 平安科技(深圳)有限公司 人体姿态评估方法、装置、计算机设备及存储介质
CN113496216A (zh) * 2021-08-31 2021-10-12 四川大学华西医院 一种基于骨骼关键点的多角度跌倒高危识别方法及系统
CN114332951A (zh) * 2022-01-06 2022-04-12 杭州鳑鲏智能科技有限公司 坐姿检测方法、系统及电子设备
CN114612939A (zh) * 2022-03-25 2022-06-10 珠海视熙科技有限公司 一种基于tof相机的坐姿识别方法、装置及智能台灯
CN114782984A (zh) * 2022-03-25 2022-07-22 珠海视熙科技有限公司 一种基于tof相机的坐姿识别遮挡判定方法及智能台灯
CN114724241A (zh) * 2022-03-29 2022-07-08 平安科技(深圳)有限公司 基于骨骼点距离的动作识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN115909394B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
US11238270B2 (en) 3D face identity authentication method and apparatus
CN107633165B (zh) 3d人脸身份认证方法与装置
CN106846403B (zh) 一种三维空间中手部定位的方法、装置及智能设备
WO2019080580A1 (zh) 3d人脸身份认证方法与装置
JP3924262B2 (ja) 3次元カリカチュアの生成装置及びその方法
US8577099B2 (en) Method, apparatus, and program for detecting facial characteristic points
US11120535B2 (en) Image processing method, apparatus, terminal, and storage medium
CN111160232B (zh) 正面人脸重建方法、装置及系统
CN105740778A (zh) 一种改进的三维人脸活体检测方法及其装置
CN112287868B (zh) 一种人体动作识别方法及装置
JP2006228061A (ja) 顔追跡プログラムおよび顔追跡方法
KR101202448B1 (ko) 홍채 인식 장치 및 홍채 인식 방법
WO2019011073A1 (zh) 人脸活体检测方法及相关产品
CN109086724A (zh) 一种加速的人脸检测方法及存储介质
CN114612939B (zh) 一种基于tof相机的坐姿识别方法、装置及智能台灯
TW201928875A (zh) 過濾光斑的方法和裝置
CN110505398A (zh) 一种图像处理方法、装置、电子设备及存储介质
CN112069863A (zh) 一种面部特征的有效性判定方法及电子设备
CN105824398A (zh) 一种来电处理方法及移动终端
CN113128428B (zh) 基于深度图预测的活体检测方法和相关设备
JP3355068B2 (ja) 顔画像処理装置
CN115909394B (zh) 一种坐姿识别的方法、装置、智能台灯及计算机存储介质
CN113128320B (zh) 基于tof相机的人脸活体检测方法、检测装置及电子设备
CN111640058A (zh) 一种图像融合处理方法及装置
CN111145119A (zh) 一种图像处理方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant