CN118262409A - 坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 - Google Patents
坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 Download PDFInfo
- Publication number
- CN118262409A CN118262409A CN202410379599.8A CN202410379599A CN118262409A CN 118262409 A CN118262409 A CN 118262409A CN 202410379599 A CN202410379599 A CN 202410379599A CN 118262409 A CN118262409 A CN 118262409A
- Authority
- CN
- China
- Prior art keywords
- information
- sitting posture
- acquiring
- face
- key point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 230000001815 facial effect Effects 0.000 claims abstract description 37
- 210000000988 bone and bone Anatomy 0.000 claims description 64
- 239000013598 vector Substances 0.000 claims description 64
- 238000012545 processing Methods 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 13
- 210000003128 head Anatomy 0.000 claims description 11
- 238000005286 illumination Methods 0.000 claims description 10
- 230000008859 change Effects 0.000 claims description 8
- 210000000707 wrist Anatomy 0.000 claims description 7
- 230000010365 information processing Effects 0.000 claims description 5
- 210000001331 nose Anatomy 0.000 claims description 4
- 230000036544 posture Effects 0.000 description 152
- 238000004422 calculation algorithm Methods 0.000 description 13
- 230000003287 optical effect Effects 0.000 description 13
- 230000015654 memory Effects 0.000 description 9
- 230000006870 function Effects 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 210000001513 elbow Anatomy 0.000 description 4
- 230000007246 mechanism Effects 0.000 description 4
- 210000003739 neck Anatomy 0.000 description 4
- 210000002832 shoulder Anatomy 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000000903 blocking effect Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005802 health problem Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001684 chronic effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种坐姿识别方法以及智能坐姿识别台灯、智能坐姿识别装置,其中坐姿识别方法包括以下步骤:获取用户脸部以及躯干段的图像信息和/或视频信息;基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。该坐姿识别方法以及智能坐姿识别台灯、智能坐姿识别装置的的坐姿识别结果准确性较高,系统负担小。
Description
技术领域
本申请属于人体姿态识别领域,尤其是涉及一种坐姿识别方法以及智能坐姿识别台灯、智能坐姿识别装置。
背景技术
当今社会,长时间坐姿不当已经成为一种常见的健康问题,尤其是在办公、学习等日常活动中。这些不良坐姿可能导致脊椎、颈椎和其他身体部位的疼痛,甚至引发慢性健康问题。为了解决这一问题,基于深度学习的坐姿学习技术应运而生,旨在通过先进的人工智能技术实时监测和纠正不良坐姿,从而改善人们的生活方式和健康状况。
目前,坐姿识别仍面临诸多挑战。通用模型可能无法对用户个体提供准确的姿态识别。
现有技术中,使用的坐姿识别算法直接使用欧式距离作为阈值检测不良坐姿,容易造成误检。因此,亟需提出一种准确性更高的坐姿识别方法。
发明内容
本申请实施例提供了一种坐姿识别方法以及智能坐姿识别台灯、智能坐姿识别装置,能够提供一种准确性较高的坐姿识别方法,以及使用该种坐姿识别方法的相关装置。
第一方面,本申请实施例提供了一种坐姿识别方法,包括以下步骤:
获取用户脸部以及躯干段的图像信息和/或视频信息;
基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;
基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;
基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。
在上述第一方面的一种可能的实现中,所述获取脸部关键点信息包括:
至少获取脸部的眼部、鼻部、嘴部中至少两个在第一预设参考系中的坐标信息,所述第一预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;
基于所述坐标信息,获取所述脸部关键点信息,所述脸部关键点信息至少包括脸部方向向量。
在上述第一方面的一种可能的实现中,所述基于所述脸部关键点信息,获取脸部俯仰角信息包括:
使用反三角函数计算所述脸部方向向量与参考向量之间的夹角,从而得到脸部俯仰角信息,所述参考向量为所述第一预设参考系中的已知向量。
在上述第一方面的一种可能的实现中,所述获取骨骼关键点信息包括:
获取头、颈、肩膀、肘、手腕中的至少两个在第二预设参考系中的坐标信息,所述第二预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;
基于所述坐标信息,获取所述骨骼关键点信息,所述骨骼关键点信息至少包括骨骼方向向量;
在上述第一方面的一种可能的实现中,所述基于所述骨骼关键点信息,获取骨骼姿态信息包括:
使用反正切公式计算所述骨骼方向向量与参考向量之间的夹角,从而得到所述骨骼姿态信息,所述参考向量为所述第二预设参考系中的已知向量。
在上述第一方面的一种可能的实现中,基于卷积神经网络的单阶段回归模型架构,处理所述图像信息和/或视频信息,以获取所述脸部关键点信息和骨骼关键点信息。
在上述第一方面的一种可能的实现中,还包括以下步骤:
获取信息采集模块的俯仰角信息,所述信息采集模块用于获取所述图像信息和/或视频信息;
基于所述信号采集模块的俯仰角信息,校正所述脸部俯仰角信息以及所述骨骼姿态信息。
在上述第一方面的一种可能的实现中,所述基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别包括:
在所述脸部俯仰角度信息超过第一阈值时,形成第一信号;
在所述骨骼姿态信息超过第二阈值时,形成第二信号;
在预设时间周期内获取到第一信号和第二信号时,判定用户处于不良坐姿状态;
还包括以下步骤:
在所述坐姿识别结果为用户处于不良坐姿状态时,发送预警信息。
第三方面,本申请实施例提供了一种智能坐姿识别装置,基于所述的坐姿识别方法,包括:
信息采集模块,用于采集用户脸部以及躯干段的图像信息和/或视频信息;
信息处理模块,用于:
基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;
基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;
基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。
第三方面,本申请实施例提供了一种智能坐姿识别台灯,包括所述智能坐姿识别装置,还包括照明模块用于照明。
在上述第三方面的一种可能的实现中,还包括:
预警模块,连接至所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时发送预警信息,所述预警信息包括声音预警、震动反馈预警、文字信息预警以及灯光变化预警中的至少一种;
支撑模块,用于装配所述照明模块;
惯量检测模块,用于检测所述信号采集模块的俯仰角信息;
驱动模块,连接至所述支撑模块和/或所述照明模块中的至少一个,用于调节所述支撑模块和所述照明模块之间的相对位置;
控制模块,连接至所述驱动模块,以及所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时,基于所述坐姿识别结果控制所述驱动模块调节所述支撑模块和/或所述照明模块的位置
本申请的坐姿识别方法,可以结合脸部俯仰角信息以及骨骼姿态信息来识别坐姿,脸部俯仰角信息用于判断身体的前后倾斜;骨骼姿态信息基于骨骼关键点信息,可以用于识别身体姿态的左右倾斜,能够增强坐姿识别的准确性,还有助于增强用户的使用体验。
本申请的智能坐姿识别台灯基于前述坐姿识别方法,可以检测用户的不良坐姿,并且在进一步的实施例中还可以提醒用户当前处于不良坐姿状态,以及根据用户当前的坐姿改善照明位置、角度,可以有效改善用户的用眼环境,敦促用户矫正不良坐姿。
本申请的智能坐姿识别装置,基于前述坐姿识别方法,可以检测用户的不良坐姿,并辅以其他可能的模块,具有较多的应用前景。
附图说明
图1为本申请所述的一种实施例中坐姿识别方法的步骤流程示意图。
图2为本申请所述的一种实施例中坐姿识别方法的步骤流程示意图。
图3为本申请所述的一种实施例中坐姿识别方法的骨骼姿态识别的示意图。
具体实施例
本申请的说明性实施例包括但不限于一种坐姿识别方法以及智能坐姿识别台灯、智能坐姿识别装置。
可以理解,如本文所使用的,术语“模块”可以指代或者包括专用集成电路(ASIC)、电子电路、执行一个或多个软件或固件程序的处理(共享、专用、或群组)和/或存储器、组合逻辑电路、和/或提供所描述的功能的其他适当硬件组件,或者可以作为这些硬件组件的一部分。
可以理解,在本申请各实施例中,所述坐姿识别方法以及智能坐姿识别台灯的功能控制以由微处理器、数字信号处理器、微控制器等,和/或其任何组合来实现。
下面将结合附图对本申请的实施例作进一步地详细描述。
图1根据本申请的一些实施例,示出了一种坐姿识别方法的步骤流程示意图。
具体地,如图1所示,所述坐姿识别方法包括以下步骤:S1获取用户脸部以及躯干段的图像信息和/或视频信息;S2基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;S3基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;S4基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。
本申请的坐姿识别方法结合脸部俯仰角信息和骨骼姿态信息来识别坐姿,可通过脸部俯仰角信息判断身体的前后倾斜情况,通过骨骼姿态信息识别身体姿态的左右倾斜情况,通过两个维度的坐姿识别,实现更准确的坐姿识别,并且可以降低因脸部或身躯中一者被遮挡导致的坐姿识别困难的发生几率。
在一些实施例中,所述获取脸部关键点信息包括:至少获取脸部的眼部、鼻部、嘴部中至少两个在第一预设参考系中的坐标信息,所述第一预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;基于所述坐标信息,获取所述脸部关键点信息,所述脸部关键点信息至少包括脸部方向向量。
在该实施例中,用户脸部的眼部、鼻部、嘴部均为脸部的明显特征点,便于进行算法识别,因此,选取这些部位作为脸部关键点,并获取其在第一预设参考坐标系中的位置,从而获取脸部关键点信息,可以较为简单方便的确定脸部的朝向。在一些其他的实施例中,所述获取脸部关键点信息还进一步的包括获取脸部的耳部、眉毛等其他部位的坐标信息。
在一些实施例中,可以基于图像处理技术,如边缘检测、特征点提取、SIFT(尺度不变特征变换)、SURF(加速稳健特征)、Harris角点检测等获取脸部关键点信息,或者基于深度学习的卷积神经网络(CNN)、脸部关键点检测网络(FaceAlignment Network,FAN)和脸部关键点监测(Face Alignment by Regressing Local Binary Features,FRLBF)等算法获取脸部关键点信息。
在一些实施例中,信息采集模块通过一光信号采集面采集外界的光信号,从而采集用户图像信息或视频信息,所述信息采集模块的预设朝向即所述光信号采集面的预设朝向。在一些实施例中,用户站在水平地面上,所述信息采集模块的光信号采集面的预设朝向为正面朝向所述用户的正脸方向。以该光信号采集面的预设朝向为所述第一预设参考系的第一参考向量,以垂直于水平方向向上为所述第一预设参考系的第二参考向量,以垂直于第一参考向量、第二参考向量的方向为该第一预设参考系的第三参考向量,基于该第一、第二和第三参考向量构建了第一预设参考系。
获取脸部相关部位中的至少两个部位在第一预设参考系中的坐标信息,通过运算任意两个不同面部部位的坐标信息,即可获取对应的脸部方向向量。
在一些其他的实施例中,所述第一预设参考系也可以对应至光信号采集面的其他朝向,如朝向用户脸部正前方左侧45度前方,或者朝向用户脸部的正后方等。
在一些实施例中,所述基于所述脸部关键点信息,获取脸部俯仰角信息包括:使用反三角函数计算所述脸部方向向量与参考向量之间的夹角,从而得到脸部俯仰角信息,所述参考向量为所述第一预设参考系中的已知向量。
在前述实施例中,光信号采集面的预设朝向为正面朝向所述用户的正脸方向,所述参考向量可以是所述第一预设参考系中的第一参考向量,脸部俯仰角信息可以对应至脸部的仰起状态、低头状态或端正状态。
在一些实施例中,所述获取骨骼关键点信息包括:获取头、颈、肩膀、肘、手腕中的至少两个在第二预设参考系中的坐标信息,所述第二预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;基于所述坐标信息,获取所述骨骼关键点信息,所述骨骼关键点信息至少包括骨骼方向向量。
在这些实施例中,获取图像信息或视频信息的信息采集模块至少能够采集到用户的上半身图像,因此可以获取到头、颈、肩膀、肘、手腕中的至少两个在第二预设参考系中的坐标信息
在一些其他的实施例中,所述获取骨骼关键点信息还包括:获取头、颈、肩膀、肘、手腕、髋部、膝盖和脚踝中的至少两个在第二预设参考系中的坐标信息,并基于此获取获取骨骼姿态信息。这种情况适用于获取图像信息或视频信息的信息采集模块能够采集到用户上半身图像和下半身图像的情况。在其他的实施例中,也可根据信息采集模块的信息采集能力,确定选择哪些躯干段的关键部位在第二预设参考系中的坐标信息来获取骨骼姿态信息。
在一些实施例中,获取头、颈、肩膀、肘、手腕、髋部、膝盖和脚踝中的至少两个在第二预设参考系中的坐标信息,至少推算出脊柱所在的骨骼方向向量,以及两肩所在的骨骼方向向量。所述脊椎所在的骨骼方向向量,以及两肩所在的骨骼方向向量,可用于判断当前用户是否处于坐姿不良的状态。
在一些实施例中,所述第二预设参考系基于信息采集模块的预设朝向构建,信息采集模块通过光信号采集面采集外界的光信号,从而采集图像信息或视频信息,所述预设朝向即所述光信号采集面的预设朝向。
在一些实施例中,光信号采集面的预设朝向被设置为与用户身躯正前方相对。譬如,以用户站在水平地面时,脸部、身躯朝向正前方、两者之间不发生相对扭转时,光信号采集面的预设朝向与用户身躯所朝向的正前方相对,以该预设朝向为所述第二预设参考系的第一参考向量,以垂直于水平方向向上为所述第二预设参考系的第二参考向量,以垂直于第一参考向量、第二参考向量的方向为该第二预设参考系的第三参考向量,基于该第一、第二和第三参考向量构建所述第二预设参考系。
基于在第二预设参考系的相邻的两个骨骼关键点的坐标,可获取该两个骨骼关键点构成的骨骼方向向量,基于该骨骼方向向量与一参考向量的夹角,应用反三角函数等,可以获知该骨骼方向向量相对于参考向量的倾斜度,从而获取所述骨骼姿态信息。在一些实施例中,所述参考向量可以是前述第二参考系中的第一参考向量。
所述骨骼关键点信息包括人体的特定骨骼关节点的位置。通过检测图像信息或视频信息中的头部、颈、肩膀、肘、手腕、髋部、膝盖和脚踝等骨骼关节点,并建立骨骼关键点之间的联系,通过对比骨骼方向向量以及参考向量之间的夹角,即可得到对应骨骼姿态响亮。
在一些实施例中,可以通过分析图像或视频中的躯干段的人体骨架结构进行骨骼关键点信息识别,精确定位关键的骨骼关节位置。骨骼关键点信息识别中主要涉及计算机视觉、深度学习以及模式识别等领域,可采用基于机器学习的特征工程,如HOG(Histogramof Oriented Gradients)、SIFT(Scale-Invariant Feature Transform)等,结合图形模型(如Pictorial Structures)来描述和预测骨骼关节之间的关系。卷积神经网络(CNN)的引入极大提升了人体骨骼关键点检测的精度。
在一些其他的实施例中,骨骼关键点信息识别还可采用DeepPose、heatmap以及Stacked Hourglass Network(2016)等方法来实现。其中DeepPose通过回归每个骨骼关节的关键点的坐标实现姿态估计,heatmap通过运算获取每个骨骼关键点的可能性分布,并用其中分布中的峰值表示关键点的实际位置,Stacked Hourglass Network利用多层Hourglass网络结构反复迭代以生成更精确的热图。采用以上方法,可以提高单人姿态估计的性能,还在多人场景下的多人骨骼关键点识别问题上取得了突破性进展。
骨骼关键点信息识别所用的计算资源较少,相关算法足够轻量化,可以减小特征提取模型的参数量和计算复杂度,提高模型在设备上的实时推理速度来满足移动端的使用需求。
在一些实施例中,所述基于所述骨骼关键点信息,获取骨骼姿态信息包括:使用反正切公式计算所述骨骼方向向量与参考向量之间的夹角,从而得到所述骨骼姿态信息,所述参考向量为所述第二预设参考系中的已知向量。
请参阅图3,为一实施例中坐姿识别方法段骨骼姿态识别的示意图。
在该实施例中,由骨骼关键点信息获取脊椎所在的骨骼方向向量,以及两肩所在的骨骼方向向量,并基于反正切公式、水平参考向量(与图3中的桌面平行)和竖直参考向量(垂直于图3中的桌面),获取骨骼姿态信息中的脊柱倾斜角α以及两肩倾斜角β。当用户处于坐姿端正状态时,α为90°±阈值,β为0°±阈值,当用户处于坐姿不良状态时,脊柱倾斜角α在90°±阈值以外,两肩倾斜角β在0°±阈值以外。
可使用多个骨骼关键点作为参照,计算骨骼关键点连接线的倾斜度,再根据倾斜度设定阈值来判断是否为不良坐姿。在一些更优的实施例中,还可以在骨骼关键点识别方法引入用户模型,通过分析用户的历史数据和反馈,了解其使用习惯和偏好。根据用户的实际需求,动态调整算法的阈值,以提高算法的个性化适应性。同时,算法中包含交互性元素,允许用户根据个人需求调整阈值。
在一些实施例中,基于卷积神经网络的单阶段回归模型架构,处理所述图像信息和/或视频信息,以获取所述脸部关键点信息和骨骼关键点信息。
在一些实施例中,使用基于深度学习技术的卷积神经网络(CNN)和循环神经网络(RNN)提取图像或视频中的关键点,如脸部、脊椎、手臂等,从而获取到骨骼关键点信息和脸部关键点信息,实现对人体坐姿的高效识别。并且,该基于深度学习技术的卷积神经网络(CNN)和循环神经网络(RNN)还可学习复杂的非线性关系,实现对大规模数据的高效训练,因此在坐姿识别中通常能够取得很高的准确性,有助于实现精准坐姿分析,优化用户体验。并且,该基于深度学习技术的卷积神经网络(CNN)和循环神经网络(RNN)能够自动从原始数据中学习特征,无需手动设计复杂的特征提取器,无手工提取特征的繁琐过程,使得模型更具适应性和泛化能力。
上述算法均基于特征提取模型实现脸部或骨骼关键点识别,这些特征提取模型可通过脸部数据以及骨骼数据训练优化,学习了广泛的脸部关键点和骨骼关键点特征,可进行更准确的脸部关键点或骨骼关键点识别。
在一些更优的实施例中,该坐姿识别方法还可通过增加被遮挡目标的样本以及调整遮挡的程度,对特征提取模型的训练进行数据增强,包括不同遮挡情况下的脸部关键点和骨骼关键点特征,提高了特征提取模型的泛化能力。使用注意力机制来关注脸部或骨骼的重要部分,有助于在有遮挡的情况下集中注意力于可见部分,提高模型的检测识别准确性,可以解决遮挡导致的坐姿前后倾斜识别不准确的问题。
在一些实施例中,还包括以下步骤:获取信息采集模块的俯仰角信息,所述信息采集模块用于获取所述图像信息和视频信息;基于所述信号采集模块的俯仰角信息,校正所述脸部俯仰角信息以及所述骨骼姿态信息。
具体的,通过惯量检测模块获取信息采集模块的俯仰角信息。惯量检测模块包括IMU传感器等,连接至所述信号处理模块,或设置在所述信号处理模块上,被配置为可以检测所述信息采集模块的加速度信息,从而获取信息采集模块的俯仰角信息,以便所述信号处理模块根据相应的俯仰角信息,确定当前信号处理模块的俯仰角信息与信息采集模块的预设朝向的偏差,从而校正前述第一预设参考系以及第二预设参考系,从而进行脸部俯仰角信息以及骨骼姿态信息的校正。
在一些实施例中,所述基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别包括:在所述脸部俯仰角度信息超过第一阈值时,形成第一信号;在所述骨骼姿态信息超过第二阈值时,形成第二信号;在预设时间周期内获取到第一信号和第二信号时,判定用户处于不良坐姿状态;还包括以下步骤:在所述坐姿识别结果为用户处于不良坐姿状态时,发送预警信息。
该坐姿识别方法基于脸部俯仰角信息和骨骼姿态信息来判断用户是否处于不良坐姿状态,通过结合两种姿态识别,能够增强坐姿识别的准确性,还有助于增强用户的使用体验。
请参阅图2,以下提供了一种应用坐姿识别方法的装置。
该装置能够基于接收到的启动指令,执行所述坐姿识别方法,调用脸部俯仰角以及骨骼姿态识别功能。运行骨骼姿态识别功能时,识别骨骼关键点,从而计算骨骼姿态信息,当骨骼姿态信息超过第二阈值时,判断躯干歪斜,则判定为不良坐姿,否则躯干没有歪斜。运行脸部俯仰角识别功能时,识别脸部关键点,并可通过装置搭载的惯性检测单元获取加速度数据,以便计算采集图像信息或视频信息的信息采集模块的俯仰角,从而自动进行人脸姿态校准进行。若无惯性检测单元,则可跳过校准步骤,使用第一阈值判断脸部姿态。
当脸部俯仰角超过第一阈值时,即头部俯仰角过低或者过高;当躯干段倾斜度高于第二阈值时,即身躯过于左倾或右倾,在汇总脸部俯仰角以及躯干段倾斜度识别结果后,若脸部俯仰角超过第一阈值,躯干段倾斜度高于第二阈值,将判定为不良坐姿,可通过预警模块,使用语音提醒或显示屏、灯光提醒等,提示用户坐姿和头部姿态的建议。如果收到结束指令或者达到预设时间段,结束运行。
该装置结合脸部特征和骨骼特征判断坐姿,可采用摄像头等直接采集用户的图像信息和视频信息,避免采用其他传感器进行坐姿识别时的坐姿预校准流程,简化用户与算法的交互,提高了易用性。并且,该装置使用的坐姿识别算法所基于的脸部关键点特征识别方法和骨骼关键点特征识别方法,可基于深度学习技术的卷积神经网络(CNN)和循环神经网络(RNN)等实现,这些算法基于特征提取模型提取脸部关键点或骨骼关键点,所用的计算资源较少,较为轻量化,能优化坐姿识别的速度,提高坐姿识别的实时性,使得算法能够提供即时的坐姿反馈,有助于及时矫正用户的不良坐姿。
并且,该装置可基于摄像头或相机等采集用户的图像信息和视频信息,无需附加其他传感器,降低了硬件成本。
在本申请的一种实施例中,还示出了一种智能坐姿识别台灯。
该智能坐姿识别台灯基于所述的坐姿识别方法,包括照明模块用于照明,还包括:信息采集模块,用于采集用户的脸部关键点信息以及骨骼关键点信息;信息处理模块,连接至所述信息采集模块,用于基于所述脸部关键点信息以及骨骼关键点信息,进行坐姿识别。
具体的,基于所述脸部关键点信息得到脸部俯仰角信息,基于所述骨骼关键点信息得到所述骨骼姿态信息,基于所述脸部俯仰角信息以及骨骼姿态信息进行坐姿识别。
在一些实施例中,所述信息采集模块包括摄像头、相机等中的至少一种。可以将该信息采集模块设置在所述智能坐姿识别台灯的中部或上部,以适配于台灯放置在桌面上使用的使用场景,从而便于对用户的脸部关键点信息以及身躯信息进行采集。
采用摄像头、相机等采集用户的图像信息和视频信息,可以基于图像信息和视频信息直接获取骨骼关键点,减少用户的操作步骤,提高方法的易用性,简化了使用过程,降低了使用门槛,避免了现有技术中一般坐姿识别算法中的校准流程。例如,现有技术中通过超声波传感器收集用户坐姿参数,在坐姿识别开始使用时,提示用户坐姿端正并以此坐姿的参数作为参照。采用上述实施例中的坐姿识别方法,用户不需要在使用坐姿识别前,进行繁琐的校准步骤,可以省略一般坐姿识别算法所需的校准流程。
在运行所述坐姿识别方法时,获取信息采集模块的俯仰角信息,以便所述信号处理模块根据相应的俯仰角信息,确定当前信号处理模块的俯仰角信息与信息采集模块的预设朝向的偏差,从而校正前述第一预设参考系以及第二预设参考系,从而进行脸部俯仰角信息以及骨骼姿态信息的校正。
所述信息处理模块包括微处理器、可编程逻辑器件以及单片机等常见具有处理能力的控制器件中的至少一种。
在一些实施例中,所述智能坐姿识别台灯还包括:预警模块,连接至所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时发送预警信息,所述预警信息包括声音预警、震动反馈预警、文字信息预警以及灯光变化预警中的至少一种;支撑模块,用于装配所述照明模块;惯量检测模块,用于检测所述信号采集模块的俯仰角信息;驱动模块,连接至所述支撑模块和/或所述照明模块中的至少一个,用于调节所述支撑模块和所述照明模块之间的相对位置;控制模块,连接至所述驱动模块,以及所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时,基于所述坐姿识别结果控制所述驱动模块调节所述支撑模块和/或所述照明模块的位置。
在一些实施例中,所述预警模块包括蜂鸣器、LED灯或者可震动器件中的至少一种,以实现声音预警、震动反馈预警、文字信息预警以及灯光变化预警中的至少一种。
在一些实施例中,所述支撑模块能够支撑照明模块,还能够用于安装和容纳信息采集模块、信息处理模块等。在一种优选的实施例中,所述信息采集模块相对于所述支撑模块或者所述照明模块的位置不变,以便在驱动模块驱动所述照明模块和支撑模块之间的位置发生变化时,所述信息采集模块采集到的图像信息或视频信息不会因信息采集模块的位置变化无序,而导致脸部或身躯特征获取困难或出现谬误。
在一些实施例中,所述驱动模块驱动所述照明模块和支撑模块之间的位置发生变化,基于用户的坐姿或身高、眼睛位置等信息,自动调整光照角度和亮度,以达到最佳的照明效果,减少视觉疲劳。
在一些实施例中,所述惯量检测模块包括IMU传感器等,连接至所述信号处理模块,或设置在所述信号处理模块上,被配置为可以检测所述信息采集模块的加速度信息,从而获取信息采集模块的俯仰角信息,以便所述信号处理模块根据相应的俯仰角信息,确定当前信号处理模块的俯仰角信息与信息采集模块的预设朝向的偏差,从而校正前述第一预设参考系以及第二预设参考系,进行脸部俯仰角信息以及骨骼姿态信息的校正。
所述智能坐姿识别台灯集成了前述坐姿识别方法,可以改善用户的用眼环境和坐姿习惯,通过所述坐姿识别方法能够实时捕捉并分析用户在阅读、写作或使用电子设备时的身体姿势。当智能坐姿识别台灯检测到用户处于不良坐姿状态,如头部过度前倾、背部弯曲过大或者距离书桌过近等不良姿势时,会通过声音提醒、震动反馈或者灯光变化等方式,引导用户调整到正确的坐姿。
可以理解的是,本发明实施例示意的结构并不构成对坐姿识别方法以及智能坐姿识别台灯具体限定。在本申请另一些实施例中,可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
本申请公开的机制的各实施例可以被实现在硬件、软件、固件或这些实现方法的组合中。本申请的实施例可实现为在可编程系统上执行的计算机程序或程序代码,该可编程系统包括至少一个处理器、存储系统(包括易失性和非易失性存储器和/或存储元件)、至少一个输入设备以及至少一个输出设备。
可将程序代码应用于输入指令,以执行本申请描述的各功能并生成输出信息。可以按已知方式将输出信息应用于一个或多个输出设备。
程序代码可以用高级程序化语言或面向对象的编程语言来实现,以便与处理系统通信。在需要时,也可用汇编语言或机器语言来实现程序代码。事实上,本申请中描述的机制不限于任何特定编程语言的范围。在任一情形下,该语言可以是编译语言或解释语言。
在一些情况下,所公开的实施例可以以硬件、固件、软件或其任何组合来实现。所公开的实施例还可以被实现为由一个或多个暂时或非暂时性机器可读(例如,计算机可读)存储介质承载或存储在其上的指令,其可以由一个或多个处理器读取和执行。例如,指令可以通过网络或通过其他计算机可读介质分发。因此,机器可读介质可以包括用于以机器(例如,计算机)可读的形式存储或传输信息的任何机制,包括但不限于,软盘、光盘、光碟、只读存储器(CD-ROMs)、磁光盘、只读存储器(ROM)、随机存取存储器(RAM)、可擦除可编程只读存储器(EPROM)、电可擦除可编程只读存储器(EEPROM)、磁卡或光卡、闪存、或用于利用因特网以电、光、声或其他形式的传播信号来传输信息(例如,载波、红外信号数字信号等)的有形的机器可读存储器。因此,机器可读介质包括适合于以机器(例如计算机)可读的形式存储或传输电子指令或信息的任何类型的机器可读介质。
在附图中,可以以特定布置和/或顺序示出一些结构或方法特征。然而,应该理解,可能不需要这样的特定布置和/或排序。而是,在一些实施例中,这些特征可以以不同于说明性附图中所示的方式和/或顺序来布置。另外,在特定图中包括结构或方法特征并不意味着暗示在所有实施例中都需要这样的特征,并且在一些实施例中,可以不包括这些特征或者可以与其他特征组合。
需要说明的是,本申请各设备实施例中提到的各单元/模块都是逻辑单元/模块,在物理上,一个逻辑单元/模块可以是一个物理单元/模块,也可以是一个物理单元/模块的一部分,还可以以多个物理单元/模块的组合实现,这些逻辑单元/模块本身的物理实现方式并不是最重要的,这些逻辑单元/模块所实现的功能的组合才是解决本申请所提出的技术问题的关键。此外,为了突出本申请的创新部分,本申请上述各设备实施例并没有将与解决本申请所提出的技术问题关系不太密切的单元/模块引入,这并不表明上述设备实施例并不存在其它的单元/模块。
需要说明的是,在本专利的示例和说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
虽然通过参照本申请的某些优选实施例,已经对本申请进行了图示和描述,但本领域的普通技术人员应该明白,可以在形式上和细节上对其作各种改变,而不偏离本申请的精神和范围。
Claims (11)
1.一种坐姿识别方法,其特征在于,包括以下步骤:
获取用户脸部以及躯干段的图像信息和/或视频信息;
基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;
基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;
基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。
2.根据权利要求1所述的坐姿识别方法,其特征在于,所述获取脸部关键点信息包括:
至少获取脸部的眼部、鼻部、嘴部中至少两个在第一预设参考系中的坐标信息,所述第一预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;
基于所述坐标信息,获取所述脸部关键点信息,所述脸部关键点信息至少包括脸部方向向量。
3.根据权利要求2所述的坐姿识别方法,其特征在于,所述基于所述脸部关键点信息,获取脸部俯仰角信息包括:
使用反三角函数计算所述脸部方向向量与参考向量之间的夹角,从而得到脸部俯仰角信息,所述参考向量为所述第一预设参考系中的已知向量。
4.根据权利要求1所述的坐姿识别方法,其特征在于,所述获取骨骼关键点信息包括:
获取头、颈、肩膀、肘、手腕中的至少两个在第二预设参考系中的坐标信息,所述第二预设参考系基于信息采集模块的预设朝向构建,所述信息采集模块用于采集所述图像信息和/或视频信息;
基于所述坐标信息,获取所述骨骼关键点信息,所述骨骼关键点信息至少包括骨骼方向向量。
5.根据权利要求4所述的坐姿识别方法,其特征在于,所述基于所述骨骼关键点信息,获取骨骼姿态信息包括:
使用反正切公式计算所述骨骼方向向量与参考向量之间的夹角,从而得到所述骨骼姿态信息,所述参考向量为所述第二预设参考系中的已知向量。
6.根据权利要求1所述的坐姿识别方法,其特征在于,基于卷积神经网络的单阶段回归模型架构,处理所述图像信息和/或视频信息,以获取所述脸部关键点信息和骨骼关键点信息。
7.根据权利要求1所述的坐姿识别方法,其特征在于,还包括以下步骤:
获取信息采集模块的俯仰角信息,所述信息采集模块用于获取所述图像信息和/或视频信息;
基于所述信号采集模块的俯仰角信息,校正所述脸部俯仰角信息以及所述骨骼姿态信息。
8.根据权利要求1所述的坐姿识别方法,其特征在于,所述基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别包括:
在所述脸部俯仰角度信息超过第一阈值时,形成第一信号;
在所述骨骼姿态信息超过第二阈值时,形成第二信号;
在预设时间周期内获取到第一信号和第二信号时,判定用户处于不良坐姿状态;
还包括以下步骤:
在所述坐姿识别结果为用户处于不良坐姿状态时,发送预警信息。
9.一种智能坐姿识别装置,基于权利要求1至8所述的坐姿识别方法,其特征在于,包括:
信息采集模块,用于采集用户脸部以及躯干段的图像信息和/或视频信息;
信息处理模块,用于:
基于用户脸部的图像信息和/或视频信息,获取图像信息和/或视频信息中的脸部关键点信息,并基于所述脸部关键点信息,获取脸部俯仰角信息;
基于用户躯干段的图像信息和/或视频信息,获取图像信息和/或视频信息中的骨骼关键点信息,并基于所述骨骼关键点信息,获取骨骼姿态信息;
基于所述脸部俯仰角信息和骨骼姿态信息,进行坐姿识别。
10.一种智能坐姿识别台灯,包括权利要求9所述智能坐姿识别装置,其特征在于,还包括照明模块用于照明。
11.根据权利要求10所述的智能坐姿识别台灯,其特征在于,还包括:
预警模块,连接至所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时发送预警信息,所述预警信息包括声音预警、震动反馈预警、文字信息预警以及灯光变化预警中的至少一种;
支撑模块,用于装配所述照明模块;
惯量检测模块,用于检测所述信号采集模块的俯仰角信息;
驱动模块,连接至所述支撑模块和/或所述照明模块中的至少一个,用于调节所述支撑模块和所述照明模块之间的相对位置;
控制模块,连接至所述驱动模块,以及所述信号处理模块,用于在所述坐姿识别结果为用户处于不良坐姿状态时,基于所述坐姿识别结果控制所述驱动模块调节所述支撑模块和/或所述照明模块的位置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410379599.8A CN118262409A (zh) | 2024-03-29 | 2024-03-29 | 坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410379599.8A CN118262409A (zh) | 2024-03-29 | 2024-03-29 | 坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN118262409A true CN118262409A (zh) | 2024-06-28 |
Family
ID=91607383
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410379599.8A Pending CN118262409A (zh) | 2024-03-29 | 2024-03-29 | 坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118262409A (zh) |
-
2024
- 2024-03-29 CN CN202410379599.8A patent/CN118262409A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110321754B (zh) | 一种基于计算机视觉的人体运动姿态纠正方法及系统 | |
US11715231B2 (en) | Head pose estimation from local eye region | |
CN109343700B (zh) | 眼动控制校准数据获取方法和装置 | |
CN109685037B (zh) | 一种实时动作识别方法、装置及电子设备 | |
US20050201594A1 (en) | Movement evaluation apparatus and method | |
US20210319585A1 (en) | Method and system for gaze estimation | |
JP2006293644A (ja) | 情報処理装置、情報処理方法 | |
JP5001930B2 (ja) | 動作認識装置及び方法 | |
JP2003150942A (ja) | 目位置追跡方法 | |
CN112784786A (zh) | 人体姿态识别方法及装置 | |
CN108471486A (zh) | 一种适用于电子助视器的智能阅读操作方法及装置 | |
CN113903078A (zh) | 人眼注视检测方法、控制方法及相关设备 | |
CN111753168A (zh) | 一种搜题的方法、装置、电子设备及存储介质 | |
CN115211683A (zh) | 一种基于智能座椅的坐姿矫正方法、系统、设备和介质 | |
CN116805433B (zh) | 一种人体运动轨迹数据分析系统 | |
CN113342157B (zh) | 眼球追踪处理方法及相关装置 | |
CN112700568A (zh) | 一种身份认证的方法、设备及计算机可读存储介质 | |
CN118262409A (zh) | 坐姿识别方法、智能坐姿识别台灯及智能坐姿识别装置 | |
JP2000268161A (ja) | 実時間表情検出装置 | |
CN116246350A (zh) | 基于动作捕捉的运动监测方法、装置、设备及存储介质 | |
CN111432131B (zh) | 一种拍照框选的方法、装置、电子设备及存储介质 | |
NL2004878C2 (en) | System and method for detecting a person's direction of interest, such as a person's gaze direction. | |
CN114779925A (zh) | 一种基于单目标的视线交互方法及装置 | |
CN114255507A (zh) | 一种基于计算机视觉的学生姿势识别分析方法 | |
CN116092129B (zh) | 一种智能书架及其控制方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |