CN107256375A - 一种电脑前人体坐姿监测方法 - Google Patents
一种电脑前人体坐姿监测方法 Download PDFInfo
- Publication number
- CN107256375A CN107256375A CN201710017363.XA CN201710017363A CN107256375A CN 107256375 A CN107256375 A CN 107256375A CN 201710017363 A CN201710017363 A CN 201710017363A CN 107256375 A CN107256375 A CN 107256375A
- Authority
- CN
- China
- Prior art keywords
- sitting posture
- human body
- computer
- sitting
- wrong
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/44—Event detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种电脑前坐姿监测方法,属于人体坐姿监测技术领域。具体地,利用3D实感摄像技术实时跟踪定位人体面部眉毛特征点的深度位置信息,根据左右眉心与实感摄像头坐标轴距离判定其水平、侧向、高度坐姿是否正确,若有错误坐姿出现,动画提示,错误坐姿超时或者用户久坐电脑前超时,监测声音报警。这种电脑前坐姿监测方法,以点代面,利用眉毛特征点的深度位置变化信息进行人体前俯、侧向、高耸错误坐姿的实时判断,避免了因图像预处理及分类识别引起的监测延时问题,实现了电脑前坐姿的实时监测,同时具有错误坐姿动画提示、错误坐姿超时声音报警、久坐声音报警功能,对因错误坐姿和久坐引起的健康隐患问题有积极预防作用。
Description
技术领域
本发明涉及电脑前人体坐姿监测技术领域,具体而言,涉及一种电脑前人体坐姿监测方法。
背景技术
随着科技的发展,电脑成了人们生活中不可缺少的一部分,无论在校的学生,还是工作的白领,每天都会因为工作、学习和娱乐长时间使用电脑。繁重的学习和工作压力往往会把使用者牢牢得“绑”在电脑前,坐在电脑前持续超过三个小时早已经成家常便饭,如此长时间的使用势必带来很多健康危害,最主要的包括有因久坐或坐姿不准确而造成的腰酸背痛、颈椎疲劳以及视力下降等问题。此外,腰椎间盘突出症在上班族当中的发病率也持续上升,并有低龄化趋势,这都与长期坐姿工作有关。如何有针对性的去预防,尽可能减轻因久坐或坐姿不准确引起的健康隐患是目前业界亟待解决的技术问题。
目前已有的电脑前坐姿监测大都基于图像处理技术,监测前,用户通过系统获取一张良好的坐姿图像作为后续监测的标准,后续监测时通过比较监测图像与标准图像之间的差异程度来进行判别;分类识别、预处理是常用的处理方法。但是,由于人体正确坐姿涉及到头部、肩部、腰部等各个部位,每个部位的变化都会引起整个坐姿图像的变化,坐姿图像的实时获取、处理以及后期坐姿信息的统计分析与判别成为实时监测系统的一个技术难题。
发明内容
有鉴于此,本发明实施例的目的在于提供一种电脑前人体坐姿监测方法,以解决上述问题。
为了实现上述目的,本发明实施例采用的技术方案如下:
首先基于增强现实技术构建可与真实场景交互的虚拟场景,并利用3D实感摄像技术实时跟踪定位人体面部特征部位,通过人体面部眉毛特征点的位置深度变化信息来确定坐姿正确与否。
利用左眉心与摄像头Z轴之差,作为错误坐姿水平距离判断依据;利用右眉心与摄像头X轴的偏差,作为错误坐姿侧向距离判断依据;利用右眉心与摄像头Y轴的偏差,作为错误坐姿高度距离判断依据。
不正确坐姿持续时间超过10分钟,监测报警;电脑前久坐超过2小时,监测报警。
与现有技术相比,本发明实施例提供的电脑前人体坐姿监测方法,以点代面,利用眉毛特征点的深度位置变化信息进行人体坐姿判断,避免了因图像预处理及分类识别引起的监测延时问题,真正实现了电脑前正确坐姿的实时监测;同时,充分利用3D实感摄像技术的位置深度信息,构建与真实场景一一映射的虚拟三维场景,在虚拟场景中实现人体正确坐姿的实时判断,判断率精确且保持较高水平;具备错误坐姿超时报警、久坐报警等健康提示预警功能。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
图1为本发明实施例提供的真实场景与虚拟场景进行交互的示意图。
图2为本发明实施例提供的图1所示的真实场景的方框示意图。
图3为本发明实施例提供的图1所示的虚拟场景的方框示意图。
图4为本发明第一实施例提供的一种电脑前人体坐姿监测方法中与真实场景一一映射的虚拟场景构建流程示意图。
图5为本发明第二实施例提供的一种电脑前人体坐姿监测方法中人脸面部特征点捕捉定位流程示意图。
图6为本发明第三实施例提供的一种电脑前人体坐姿监测方法中正确坐姿水平距离有效数值测试流程示意图。
图7为本发明第四实施例提供的一种电脑前人体坐姿监测方法处理流程示意图。
图8为本发明较佳实施例提供的虚拟场景图。
图9为本发明较佳实施例提供的人脸面部捕捉定位结果图。
图10为本发明较佳实施例提供的一组电脑前坐姿监测结果图。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本发明的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。因此,以下对在附图中提供的本发明的实施例的详细描述并非旨在限制要求保护的本发明的范围,而是仅仅表示本发明的选定实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1所示,是本发明较佳实施例提供的真实场景100与虚拟场景200进行交互的示意图。所述真实场景100通过3D实感摄像设备与所述虚拟场景200之间进行交互连接,以实现真实场景与虚拟场景的一一映射与人体位置定位。所述真实场景100是电脑显示屏前包括用户在内的三维场景。所述虚拟场景200可以是由电脑终端生成的虚拟三维场景。所述3D实感摄像设备是具有读取所拍物体的三维数据功能的3D实感摄像设备。
图2示出了本发明实施例提供的图1所示的真实场景100的方框示意图。所述真实场景100包括电脑前用户110以及3D实感摄像设备所能采集到三维空间区域120。
图3示出了本发明实施例提供的图1所示的虚拟场景200的方框示意图。所述虚拟场景200的制作需要服务器201、三维虚拟引擎Unity3D 202、以及3D实感摄像设备203。
服务器201包括存储器211、处理器212以及显示模块213。存储器211可用于存储软件程序以及模块,如本发明实施例中的电脑前久坐正确坐姿监测方法及装置对应的程序指令/模块,处理器212通过运行存储在存储器211内的软件程序以及模块,从而执行各种功能应用以及数据处理,即实现本发明实施例中的应用专题推荐方法。存储器211可包括高速随机存储器,还可包括非易失性存储器,如一个或者多个磁性存储装置、闪存、或者其他非易失性固态存储器。进一步地,上述存储器211的软件程序以及模块还可包括操作系统, 操作系统为WINDOWS,其可包括各种用于管理系统任务的软件组件和/或驱动,并可与各种硬件或软件组件相互通讯,从而提供其他软件组件的运行环境。显示模块213用于显示三维虚拟场景及人体坐姿在虚拟场景中的映射。
三维虚拟引擎Unity3D 202可用于创建虚拟三维场景以及模块,如本发明实施例中的电脑前坐姿监测方法对应的三维虚拟场景模块。
3D实感摄像设备203可用于捕获与跟踪真实场景中的物体位置信息并映射在虚拟场景中,是具有读取所拍物体的三维数据功能的3D实感摄像头,如本发明实施例中的一种电脑前坐姿监测方法对应的3D实感摄像头为英特尔RealSense R300。
可以理解,图3所示的结构仅为示意,所述虚拟场景200还可包括比图3中所示更多或者更少的组件,或者具有与图3所示不同的配置。图3中所示的各组件可以采用硬件、软件或其组合实现。另外,本发明实施例中的服务器还可以包括多个具体不同功能的服务器。
图4示出了本发明第一实施例提供的一种电脑前人体坐姿监测方法中与真实场景一一映射的虚拟场景构建流程图,请参阅图4,本实施例描述的是真实场景与虚拟场景的一一映射处理流程,所述方法包括以下。
步骤S310,创建虚拟场景。
作为一种实施方式,可以在Unity平台下通过新建3D工程(Project)实现虚拟场景创建,采用的Unity版本为Windows版本,Unity5.3.1(64 bit)。
步骤S320,设置虚拟场景并保存。
作为一种实施方式,在工程界面下通过菜单栏Assets创建一个文件夹,为其重命名,用于保存当前工程的场景和脚本,同时关闭天空盒子并保存场景于文件夹中。
步骤S330,虚拟场景中导入3D实感摄像信息,实现真实场景与虚拟场景的一一映射。
作为一种实施方式,在工程界面Asset下打开RSunityToolkit文件夹,将RealSense R300 SDK中的SenseAR和SenseManager拖入Hierarchy界面下。
需要说明的是,在使用英特尔RealSense Developer Kit之前需要安装RealSense驱动与SDK。RealSense SDK 包括有SenseAR和SenseManager组件,SenseAR为实感增强现实组件,有实感增强现实所需的摄像头RealCamera和MainCamera。RealCamera用于展示二维摄像信息,而MainCamera用于显示深度摄像信息,两个摄像头信息叠加显示,可以实现真实场景与虚拟场景的一一映射。
图5示出了本发明第二实施例提供的电脑前人体坐姿监测方法中人脸面部特征点捕捉定位流程图,请参阅图5,本实施例描述的是正确捕捉人脸鼻尖特征点的处理流程,所述方法包括以下。
步骤S410,设置场景深度信息获取方式。
作为一种实施方式,本发明第二实施例利用RealSense SDK中SenseAR的MainCamera获取场景位置深度信息。
步骤S420,创建人体面部鼻子对象。
作为一种实施方式,在工程界面Hierarchy下点击Create-->Create Empty,创建虚拟鼻子对象,命名为“Nose”,用于人体面部跟踪定位。
步骤S430,为鼻子添加对象目标跟随控件。
作为一种实施方式,在工程界面Hierarchy下选中“Nose”后在Inspector界面下点击添加组件Add Component,再点击Tracking action就顺利添加了目标跟随控件。
步骤S440,确定跟踪对象在虚拟场景中的原点坐标。
作为一种实施方式,成功添加Tracking action后将在虚拟场景中出现一个红色虚拟立方体用来定位识别跟踪对象,设置Tracking action的坐标,使红色虚拟立方体放到实感增强现实组件SenseAR前面。
步骤S450,设置跟踪对象的目标特征点。
作为一种实施方式,在工程界面Hierarchy下选中“Nose”后,在设置中修改添加组件属性,让摄像头跟踪鼻子对象的鼻尖特征点。
步骤S460,导入猫面具,定位跟踪对象“Nose”的鼻尖目标特征点。
作为一种实施方式,在工程界面Hierarchy下导入KittenNose包,在KittenNose包中的KittenModel中选中KittenNose,将KittenNose拖入到Hierarchy界面中的Nose下。
步骤S470,调试运行,猫面具跟踪定位人脸。
作为一种实施方式,导入猫面具后,点击运行可以对猫面具定位的效果进行判断。如果定位效果不好,可通过键盘中的W键对猫面具的位置进行调整,直到定位效果满意。
图6示出了本发明第三实施例提供的一种电脑前人体坐姿监测方法中正确坐姿水平距离有效数值测试处理流程图,请参阅图6,本实施例描述的是正确坐姿下左眉心与实感摄像头Z轴的有效距离测试,所述方法包括以下。
步骤S510,创建人体左眉毛对象,捕捉定位人脸面部左眉心特征点。
作为一种实施方式,创建人体左眉毛对象,捕捉定位人脸面部左眉心特征点的处理流程类似于上述图5所述的正确捕捉人脸鼻尖特征点的处理流程,只需将人脸鼻尖特征点修改为左眉心特征点。
步骤S520,测试正确坐姿下左眉心据显示器的水平距离规范数值范围。
作为一种实施方式,认定正确坐姿下双眼应平视显示器中间的位置,与显示器保持60cm的距离,显示器屏幕上所显示的第一排字最好位于视线下约3cm的地方,使眼睛形成微微向下注视显示器屏幕的角度,以放松和减缓颈部肌肉疲劳。依据此方式调试正确坐姿下左眉心与摄像头的Z轴差值,确定水平坐姿规范的数值范围。
需要说明的是,作为一种正确坐姿下水平距离有效数值测试处理方法,此方法同样适用于正确坐姿下侧向距离、高度距离的有效数值测试,只需将上述步骤S510左眉心替换为右眉心,步骤S520分别调试右眉心与X轴、Y轴的有效差值范围,故在此不再赘述。
图7示出了本发明第四实施例提供的一种电脑前人体坐姿监测方法处理流程图,请参阅图7,本实施例描述的是电脑前人体坐姿监测处理流程,所述方法包括以下。
步骤S610,跟踪定位人脸,捕捉人脸面部特征点。
作为一种实施方式,跟踪定位人脸,捕捉人脸面部特征点采用图5所述人脸面部特征点捕捉定位方法。
步骤S620,实时获取左眉心与Z轴、右眉心与X轴、右眉心与Y轴的距离,监测计时1启动。
作为一种实施方式,实时获取左眉心与Z轴、右眉心与X轴、右眉心与Y轴的距离,监测计时1启动,计算用户坐在电脑前的时间。
步骤S630,判断左眉心与Z轴、右眉心与X轴、右眉心与Y轴的距离是否超出范围。
作为一种实施方式,监测过程中,系统实时计算左眉心与实感摄像头Z轴的距离,右眉心与实感摄像头X轴、Y轴的距离,判断当前距离是否超出图6所示方法获得的参考距离,若判断结果为“N”,进入后续步骤S640;若判断结果为“Y”,进入后续步骤S670。
步骤S640,持续监测。
作为一种实施方式,持续监测为循环执行上述步骤S620与S630中左、右眉心特征点与实感摄像头坐标轴距离超出范围的判定。
步骤S650,判断监测计时1是否大于2小时。
作为一种实施方式,实时监测过程中,监测计时1不断增加,并判断监测计时1的值是否大于2个小时,若判断结果为“Y”,进入后续步骤S660;若判断结果为“N”,返回上述步骤S640,持续监测。
步骤S660,声音报警提示。
作为一种实施方式,实时监测过程中,若监测计时1的值大于2个小时,即用户已久坐电脑前超过2小时,监测声音报警提示;或者S670中的监测计时2的值大于10分钟,即错误坐姿超过10分钟,监测声音报警提示。
步骤S670,错误坐姿提示,监测计时2启动。
作为一种实施方式,实时监测过程中,若上述步骤S630中的判断结果为“Y”,系统弹出提示框,根据判定结果提示用户错误坐姿;同时启动监测计时2,监测错误坐姿持续时间。
步骤S680,判断监测计时2是否大于10分钟。
作为一种实施方式,实时监测过程中,监测计时2不断增加,同时判断其值是否大于10分钟,若判断结果为“Y”,错误坐姿超时,进入步骤S660,声音报警提示;若判断结果为“N”,返回上述步骤S640,持续监测。
如图8所示,是本发明较佳实施例提供的虚拟场景图。该虚拟场景包括了电脑使用者与其所在的真实场景,具体实现方法请详见图4所述。
如图9所示,是本发明较佳实施例提供的人脸面部捕捉定位结果图。该结果图中的猫面具标识定位于人脸的鼻尖特征点位置,人脸移动,猫面具跟着移动,具体实现方法请详见图5所述。
如图10所示,是本发明较佳实施例提供的一组电脑前坐姿监测结果图。
与现有技术相比,本发明实施例提供的一种电脑前坐姿监测方法,基于增强现实技术构建与真实场景一一映射的虚拟场景,在此场景下利用3D实感摄像技术实时跟踪定位人体面部眉毛特征点的深度位置信息,根据左眉心与实感摄像头Z轴的距离、右眉心与X轴的距离、右眉心与Y轴的距离判定其水平、侧向、高度坐姿是否正确,若有错误坐姿出现,动画提示,错误坐姿持续时间超过10分钟或者用户久坐电脑前超过2个小时,监测声音报警。这种电脑前人体坐姿监测方法,以点代面,利用眉毛特征点的深度位置变化信息进行人体前俯、侧向、高耸错误坐姿的实时判断,避免了因图像预处理及分类识别引起的监测延时问题,实现了电脑前坐姿的实时监测,同时具有错误坐姿动画提示、错误坐姿超时声音报警、久坐声音报警功能,对因错误坐姿和久坐引起的健康隐患问题有积极预防作用。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本发明的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (3)
1.一种电脑前人体坐姿监测方法,其特征在于,该方法包括:构建与真实场景一一映射的虚拟场景,在此虚拟场景下利用3D实感摄像技术实时跟踪定位人体面部眉毛特征点,通过眉毛特征点的位置变化来实时监测其坐姿是否正确,若有不正确坐姿出现,动画提示;错误坐姿持续时间超过10分钟,声音报警提示;久坐电脑前时间超过2个小时,声音报警提示。
2.根据权利要求1所述的方法,其特征在于,利用眉毛特征点的深度位置变化信息进行人体坐姿判断,左眉心与实感摄像头Z轴之差,作为错误坐姿水平距离判断依据;右眉心与实感摄像头X轴的偏差,作为错误坐姿侧向偏离距离判断依据;右眉心与实感摄像头Y轴的偏差,作为错误坐姿高度偏离距离判断依据。
3.根据权利要求1所述的方法,其特征还在于,系统具有实时监测报警功能,左右眉心的位置改变代表了人体坐姿的变换,当人体出现前俯、侧向、高耸错误坐姿时,动画提示,错误坐姿持续时间超过一定量时声音报警;久坐持续时间超过一定量时声音报警。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710017363.XA CN107256375A (zh) | 2017-01-11 | 2017-01-11 | 一种电脑前人体坐姿监测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710017363.XA CN107256375A (zh) | 2017-01-11 | 2017-01-11 | 一种电脑前人体坐姿监测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107256375A true CN107256375A (zh) | 2017-10-17 |
Family
ID=60027130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710017363.XA Withdrawn CN107256375A (zh) | 2017-01-11 | 2017-01-11 | 一种电脑前人体坐姿监测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107256375A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108991750A (zh) * | 2018-07-27 | 2018-12-14 | 邢台职业技术学院 | 一种智能化课桌及课桌智能化方法 |
CN110196640A (zh) * | 2019-05-31 | 2019-09-03 | 维沃移动通信有限公司 | 一种操作控制方法及终端 |
CN113709564A (zh) * | 2020-05-21 | 2021-11-26 | 云米互联科技(广东)有限公司 | 基于5g电视的预警方法、5g电视及可读存储介质 |
CN113903161A (zh) * | 2021-09-15 | 2022-01-07 | 深圳市闪电迅捷信息科技有限公司 | 一种坐姿提醒装置及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103778661A (zh) * | 2013-12-24 | 2014-05-07 | 中国科学院深圳先进技术研究院 | 一种生成说话人三维运动模型的方法、系统及计算机 |
WO2014150739A1 (en) * | 2013-03-15 | 2014-09-25 | Honeywell International Inc. | Virtual mask alignment for fit analysis |
CN104376599A (zh) * | 2014-12-11 | 2015-02-25 | 苏州丽多网络科技有限公司 | 一种简便的三维头部模型生成系统 |
CN104504868A (zh) * | 2015-01-04 | 2015-04-08 | 合肥联宝信息技术有限公司 | 监测终端设备用户不良习惯的装置及方法 |
CN104900019A (zh) * | 2015-04-23 | 2015-09-09 | 上海维锐智能科技有限公司 | 一种人体坐姿探测装置及探测方法 |
CN106096555A (zh) * | 2016-06-15 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 三维面部检测的方法和装置 |
-
2017
- 2017-01-11 CN CN201710017363.XA patent/CN107256375A/zh not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014150739A1 (en) * | 2013-03-15 | 2014-09-25 | Honeywell International Inc. | Virtual mask alignment for fit analysis |
CN103778661A (zh) * | 2013-12-24 | 2014-05-07 | 中国科学院深圳先进技术研究院 | 一种生成说话人三维运动模型的方法、系统及计算机 |
CN104376599A (zh) * | 2014-12-11 | 2015-02-25 | 苏州丽多网络科技有限公司 | 一种简便的三维头部模型生成系统 |
CN104504868A (zh) * | 2015-01-04 | 2015-04-08 | 合肥联宝信息技术有限公司 | 监测终端设备用户不良习惯的装置及方法 |
CN104900019A (zh) * | 2015-04-23 | 2015-09-09 | 上海维锐智能科技有限公司 | 一种人体坐姿探测装置及探测方法 |
CN106096555A (zh) * | 2016-06-15 | 2016-11-09 | 湖南拓视觉信息技术有限公司 | 三维面部检测的方法和装置 |
Non-Patent Citations (2)
Title |
---|
KIM J ET AL: ""A Feedback System for the Prevention of Forward Head Posture in Sedentary Work Environments"", 《PROCEEDINGS OF THE 2016 ACM CONFERENCE COMPANION PUBLICATION ON DESIGNING INTERACTIVE SYSTEMS》 * |
董建成等: ""基于RealSense的坐姿检测技术"", 《电子产品世界》 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108991750A (zh) * | 2018-07-27 | 2018-12-14 | 邢台职业技术学院 | 一种智能化课桌及课桌智能化方法 |
CN110196640A (zh) * | 2019-05-31 | 2019-09-03 | 维沃移动通信有限公司 | 一种操作控制方法及终端 |
CN113709564A (zh) * | 2020-05-21 | 2021-11-26 | 云米互联科技(广东)有限公司 | 基于5g电视的预警方法、5g电视及可读存储介质 |
CN113709564B (zh) * | 2020-05-21 | 2023-12-12 | 云米互联科技(广东)有限公司 | 基于5g电视的预警方法、5g电视及可读存储介质 |
CN113903161A (zh) * | 2021-09-15 | 2022-01-07 | 深圳市闪电迅捷信息科技有限公司 | 一种坐姿提醒装置及方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Kiefer et al. | Where am I? Investigating map matching during self‐localization with mobile eye tracking in an urban environment | |
Stiefelhagen et al. | Head orientation and gaze direction in meetings | |
CN111726586A (zh) | 一种生产体系操作规范监测提醒系统 | |
Pfeiffer et al. | EyeSee3D: a low-cost approach for analyzing mobile 3D eye tracking data using computer vision and augmented reality technology | |
US7949295B2 (en) | Automated trainee monitoring and performance evaluation system | |
CN107949298A (zh) | 确定用户当前被护理的身体部分 | |
CN105426827A (zh) | 活体验证方法、装置和系统 | |
CN107256375A (zh) | 一种电脑前人体坐姿监测方法 | |
JP2010191826A (ja) | 情報処理装置および情報処理方法 | |
Zaletelj | Estimation of students' attention in the classroom from kinect features | |
CN106446002A (zh) | 一种基于运动目标在地图中轨迹的视频检索方法 | |
CN111814587A (zh) | 人体行为检测方法、教师行为检测方法及相关系统和装置 | |
Emerson et al. | Early prediction of visitor engagement in science museums with multimodal learning analytics | |
Chukoskie et al. | Quantifying gaze behavior during real-world interactions using automated object, face, and fixation detection | |
EP0847201A1 (fr) | Système de suivi de mobiles en temps réel sur un terrain de sports | |
Madrid et al. | Recognition of dynamic Filipino Sign language using MediaPipe and long short-term memory | |
Li et al. | CVPE: A computer vision approach for scalable and privacy-preserving socio-spatial, multimodal learning analytics | |
Gokl et al. | Towards urban environment familiarity prediction | |
Mehrubeoglu et al. | Capturing reading patterns through a real-time smart camera iris tracking system | |
Liu et al. | Gesture recognition based on Kinect | |
CN113780051A (zh) | 评估学生专注度的方法和装置 | |
Salgian et al. | A smart mirror for music conducting exercises | |
CN112766230A (zh) | 一种视频流人员在线时长估计方法及对应系统 | |
CN112422901A (zh) | 一种手术虚拟现实视频的生成方法和装置 | |
CN111507555A (zh) | 人体状态检测方法、课堂教学质量的评价方法及相关装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20171017 |