CN112200088A - 一种坐姿监测方法、装置、设备以及系统 - Google Patents

一种坐姿监测方法、装置、设备以及系统 Download PDF

Info

Publication number
CN112200088A
CN112200088A CN202011081283.9A CN202011081283A CN112200088A CN 112200088 A CN112200088 A CN 112200088A CN 202011081283 A CN202011081283 A CN 202011081283A CN 112200088 A CN112200088 A CN 112200088A
Authority
CN
China
Prior art keywords
sitting posture
target
user
frame
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011081283.9A
Other languages
English (en)
Other versions
CN112200088B (zh
Inventor
张德钧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
TP Link Technologies Co Ltd
Original Assignee
TP Link Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by TP Link Technologies Co Ltd filed Critical TP Link Technologies Co Ltd
Priority to CN202011081283.9A priority Critical patent/CN112200088B/zh
Publication of CN112200088A publication Critical patent/CN112200088A/zh
Application granted granted Critical
Publication of CN112200088B publication Critical patent/CN112200088B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种坐姿监测方法,步骤包括:获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;对所述检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;根据所述目标框与各所述目标移动轨迹的位置关系,判断所述实时视频中用户的坐姿是否异常。本发明提供了一种坐姿监测方法、装置、设备以及系统,通过跟踪检测目标并对检测目标进行人脸检测,以监测用户坐姿,从而在各种情景下都能检测到用户的坐姿。

Description

一种坐姿监测方法、装置、设备以及系统
技术领域
本发明涉及图像识别技术领域,尤其是涉及一种坐姿监测方法、装置、设备以及系统。
背景技术
随着互联网与计算机的飞速普及,以及在传染病疫情防控需要,青少年在线教育成为一大发展趋势。伴随着接触计算机学习的场合与时间的增长,长时间的不良坐姿引发的近视、驼背等众多不利于青少年成长发育的问题越来越常见,早在2015年就有报道显示,我国青少年近视发病率已高居世界第一位。随着在线教育的普及趋势,摄像装置既可以为直播上课、线上交流、答疑等带来极大的便利,也可以基于视频图像监测长时间的不良坐姿并矫正,为家长关爱青少年的学习成长健康提供技术支持。
针对坐姿健康的自动检测问题,已有相关技术方案。中国专利CN104239860的方案通过脸部轮廓宽高以及眼睛、鼻子、嘴巴的相对距离来检测坐姿,这对摄像头的位置有严格要求,必须用户保持正面对着摄像头,否则会因为无法检测到正脸脸部特征而使坐姿监测失效。然而,在青少年学习的情景中,用户可能正脸面对智能终端,也可能正脸面对的是书籍、作业桌面等。在这些场合下,由于用户没有正脸面对图像采集装置,导致检测失效。中国专利CN105139447的方案利用双摄像头进行图像标定与采集,并且根据测量到的人眼到桌面的距离判断是否坐姿不良,但该方案不适用于人眼面对计算机等智能终端的场景。
另外,以上专利技术均是使用人脸特征检测技术进行坐姿检测。该检测方法是基于全图全局出发去找寻目标点的过程,连续性的检测需要一直对视频的每一帧图像进行,会消耗较多的计算资源,而且难以应对检测不到目标特征的场景,缺乏鲁棒性,坐姿监测效果不好。
发明内容
针对上述技术问题,本发明提供了一种坐姿监测方法、装置、设备以及系统,通过跟踪检测目标并对检测目标进行人脸检测,以监测用户坐姿,从而在各种情景下都能检测到用户的坐姿。所述技术方案如下:
第一方面,本发明实施例提供了一种坐姿监测方法,步骤包括:
获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
对所述检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
根据所述目标框与各所述目标移动轨迹的位置关系,判断所述实时视频中用户的坐姿是否异常。
在本发明第一方面的第一种可能的实现方式中,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,具体为:
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征低于所述目标框的下边界且状态持续超过第一设定时长,则确定所述用户的坐姿为驼背状态;
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征偏出所述目标框的左边界或右边界且状态持续超过第二设定时长,则确定所述用户的坐姿为歪头状态;
若从所述目标移动轨迹中检测到各目标特征之一的人脸尺寸超出所述目标框限定的阈值且状态持续超过第三设定时长,则确定所述用户的坐姿为距离屏幕过近的状态。
在本发明第一方面的第二种可能的实现方式中,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,还包括步骤:
若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别;
当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号。
在本发明第一方面的第三种可能的实现方式中,所述若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别,具体为:
如果所述用户的坐姿为驼背状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与双眼连线的垂直距离低于第一设定值,则将所述用户的坐姿更新为低头学习状态,否则维持所述用户的坐姿为驼背状态;
如果所述用户的坐姿为歪头状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与左眼或右眼的高度差低于第二设定值,则将所述用户的坐姿更新为偏左歪头状态或偏右歪头状态,否则将所述用户的坐姿更新为坐姿平移状态;
如果所述用户的坐姿为距离屏幕过近的状态,从处于坐姿异常状态的视频图像中检测出双眼;当双眼距离超过第三设定值时,维持所述用户的坐姿为距离屏幕过近的状态。
在本发明第一方面的第四种可能的实现方式中,当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号,后续步骤还包括:
将发出矫正坐姿的提醒信号后重新判定用户的坐姿正常的下一个视频帧设为检测帧。
在本发明第一方面的第五种可能的实现方式中,所述根据所述目标特征记录跟踪帧的视频图像中的目标移动轨迹,还包括:
从所述目标框内的图像像素数据中筛选出训练样本,并且根据所述训练样本对用于检测出所述目标特征的人脸特征检测模型进行优化训练。
在本发明第一方面的第六种可能的实现方式中,所述获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧,具体的设定检测帧的方式包括:
将所述实时视频的第一个视频帧设为检测帧,并且每经过一个设定的间隔时长则将一个视频帧设为下一个检测帧。
第二方面,本发明实施例提供了一种坐姿监测装置,包括:
视频采集模块,用于获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
人脸特征检测模块,用于对检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
目标跟踪模块,用于记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
坐姿检测模块,用于根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常。
第三方面,本发明实施例提供了一种坐姿监测系统,包括如上所述的坐姿监测装置,以及与所述坐姿监测装置通信连接的用户终端;
所述用户终端,用于向用户发送矫正坐姿的提醒信号。
第四方面,本发明实施例提供了一种坐姿监测设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的坐姿监测方法。
相比于现有技术,本发明实施例具有如下有益效果:
本发明提供了一种坐姿监测方法、装置、设备以及系统,能够将监测用户坐姿的实时视频分成检测帧和跟踪帧;对所述检测帧的视频图像进行人脸识别,并确定用户坐姿在正常状态下的目标框,同时在跟踪帧的视频中跟踪检测目标的变化轨迹;最后,根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常。因此,即使在坐姿监测过程中因场景差异而不能时刻准确地识别用户的人脸特征,也能根据目标框与目标移动轨迹的位置关系判断用户的坐姿是否异常,从而实现在各种情景下的坐姿检测。
另外,本方案通过检测模块对检测目标进行人脸识别,通过跟踪模块跟踪检测目标的变化轨迹,最后根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,从而使得模块间相辅相成地达到针对性的准确跟踪识别,避免对视频的每一帧图像进行人脸识别而消耗较多的计算资源,进而降低硬件成本。
附图说明
图1是本发明实施例中的一种坐姿监测方法的步骤流程图;
图2是本发明实施例中的一种坐姿监测方法的正常坐姿状态的示意图;
图3是本发明实施例中的一种坐姿监测方法的异常坐姿状态的示意图;
图4是本发明实施例中的一种坐姿监测方法的人脸关键点距离阈值设置示意图;
图5是本发明实施例中的一种坐姿监测方法的低头状态示意图;
图6是本发明实施例中的一种坐姿监测方法的偏左歪头状态示意图;
图7是本发明实施例中的一种坐姿监测方法的距离屏幕过近的状态示意图;
图8是本发明实施例中的一种坐姿监测方法的优选坐姿检测步骤流程图;
图9是本发明实施例中的一种坐姿监测装置的模块架构图;
图10是本发明实施例中的一种坐姿监测系统的模块架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参见图1,本发明提供一种示例性实施例,一种坐姿监测方法,步骤包括:
S101、获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
S102、对检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
S103、记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
S104、根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常。
该方法的思路在于由第一帧开始按一定的间隔设置关键帧,其余为非关键帧,将该关键帧作为检测帧,运行检测方法,在全局图像获取目标信息;对非关键帧(即跟踪帧)运行跟踪方法,针对上一检测帧的目标检测信息进行持续跟踪。
本实施例使用两种跟踪与检测方法的结合,既克服了传统的检测方法容易受角度影响、特征检测不到等情形,引入跟踪方法,又克服了跟踪目标得不到模板更新造成的位置偏移或与背景的误融合。
请参见图2、3,在本实施例中,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,具体可以判定以下异常状态:
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征低于所述目标框的下边界且状态持续超过第一设定时长,则确定所述用户的坐姿为驼背状态;
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征偏出所述目标框的左边界或右边界且状态持续超过第二设定时长,则确定所述用户的坐姿为歪头状态;
若从所述目标移动轨迹中检测到各目标特征之一的人脸尺寸超出所述目标框限定的阈值且状态持续超过第三设定时长,则确定所述用户的坐姿为距离屏幕过近的状态。
需要说明的是,驼背状态、歪头状态、距离屏幕过近的状态皆为坐姿异常状态。
可以理解的是,所述第一设定时长、第二设定时长、第三设定时长可以是相同,也可以是各不相同。
需要说明的是,所述目标特征还包括人脸颜色、亮度或纹理。
本方案还提供一种优选实施例,所述坐姿监测方法,还包括步骤:
若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别;
当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号。可以理解的是,所述向用户发送矫正坐姿的提醒信号,可能的方式是,通过往移动终端发送提醒消息记录或者直接语音提醒用户。
本实施例对坐姿异常具有多级判断机制,第一阶段的跟踪位置偏移计算简单,当疑似坐姿不端正状态达到一定时长后,才触发人脸特征点的进一步检测计算,能准确判别提醒矫正坐姿,保持准确的同时降低计算资源消耗;同时,通过向用户发送矫正坐姿的提醒信号,有利于用户矫正坐姿,提高坐姿检测的实用性。
需要说明的是,所述人脸特征包括人脸中心点、双眼位置等。
优选地,所述对检测帧的视频图像进行人脸识别得到若干目标特征并确定用户坐姿在正常状态下的目标框的一种优选实施方式为:
利用人脸特征检测模型对所述检测帧的视频图像进行人脸检测,获得包括人脸中心点与双眼的目标特征;所述人脸特征检测模型为可拓展训练的模型,可通过人脸级联分类器或MTCNN等方法获得。
根据所述人脸中心点与双眼的目标特征,初始化设定人脸中心点到双眼连线的垂直距离的第一设定值、人脸中心点到左眼或右眼的竖直距离的第二设定值,以及双眼距离的第三设定值。
请参见图4,所述第一设定值为a,所述第二设定值为bl(br),所述第三设定值为c。
需要说明的是,对检测帧的视频图像采用人脸识别的检测方法,同时对跟踪帧的视频图像采用跟踪方法跟踪目标移动轨迹,所述检测方法与所述跟踪方法并行进行;为了保证所述跟踪方法时刻有效,本方案还提供一种优选实施方式:
优选地,所述记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹,还包括:
若在所述检测帧的视频图像中检测不到目标特征,则依据上一个检测帧的视频图像中检测到的目标特征,跟踪所述跟踪帧的视频图像中的目标移动轨迹,并且在下一个检测帧的视频图像中重新检测目标特征;
若在下一个检测帧的视频图像中检测到新的目标特征,则依据新的目标特征跟踪所述跟踪帧的视频图像中的目标移动轨迹。
可以理解的是,通过更新目标特征使得运行跟踪方法时能够依据新的目标特征跟踪目标移动轨迹,从而依据更准确的目标进行跟踪,以避免光照、环境变化等造成的跟踪失效,或累计误差偏移、跟丢等情况,不影响初始化信息。
在本实施例中,所述若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别,具体可以识别出以下情况:
如果所述用户的坐姿为驼背状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与双眼连线的垂直距离低于第一设定值,则将所述用户的坐姿更新为低头学习状态,否则维持所述用户的坐姿为驼背状态;
请参见图5,首先在初始位置划定1个目标框(如宽高各5厘米的矩形区域),当跟踪到目标点低于目标框下边界时,记录为驼背状态,该记录状态持续超过一定时间(如30分钟),进一步检测人脸特征,当人脸中心点与双眼连线距离值da低于阈值a时,则将此状态记为低头状态,否则,属于驼背状态,并通过往移动终端发送提醒消息记录或者直接语音提醒用户矫正坐姿。
如果所述用户的坐姿为歪头状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与左眼或右眼的高度差低于第二设定值,则将所述用户的坐姿更新为偏左歪头状态或偏右歪头状态,否则将所述用户的坐姿更新为坐姿平移状态;
请参见图6,当跟踪到人脸中心点偏出区域左或右边界时,记录为歪头状态,该记录状态持续超过一定时间(如30分钟)将进一步检测人脸特征,当人脸中心点与左眼(或右眼)高度差dbl(或dbr)低于阈值bl(或br)时,记录为偏左(或偏右)歪头状态,并通过往移动终端发送提醒消息记录或者直接语音提醒用户矫正坐姿;否则记录为坐姿平移状态并将下一个视频帧作为检测帧。
如果所述用户的坐姿为距离屏幕过近的状态,从处于坐姿异常状态的视频图像中检测出双眼;当双眼距离超过第三设定值时,维持所述用户的坐姿为距离屏幕过近的状态。
请参见图7,当跟踪用户的人脸尺寸偏大至超出目标框的阈值,且正脸向前时,记录为距离屏幕过近的状态,该记录状态持续超过一定时间(如20分钟)将进一步检测人脸特征,当双眼距离dc超过阈值c时,则属于距离屏幕过近状态,并通过往移动终端发送提醒消息记录或者直接语音提醒用户保持合适的离屏幕距离;
本方案还提供一种优选实施例,所述坐姿监测方法,具体的设定检测帧的方式包括:
将所述实时视频的第一帧设为检测帧。
在某一检测帧后,将经过设定的间隔时长后的视频帧设为检测帧。
将发出矫正坐姿的提醒信号后重新判定用户的坐姿正常的下一个视频帧设为检测帧。
可以理解的是,当发出提醒以后,用户人脸中心点由目标框的下边界上升一定幅度,或由偏左或偏右返回正常等位置变动,或人脸尺寸恢复正常大小时,重新设定新的检测帧,并对新的检测帧的视频图像进行人脸识别,以重新确定新的目标特征。
当检测到所述目标框内的检测目标特征消失后,将所述检测目标重新恢复的第一帧设为检测帧。可以理解的是,本方案具有检测用户中途离开的功能,当用户离开画面,将停止目标跟踪,并缩短间隔设定检测帧的时间(如设定为1秒)或停止监测等待重新启动。
将判定为坐姿平移状态的下一个视频帧设为检测帧。
本方案提供具体实施例以说明上述优选实施方式:
正常情况下,将所述实时视频的第一帧设为检测帧,并且每经过一个设定的间隔时长则将一个视频帧设为下一个检测帧。当在所述间隔时长内,发生所述目标框内的检测目标特征消失、判定用户坐姿为平移状态、发出矫正坐姿的提醒信号后重新判定用户的坐姿正常等情况时,立即将下一个视频帧设置为新的检测帧,同时以该新的检测帧为开始重新计算间隔时长,并将经过设定的间隔时长后的下一个视频帧设为检测帧。
本实施例可随着用户的离开、坐姿监测结果或选择性重置简单的检测模块、视模型的复杂度、硬件内存等情况自动重置,灵活性强,可支持多种不同级别的系统设备。
请参见图8,本方案还提供一种优选实施例,所述坐姿监测方法,所述根据所述目标特征记录跟踪帧的视频图像中的目标移动轨迹,还包括:
从所述目标框内的图像像素数据中筛选出训练样本,并且根据所述训练样本对所述人脸特征检测模型进行优化训练。
可以理解的是,本方案通过对所述人脸特征检测模型进行优化训练,而且此模型在跟踪模块运行的时候也间隔性地运行,从而不断更新训练样本,使所述人脸特征检测模型由简单的正脸检测模型逐渐训练成能识别对应用户的各种坐姿时的检测模型,进而不断适应当前用户的个人特征以及当前环境的变化,提高人脸识别准确率,而且本实施例实现了实时在线训练机制,避免环境、光照、目标远近尺度等条件改变造成的人脸识别失效,克服环境光照条件或用户姿态变化的影响,鲁棒性更好。
需要说明的是,所述坐姿监测方法的启动方式可通过自动或手动的方式进行,包括检测到符合尺寸要求的人脸、识别到启动语音或者手动按钮。
本方案还提供一种优选实施例,所述坐姿监测方法,在获取实时视频时,还包括步骤:
记录运行时长;当所述运行时长超过设定时长阈值时,向用户发送休息的提醒信号。
在本实施例中,启动坐姿监测同时统计用户学习时长,当超过设定时长阈值如45分钟或1小时,提醒用户休息;而且,本实施例能准确记录目标实时位置与轨迹,从而能判断多种坐姿异常状态并确定离开状态,有利于坐姿健康以及学习工作的劳逸结合。
请参见图9,本方案还提供一种示例性实施例,一种坐姿监测装置,包括:
视频采集模块201,用于获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
人脸特征检测模块202,用于对检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
目标跟踪模块203,用于记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
坐姿检测模块204,用于根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常。
在本实施例中,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,具体可以判定以下异常状态:
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征低于所述目标框的下边界且状态持续超过第一设定时长,则确定所述用户的坐姿为驼背状态;
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征偏出所述目标框的左边界或右边界且状态持续超过第二设定时长,则确定所述用户的坐姿为歪头状态;
若从所述目标移动轨迹中检测到各目标特征之一的人脸尺寸超出所述目标框限定的阈值且状态持续超过第三设定时长,则确定所述用户的坐姿为距离屏幕过近的状态。
需要说明的是,驼背状态、歪头状态、距离屏幕过近的状态皆为坐姿异常状态。
可以理解的是,所述第一设定时长、第二设定时长、第三设定时长可以是相同,也可以是各不相同。
本方案还提供一种优选实施例,所述人脸特征检测模块,还用于:
若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别;
当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号。
优选地,所述对检测帧的视频图像进行人脸识别得到若干目标特征并确定用户坐姿在正常状态下的目标框的一种优选实施方式为:
利用人脸特征检测模型对所述检测帧的视频图像进行人脸检测,获得包括人脸中心点与双眼的目标特征;所述人脸特征检测模型为可拓展训练的模型,可通过人脸级联分类器或MTCNN等方法获得。
根据所述人脸中心点与双眼的目标特征,初始化设定人脸中心点到双眼连线的垂直距离的第一设定值、人脸中心点到左眼或右眼的竖直距离的第二设定值,以及双眼距离的第三设定值。
所述第一设定值为a,所述第二设定值为bl(br),所述第三设定值为c。
优选地,所述记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹,还包括:
若在所述检测帧的视频图像中检测不到目标特征,则依据上一个检测帧的视频图像中检测到的目标特征,跟踪所述跟踪帧的视频图像中的目标移动轨迹,并且在下一个检测帧的视频图像中重新检测目标特征;
若在下一个检测帧的视频图像中检测到新的目标特征,则依据新的目标特征跟踪所述跟踪帧的视频图像中的目标移动轨迹。
在本实施例中,所述若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别,具体可以识别出以下情况:
如果所述用户的坐姿为驼背状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与双眼连线的垂直距离低于第一设定值,则将所述用户的坐姿更新为低头学习状态,否则维持所述用户的坐姿为驼背状态;
如果所述用户的坐姿为歪头状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与左眼或右眼的高度差低于第二设定值,则将所述用户的坐姿更新为偏左歪头状态或偏右歪头状态,否则将所述用户的坐姿更新为坐姿平移状态;
如果所述用户的坐姿为距离屏幕过近的状态,从处于坐姿异常状态的视频图像中检测出双眼;当双眼距离超过第三设定值时,维持所述用户的坐姿为距离屏幕过近的状态。
本方案还提供一种优选实施例,所述坐姿监测装置还包括检测帧设定模块,所述检测帧设定模块能设置的方式包括:
将所述实时视频的第一帧设为检测帧。
在某一检测帧后,将经过设定的间隔时长后的视频帧设为检测帧。
将发出矫正坐姿的提醒信号后重新判定用户的坐姿正常的下一个视频帧设为检测帧。
当检测到所述目标框内的检测目标特征消失后,将所述检测目标重新恢复的第一帧设为检测帧。
将判定为坐姿平移状态的下一个视频帧设为检测帧。
本方案提供具体实施例以说明上述优选实施方式:
正常情况下,将所述实时视频的第一帧设为检测帧,并且每经过一个设定的间隔时长则将一个视频帧设为下一个检测帧。当在所述间隔时长内,发生所述目标框内的检测目标特征消失、判定用户坐姿为平移状态、发出矫正坐姿的提醒信号后重新判定用户的坐姿正常等情况时,立即将下一个视频帧设置为新的检测帧,同时以该新的检测帧为开始重新计算间隔时长,并将经过设定的间隔时长后的下一个视频帧设为检测帧。
本方案还提供一种优选实施例,所述坐姿监测装置,还包括:
训练模块,用于从所述目标框内的图像像素数据中筛选出训练样本,并且根据所述训练样本对所述人脸特征检测模块运用的人脸特征检测模型进行优化训练。
图10也是本发明一实施例提供的一种坐姿监测装置的运行过程示意图。
人脸特征检测模块首先采用简单的人脸特征检测模型,即正脸检测模型,能识别到用户,启动监测系统,并初始化目标跟踪位置;目标跟踪模块在获得初始位置信息后,能持续跟踪目标,包括人转头、低头造成脸部特征减少等情形,目标跟踪期间会获得大量目标发生尺度、角度(比如仅剩侧脸)等情况的数据;这些数据作为训练模块的输入,可以继续训练人脸特征检测模块的人脸特征检测模型,使之由简单的正脸检测模型逐渐训练成能识别对应用户的各种坐姿时的人脸特征检测模型,此模型在跟踪模块运行的时候也间隔性地运行,从而能够不断更新跟踪模块所需的目标特征,有效避免环境、光照、目标远近尺度等条件改变造成的跟踪失败。可以理解是,以上三大模块的协同作用,可以准确实时地获得用户目标的所在位置,基于目标位置信息的变化,可以进一步地监测用户的坐姿健康。
本方案还提供一种优选实施例,所述坐姿监测装置还包括休息提醒模块,所述休息提醒模块用于:
记录运行时长;当所述运行时长超过设定时长阈值时,向用户发送休息的提醒信号。
请参见图10,本方案还提供一种示例性实施例,一种坐姿监测系统,包括如上所述的坐姿监测装置,以及与所述坐姿监测装置通信连接的用户终端;
所述用户终端,用于向用户发送矫正坐姿的提醒信号。
本方案还提供一种示例性实施例,一种坐姿监测设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上所述的坐姿监测方法。
在本方案中,所述坐姿监测设备可包括,但不仅限于,处理器、存储器。本领域技术人员可以理解,所述示意图仅仅是终端设备的示例,并不构成对终端设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端设备还可以包括输入输出设备、网络接入设备、总线等。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述终端设备的控制中心,利用各种接口和线路连接整个终端设备的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述终端设备的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述终端设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (10)

1.一种坐姿监测方法,其特征在于,步骤包括:
获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
对所述检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
根据所述目标框与各所述目标移动轨迹的位置关系,判断所述实时视频中用户的坐姿是否异常。
2.如权利要求1所述的坐姿监测方法,其特征在于,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,具体为:
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征低于所述目标框的下边界且状态持续超过第一设定时长,则确定所述用户的坐姿为驼背状态;
若从所述目标移动轨迹中检测到各目标特征之一的中心目标特征偏出所述目标框的左边界或右边界且状态持续超过第二设定时长,则确定所述用户的坐姿为歪头状态;
若从所述目标移动轨迹中检测到各目标特征之一的人脸尺寸超出所述目标框限定的阈值且状态持续超过第三设定时长,则确定所述用户的坐姿为距离屏幕过近的状态。
3.如权利要求2所述的坐姿监测方法,其特征在于,所述根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常,还包括步骤:
若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别;
当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号。
4.如权利要求3所述的坐姿监测方法,其特征在于,所述若判定用户的坐姿异常且坐姿异常的状态超过预设的持续时长,则对处于坐姿异常状态的视频图像执行进一步人脸识别,具体为:
如果所述用户的坐姿为驼背状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与双眼连线的垂直距离低于第一设定值,则将所述用户的坐姿更新为低头学习状态,否则维持所述用户的坐姿为驼背状态;
如果所述用户的坐姿为歪头状态,从处于坐姿异常状态的视频图像中检测出人脸中心点和双眼;若所述人脸中心点与左眼或右眼的高度差低于第二设定值,则将所述用户的坐姿更新为偏左歪头状态或偏右歪头状态,否则将所述用户的坐姿更新为坐姿平移状态;
如果所述用户的坐姿为距离屏幕过近的状态,从处于坐姿异常状态的视频图像中检测出双眼;当双眼距离超过第三设定值时,维持所述用户的坐姿为距离屏幕过近的状态。
5.如权利要求3所述的坐姿监测方法,其特征在于,当所述进一步人脸识别出的人脸特征与用户坐姿在正常状态下的人脸特征不同时,向用户发送矫正坐姿的提醒信号,后续步骤还包括:
将发出矫正坐姿的提醒信号后重新判定用户的坐姿正常的下一个视频帧设为检测帧。
6.如权利要求1所述的坐姿监测方法,其特征在于,所述记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹之后,还包括:
从所述目标框内的图像像素数据中筛选出训练样本,并且根据所述训练样本对用于检测出所述目标特征的人脸特征检测模型进行优化训练。
7.如权利要求1所述的坐姿监测方法,其特征在于,所述获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧,具体的设定检测帧的方式包括:
将所述实时视频的第一个视频帧设为检测帧,并且每经过一个设定的间隔时长则将一个视频帧设为下一个检测帧。
8.一种坐姿监测装置,其特征在于,包括:
视频采集模块,用于获取实时视频并将所述实时视频的视频帧分别设置成检测帧和跟踪帧;
人脸特征检测模块,用于对检测帧的视频图像进行人脸识别得到若干目标特征,并确定用户坐姿在正常状态下的目标框;
目标跟踪模块,用于记录所述跟踪帧的视频图像中各目标特征的目标移动轨迹;
坐姿检测模块,用于根据所述目标框与各所述目标移动轨迹的位置关系判断所述实时视频中用户的坐姿是否异常。
9.一种坐姿监测系统,其特征在于,包括如权利要求8所述的坐姿监测装置,以及与所述坐姿监测装置通信连接的用户终端;
所述用户终端,用于向用户发送矫正坐姿的提醒信号。
10.一种坐姿监测设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的坐姿监测方法。
CN202011081283.9A 2020-10-10 2020-10-10 一种坐姿监测方法、装置、设备以及系统 Active CN112200088B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011081283.9A CN112200088B (zh) 2020-10-10 2020-10-10 一种坐姿监测方法、装置、设备以及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011081283.9A CN112200088B (zh) 2020-10-10 2020-10-10 一种坐姿监测方法、装置、设备以及系统

Publications (2)

Publication Number Publication Date
CN112200088A true CN112200088A (zh) 2021-01-08
CN112200088B CN112200088B (zh) 2024-07-19

Family

ID=74013424

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011081283.9A Active CN112200088B (zh) 2020-10-10 2020-10-10 一种坐姿监测方法、装置、设备以及系统

Country Status (1)

Country Link
CN (1) CN112200088B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113378762A (zh) * 2021-06-25 2021-09-10 宁波星巡智能科技有限公司 坐姿智能监测方法、装置、设备及存储介质
CN113392776A (zh) * 2021-06-17 2021-09-14 深圳市千隼科技有限公司 一种结合座位信息和机器视觉的离开座位行为检测方法和存储设备
CN113630638A (zh) * 2021-06-30 2021-11-09 四开花园网络科技(广州)有限公司 电视机虚拟现实数据处理方法及装置
CN114664067A (zh) * 2022-02-25 2022-06-24 北京百度网讯科技有限公司 输出提示的方法、装置、电子设备及存储介质
CN117351405A (zh) * 2023-12-06 2024-01-05 江西珉轩智能科技有限公司 一种人群行为分析系统及方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096801A (zh) * 2009-12-14 2011-06-15 北京中星微电子有限公司 一种坐姿检测方法及装置
JP2011198161A (ja) * 2010-03-22 2011-10-06 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム
CN108845747A (zh) * 2018-04-23 2018-11-20 普联技术有限公司 一种防误触控方法、装置和终端设备
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN109872359A (zh) * 2019-01-27 2019-06-11 武汉星巡智能科技有限公司 坐姿检测方法、装置及计算机可读存储介质
CN110210446A (zh) * 2019-06-12 2019-09-06 广东工业大学 一种目标对象的坐姿状态检测方法、装置、设备及介质
CN110516578A (zh) * 2019-08-20 2019-11-29 开放智能机器(上海)有限公司 一种基于人脸识别和目标跟踪的监视系统
CN110934591A (zh) * 2019-09-30 2020-03-31 宁波华茂优加科技有限公司 一种坐姿检测方法及装置
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
JP2020077337A (ja) * 2018-11-09 2020-05-21 セコム株式会社 画像監視システム
CN111265220A (zh) * 2020-01-21 2020-06-12 王力安防科技股份有限公司 一种近视预警方法、装置及设备
CN111753813A (zh) * 2020-08-10 2020-10-09 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102096801A (zh) * 2009-12-14 2011-06-15 北京中星微电子有限公司 一种坐姿检测方法及装置
JP2011198161A (ja) * 2010-03-22 2011-10-06 Hiromitsu Hama 対象物認識システム及び該システムを利用する監視システム、見守りシステム
CN108845747A (zh) * 2018-04-23 2018-11-20 普联技术有限公司 一种防误触控方法、装置和终端设备
CN109460702A (zh) * 2018-09-14 2019-03-12 华南理工大学 基于人体骨架序列的乘客异常行为识别方法
CN111104816A (zh) * 2018-10-25 2020-05-05 杭州海康威视数字技术股份有限公司 一种目标物的姿态识别方法、装置及摄像机
JP2020077337A (ja) * 2018-11-09 2020-05-21 セコム株式会社 画像監視システム
CN109872359A (zh) * 2019-01-27 2019-06-11 武汉星巡智能科技有限公司 坐姿检测方法、装置及计算机可读存储介质
CN110210446A (zh) * 2019-06-12 2019-09-06 广东工业大学 一种目标对象的坐姿状态检测方法、装置、设备及介质
CN110516578A (zh) * 2019-08-20 2019-11-29 开放智能机器(上海)有限公司 一种基于人脸识别和目标跟踪的监视系统
CN110934591A (zh) * 2019-09-30 2020-03-31 宁波华茂优加科技有限公司 一种坐姿检测方法及装置
CN111265220A (zh) * 2020-01-21 2020-06-12 王力安防科技股份有限公司 一种近视预警方法、装置及设备
CN111753813A (zh) * 2020-08-10 2020-10-09 腾讯科技(深圳)有限公司 图像处理方法、装置、设备及存储介质

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
WEIDONG MIN等: "A Scene Recognition and Semantic Analysis Approach to Unhealthy Sitting Posture Detection during Screen-Reading", 《SENSORS》, vol. 18, 16 September 2018 (2018-09-16), pages 1 - 22 *
冯骞: "监控场景中的行人检测与属性识别方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 1, 15 January 2019 (2019-01-15), pages 138 - 2563 *
威尼斯的夏天: "基于RealSense的坐姿检测技术", pages 1 - 4, Retrieved from the Internet <URL:https://www.cnblogs.com/safezone/p/5624668.html> *
张光明 等: "医药供应链创新模式及路径", 《物流科技》, vol. 43, no. 2, 10 February 2020 (2020-02-10), pages 135 - 138 *
曾兵: "基于深度学习的快速行人检测算法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 12, 15 December 2019 (2019-12-15), pages 138 - 386 *
黄慧 等: "干贝水分检测的建模及分级方法", 《光谱学与光谱分析》, vol. 39, no. 1, 15 January 2019 (2019-01-15), pages 185 - 192 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113392776A (zh) * 2021-06-17 2021-09-14 深圳市千隼科技有限公司 一种结合座位信息和机器视觉的离开座位行为检测方法和存储设备
CN113392776B (zh) * 2021-06-17 2022-07-12 深圳日海物联技术有限公司 一种结合座位信息和机器视觉的离开座位行为检测方法和存储设备
CN113378762A (zh) * 2021-06-25 2021-09-10 宁波星巡智能科技有限公司 坐姿智能监测方法、装置、设备及存储介质
CN113378762B (zh) * 2021-06-25 2023-08-08 宁波星巡智能科技有限公司 坐姿智能监测方法、装置、设备及存储介质
CN113630638A (zh) * 2021-06-30 2021-11-09 四开花园网络科技(广州)有限公司 电视机虚拟现实数据处理方法及装置
CN114664067A (zh) * 2022-02-25 2022-06-24 北京百度网讯科技有限公司 输出提示的方法、装置、电子设备及存储介质
CN117351405A (zh) * 2023-12-06 2024-01-05 江西珉轩智能科技有限公司 一种人群行为分析系统及方法
CN117351405B (zh) * 2023-12-06 2024-02-13 江西珉轩智能科技有限公司 一种人群行为分析系统及方法

Also Published As

Publication number Publication date
CN112200088B (zh) 2024-07-19

Similar Documents

Publication Publication Date Title
CN112200088B (zh) 一种坐姿监测方法、装置、设备以及系统
CN110659397B (zh) 一种行为检测方法、装置、电子设备和存储介质
CN113298062B (zh) 婴幼儿睡眠活动状态检测方法、装置、设备及介质
CN112380972B (zh) 一种应用于电视场景的音量调节方法
CN110612530A (zh) 用于选择脸部处理中使用的帧的方法
CN110516572B (zh) 一种识别体育赛事视频片段的方法、电子设备及存储介质
CN110427923B (zh) 婴幼儿吐奶行为识别方法、装置、计算机设备及存储介质
CN112200230B (zh) 一种训练板的识别方法、装置及机器人
CN111402096A (zh) 一种在线授课质量管理方法、系统、设备和介质
CN102346858A (zh) 图像处理设备和方法以及程序
WO2022213974A1 (zh) 针对宠物的辅助拍摄方法和装置
CN109241907A (zh) 标注方法、装置及电子设备
CN114926889A (zh) 作业提交方法、装置、电子设备和存储介质
CN114666636A (zh) 音画同步检测方法及计算机可读存储介质
CN110866473A (zh) 目标对象的跟踪检测方法及装置、存储介质、电子装置
CN111182280A (zh) 一种投影方法、投影装置、音箱设备及存储介质
US11546577B2 (en) Video jitter detection method and apparatus
CN113743255A (zh) 基于神经网络的儿童坐姿识别纠正方法及系统
CN111860206B (zh) 图像采集方法、装置、存储介质和智能设备
WO2020244076A1 (zh) 人脸识别方法、装置、电子设备及存储介质
US20220284563A1 (en) Method for discovering defects in products by detecting abnormalities in images, electronic device, and storage medium
CN110971924A (zh) 一种直播过程中美颜的方法、设备、存储介质及系统
CN114943994A (zh) 掌静脉识别系统的控制方法、装置、控制器及存储介质
CN112580462A (zh) 一种特征点选择方法、终端和存储介质
CN110415688B (zh) 一种信息交互方法及机器人

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant