CN113378762B - 坐姿智能监测方法、装置、设备及存储介质 - Google Patents
坐姿智能监测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN113378762B CN113378762B CN202110711710.5A CN202110711710A CN113378762B CN 113378762 B CN113378762 B CN 113378762B CN 202110711710 A CN202110711710 A CN 202110711710A CN 113378762 B CN113378762 B CN 113378762B
- Authority
- CN
- China
- Prior art keywords
- sitting posture
- face
- human
- parameters
- video stream
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000012544 monitoring process Methods 0.000 title claims abstract description 31
- 230000002159 abnormal effect Effects 0.000 claims abstract description 32
- 238000012545 processing Methods 0.000 claims abstract description 11
- 230000036544 posture Effects 0.000 claims description 252
- 239000013598 vector Substances 0.000 claims description 41
- 238000012795 verification Methods 0.000 claims description 29
- 238000012806 monitoring device Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 238000012790 confirmation Methods 0.000 claims description 4
- 238000007405 data analysis Methods 0.000 claims description 3
- 230000000087 stabilizing effect Effects 0.000 claims 2
- 230000000694 effects Effects 0.000 abstract description 11
- 238000001514 detection method Methods 0.000 abstract description 10
- 238000004458 analytical method Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 description 9
- 238000012937 correction Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 206010029174 Nerve compression Diseases 0.000 description 1
- 230000005856 abnormality Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/18—Status alarms
- G08B21/24—Reminder alarms, e.g. anti-loss alarms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理技术领域,解决了现有的坐姿分析方式结果过于绝对化,不符合真实使用状态,坐姿分析结果产生错误导向的技术问题,提供了一种坐姿智能监测方法、装置、设备及存储介质。该方法包括:获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;提取所述视频流中各帧对应的目标对象的人形参数和人脸参数;将所述人形参数和人脸参数与所述标准坐姿参数进行对比,输出坐姿状态。本发明还包括用于执行上述方法的装置、设备和存储介质。本发明通过对一时间段内目标对象的人形参数和人脸参数进行分析,消除目标对象的正常活动被误判成坐姿异常的情况,提高了坐姿检测的准确性。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种坐姿智能监测方法、装置、设备及存储介质。
背景技术
标准坐姿对视力、脊椎、压迫神经等健康发展具有较大的影响;因而对人体坐姿进行分析十分必要。
随着人工智能的发展,现今主要基于双摄像机或者单摄像机对人体坐姿进行分析取得了较为显著的成果。但是,经研究发现,现有坐姿分析方式结果过于绝对化,与真实场景存在较大差异,导致输出的结果产生错误导向,造成对目标对象的使用过于束缚。
发明内容
有鉴于此,本发明实施例提供了一种坐姿智能监测方法、装置、设备及存储介质,用以解决由于坐姿分析方式结果过于绝对化,不符合真实使用状态,坐姿分析结果产生错误导向的技术问题。
本发明采用的技术方案是:
本发明提供了一种坐姿智能监测方法,所述方法包括:
S1:获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
S2:提取所述视频流中各帧对应的目标对象的实时坐姿参数;
S3:将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,所述实时坐姿参数至少包括:人形与人脸的相对位置,或人形与人脸的相对位置和人形姿态角,或人形与人脸的相对位置和人脸姿态角,或人形与人脸的相对位置、人脸姿态角和人形姿态角。
优选地,在所述目标对象的人脸位于目标区域后,开始坐姿校正;所述S1包括:
S11:获取用于标准坐姿校验的视频流和校验阈值;
S12:计算视频流中所有帧图像对应的人脸姿态角方差和人脸位置方差;
S13:将所述人脸姿态角方差和所述人脸位置方差分别于对应的所述校验阈值对比,输出对比结果;
S14:若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数;
S15:若所述对比结果不符合所述校验阈值的要求,则按预设间隔时间重复S11至S13,直至所述对比结果符合所述校验阈值的要求,输出所述标准坐姿参数。
优选地,在所述S11之前还包括:
S01:获取所述目标对象的人脸特征向量,以及身份信息确认的相似度阈值;
S02:利用余弦相似度公式计算所述目标对象的人脸特征向量与数据库中各历史人脸特征向量的相似度值,得到相似度值组;
S03:将所述相似度值组中的最大相似度值与所述相似度阈值进行对比,输出所述目标对象的身份信息;
其中,sim为相似度值,A为目标对象的人脸特征向量,j为人脸特征向量的值,n为人脸特征向量的维度,B为数据库中的人脸特征向量,Aj为目标对象第j个人脸特征向量的值,Bj为数据库中第j个人脸特征向量的值,所述身份信息包括首次使用或非首次使用。
优选地,所述S12包括:
S121:获取所述视频流中各帧图像对应的人脸姿态角和人脸位置;
S122:根据各所述人脸姿态角由公式:输出所述人脸姿态角方差;
S123:根据各所述人脸位置由公式:输出所述人脸位置方差;
其中,n为视频流包括n帧图像,为视频流中所有帧图像对应的人脸姿态角方差,xn为第n帧图像对应的人脸姿态角,/>为视频流中所有帧图像对应的人脸位置方差,yn为第n帧图像对应的人脸位置。
优选地,在坐姿监测阶段,所述S3包括:
S31:获取目标对象的第二视频流和预设的位置偏移的偏移阈值;
S32:将所述第二视频流中的各帧图像的实时坐姿参数与所述标准坐姿参数进行对比,得到目标对象的偏移参数;
S33:将所述偏移参数和所述偏移阈值进行对比,根据对比结果输出所述坐姿状态;
其中,所述第二视频流为包括至少一次目标对象任一参数大于对应的偏移阈值。
优选地,所述S32包括:
S321:获取所述第二视频流中各帧图像对应的实时坐姿参数;
S322:将各所述实时坐姿参数一一与所述标准坐姿参数进行对比,将得到M个第一偏移参数和(Q-M)个第二偏移参数作为所述偏移参数;
其中,Q为偏移参数的总数量,Q大于等于第二视频流包含的图像帧的总数量的正整数,所述第一偏移参数为对比结果大于对应的所述偏移阈值,所述第二偏移参数为对比结果小于对应的所述偏移阈值。
优选地,所述S33包括:
S331:根据M个所述第一偏移参数和(Q-M)个所述第二偏移参数,得到所述第二视频流中目标对象的偏移频率;
S332:将所述偏移频率与所述偏移阈值中的偏移频率阈值进行对比,根据对比结果输出所述坐姿状态;
其中,若对比结果为所述偏移频率大于所述偏移频率阈值,则开始坐姿校正。
本发明还提供了一种坐姿智能监测装置,包括:
数据采集模块:用于获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
数据分析模块:用于提取所述视频流中各帧对应的目标对象的实时坐姿参数;
数据处理模块:用于将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,所述实时坐姿参数至少包括:人形与人脸的相对位置,或人形与人脸的相对位置和人形姿态角,或人形与人脸的相对位置和人脸姿态角,或人形与人脸的相对位置、人脸姿态角和人形姿态角。
本发明还提供了一种电子设备,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现上述任一项所述的方法。
本发明还提供了一种存储介质,其上存储有计算机程序指令,当所述计算机程序指令被处理器执行时实现上述任一项所述的方法。
综上所述,本发明的有益效果如下:
本发明提供的一种坐姿智能监测方法、装置、设备及存储介质,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,这些均在本发明的保护范围内。
图1为本发明实施例1中坐姿智能监测方法的流程示意图;
图2为本发明实施例1中获取标准坐姿参数的流程示意图;
图3为本发明实施例1中获取人脸相似度值的流程示意图;
图4为本发明实施例1中获取人脸坐标位置方差的流程示意图;
图5为本发明实施例1中获取坐姿状态的流程示意图;
图6为本发明实施例1中获取坐姿的偏移参数的流程示意图;
图7为本发明实施例1中获取偏移次数确定坐姿状态的流程示意图;
图8为本发明实施例2中坐姿智能监测装置的结构示意图;
图9为本发明实施例3中的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。在本发明的描述中,需要理解的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。如果不冲突,本发明施例以及实施例中的各个特征可以相互结合,均在本发明的保护范围之内。
实施例1
请参见图1,图1为本发明实施例1中坐姿智能监测方法的流程示意图;所述方法包括:
S1:获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
具体的,在目标对象落座在目标区域后,且坐姿稳定后,摄像头实时采集目标对象的图像信息形成视频流,标准坐姿参数为目标对象坐姿稳定时的各参数,至少包括以下之一:人形位置信息、人脸姿态角信息、人脸特征信息。
S2:提取所述视频流中各帧对应的目标对象的实时坐姿参数;
具体的,分析组成视频流的各帧中目标对象的人形参数和人脸参数作为实时坐姿参数;实时坐姿参数包括人形和人脸的相对位置、人脸姿态角、和人形姿态角;需要说明的是:人形参数至少包括以下之一:人体的关键点位置、人体轮廓位置。人脸参数至少包括以下之一:人脸特征信息、人脸姿态角信息;其中,人脸姿态角信息包括三维立体坐标的x坐标值、y坐标值和z坐标值。
S3:将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,所述实时坐姿参数至少包括:人形与人脸的相对位置,或人形与人脸的相对位置和人形姿态角,或人形与人脸的相对位置和人脸姿态角,或人形与人脸的相对位置、人脸姿态角和人形姿态角。
具体的,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常,当出现坐姿异常时可以直接产生语音提示,也可以根据坐姿异常出现的次数、频率等产生语音提示,根据语音提示进行坐姿校准。
采用本实施例的坐姿智能监测方法,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
在一实施例中,请参见图2,在所述目标对象的人脸位于目标区域后,开始坐姿校正;所述S1包括:
具体的,请参见图3,在所述S11之前还包括:
S01:获取所述目标对象的人脸特征向量,以及身份信息确认的相似度阈值;
具体的,将目标对象的人脸信息输入检测模型中,计算出目标对象的人脸特征向量A;以及预设的判断是否为首次使用的相似度阈值。
S02:利用余弦相似度公式计算所述目标对象的人脸特征向量与数据库中各历史人脸特征向量的相似度值,得到相似度值组;
具体的,根据目标对象的人脸特征向量A遍历人脸数据库中的人脸特征向量,由余弦相似度公式计算目标对象的人脸特征相邻与各历史人脸特征向量的相似度,得到一组相似度值组。
S03:将所述相似度值组中的最大相似度值与所述相似度阈值进行对比,输出所述目标对象的身份信息;
其中,sim为相似度值,A为目标对象的人脸特征向量,j为人脸特征向量的值,n为人脸特征向量的维度,B为数据库中的人脸特征向量,所述身份信息包括首次使用或非首次使用,Aj为目标对象第j个人脸特征向量的值,Bj为数据库中第j个人脸特征向量的值。
具体的,对各相似度值进行排序,选出对大的相似度值,然后将最大的相似度值与相似度阈值对比,若小于相似度阈值,则认为是首次使用,反之为非首次使用。
S11:获取用于标准坐姿校验的视频流和校验阈值;
具体的,若目标对象为首次使用,则获取用于标准坐姿校验的视频流和校验阈值,校验阈值至少包括以下之一:人脸姿态角方差、人脸位置方差和人形位置方差,人形位置方差为高于桌面对应的区域。
需要说明的是:首次使用可以是目标第一次使用该设备,也可以是,目标对象在使用该设备一定周期后,设备根据预设的初始坐姿校验程序,重新录入该目标对象的标准坐姿;如,以学期、季度等为周期,当上次录入的标准坐姿满足设定的有效时间后,即使为同一目标使用该设备,已然认定为首次使用,需重新进行标准坐姿校正,可以适应小孩快速成长的需求,提高用户的体验效果。
S12:计算视频流中所有帧图像对应的人脸姿态角方差和人脸位置方差;
具体的,根据视频码率将视频流转化为多帧图像,根据各帧图像的人脸姿态角和人脸位置计算该视频流的所有帧图像对应的人脸姿态角方差和人脸位置方差。
在一实施例中,请参见图4,所述S12包括:
S121:获取所述视频流中各帧图像对应的人脸姿态角和人脸位置;
具体的,利用图像分析模型,分析视频流对应的各帧图像的人脸姿态角和人脸位置,人脸姿态角包括俯仰角和偏航角,俯仰角为抬头和低头对应打的角度,偏航角为头部左右偏移的角度;人脸位置包括面部位置相对于躯干的位置(对称情况),以及相对于躯干的前后位置,前后位置为面部面积与躯干面积的比值。
S122:根据各所述人脸姿态角由公式:输出所述人脸姿态角方差;
S123:根据各所述人脸位置由公式:输出所述人脸位置方差;
其中,n为视频流包括n帧图像,为视频流中所有帧图像对应的人脸姿态角方差,xn为第n帧图像对应的人脸姿态角,/>为视频流中所有帧图像对应的人脸位置方差,yn为第n帧图像对应的人脸位置。
S13:将所述人脸姿态角方差和所述人脸位置方差分别于对应的所述校验阈值对比,输出对比结果;
具体的,将人脸姿态角方差与校验阈值的人脸姿态角方差阈值对比,同时,件人脸位置方差与校验阈值的人脸位置方差阈值对比,得到对应的对比结果。对比结果包括:人脸姿态角方差小于等于人脸姿态角方差阈值,人脸姿态角方差大于人脸姿态角方差阈值;人形位置方差小于等于人形位置方差阈值,人形位置方差大于人形位置方差阈值。
S14:若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数;
具体的,若对比结果为:人脸姿态角方差小于等于人脸姿态角方差阈值,且人形位置方差小于等于人形位置方差阈值,则符合要求,将此时目标对象的坐姿参数作为标准坐姿参数。坐姿参数包括:人脸位置坐标、人形位置坐标及人脸姿态角。
S15:若所述对比结果不符合所述校验阈值的要求,则按预设间隔时间重复S11至S13,直至所述对比结果符合所述校验阈值的要求,输出所述标准坐姿参数。
具体的,若对比结果为,人脸姿态角方差大于人脸姿态角方差阈值,和/或人形位置方差大于人形位置方差阈值,则表明校准过程中,目标对象存在较大幅度的动作,不符合要求,则经过预设的间隔时间后,再次进行标准坐姿校验。
需要说明的是:在校正过程中,伴随有对应的语音提示,根据影响人脸姿态角方差和/或人脸位置方差的具体值,进行对应的语音提示;如:人脸姿态角方差中的俯仰角参数异常,则语音提示为:请抬头或请低头;若人脸姿态角方差中的偏航角参数异常,则语音提示为:请向左转或向右转;若人脸位置坐标方差的中心位置参数异常,则语音提示为:请坐正,若人脸位置方差的头部位置参数异常,则语音提示为:请向左移动或向右移动头部。
在一实施例中,请参见图5,在坐姿监测阶段,所述S3包括:
S31:获取目标对象的第二视频流和预设的位置偏移的偏移阈值;
具体的,完成目标对象的坐姿校准后,开始监测目标对象的实时坐姿状态,当目标对象的坐姿发生变化,且该变化超过某一阈值,则开始获取实时视频,得到第二视频流,同时获取预设的位置偏移的偏移阈值。
S32:将所述第二视频流中的各帧图像的实时坐姿参数与所述标准坐姿参数进行对比,得到目标对象的偏移参数;
具体的,将第二视频流中的各帧图像的人形参数与标准坐姿参数的人形参数进行对比,将各帧图像的人脸参数与标准坐姿参数的人脸参数进行对比,将各对比结果作为偏移参数。
在一实施例中,请参见图6,所述S32包括:
S321:获取所述第二视频流中各帧图像对应的实时坐姿参数;
S322:将各所述实时坐姿参数一一与所述标准坐姿参数进行对比,将得到M个第一偏移参数和(Q-M)个第二偏移参数作为所述偏移参数;
其中,所述第一偏移参数为对比结果大于对应的所述偏移阈值,所述第二偏移参数为对比结果小于对应的所述偏移阈值。
具体的,将各帧图像的各实时坐姿参数与标准坐姿参数对应的参数进行对比,将对比结果大于偏移阈值的记为第一偏移参数,将对比结果小于等于偏移阈值的记为第二偏移参数,从而得到第二视频流对应的目标对象实时坐姿参数的偏移参数,其中,Q为偏移参数的总数量,Q大于等于第二视频流中包含图像帧的总数量的正整数。
S33:将所述偏移参数和所述偏移阈值进行对比,根据对比结果输出所述坐姿状态;
其中,所述第二视频流为包括至少一次目标对象任一参数大于对应的偏移阈值。
具体的,若偏移参数大于偏移阈值,则输出坐姿异常,反之则不输出语音信息。
在一实施例中,请参见图7,所述S33包括:
S331:根据M个所述第一偏移参数和(Q-M)个所述第二偏移参数,得到所述第二视频流中目标对象的偏移频率;
具体的,偏移频率为目标对象在监测时间段内,异常坐姿发生的频率,偏移频率k=M/Q。
S332:将所述偏移频率与所述偏移阈值中的偏移频率阈值进行对比,根据对比结果输出所述坐姿状态;
其中,若对比结果为所述偏移频率大于所述偏移频率阈值,则开始坐姿校正。
具体的,当目标对象的偏移频率大于设定的偏移频率阈值,则认为目标对象坐姿异常,需要校准坐姿;通过该方法可以提高坐姿监测的准确性,避免由于正常情况下的身体、头部活动被误检的情况。
在一实施例中,若人形位置大于偏移阈值,同时人脸位置大于偏移阈值,但人脸位置和人形位置的相对位置在偏移阈值内,则判定坐姿正常,对第二偏移参数进行一次计数加1,否则对第一偏移参数进行一次计数加1。可以避免正常调整坐姿位置引起的误检,提高检测准确性。
在一实施例中,所述S31包括:
当检测到目标对象实时坐姿位置发生偏移时,开始获取第一视频流和预设的视频的时长阈值;
具体的,设置异常坐姿监测的预设时间,当目标对象开始活动时,开始获取视频流,但是,若视频流长度小于预设的时长,则不进行异常坐姿监测,避免对目标对象的正常使用造型影响,提高用户体验效果。
当所述第一视频流的持续时间与所述时长阈值进行对比;
若所述第一视频流的持续时间小于所述时长阈值,则删除该所述第一视频流,反之,则开始获取所述第二视频流。
具体的,当目标对象活动时间超过预设时长,则认为目标对象坐姿可能会异常,因此开始获取用于异常坐姿检测的视频流,即第二视频流。
在一实施例中,所述S31包括:
获取预设的第一偏移参数首次产生对应的最晚时刻为第一时刻;
具体的,记录开始获取用于异常坐姿监测的视频流的时间为t0,当视频录制过程中,首次出现第一偏移参数的时刻记为t1。
当第一时刻位置任未出现首个所述第一偏移参数,则停止获取视频流,并删除对应视频流;
具体的,当视频流持续录制时间到达第一时刻时,任然未出现第一偏移参数,则停止录制视频,可以理解为,t1时刻晚于第一时刻出现。
当首个所述第一偏移参数出现在第一时刻位置之前时,将第一个偏移参数对应的该帧图像作为所述第二视频流的首帧图像。
具体的,当t1时刻早于第一时刻出现,则将t1时刻之后的视频流作为第二视频流,第二视频流包括t1时刻对应的该帧图像,可以减少不必要的数据处理,提高数据处理效率。
采用本实施例的坐姿智能监测方法,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
实施例2
请参见图8,图8为本发明实施例2的一种坐姿智能监测装置的结构示意图,实施例2是基于实施例1的坐姿智能监测方法基础上提供的一种坐姿智能监测装置,该装置包括:
数据采集模块:用于获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
数据分析模块:用于提取所述视频流中各帧对应的目标对象的实时坐姿参数;
数据处理模块:用于将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,所述实时坐姿参数至少包括:人形与人脸的相对位置,或人形与人脸的相对位置和人形姿态角,或人形与人脸的相对位置和人脸姿态角,或人形与人脸的相对位置、人脸姿态角和人形姿态角。
采用本实施例的坐姿智能监测装置,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
在一实施例中,在所述目标对象的人脸位于目标区域后,开始坐姿校正;所述数据采集模块包括:
坐姿矫正单元:获取用于标准坐姿校验的视频流和校验阈值;
方差获取单元:计算视频流中所有帧图像对应的人脸姿态角方差和人脸位置方差;
坐姿参数单元:将所述人脸姿态角方差和所述人脸位置方差分别于对应的所述校验阈值对比,输出对比结果;
标准坐姿单元:若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数;
循环校验单元:若所述对比结果不符合所述校验阈值的要求,则按预设间隔时间重复执行坐姿矫正单元至坐姿参数单元,直至所述对比结果符合所述校验阈值的要求,输出所述标准坐姿参数。
在一实施例中,坐姿矫正单元还包括:
特征向量获取单元:获取所述目标对象的人脸特征向量,以及身份信息确认的相似度阈值;
相似度单元:利用余弦相似度公式计算所述目标对象的人脸特征向量与数据库中各历史人脸特征向量的相似度值,得到相似度值组;
余弦相似度单元:将所述相似度值组中的最大相似度值与所述相似度阈值进行对比,输出所述目标对象的身份信息;
身份信息单元:对比所述人脸特征阈值和所述人脸相似度值,输出目标对象的身份信息;
其中,sim为相似度值,A为目标对象的人脸特征向量,j为人脸特征向量的值,n为人脸特征向量的维度,B为数据库中的人脸特征向量,Aj为目标对象第j个人脸特征向量的值,Bj为数据库中第j个人脸特征向量的值,所述身份信息包括首次使用或非首次使用。
在一实施例中,方差获取单元包括:
人脸信息单元:获取所述视频流中各帧图像对应的人脸姿态角和人脸位置;
人脸姿态角单元:根据各所述人脸姿态角由公式: 输出所述人脸姿态角方差;
人脸位置单元:根据各所述人脸位置由公式:输出所述人脸位置方差;
其中,n为视频流包括n帧图像,为视频流中所有帧图像对应的人脸姿态角方差,xn为第n帧图像对应的人脸姿态角,/>为视频流中所有帧图像对应的人脸位置方差,yn为第n帧图像对应的人脸位置。
在一实施例中,在坐姿监测阶段,数据处理模块包括:
位置偏移单元:获取目标对象的第二视频流和预设的位置偏移的偏移阈值;
偏移参数单元:将所述第二视频流中的各帧图像的实时坐姿参数与所述标准坐姿参数进行对比,得到目标对象的偏移参数;
坐姿状态单元:将所述偏移参数和所述偏移阈值进行对比,根据对比结果输出所述坐姿状态。
其中,所述第二视频流为包括至少一次目标对象任一参数大于对应的偏移阈值。
在一实施例中,偏移参数单元包括:
实时参数获取单元:获取所述第二视频流中各帧图像对应的实时坐姿参数;
位置比较单元:将各所述实时坐姿参数一一与所述标准坐姿参数进行对比,将得到M个第一偏移参数和(Q-M)个第二偏移参数作为所述偏移参数;
其中,Q为偏移参数的总数量,Q大于等于第二视频流包含的图像帧的总数量的正整数,所述第一偏移参数为对比结果大于对应的所述偏移阈值,所述第二偏移参数为对比结果小于对应的所述偏移阈值。
在一实施例中,坐姿状态单元包括:
异常坐姿单元:根据M个所述第一偏移参数和(Q-M)个所述第二偏移参数,得到所述第二视频流中目标对象的偏移频率;
偏移比例单元:将所述偏移频率与所述偏移阈值中的偏移频率阈值进行对比,根据对比结果输出所述坐姿状态;
其中,若对比结果为所述偏移频率大于所述偏移频率阈值,则开始坐姿校正。
采用本实施例的坐姿智能监测装置,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
实施例3
本发明实施例3公开了一种电子设备,如图9所示,包括至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令。
具体地,上述处理器可以包括中央处理器(CPU),或者特定集成电路(ApplicationSpecific Integrated Circuit,ASIC),或者可以被配置成实施本发明实施例的一个或多个集成电路。
存储器可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器可在数据处理装置的内部或外部。在特定实施例中,存储器是非易失性固态存储器。在特定实施例中,存储器包括只读存储器(ROM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器通过读取并执行存储器中存储的计算机程序指令,以实现上述实施例1中任意一种坐姿智能监测方法。
在一个示例中,电子设备还可包括通信接口和总线。其中,处理器、存储器、通信接口通过总线连接并完成相互间的通信。
通信接口,主要用于实现本发明实施例中各模块、装置、单元和/或设备之间的通信。
总线包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线可包括一个或多个总线。尽管本发明实施例描述和示出了特定的总线,但本发明考虑任何合适的总线或互连。
综上所述,本发明实施例提供了一种坐姿智能监测方法、装置、设备及存储介质。
采用本实施例的坐姿智能监测方法、装置、设备及存储介质,获取包括目标对象的目标区域的视频流和标准坐姿参数;对目标对象进行监控,提取视频流中目标对象的人形参数和人脸参数,并将实时坐姿参数与目标对象的标准坐姿参数中各参数进行对比,具体为对人形和人脸相对位置进行对比、人脸和人形的姿态角位置进行对比,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常;可以避免长时间保持某一坐姿引起不适而进行的正常活动头部及躯体,所导致的错误判断,提高检测准确性和用户的体验效果。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。
Claims (6)
1.一种坐姿智能监测方法,其特征在于,所述方法包括:
S1:获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
其中,所述S1包括:
S11:获取用于标准坐姿校验的视频流和校验阈值;
S12:计算视频流中所有帧图像对应的人脸姿态角方差和人脸位置方差;
S13:将所述人脸姿态角方差和所述人脸位置方差分别于对应的所述校验阈值对比,输出对比结果;
S14:若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数;
其中,所述S14包括:若对比结果为:人脸姿态角方差小于等于人脸姿态角方差阈值,且人形位置方差小于等于人形位置方差阈值,则符合要求,将此时目标对象的坐姿参数作为标准坐姿参数;坐姿参数包括:人脸位置坐标、人形位置坐标及人脸姿态角;
S15:若所述对比结果不符合所述校验阈值的要求,则按预设间隔时间重复S11至S13,直至所述对比结果符合所述校验阈值的要求,输出所述标准坐姿参数;
所述标准坐姿参数为目标对象坐姿稳定时的各参数,至少包括以下之一:人形位置信息、人脸姿态角信息、人脸特征信息;
S2:提取所述视频流中各帧对应的目标对象的实时坐姿参数;
其中,所述S2包括:分析组成视频流的各帧中目标对象的人形参数和人脸参数作为实时坐姿参数;实时坐姿参数包括人形和人脸的相对位置、人脸姿态角、和人形姿态角;人形参数至少包括以下之一:人体的关键点位置、人体轮廓位置;人脸参数至少包括以下之一:人脸特征信息、人脸姿态角信息;
S3:将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常。
2.根据权利要求1所述的坐姿智能监测方法,其特征在于,在所述S11之前还包括:
S01:获取所述目标对象的人脸特征向量,以及身份信息确认的相似度阈值;
S02:利用余弦相似度公式,计算所述目标对象的人脸特征向量与数据库中各历史人脸特征向量的相似度值,得到相似度值组;
S03:将所述相似度值组中的最大相似度值与所述相似度阈值进行对比,输出所述目标对象的身份信息;
其中,sim为相似度值,A为目标对象的人脸特征向量,j为人脸特征向量的值,n为人脸特征向量的维度,B为数据库中的人脸特征向量,Aj为目标对象第j个人脸特征向量的值,Bj为数据库中第j个人脸特征向量的值,所述身份信息包括首次使用或非首次使用。
3.根据权利要求2所述的坐姿智能监测方法,其特征在于,所述S12包括:
S121:获取所述视频流中各帧图像对应的人脸姿态角和人脸位置;
S122:根据各所述人脸姿态角由公式:,输出所述人脸姿态角方差;
S123:根据各所述人脸位置由公式:,输出所述人脸位置方差;
其中,n为视频流包括n帧图像,为视频流中所有帧图像对应的人脸姿态角方差,,/>为视频流中所有帧图像对应的人脸位置方差,。
4.一种坐姿智能监测装置,其特征在于,包括:
数据采集模块:用于获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数;
其中,所述获取包括目标对象的目标区域的视频流和用于表征坐姿状态的标准坐姿参数包括:
获取用于标准坐姿校验的视频流和校验阈值;
计算视频流中所有帧图像对应的人脸姿态角方差和人脸位置方差;
将所述人脸姿态角方差和所述人脸位置方差分别于对应的所述校验阈值对比,输出对比结果;
若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数;
其中,所述若所述对比结果符合所述校验阈值的要求,则输出此时的坐姿参数作为所述标准坐姿参数包括:若对比结果为:人脸姿态角方差小于等于人脸姿态角方差阈值,且人形位置方差小于等于人形位置方差阈值,则符合要求,将此时目标对象的坐姿参数作为标准坐姿参数;坐姿参数包括:人脸位置坐标、人形位置坐标及人脸姿态角;
若所述对比结果不符合所述校验阈值的要求,则按预设间隔时间重复S11至S13,直至所述对比结果符合所述校验阈值的要求,输出所述标准坐姿参数;
所述标准坐姿参数为目标对象坐姿稳定时的各参数,至少包括以下之一:人形位置信息、人脸姿态角信息、人脸特征信息;
数据分析模块:用于提取所述视频流中各帧对应的目标对象的实时坐姿参数;
其中,所述提取所述视频流中各帧对应的目标对象的实时坐姿参数包括:分析组成视频流的各帧中目标对象的人形参数和人脸参数作为实时坐姿参数;实时坐姿参数包括人形和人脸的相对位置、人脸姿态角、和人形姿态角;人形参数至少包括以下之一:人体的关键点位置、人体轮廓位置;人脸参数至少包括以下之一:人脸特征信息、人脸姿态角信息;
数据处理模块:用于将所述实时坐姿参数和所述标准坐姿参数进行对比,输出坐姿状态;
其中,所述数据处理模块还用于:若人形和人脸的相对位置符合偏移要求,姿态角超过偏移范围,则认为坐姿异常,或者,人形和人脸的相对位置超出偏移范围,则认为坐姿异常。
5.一种电子设备,其特征在于,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现如权利要求1-3中任一项所述的方法。
6.一种存储介质,其上存储有计算机程序指令,其特征在于,当所述计算机程序指令被处理器执行时实现如权利要求1-3中任一项所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311012068.7A CN117037213A (zh) | 2021-06-25 | 2021-06-25 | 异常坐姿智能检测方法、装置、设备及介质 |
CN202110711710.5A CN113378762B (zh) | 2021-06-25 | 2021-06-25 | 坐姿智能监测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110711710.5A CN113378762B (zh) | 2021-06-25 | 2021-06-25 | 坐姿智能监测方法、装置、设备及存储介质 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311012068.7A Division CN117037213A (zh) | 2021-06-25 | 2021-06-25 | 异常坐姿智能检测方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378762A CN113378762A (zh) | 2021-09-10 |
CN113378762B true CN113378762B (zh) | 2023-08-08 |
Family
ID=77579228
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110711710.5A Active CN113378762B (zh) | 2021-06-25 | 2021-06-25 | 坐姿智能监测方法、装置、设备及存储介质 |
CN202311012068.7A Pending CN117037213A (zh) | 2021-06-25 | 2021-06-25 | 异常坐姿智能检测方法、装置、设备及介质 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311012068.7A Pending CN117037213A (zh) | 2021-06-25 | 2021-06-25 | 异常坐姿智能检测方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN113378762B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114973423B (zh) * | 2022-07-28 | 2022-10-25 | 聊城市飓风工业设计有限公司 | 用于儿童学习桌的坐姿监测的警示方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022304A (zh) * | 2016-06-03 | 2016-10-12 | 浙江大学 | 一种基于双目相机的实时人体坐姿情况检测方法 |
WO2018113582A1 (zh) * | 2016-12-22 | 2018-06-28 | 欧普照明股份有限公司 | 一种坐姿识别系统和坐姿识别方法 |
CN109872359A (zh) * | 2019-01-27 | 2019-06-11 | 武汉星巡智能科技有限公司 | 坐姿检测方法、装置及计算机可读存储介质 |
CN110084258A (zh) * | 2018-02-12 | 2019-08-02 | 成都视观天下科技有限公司 | 基于视频人脸识别的人脸优选方法、设备及存储介质 |
WO2019206239A1 (en) * | 2018-04-27 | 2019-10-31 | Shanghai Truthvision Information Technology Co., Ltd. | Systems and methods for detecting a posture of a human object |
WO2020244846A1 (en) * | 2019-06-03 | 2020-12-10 | Thyssenkrupp Elevator Innovation Center S.A. | Passenger detection system for passenger moving systems |
CN112200088A (zh) * | 2020-10-10 | 2021-01-08 | 普联技术有限公司 | 一种坐姿监测方法、装置、设备以及系统 |
CN112528903A (zh) * | 2020-12-18 | 2021-03-19 | 平安银行股份有限公司 | 人脸图像获取方法、装置、电子设备及介质 |
CN112861564A (zh) * | 2019-11-12 | 2021-05-28 | 北京君正集成电路股份有限公司 | 一种坐姿检测的实现装置 |
-
2021
- 2021-06-25 CN CN202110711710.5A patent/CN113378762B/zh active Active
- 2021-06-25 CN CN202311012068.7A patent/CN117037213A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106022304A (zh) * | 2016-06-03 | 2016-10-12 | 浙江大学 | 一种基于双目相机的实时人体坐姿情况检测方法 |
WO2018113582A1 (zh) * | 2016-12-22 | 2018-06-28 | 欧普照明股份有限公司 | 一种坐姿识别系统和坐姿识别方法 |
CN110084258A (zh) * | 2018-02-12 | 2019-08-02 | 成都视观天下科技有限公司 | 基于视频人脸识别的人脸优选方法、设备及存储介质 |
WO2019206239A1 (en) * | 2018-04-27 | 2019-10-31 | Shanghai Truthvision Information Technology Co., Ltd. | Systems and methods for detecting a posture of a human object |
CN109872359A (zh) * | 2019-01-27 | 2019-06-11 | 武汉星巡智能科技有限公司 | 坐姿检测方法、装置及计算机可读存储介质 |
WO2020244846A1 (en) * | 2019-06-03 | 2020-12-10 | Thyssenkrupp Elevator Innovation Center S.A. | Passenger detection system for passenger moving systems |
CN112861564A (zh) * | 2019-11-12 | 2021-05-28 | 北京君正集成电路股份有限公司 | 一种坐姿检测的实现装置 |
CN112200088A (zh) * | 2020-10-10 | 2021-01-08 | 普联技术有限公司 | 一种坐姿监测方法、装置、设备以及系统 |
CN112528903A (zh) * | 2020-12-18 | 2021-03-19 | 平安银行股份有限公司 | 人脸图像获取方法、装置、电子设备及介质 |
Non-Patent Citations (1)
Title |
---|
基于视频的学生坐姿检测与纠正系统研究;韩晓明;冉春风;侯雪峰;关然;潘巍;;首都师范大学学报(自然科学版)(S1);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117037213A (zh) | 2023-11-10 |
CN113378762A (zh) | 2021-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101169533B1 (ko) | 얼굴 자세 추정 장치, 얼굴 자세 추정 방법 및 얼굴 자세 추정 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체 | |
CN104933389B (zh) | 一种基于指静脉的身份识别方法和装置 | |
EP3809321A1 (en) | Action recognition method and apparatus and electronic equipment | |
CN112633084B (zh) | 人脸框确定方法、装置、终端设备及存储介质 | |
CN107704813B (zh) | 一种人脸活体识别方法及系统 | |
CN110580466A (zh) | 婴儿踢被子行为识别方法、装置、计算机设备及存储介质 | |
CN113378762B (zh) | 坐姿智能监测方法、装置、设备及存储介质 | |
US11216968B2 (en) | Face direction estimation device and face direction estimation method | |
CN113194359B (zh) | 自动抓取婴儿精彩视频集锦的方法、装置、设备及介质 | |
CN113536967B (zh) | 基于驾驶员头部运动姿态与人眼开合度的驾驶员状态辨识方法、装置、电子设备 | |
US20150023606A1 (en) | Reliability acquiring apparatus, reliability acquiring method, and reliability acquiring program | |
CN109344758B (zh) | 基于改进局部二值模式的人脸识别方法 | |
JP2000163564A (ja) | 目の追跡装置および瞬き検出装置 | |
CN112446254A (zh) | 人脸追踪的方法及相关装置 | |
CN108549845B (zh) | 一种确定表面指针位置的方法 | |
CN115862115B (zh) | 基于视觉的婴幼儿呼吸检测区域定位方法、装置及设备 | |
CN109876417B (zh) | 基于计算机视觉检测技术的羽毛球发球助理裁判系统 | |
CN115690902A (zh) | 一种健身动作的异常姿态预警方法 | |
CN110991250B (zh) | 融合颜色干扰模型与遮挡模型的人脸跟踪方法和跟踪系统 | |
CN114898475A (zh) | 井下人员身份识别方法、装置、电子设备和可读存储介质 | |
CN110781712B (zh) | 一种基于人脸检测与识别的人头空间定位方法 | |
CN113887279A (zh) | 一种半身被遮挡的行人重识别方法及相关装置 | |
CN112215113A (zh) | 人脸识别方法及装置 | |
KR101900903B1 (ko) | 분할된 이미지의 무게중심에 기반한 이미지 오리엔테이션 추정방법 및 이를 이용한 문자 인식 장치와 문자 인식 방법 | |
JP7204785B2 (ja) | 血圧測定装置、モデル設定装置、および血圧測定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |