CN112101124A - 一种坐姿检测方法及装置 - Google Patents
一种坐姿检测方法及装置 Download PDFInfo
- Publication number
- CN112101124A CN112101124A CN202010845700.6A CN202010845700A CN112101124A CN 112101124 A CN112101124 A CN 112101124A CN 202010845700 A CN202010845700 A CN 202010845700A CN 112101124 A CN112101124 A CN 112101124A
- Authority
- CN
- China
- Prior art keywords
- sitting posture
- image
- training
- state
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 236
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000012549 training Methods 0.000 claims description 158
- 238000004590 computer program Methods 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 claims description 11
- 230000036544 posture Effects 0.000 description 614
- 238000010586 diagram Methods 0.000 description 10
- 238000013145 classification model Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008676 import Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000005802 health problem Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003707 image sharpening Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012031 short term test Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
Abstract
本申请适用于图像识别领域,提供了一种坐姿检测方法及装置,所述方法包括:获取坐姿图像;基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果;若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;获取所述云端服务器反馈的所述第二坐姿状态,并根据所述第二坐姿状态确定坐姿检测结果;输出所述坐姿检测结果。本申请的第一坐姿检测模型可以提高检测效率,第二坐姿检测模型可以提高检测精确度。
Description
技术领域
本申请属于图像识别领域,尤其涉及一种坐姿检测方法及装置。
背景技术
随着时代的进步,教育事业也变得越来越智能化,各种智能化的教育产品也随之出现。学生们在学习时,会投入大部分精神去学习,容易忽视自己的错误坐姿,长此以往会引发健康问题。因此,需要一种坐姿检测的智能化产品,检测学生的坐姿是否标准,进而改变学生的坐姿习惯。
现有技术中,检测学生学习时的坐姿,一般是通过在桌子上设置测距传感器检测学生的头部、胸部距离来分析坐姿,又或者是通过在座椅上设置压力传感器来检测学生的坐姿,这些技术虽然能够检测坐姿,但因人体差异,例如身高或体重等原因,对于相同类型的坐姿会识别得到不同的检测结果,因此通过上述方式进行坐姿检测的精确度较低。
发明内容
本申请实施例提供了一种坐姿检测方法及装置,在本地终端通过识别学生坐姿图像的第一关键点集来检测坐姿,在云端服务器通过识别学生坐姿视频的第二关键点集来检测坐姿,因第二关键点集的关键点个数大于第一关键点集,本地终端的检测速率会高于云端服务器的检测速度,而云端服务器的检测精度则会高于本地终端的检测精度,通过在检测到用户坐姿为非标准状态时通过云端服务器进行进一步识别,能够提高错误坐姿识别的准确性,而通过本地终端识别得到标准状态时,则直接输出检测结果,能够提高坐姿检测的速率,同时兼顾了效率与精度两个方面,使得本申请提供的坐姿检测方法更具有广泛适用性,能够在小体量本地终端与云端服务器之间配套使用,根据不同情况满足快速检测坐姿或精确检测坐姿的需求,并将坐姿的检测结果反馈给学生,进而改变学生坐姿习惯,解决学生学习时长时间坐姿不正导致的健康问题。
第一方面,本申请实施例提供了一种坐姿检测方法,包括:
获取用户的坐姿图像;基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的;若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数;获取所述云端服务器反馈的所述第二坐姿状态;根据所述第一坐姿状态和/或所述第二坐姿状态确定坐姿检测结果,并输出所述坐姿检测结果。
在第一方面的一种可能的实现方式中,按预设的采集周期获取用户的坐姿图像,基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;获取所述云端服务器反馈的所述第二坐姿状态,并根据所述第二坐姿状态确定坐姿检测结果;输出所述坐姿检测结果。
示例性的,以一秒作为采集周期,则每一秒获取的坐姿图像都对应着一个第一坐姿状态。若其中一秒的坐姿图像对应的第一坐姿状态为非标准状态,(则此时应停止获取下一个采集周期对应的坐姿图像)则以该秒的下一秒为起点,以预设的时间为时长(例如一分钟),获取该预设时间内的坐姿视频(即获取得到一分钟的坐姿视频),并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;获取所述云端服务器反馈的所述第二坐姿状态,并根据所述第二坐姿状态确定坐姿检测结果;输出所述坐姿检测结果。
应理解,按预设的采集周期获取用户的坐姿图像,若该坐姿图像对应的第一坐姿状态为非标准状态,则应停止上述按预设的采集周期获取用户的坐姿图像,转而获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器;如上述获取预设时间内的坐姿视频完成,则应继续上述按预设的采集周期获取用户的坐姿图像的步骤。
第二方面,本申请实施例提供了一种坐姿检测装置,包括:坐姿图像获取模块,用于获取用户的坐姿图像;本地坐姿检测模块,用于基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的;坐姿检测结果确定模块,用于若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果;云端坐姿检测指示模块,用于若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数;云端数据获取模块,用于获取所述云端服务器反馈的所述第二坐姿状态;坐姿检测结果确定模块,还用于根据所述第二坐姿状态确定坐姿检测结果;坐姿检测结果输出模块,用于输出所述坐姿检测结果。
第三方面,本申请实施例提供了一种终端设备,包括:存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面中任一项所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,包括:所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一项所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在终端设备上运行时,使得终端设备执行上述第一方面中任一项所述的方法。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
本申请实施例与现有技术相比存在的有益效果是:
本申请提供的坐姿检测方法,相对于现有技术,在本地终端通过识别学生坐姿图像的第一关键点集来检测坐姿,在云端服务器通过识别学生坐姿视频的第二关键点集来检测坐姿,因第二关键点集的关键点个数大于第一关键点集,在本地终端检测坐姿时可以在保证精确度的同时相对更快速检测坐姿,在云端服务器检测坐姿时可以相对更进一步地提高检测坐姿的精确度;使得本申请提供的坐姿检测方法更具有广泛适用性,例如将该检测方法应用于普通课堂或学生自学中,能够在小体量本地终端与云端服务器之间配套使用,根据不同情况满足快速检测坐姿或精确检测坐姿的需求,并将坐姿的检测结果反馈给学生,进而改变学生坐姿习惯,解决学生学习时长时间坐姿不正导致的健康问题。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请第一实施例提供的检测方法的实现流程图;
图2是本申请一实施例提供的应用场景示意图;
图3是本申请第二实施例提供的第一坐姿检测模型示意图;
图4是本申请第三实施例提供的检测方法的实现流程图;
图5是本申请第三实施例提供的采集第一训练图像集的示意图;
图6是本申请第四实施例提供的第二坐姿检测模型示意图;
图7是本申请一实施例提供的人脸关键点识别模型的效果图;
图8是本申请第五实施例提供的检测方法的实现流程图;
图9是本申请第六实施例提供的检测方法的实现流程图;
图10是本申请第七实施例提供的检测方法的实现流程图;
图11是本申请一实施例提供的检测装置的结构示意图;
图12是本申请一实施例提供的终端设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
在本申请实施例中,流程的执行主体为本地终端。该本地终端包括但不限于:服务器、计算机、智能手机以及平板电脑等能够执行本申请提供的坐姿检测方法的设备。优选地,该本地终端为一智能设备,该智能设备能够获取用户的坐姿图像。可选地,该本地终端可以内置于台灯上,以执行本申请实施例提供的坐姿检测方法。图1示出了本申请第一实施例提供的检测方法的实现流程图,详述如下:
在S101中,获取用户的坐姿图像。
在本实施例中,一般地,通过摄像头获取用户的坐姿图像。示例性地,获取用户的坐姿图像的摄像头可以放置在桌子上,且所述摄像头可以是基于用户的身高调整到对应的拍摄角度,从而使得在用户在桌子上进行学习时摄像头的画面中心应对准所述用户的颈部。
在一种可选的实现方式中,按预设的采集周期获取用户各个采集周期对应的坐姿图像,以实现实时监视用户坐姿是否标准。示例性地,以一秒作为采集周期,每秒获取用户该秒对应的坐姿图像。应理解,若后续所述坐姿图像对应的第一坐姿状态为非标准状态,则应停止获取下一个采集周期对应的坐姿图像,直至后续获取预设时间内的坐姿视频的步骤执行完毕。
在一种可选的实现方式中,上述获取用户的坐姿图像,具体可以是通过至少两个摄像头获取至少两个坐姿图像,示例性地,每个摄像头获取一个坐姿图像;此时,在基于所述第一坐姿检测模型识别各个获取得到的坐姿图像对应的第一坐姿状态后,根据所有获取得到的坐姿图像对应的第一坐姿状态确定所述用户的当前坐姿状态,根据所述用户的当前坐姿状态确定坐姿检测结果并输出所述坐姿检测结果,以实现对用户的坐姿检测;上述根据所有获取得到的坐姿图像对应的第一坐姿状态确定所述用户的当前坐姿状态,具体可以为:为各个第一坐姿状态配置权重,以第一坐姿状态为标准状态时的值记为+1,以第一坐姿状态为非标准状态时的值记为-1,基于所述权重计算所有第一坐姿状态的平均值,若所述平均值为正数,则识别所述用户的当前坐姿状态为标准状态,若所述平均值为零或负数,则识别所述用户的当前坐姿状态为非标准状态。应理解,可将所述当前坐姿状态代替后续S103~S104中所述的第一坐姿状态。
在S102中,基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态。
在本实施例中,所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的。示例性地,所述第一关键点集包括八个第一关键点:左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部关键点(所述中部关键点位于人体的颈部);所述第一坐姿状态包括标准状态以及非标准状态。在对所述第一坐姿检测模型进行训练时,将各个第一训练图像的第一关键点集作为输入,将各个第一训练图像对应的第一坐姿状态作为输出,不断调整所述第一坐姿检测模型的参数,直至所述第一坐姿检测模型的输出正确率至少达到90%。应理解,在确定训练后的所述第一坐姿检测模型的输出正确率时,可以在所述第一训练图像集内选取一部分第一训练图像作为第一验证图像集,在每个训练周期后,根据所述第一验证图像集确定训练后的所述第一坐姿检测模型的输出正确率。
在一种可能实现的方式中,上述基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态,具体可以为先识别所述坐姿图像内的所述第一关键点集,再根据所述第一关键点集在所述坐姿图像内的分布情况,以及所述第一坐姿检测模型识别所述第一坐姿状态。所述分布情况指的是所述第一关键点集内各个第一关键点之间的关联性以及在所述坐姿图像内的位置信息。应理解,上述识别所述坐姿图像内的第一关键点集,具体可以为通过OpenPose人体关键点识别模型来对所述坐姿图像内的第一关键点集进行识别。
在S103中,若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果。
在本实施例中,所述第一坐姿状态用于表征用户坐姿是否标准;所述坐姿检测结果用于表征用户坐姿在获取所述坐姿图像的时刻的坐姿为标准坐姿。
在S104中,若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态。
在本实施例中,所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数。需要注意的是,所述第二关键点可以与S102中部分第一关键点相同,具体地,上述S102中的左肩关键点、右肩关键点以及中部关键点(所述中部关键点位于人体的颈部)这三个第一关键点(属于人体上半身部分的人体关键点)识别为第二关键点,以便于后续识别出第二坐姿状态。示例性地,所述第二关键点集包括与所述第一关键点不同的第二关键点,一般地,所述与所述第一关键点不同的第二关键点的类型为人脸关键点,例如左嘴角关键点、右嘴角关键点或下巴关键点。在对所述第二坐姿检测模型进行训练时,将各个第二训练图像的第二关键点集作为输入,将各个第二训练图像对应的第二坐姿状态作为输出,不断调整所述第二坐姿检测模型的参数,直至所述第二坐姿检测模型的输出正确率至少达到90%;所述第二坐姿状态包括正姿、低头、仰头、弯腰、头部左倾、头部右倾、身体左倾、身体右倾等八个坐姿状态,所述正姿等同于上述第一坐姿状态的标准状态,在此时设置正姿的第二坐姿状态是为了避免所述第一坐姿检测模型的误判(第二关键点集的关键点个数大于第一关键点集,因此第二坐姿检测模型的精准度大于第一坐姿检测模型)。应理解,可以在所述第二训练图像集内选取一部分第二训练图像作为第二验证图像集,在每个训练周期后,根据所述第二验证图像集确定训练后的所述第二坐姿检测模型的输出正确率。
在一种可能实现的方式中,上述获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,具体可以为,在检测到所述坐姿图像的第一坐姿状态为非标准状态的时刻为起点,以预设时间为时长,通过摄像头获取所述预设时间内的坐姿视频,所述坐姿视频实际上指的是多个坐姿视频帧图像的集合,示例性地,所述坐姿视频内每秒包含一帧坐姿视频帧图像,并与所述云端服务器建立连接,将所述坐姿视频上传至所述云端服务器。应理解,若上述S101中按预设的采集周期获取用户各个采集周期对应的坐姿图像,以实现实时监视用户坐姿是否标准,则上述获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,具体可以为,以下一个采集周期为起点,以预设的时间为时长(例如一分钟),获取该预设时间内的坐姿视频(即获取得到一分钟的坐姿视频),并将所述坐姿视频上传至云端服务器。另外,应记录获取该坐姿视频时的起点时间戳以及终点时间戳,以便于后续根据从云端服务器获取得到的所述第二坐姿状态确定坐姿检测结果。应理解,优选地,所述获取坐姿视频的摄像头与S101中获取坐姿图像的摄像头为同一装置。
在一种可能实现的方式中,上述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态,具体可以为:云端服务器先识别所述坐姿视频内各个坐姿视频帧图像的所述第二关键点集,再根据所述第二关键点集在各个所述坐姿视频帧图像内的分布情况,以及所述第二坐姿检测模型识别各个所述坐姿视频帧图像对应的第三坐姿状态,将所述坐姿视频内所有所述坐姿视频帧图像对应的第三坐姿状态中的众数(即出现次数最多的第三坐姿状态)识别为所述坐姿视频对应的第二坐姿状态。应理解,上述识别各个所述坐姿视频帧图像内的第二关键点集,具体可以为通过OpenPose人体关键点识别模型以及人脸关键点识别模型来对所述坐姿视频帧图像内的第二关键点集进行识别。
应理解,所述第二坐姿检测模型与上述第一坐姿检测模型的不同在于,所述第二坐姿检测模型的输入是所述坐姿视频内各个坐姿视频帧图像,所述第一坐姿检测模型的输入是所述坐姿图像;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数,所述第二关键点集可以包括所述第一关键点集。
在S105中,获取所述云端服务器反馈的所述第二坐姿状态,并根据所述第二坐姿状态确定坐姿检测结果。
在本实施例中,所述第二坐姿状态用于表征用户坐姿的具体类型;上述获取所述云端服务器反馈的所述第二坐姿状态,具体可以为:在所述云端服务器确定所述第二坐姿状态之后,所述云端服务器将所述第二坐姿状态反馈至所述本地终端,则此时所述本地就能够获取所述云端服务器反馈的所述第二坐姿状态。
在一种可能实现的方式中,若所述第二坐姿状态不为正姿,则所述坐姿检测结果用于表征用户坐姿在获取所述坐姿视频的时间段内的坐姿不标准,且坐姿具体类型为第二坐姿状态。
在另一种可能实现的方式中,特别地,若所述第二坐姿状态为正姿(即第一坐姿检测模型误判),则所述坐姿检测结果用于表征用户坐姿在获取所述坐姿视频的时间段内的坐姿为标准坐姿。应理解,所述第二坐姿状态为正姿等同于所述第一坐姿状态为标准状态;也即上述S103中确定的坐姿检测结果与此时根据所述第二坐姿状态确定的坐姿检测结果等同。
在S106中,输出所述坐姿检测结果。
在本实施例中,上述输出所述坐姿检测结果,示例性地,具体可以为:在本地终端的显示模块显示所述坐姿检测结果,或将所述坐姿检测结果发送至用户终端以通知用户坐姿的具体情况。
在本实施例中,在本地终端通过识别学生坐姿图像的第一关键点集来检测坐姿,在云端服务器通过识别学生坐姿视频的第二关键点集来检测坐姿,因第二关键点集的关键点个数大于第一关键点集,本地终端的检测速率会高于云端服务器的检测速度,而云端服务器的检测精度则会高于本地终端的检测精度,通过在检测到用户坐姿为非标准状态时通过云端服务器进行进一步识别,能够提高错误坐姿识别的准确性,而通过本地终端识别得到标准状态时,则直接输出检测结果,能够提高坐姿检测的速率,同时兼顾了效率与精度两个方面,使得本申请提供的坐姿检测方法更具有广泛适用性,例如将该检测方法应用于普通课堂或学生自学中,能够在小体量本地终端与云端服务器之间配套使用,例如将所述本地终端内置在台灯上,在用户使用台灯的同时执行本申请提供的检测方法;根据不同情况满足快速检测坐姿或精确检测坐姿的需求,并将坐姿的检测结果反馈给用户,进而改变用户坐姿习惯,解决用户长时间坐姿不正导致的健康问题。
图2示出了本申请一实施例提供的应用场景示意图。参见图2,在一种可能的应用场景中,图中的人体为学生,所述学生坐在椅子上,利用桌椅进行学习;此时,通过本申请提供的检测方法,在桌子上设置摄像头,通过该摄像头获取该学生的坐姿图像,根据该坐姿图像确定该学生的第一坐姿状态是否为标准状态;若该学生的第一坐姿状态为非标准状态,说明该学生初步被认为坐姿不正,需要进一步地分析该学生的坐姿,具体为通过本申请提供的检测方法,通过该摄像头获取该学生在预设时间内的坐姿视频,将坐姿视频上传至云端服务器,指示云端服务器根据该坐姿视频确定该学生的第二坐姿状态,所述第二坐姿状态可以更进一步地表征该学生的坐姿情况,例如低头、弯腰、身体左倾、头部右倾等坐姿现象,特别地,所述第二坐姿状态包括正姿,当第二坐姿状态为正姿时,说明该学习在预设时间内的大部分时间里坐姿是标准的,说明上述第一坐姿状态的识别为预判,或该学生只有很短的一段时间坐姿不标准,之后调整到坐姿标准的状态,因此在该第一坐姿状态为非标准状态的情况下该第二坐姿状态为正姿;获取所述云端服务器反馈的所述第二坐姿状态;根据所述第一坐姿状态和/或所述第二坐姿状态确定坐姿检测结果,并通过所述本地终端的显示模块(图中未画出)输出所述坐姿检测结果,以告知该学生自己的坐姿情况。
图3示出了本申请第二实施例提供的第一坐姿检测模型示意图。参见图3,相对于图1所述实施例,本实施例提供的方法S102包括S301~S303,具体详述如下:
进一步地,所述基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态,包括:
在S301中,将所述坐姿图像导入第一人体识别层,从所述坐姿图像中截取出人体图像。
在本实施例中,第一坐姿检测模型包含有第一人体识别层,本地终端在获取得到坐姿图像时,首先将坐姿图像导入到第一坐姿检测模型的第一人体识别层,以确定在坐姿图像内关于用户的人体图像。
在一种可能实现的方式中,上述将所述坐姿图像导入第一人体识别层,从所述坐姿图像中截取出人体图像,具体可以为:对所述坐姿图像进行预处理,根据该预处理后的坐姿图像确定所述坐姿图像中的人体边缘轮廓信息,并根据该人体边缘轮廓信息,在所述坐姿图像内截取包含用户人脸以及上半身的人体图像。上述对所述坐姿图像进行预处理,具体可以为:对所述坐姿图像进行图像锐化处理等突出边缘轮廓的图像处理手段,得到预处理后的坐姿图像;上述根据该预处理后的坐姿图像确定所述坐姿图像中的人体边缘轮廓信息,具体可以为:将预处理后的坐姿图像导入训练好的用于确定人体边缘轮廓的人体识别模型中,得到人体边缘轮廓信息;上述根据该人体边缘轮廓信息,在所述坐姿图像内截取包含用户人脸以及上半身的人体图像,具体可以为:根据该人体边缘轮廓信息在所述坐姿图像上确定目标人体的边缘轮廓,并将该目标人体的边缘轮廓所围的区域截取出来,识别为所述人体图像。应理解,该人体识别模型可以是现有技术中训练好的可用于确认包含人体的图像内的人体边缘轮廓信息的模型,在此不再赘述。
在S302中,将所述人体图像导入第一关键点集识别层,在所述人体图像上提取多个第一关键点,输出包含所述多个第一关键点的第一关键图像。
在本实施例中,第一坐姿检测模型包含有第一关键点集识别层,在上述第一人体识别层输出所述人体图像时,本地终端将所述人体图像导入到第一坐姿检测模型的第一关键点集识别层,以确定在所述人体图像内关于所述多个第一关键点的第一关键图像。
在本实施例中,所述第一关键点集识别层用于识别所述人体图像上的第一关键点集,示例性地,所述第一关键点集包括八个第一关键点:左眼关键点、右眼关键点、鼻子关键点、左耳关键点、右耳关键点、左肩关键点、右肩关键点以及中部关键点。可选的,所述第一关键点识别层可以为训练好的OpenPose人体关键点识别模型,在此不再赘述。
在一种可能实现的方式中,上述将所述人体图像导入第一关键点集识别层,在所述人体图像上提取多个第一关键点,输出包含所述多个第一关键点的第一关键图像,具体可以为:根据第一关键点集识别层确定所述人体图像上的各个第一关键点,并将各个第一关键点按预设的连接关系连接起来,将所述第一关键点以及所述各个第一关键点的连接线从所述人体图像中提取出来,得到包含多个第一关键点的第一关键图像(如图3所述)。
在S303中,将所述第一关键图像导入第一坐姿状态识别层,得到所述坐姿图像对应的第一坐姿状态。
在本实施例中,第一坐姿检测模型包含有第一坐姿状态识别层,在上述第一关键点集识别层输出所述第一关键图像时,本地终端将所述第一关键图像导入到第一坐姿检测模型的第一坐姿状态识别层,以确定所述坐姿图像对应的第一坐姿状态。
在本实施例中,所述第一坐姿状态识别层用于根据所述第一关键图像内的特征信息来确定第一坐姿状态;所述第一坐姿状态识别层是训练好的分类模型(在此处是二分类模型),以第一关键图像作为输入,以第一坐姿状态作为所述第一关键图像的类别进行输出。在一种可能实现的方式中,将所述第一关键图像导入所述第一坐姿状态识别层,经过提取所述第一关键图像的特征信息,基于所述第一坐姿状态识别层的内参数进行计算,可确定所述第一坐姿状态。
在本实施例中,参见图3,在所述第一坐姿检测模型中,设置第一人体识别层,可以去除所述坐姿图像中不重要的背景环境的特征信息,尽可能地只保留目标人体的特征信息,相当于对所述坐姿图像进行预处理,减少后续步骤要处理的图像的信息量(或减少后续步骤的计算量)以便于提高后续坐姿检测的效率;设置第一关键点集识别层,一来对不同目标人体(各种姿态或穿着各种服饰)的第一关键点集的检测是可以实现的,在所述人体图像上提取第一关键点集可以扩大坐姿检测的适用人群,二来可以更进一步简化后续要处理的特征信息,只保留所述人体图像的第一关键点的特征信息,以便于后续提高坐姿检测的效率,也提高了后续所述第一坐姿状态识别层的训练效率;设置第一坐姿状态识别层,是对所述第一关键点集识别层输出的第一关键图像进行分类,确定所述第一关键图像对应的类别,从而确定所述坐姿图像对应的第一坐姿状态,实现对所述坐姿图像的坐姿检测。
图4示出了本申请第三实施例提供的检测方法的实现流程图。参见图4,相对于图3所述实施例,本实施例提供的方法包括S401~S406,具体详述如下:
进一步地,所述基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态之前,还包括:
在S401中,采集第一训练图像集。
在本实施例中,所述第一训练图像集包括摄像头与样本对象处于多个预设的相对位置的第一训练图像。示例性地,在通过摄像头采集有关样本对象的第一训练图像时,可以通过将摄像头设置在不同的预设位置,且样本对象的位置相对不变,以获取摄像头与样本对象处于多个预设的相对位置的第一训练图像。
在本实施例中,图5为本申请第三实施例提供的采集第一训练图像集的示意图。参见图5,在一种可能实现的方式中,在采集第一训练图像集时,确定样本对象将要坐下的椅子在桌子上映射的桌子边缘线(图中所述的加粗线段),取所述桌子边缘线上的中点为圆心,以预设半径(示例性地,具体为50cm)为半径,作出一60度且左右对称的扇形圆弧,以所述中点与所述桌子边缘线的垂直线为0度,分别将摄像头设置在所述扇形圆弧上且位于-30度方向、-15度方向、0度方向、15度方向以及30度方向的特定位置上(图中所述扇形圆弧中的黑点,也即上述预设位置)以便后续采集多个第一训练图像,具体地,摄像头在每个所述特定位置上,分别采集样本对象处于标准坐姿的第一训练图像以及样本对象处于非标准坐姿的第一训练图像。
应理解,本实施例采集的第一训练图像集是用于训练所述第一坐姿检测模型的,上述采集第一训练图像时摄像头在图5所述设置在所述扇形圆弧上且位于-30度方向、-15度方向、0度方向、15度方向以及30度方向的特定位置上(即图中所述扇形圆弧中的各个黑点),则训练后的第一坐姿检测模型应能识别通过设置在图5所述扇形圆弧上任一位置的摄像头获取得到的坐姿图像,也即在本实施例中,特别地,上述S101中获取用户的坐姿图像,具体可以为:通过设置在图5所述扇形圆弧上任一位置的摄像头获取所述坐姿图像。
在S402中,为所述第一训练图像集内各个第一训练图像配置第一坐姿状态标签。
在本实施例中,在上述S401中采集第一训练图像时,记录该第一训练图像的样本对象处于标准状态或处于非标准状态。若该第一训练图像的样本对象处于标准坐姿,则为该第一训练图像配置“标准状态”的第一坐姿状态标签;若该第一训练图像的样本对象处于非标准坐姿,则为该第一训练图像配置“非标准状态”的第一坐姿状态标签。
在一种可能实现的方式中,先指示样本对象保持标准坐姿,此时采集第一批第一训练图像,并将所述第一批第一训练图像的第一坐姿状态标签配置为标准状态;然后指示样本对象保持非标准坐姿,此时采集第二批样本对象处于非标准坐姿的第一训练图像,并将所述第二批第一训练图像的第一坐姿状态标签配置为非标准状态。
在S403中,将所述第一训练图像导入所述第一人体识别层,输出第一训练人体图像。
在本实施例中,由于S403的实现方式与图3所述的实施例中的S301的实现方式完全相同,具体阐述可以参见S301的相关描述,在此不再赘述。
在S404中,将所述第一训练人体图像导入所述第一关键点集识别层,输出训练第一关键图像。
在本实施例中,由于S404的实现方式与图3所述的实施例中的S302的实现方式完全相同,具体阐述可以参见S302的相关描述,在此不再赘述。
在S405中,以所述训练第一关键图像为输入,以所述第一坐姿状态标签为输出,基于深度学习算法训练所述第一坐姿状态识别层。
在本实施例中,所述深度学习算法可以是keras深度学习算法。在一种可能实现的方式中,上述以所述训练第一关键图像为输入,以所述第一坐姿状态标签为输出,基于keras深度学习算法训练所述第一坐姿状态识别层,具体可以为:基于keras的模型库预搭建一个分类模型,所述分类模型也即所述所述第一坐姿状态识别层,所述所述第一坐姿状态识别层是以所述训练第一关键图像为输入的;将所述训练第一关键图像作为输入导入到所述第一坐姿状态识别层中,输出一个预测第一坐姿状态;以所述第一坐姿状态标签为真值,以所述预测第一坐姿状态为预测值,基于keras深度学习算法更新所述第一坐姿状态识别层的内参数,使得以所述训练第一关键图像作为输入时的输出尽可能接近所述第一坐姿状态标签。具体实现手段参照keras开源库,在此不再赘述。
应理解,上述S401中采集的第一训练图像集,可将分出一部分第一训练图像(示例性地,30%)作为第一验证图像集,用于在每个训练周期后确定所述第一坐姿状态识别层的正确率;若所述第一坐姿状态识别层的正确率至少达到90%,则表示所述第一坐姿状态识别层的训练完成。
在S406中,基于训练后的第一坐姿状态识别层、所述第一关键点集识别层以及所述第一人体识别层,得到所述第一坐姿检测模型。
在本实施例中,正如图3所示,所述第一坐姿检测模型由所述第一人体识别层、所述第一关键点集识别层以及所述第一坐姿状态识别层组成,具体地,所述第一坐姿检测模型中,所述第一人体识别层为第一层,所述第一关键点集识别层为第二层,所述第一坐姿状态识别层为第三层,且所述第一坐姿状态识别层是本实施例中训练后的第一坐姿状态识别层;参见图3,所述第一人体识别层的输入为所述坐姿图像,输出为所述人体图像;所述第一关键点集识别层的输入为所述人体图像,输出为所述第一关键图像;所述第一坐姿状态识别层的输入为所述第一关键图像,输出为所述第一坐姿状态;因此以整个第一坐姿检测模型为一个整体来看,所述坐姿图像为输入,所述第一坐姿状态为输出。
在本实施例中,通过在各个预设位置上设置摄像头采集摄像头与样本对象处于多个预设的相对位置的第一训练图像,可以使得后续训练好的所述第一坐姿检测模型可以识别摄像头与目标对象处于多个预设的相对位置的坐姿图像,增加所述第一坐姿检测模型可适用的应用场景,提高所述第一坐姿检测模型的泛用性;基于keras深度学习算法训练所述第一坐姿检测模型中的所述第一坐姿状态识别层,可以保证所述第一坐姿检测模型的检测精确度;基于本实施例的方法训练得到的所述第一坐姿检测模型,以便于后续通过所述第一坐姿检测模型识别出所述坐姿图像的所述第一坐姿状态。
图6示出了本申请第四实施例提供的第二坐姿检测模型示意图。参见图6,相对于图1所述实施例,本实施例提供的方法S104包括S601,具体详述如下:
进一步地,所述将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态,包括:
在本实施例中,参见图6,在S601中,将所述坐姿视频上传至所述云端服务器,以指示所述云端服务器从所述坐姿视频中提取多个坐标视频帧图像,将所述坐姿视频帧图像导入第二人体识别层,从所述坐姿视频帧图像中截取出人体视频帧图像,将所述人体视频帧图像导入第二关键点集识别层,在所述人体视频帧上提取多个第二关键点,输出包含所述多个第二关键点的第二关键视频帧图像,将所述第二关键视频帧图像导入第二坐姿状态识别层,输出关于所述坐姿视频帧图像的第三坐姿状态,基于所有所述坐姿视频帧图像的所述第三坐姿状态得到所述第二坐姿状态。
在本实施例中,第二坐姿检测模型包含有第二人体识别层,云端服务器在所述坐姿视频中提取多个坐标视频帧图像后,分别将各个坐标视频帧图导入到第二坐姿检测模型的第二人体识别层,以确定在坐标视频帧图内关于用户的人体视频帧图像;第二坐姿检测模型包含有第二关键点集识别层,在上述第二人体识别层输出所述人体视频帧图像时,云端服务器将所述人体视频帧图像导入到第二坐姿检测模型的第二关键点集识别层,以确定在所述人体视频帧图像内关于多个第二关键点的第二关键视频帧图像;第二坐姿检测模型包含有第一坐姿状态识别层,在上述第二关键点集识别层输出所述第二关键视频帧图像时,云端服务器将所述第二关键视频帧图像导入到第二坐姿检测模型的第二坐姿状态识别层,以确定所述坐姿视频帧图像对应的第三坐姿状态,以便于后续基于所有所述坐姿视频帧图像的所述第三坐姿状态得到所述第二坐姿状态。
在本实施例中,所述坐标视频帧图像用于确定所述坐姿视频的第二坐姿状态,示例性地,所述第二坐姿状态包括:正姿、低头、仰头、弯腰、头部左倾、头部右倾、身体左倾、身体右倾等八个坐姿状态。在将所述坐姿视频上传至所述云端服务器后,云端服务器从所述坐姿视频中提取多个坐标视频帧图像,云端服务器后续根据各个所述坐标视频帧图像来识别所述坐姿视频的第二坐姿状态的步骤,可参考图3的提供的第二实施例,应理解,本实施例中云端服务器后续所执行的步骤的执行主体为云端服务器,第二实施例中的步骤的执行主体为本地终端。
在本实施例中,上述将所述坐姿视频帧图像导入第二人体识别层,从所述坐姿视频帧图像中截取出人体视频帧图像,具体可参考上述S301的相关描述,在这里不再赘述。需要注意的是:此处的执行主体为云端服务器,而S301的执行主体为本地终端;所述第一人体识别层与所述第二人体识别层可以是相同的。
在本实施例中,上述将所述人体视频帧图像导入第二关键点集识别层,在所述人体视频帧上提取多个第二关键点,输出包含所述多个第二关键点的第二关键视频帧图像,具体可参考上述S302的相关描述,在这里不再赘述。需要注意的是:此处的执行主体为云端服务器,而S302的执行主体为本地终端;所有所述第二关键点的个数大于所有所述第一关键点的个数,部分或全部所述第一关键点可以被识别为所述第二关键点,且存在与所述第一关键点不同的所述第二关键点,示例性地,包括左耳关键点、右耳关键点或下巴关键点等人脸关键点;所述第二关键点识别层可以为训练好的OpenPose人体关键点识别模型以及训练好的人脸关键点识别模型的结合,示例性地,图7是本申请一实施例提供的人脸关键点识别模型的效果图,参见图7,所述训练好的人脸关键点识别模型可识别人脸上的127个人脸关键点,并且每个不同的人脸关键点对应固定的编号。
在一种可能实现的方式中,参见图7,为了减少计算量,可选的,所述第二关键图像中的人脸关键点,可以只取图7中相对应的第2、16、30、115号的人脸外轮廓点,第74、77号的眼睛点,第45号的鼻子关键点以及第84、90号的嘴角点;可选的,所述第二关键图像中的人脸关键点,可以只取图7中相对应的第55、58号的内眼角点,第43、46号的鼻子关键点以及第84、90号的嘴角点;应理解,所述第二关键点包括上述为了减少计算量选取的第二关键点中的人脸关键点与第二关键点中的人体关键点(例如左肩关键点、右肩关键点以及中部关键点),可以在减少计算量的同时,保证第二坐姿检测模型的精确度。
在本实施例中,上述将所述第二关键视频帧图像导入第二坐姿状态识别层,输出关于所述坐姿视频帧图像的第三坐姿状态,具体可参考上述S303的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S303的执行主体为本地终端;所述第三坐姿状态的取值范围等同于上述第二坐姿状态。
在本实施例中,上述基于所有所述坐姿视频帧图像的所述第三坐姿状态得到所述第二坐姿状态,具体可以为:提取在所有所述第三坐姿状态中的众数,即出现频率最高的第三坐姿状态的取值;例如在100个第三坐姿状态中,10个为正姿,20个为低头,70个为弯腰,则该100个第三坐姿状态对应的100个坐姿视频帧图像组成的坐姿视频对应的所述第二坐姿状态的值应为弯腰。
在本实施例中,所有第二关键点的关键点个数大于所有第一关键点,因此第二坐姿检测模型相对于第一坐姿检测模型,精确度更高,检测消耗的资源也更高,将所述第二坐姿检测模型布置在云端服务器上,可以在更高的精确度的前提下保证第二坐姿检测模型运行时的资源消耗以及运行效率;获取坐姿视频而非坐姿图像可以识别出用户坐姿在一段连续的时间段内的坐姿状态,以便于后续得出坐姿检测结果。
图8示出了本申请第五实施例提供的检测方法的实现流程图。参见图8,相对于图8所述实施例,本实施例提供的方法包括S801~S802,具体详述如下:
进一步地,所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频的第二坐姿状态之前,还包括:
在S801中,云端服务器采集第二训练图像集。
在本实施例中,所述第二训练图像集包括摄像头与样本对象处于多个预设的相对位置的第二训练图像;所述第二训练图像集包括所有所述第二坐姿状态对应的第二训练图像。
在本实施例中,上述云端服务器采集第二训练图像集,具体可参照S401的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S401的执行主体为本地终端;第二训练图像集包括所有取值的第二坐姿状态对应的第二训练图像,第二坐姿状态为正姿的第二训练图像相当于第一坐姿状态为标准的第一训练图像。
在一种可能实现的方式中,参见图5,云端服务器在采集第二训练图像集时,摄像头在图中的5个角度,分别采集100个样本对象的第二训练图像,且分别在每个角度上采集每个样本对象处于八个不同的第二坐姿状态中的第二训练图像,一共采集四千个第二训练图像作为所述第二训练图像集。
应理解,第一训练图像集的部分或全部可识别为第二训练图像集,为了减少工作量,一般地第一训练图像集与第二训练图像集为同一个图像集。
在S802中,云端服务器为所述第二训练图像集内各个第二训练图像配置第二坐姿状态标签,将所述第二训练图像导入所述第二人体识别层,输出第二训练人体图像,将所述第二训练人体图像导入所述第二关键点集识别层,输出训练第二关键图像,以所述训练第二关键图像为输入,以所述第二坐姿状态标签为输出,基于keras深度学习算法训练所述第二坐姿状态识别层,基于训练后的第二坐姿状态识别层、所述第二关键点集识别层以及所述第二人体识别层,得到所述第二坐姿检测模型。
在本实施例中,上述云端服务器为所述第二训练图像集内各个第二训练图像配置第二坐姿状态标签,具体可参照上述S402的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S402的执行主体为本地终端;本实施例的第二坐姿状态标签的取值参照所述第二坐姿状态,包括正姿、低头、仰头、弯腰、头部左倾、头部右倾、身体左倾以及身体右倾等八个第二坐姿状态,而S402中的第一坐姿状态标签的取值参照所述第一坐姿状态,包括标准状态以及非标准状态两个第一坐姿状态。
在本实施例中,上述将所述第二训练图像导入所述第二人体识别层,输出第二训练人体图像,将所述第二训练人体图像导入所述第二关键点集识别层,具体可参照上述S403的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S403的执行主体为本地终端;在S403中的所述第一人体识别层与在本实施例中的所述第二人体识别层可以为同一个人体识别模型。
在本实施例中,上述将所述第二训练人体图像导入所述第二关键点集识别层,输出训练第二关键图像,具体可参照上述S404的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S404的执行主体为本地终端;所述训练第二关键图像的关键点个数(或特征信息量)大于所述训练第一关键图像。
在本实施例中,上述以所述训练第二关键图像为输入,以所述第二坐姿状态标签为输出,基于keras深度学习算法训练所述第二坐姿状态识别层,具体可参照上述S405的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S405的执行主体为本地终端,也因此在训练所述第二坐姿状态识别层时只需要考虑提高精确度,不需要考虑检测的资源消耗,故在一种可能实现的方式中,在S405中的第一坐姿状态识别层的训练过程可以为构建一SVM分类模型并通过径向基函数核(RBF kernel)方法进行训练,在本实施例中第二坐姿状态识别层的训练过程可以为构建一深度神经网络分类模型并基于keras深度学习算法进行训练。
在本实施例中,上述基于训练后的第二坐姿状态识别层、所述第二关键点集识别层以及所述第二人体识别层,得到所述第二坐姿检测模型,具体可参照上述S406的相关描述,在此不再赘述。需要注意的是:此处的执行主体为云端服务器,而S406的执行主体为本地终端。
在本实施例中,因所述训练第二关键图像的关键点个数(或特征信息量)大于所述训练第一关键图像,云端服务器基于本实施例的方法训练得到的所述第二坐姿检测模型比起所述第一坐姿检测模型的检测精确度更高,虽然检测资源消耗也更高,但是因为所述第二坐姿检测模型布置在云端服务器上,所以可承担该第二坐姿检测模型的检测资源消耗的同时保证该第二坐姿检测模型的检测效率,以便于后续云端服务器通过第二坐姿检测模型识别出所述坐姿视频的所述第二坐姿状态。
图9示出了本申请第六实施例提供的检测方法的实现流程图。参见图9,相对于上述任一实施例,本实施例提供的方法S101包括S901~S903,具体详述如下:
进一步地,所述,包括:
在S901中,启动设置于预设位置的摄像头,并接收所述摄像头获取初始环境图像。
在本实施例中,所述摄像头可以放置在目标桌子上。可选地,所述预设位置还可被用于设置采集第一训练图像集的摄像头,保证根据采集的第一训练图像集训练出来的第一坐姿检测模型可以识别出在本实施例中通过该摄像头获取得到的坐姿图像。在一种可能实现的方式中,参见图5,本实施例中的预设位置可以位于图5所示的扇形圆弧上任一位置。
在本实施例中,所述初始环境图像用于表征此时摄像头的拍摄画面,可用于判断所述摄像头的画面中心是否对准了所述用户的颈部。
应理解,所述预设位置还可被用于设置采集第二训练图像集的摄像头,以及设置获取预设时间内的坐姿视频的摄像头。
在S902中,基于所述初始环境图像调整所述摄像头的拍摄角度,以使所述摄像头的拍摄画面的中心与拍摄画面内目标用户人体的中心重合。
在本实施例中,为了保证所述摄像头的画面中心对准所述用户的颈部,即保证所述摄像头的画面包含目标用户人体的人脸以及部分上半身,上述基于所述初始环境图像调整所述摄像头的拍摄角度,以使所述摄像头的拍摄画面的中心与拍摄画面内目标用户人体的中心重合,具体可以为:识别所述初始环境图像中目标用户人体的中心,确定该中心在所述初始环境图像中的位置信息,根据该位置信息调整所述摄像头的拍摄角度,示例性地,根据所述摄像头的规格信息以及所述位置信息计算出所述摄像头的调整信息,并根据该调整角度调整所述摄像头的拍摄角度。应理解,在调整之后,应验证调整后的摄像头的拍摄画面的中心与拍摄画面内目标用户人体的中心重合。
在S903中,通过调整后的所述摄像头获取所述坐姿图像。
在本实施例中,由于S903的实现方式与图1所述的实施例中的S101的实现方式完全相同,具体阐述可以参见S101的相关描述,在此不再赘述。
在本实施例中,通过本实施例提供的方法可以保证获取的坐姿图像包含目标人体的脸以及上半身,以便于后续可以基于所述坐姿图像以及第一坐姿检测模型,精确地识别出所述坐姿图像对应的第一坐姿状态。
图10示出了本申请第七实施例提供的检测方法的实现流程图。参见图10,相对于图1所述实施例,本实施例提供的方法S106包括S10-a~S10-b,具体详述如下:
进一步地,所述输出所述坐姿检测结果,包括:
在S10-a中,将所述坐姿检测结果发送至用户终端。
在本实施例中,与所述用户终端建立连接,并将S103或S105确定的所述坐姿检测结果发送至用户终端。上述与所述用户终端建立连接,具体可以为通过搜寻可连接范围内的用户终端,与所述用户终端建立连接;也可以为通过中转服务器预所述用户终端建立连接,所述中转服务器可以是所述云端服务器。
应理解,在一种可能实现的方式中,若上述将所述坐姿检测结果发送至用户终端具体为通过所述云端服务器将所述坐姿检测结果,则上述S105可替换为:指示所述云端服务器根据所述第二坐姿状态确定坐姿检测结果。此时上述S10-a可替换为:接收所述云端服务器反馈的所述坐姿检测结果并将所述坐姿检测结果发送至用户终端;或指示所述云端服务器将所述坐姿检测结果发送至用户终端。
在S10-b中,指示所述用户终端显示所述坐姿检测结果。
在本实施例中,通过与所述用户终端建立连接,发送显示S10-a发送的所述坐姿检测结果的请求,指示所述用户终端通过所述用户终端的显示模块对所述坐姿检测结果进行显示,以告知用户。
在本实施例中,本实施例提供的方法,通过将所述坐姿检测结果发送至用户终端,以告知用户,能让用户及时根据所述坐姿检测结果来调整自己的坐姿,也能让用户终端保存所述坐姿检测结果以便于用户随时能在所述用户终端上查看,还能让用户终端对接收到的所有所述坐姿检测结果进行整合分析,得出让用户更易懂的有关用户坐姿的分析报告。
对应于上文实施例所述的方法,图11示出了本申请一实施例提供的检测装置的结构示意图,为了便于说明,仅示出了与本申请实施例相关的部分。
参照图11,该坐姿检测装置包括:坐姿图像获取模块,用于获取用户的坐姿图像;本地坐姿检测模块,用于基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的;坐姿检测结果确定模块,用于若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果;云端坐姿检测指示模块,用于若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数;云端数据获取模块,用于获取所述云端服务器反馈的所述第二坐姿状态;坐姿检测结果确定模块,还用于根据所述第二坐姿状态确定坐姿检测结果;坐姿检测结果输出模块,用于输出所述坐姿检测结果。
需要说明的是,上述装置之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图12示出了本申请一实施例提供的终端设备的结构示意图。如图12所示,该实施例的终端设备12包括:至少一个处理器120(图12中仅示出一个)处理器、存储器121以及存储在所述存储器121中并可在所述至少一个处理器120上运行的计算机程序122,所述处理器120执行所述计算机程序122时实现上述任意各个方法实施例中的步骤。
所述终端设备12可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该终端设备可包括,但不仅限于,处理器120、存储器121。本领域技术人员可以理解,图12仅仅是终端设备12的举例,并不构成对终端设备12的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器120可以是中央处理单元(Central Processing Unit,CPU),该处理器120还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器121在一些实施例中可以是所述终端设备12的内部存储单元,例如终端设备12的硬盘或内存。所述存储器121在另一些实施例中也可以是所述终端设备12的外部存储设备,例如所述终端设备12上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器121还可以既包括所述终端设备12的内部存储单元也包括外部存储设备。所述存储器121用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器121还可以用于暂时地存储已经输出或者将要输出的数据。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/终端设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/终端设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (10)
1.一种坐姿检测方法,其特征在于,包括:
获取用户的坐姿图像;
基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的;
若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果;
若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数;
获取所述云端服务器反馈的所述第二坐姿状态,并根据所述第二坐姿状态确定坐姿检测结果;
输出所述坐姿检测结果。
2.如权利要求1所述的检测方法,其特征在于,所述基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态,包括:
将所述坐姿图像导入第一人体识别层,从所述坐姿图像中截取出人体图像;
将所述人体图像导入第一关键点集识别层,在所述人体图像上提取多个第一关键点,输出包含所述多个第一关键点的第一关键图像;
将所述第一关键图像导入第一坐姿状态识别层,得到所述坐姿图像对应的第一坐姿状态。
3.如权利要求2所述的检测方法,其特征在于,所述基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态之前,还包括:
采集第一训练图像集;所述第一训练图像集包括摄像头与样本对象处于多个预设的相对位置的第一训练图像;
为所述第一训练图像集内各个第一训练图像配置第一坐姿状态标签;
将所述第一训练图像导入所述第一人体识别层,输出第一训练人体图像;
将所述第一训练人体图像导入所述第一关键点集识别层,输出训练第一关键图像;
以所述训练第一关键图像为输入,以所述第一坐姿状态标签为输出,基于深度学习算法训练所述第一坐姿状态识别层;
基于训练后的第一坐姿状态识别层、所述第一关键点集识别层以及所述第一人体识别层,得到所述第一坐姿检测模型。
4.如权利要求1所述的检测方法,其特征在于,所述将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态,包括:
将所述坐姿视频上传至所述云端服务器,以指示所述云端服务器从所述坐姿视频中提取多个坐标视频帧图像,将所述坐姿视频帧图像导入第二人体识别层,从所述坐姿视频帧图像中截取出人体视频帧图像,将所述人体视频帧图像导入第二关键点集识别层,在所述人体视频帧上提取多个第二关键点,输出包含所述多个第二关键点的第二关键视频帧图像,将所述第二关键视频帧图像导入第二坐姿状态识别层,输出关于所述坐姿视频帧图像的第三坐姿状态,基于所有所述坐姿视频帧图像的第三坐姿状态得到所述第二坐姿状态。
5.如权利要求4所述的检测方法,其特征在于,所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频的第二坐姿状态之前,还包括:
云端服务器采集第二训练图像集;所述第二训练图像集包括摄像头与样本对象处于多个预设的相对位置的第二训练图像;所述第二训练图像集包括所有所述第二坐姿状态对应的第二训练图像;
云端服务器为所述第二训练图像集内各个第二训练图像配置第二坐姿状态标签,将所述第二训练图像导入所述第二人体识别层,输出第二训练人体图像,将所述第二训练人体图像导入所述第二关键点集识别层,输出训练第二关键图像,以所述训练第二关键图像为输入,以所述第二坐姿状态标签为输出,基于keras深度学习算法训练所述第二坐姿状态识别层,基于训练后的第二坐姿状态识别层、所述第二关键点集识别层以及所述第二人体识别层,得到所述第二坐姿检测模型。
6.如权利要求1-5所述的任一检测方法,其特征在于,所述获取用户的坐姿图像,包括:
启动设置于预设位置的摄像头,并接收所述摄像头获取初始环境图像;
基于所述初始环境图像调整所述摄像头的拍摄角度,以使所述摄像头的拍摄画面的中心与拍摄画面内目标用户人体的中心重合;
通过调整后的所述摄像头获取所述坐姿图像。
7.如权利要求1所述的检测方法,其特征在于,所述输出所述坐姿检测结果,包括:
将所述坐姿检测结果发送至用户终端;
指示所述用户终端显示所述坐姿检测结果。
8.一种坐姿检测装置,其特征在于,包括:
坐姿图像获取模块,用于获取用户的坐姿图像;
本地坐姿检测模块,用于基于所述坐姿图像以及第一坐姿检测模型,识别所述坐姿图像对应的第一坐姿状态;所述第一坐姿检测模型是根据第一训练图像集内各个第一训练图像的第一关键点集进行训练后得到的;
坐姿检测结果确定模块,用于若所述第一坐姿状态为标准状态,根据所述第一坐姿状态确定坐姿检测结果;
云端坐姿检测指示模块,用于若所述第一坐姿状态为非标准状态,则获取预设时间内的坐姿视频,并将所述坐姿视频上传至云端服务器,以指示所述云端服务器基于所述坐姿视频以及第二坐姿检测模型,识别所述坐姿视频对应的第二坐姿状态;所述第二坐姿检测模型是根据第二训练图像集内各个第二训练图像的第二关键点集进行训练后得到的;所述第二关键点集的关键点个数大于所述第一关键点集的关键点个数;
云端数据获取模块,用于获取所述云端服务器反馈的所述第二坐姿状态;
坐姿检测结果确定模块,还用于根据所述第二坐姿状态确定坐姿检测结果;
坐姿检测结果输出模块,用于输出所述坐姿检测结果。
9.一种终端设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010845700.6A CN112101124B (zh) | 2020-08-20 | 2020-08-20 | 一种坐姿检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010845700.6A CN112101124B (zh) | 2020-08-20 | 2020-08-20 | 一种坐姿检测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112101124A true CN112101124A (zh) | 2020-12-18 |
CN112101124B CN112101124B (zh) | 2023-12-08 |
Family
ID=73753263
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010845700.6A Active CN112101124B (zh) | 2020-08-20 | 2020-08-20 | 一种坐姿检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112101124B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633232A (zh) * | 2020-12-31 | 2021-04-09 | 北京市商汤科技开发有限公司 | 基于坐姿检测的交互方法及装置、设备、介质及家居设备 |
CN112712053A (zh) * | 2021-01-14 | 2021-04-27 | 深圳数联天下智能科技有限公司 | 一种坐姿信息的生成方法、装置、终端设备及存储介质 |
CN113657271A (zh) * | 2021-08-17 | 2021-11-16 | 上海科技大学 | 结合可量化因素及不可量化因素判断的坐姿检测方法及系统 |
CN113888838A (zh) * | 2021-11-08 | 2022-01-04 | 深圳作为科技有限公司 | 一种睡姿监测告警方法、装置及存储介质 |
CN114419676A (zh) * | 2022-01-24 | 2022-04-29 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的坐姿分析方法、装置、计算机设备及介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210446A (zh) * | 2019-06-12 | 2019-09-06 | 广东工业大学 | 一种目标对象的坐姿状态检测方法、装置、设备及介质 |
WO2020077822A1 (zh) * | 2018-10-17 | 2020-04-23 | 深圳壹账通智能科技有限公司 | 图像特征配置及校验方法、装置、计算机设备及介质 |
CN111178280A (zh) * | 2019-12-31 | 2020-05-19 | 北京儒博科技有限公司 | 一种人体坐姿识别方法、装置、设备及存储介质 |
-
2020
- 2020-08-20 CN CN202010845700.6A patent/CN112101124B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020077822A1 (zh) * | 2018-10-17 | 2020-04-23 | 深圳壹账通智能科技有限公司 | 图像特征配置及校验方法、装置、计算机设备及介质 |
CN110210446A (zh) * | 2019-06-12 | 2019-09-06 | 广东工业大学 | 一种目标对象的坐姿状态检测方法、装置、设备及介质 |
CN111178280A (zh) * | 2019-12-31 | 2020-05-19 | 北京儒博科技有限公司 | 一种人体坐姿识别方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
曾星;罗武胜;孙备;鲁琴;刘涛诚;: "基于深度图像的嵌入式人体坐姿检测系统的实现", 计算机测量与控制, no. 09 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633232A (zh) * | 2020-12-31 | 2021-04-09 | 北京市商汤科技开发有限公司 | 基于坐姿检测的交互方法及装置、设备、介质及家居设备 |
CN112712053A (zh) * | 2021-01-14 | 2021-04-27 | 深圳数联天下智能科技有限公司 | 一种坐姿信息的生成方法、装置、终端设备及存储介质 |
CN113657271A (zh) * | 2021-08-17 | 2021-11-16 | 上海科技大学 | 结合可量化因素及不可量化因素判断的坐姿检测方法及系统 |
CN113657271B (zh) * | 2021-08-17 | 2023-10-03 | 上海科技大学 | 结合可量化因素及不可量化因素判断的坐姿检测方法及系统 |
CN113888838A (zh) * | 2021-11-08 | 2022-01-04 | 深圳作为科技有限公司 | 一种睡姿监测告警方法、装置及存储介质 |
CN114419676A (zh) * | 2022-01-24 | 2022-04-29 | 平安国际智慧城市科技股份有限公司 | 基于人工智能的坐姿分析方法、装置、计算机设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112101124B (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112101124A (zh) | 一种坐姿检测方法及装置 | |
CN109740491B (zh) | 一种人眼视线识别方法、装置、系统及存储介质 | |
CN108701216B (zh) | 一种人脸脸型识别方法、装置和智能终端 | |
US10318797B2 (en) | Image processing apparatus and image processing method | |
CN106469302A (zh) | 一种基于人工神经网络的人脸肤质检测方法 | |
WO2021047185A1 (zh) | 基于人脸识别的监测方法、装置、存储介质及计算机设备 | |
CN103793719A (zh) | 一种基于人眼定位的单目测距方法和系统 | |
CN111652189A (zh) | 一种智能化教学的学生管理系统 | |
CN112101123A (zh) | 一种注意力检测方法及装置 | |
CN104143086A (zh) | 人像比对在移动终端操作系统上的应用技术 | |
CN109948397A (zh) | 一种人脸图像校正方法、系统及终端设备 | |
CN112712053A (zh) | 一种坐姿信息的生成方法、装置、终端设备及存储介质 | |
CN108121943B (zh) | 基于图片的判别方法及装置和计算设备 | |
CN110956071B (zh) | 眼部关键点的标注及其检测模型的训练方法和装置 | |
CN111339801B (zh) | 一种人员注意力检测方法、装置、设备及系统 | |
CN104091173A (zh) | 一种基于网络摄像机的性别识别方法及装置 | |
CN113763348A (zh) | 图像质量确定方法、装置、电子设备及存储介质 | |
CN109993021A (zh) | 人脸正脸检测方法、装置及电子设备 | |
WO2019090904A1 (zh) | 确定距离的方法、装置、设备及存储介质 | |
US11295117B2 (en) | Facial modelling and matching systems and methods | |
KR20190036929A (ko) | 실시간 자세 관리 시스템 | |
CN113488163A (zh) | 一种基于机器视觉的肌少症识别方法、装置、设备及介质 | |
CN113569594A (zh) | 一种人脸关键点的标注方法及装置 | |
CN112149517A (zh) | 一种人脸考勤方法、系统、计算机设备及存储介质 | |
KR101779840B1 (ko) | 미소 검출 기반 얼굴 분석 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |