CN113673492B - 人体姿态评估方法、电子设备及存储介质 - Google Patents
人体姿态评估方法、电子设备及存储介质 Download PDFInfo
- Publication number
- CN113673492B CN113673492B CN202111230357.5A CN202111230357A CN113673492B CN 113673492 B CN113673492 B CN 113673492B CN 202111230357 A CN202111230357 A CN 202111230357A CN 113673492 B CN113673492 B CN 113673492B
- Authority
- CN
- China
- Prior art keywords
- point
- human body
- information
- depth
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Physics & Mathematics (AREA)
- Public Health (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Primary Health Care (AREA)
- Epidemiology (AREA)
- Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本申请公开了一种人体姿态评估方法、电子设备及计算机可读存储介质。该方法包括:利用深度传感器获取所述人体运动过程的深度流数据;获取深度流数据包括的至少一帧深度数据中人体的弯曲信息;基于人体的弯曲信息,确定人体的姿态评估结果。通过上述方式,能够提高人体的姿态评估结果的准确度。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及一种人体姿态评估方法、电子设备及计算机可读存储介质。
背景技术
人体的姿态情况和人体的健康状况相关,为了适应人们越来越高的健康需求,经常需要对人体的姿态评估。例如,通过对人体进行姿态评估,确定人体是否处于不良姿态,以在处于不良姿态的情况下及时给出提醒。又如,通过对人体进行姿态评估的结果,帮助医生了解人体的情况。然而,目前对人体姿态评估的方法准确度不高。
发明内容
本申请提供一种人体姿态评估方法、电子设备及计算机可读存储介质,能够解决现有的人体姿态评估方法的方法准确度不够高的问题。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种人体姿态评估方法。该方法包括:利用深度传感器获取所述人体运动过程的深度流数据;获取深度流数据包括的至少一帧深度数据中人体的弯曲信息;基于人体的弯曲信息,确定人体的姿态评估结果。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种电子设备,该电子设备包括处理器、与处理器连接的存储器,其中,存储器存储有程序指令;处理器用于执行存储器存储的程序指令以实现上述方法。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种计算机可读存储介质,存储有程序指令,该程序指令被执行时能够实现上述方法。
通过上述方式,本申请在对人体进行姿态评估时,通过深度传感器获取深度流数据,故深度流数据包括的深度数据涵盖人体的三维姿态信息,由于三维姿态信息相比二维姿态信息能够更好地表达人体的姿态,因此从深度数据获取的人体的弯曲信息更加准确,进而基于人体的弯曲信息对人体进行姿态评估,得到的姿态评估结果更加准确。
附图说明
图1是本申请人体姿态评估方法一实施例的流程示意图;
图2是图1中S13的具体流程示意图;
图3是相对于人体定义的垂直、水平和深度三个方向的示意图;
图4是人体正面视角下,单帧正面深度数据中人体的骨架关键点的示意图;
图5是人体侧面视角下,单帧背面深度数据中人体的背面轮廓关键点的示意图;
图6是本申请人体姿态评估方法另一实施例的流程示意图;
图7是脊椎连线的示意图;
图8是脊椎曲线的示意图;
图9是本申请人体姿态评估方法又一实施例的流程示意图;
图10是图9中S32的一具体流程示意图;
图11是图9中S32的另一具体流程示意图;
图12是图9中S32的再一具体流程示意图;
图13是图9中S32的再一具体流程示意图;
图14是本申请人体姿态评估方法再一实施例的流程示意图;
图15是图14中S42的一具体流程示意图;
图16是图14中S42的另一具体流程示意图;
图17是本申请电子设备一实施例的结构示意图;
图18是本申请计算机可读存储介质一实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请中的术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”、“第三”的特征可以明示或者隐含地包括至少一个该特征。本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,在不冲突的情况下,本文所描述的实施例可以与其它实施例相结合。
在介绍本申请提供的人体姿态评估方法之前,先对现有的人体姿态评估方法进行说明:
方法一、在人体设置可穿戴传感器,通过可穿戴传感器获得人体的关键点,从而基于关键点计算人体的弯曲信息,采用阈值方法或者训练分类器得到人体姿态评估结果。
此方式下,需要的可穿戴传感器多,会影响到人体的行为,从而影响人体姿态评估的精度。
方法二、拍摄人体不同视角下的图像/视频数据,提取图像/视频数据包括的视频帧(包括人体的二维姿态信息)中人体的关键点,以基于关键点得到姿态评估结果。
此方式下,虽然不需要在人体设置可穿戴传感器获取关键点,但是二维姿态信息描述人体的姿态的准确度不高,导致得到的姿态评估结果准确度不高。
为了进一步解决方式二存在的问题,本申请提供的方法如下:
图1是本申请人体姿态评估方法一实施例的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图1所示的流程顺序为限。如图1所示,本实施例可以包括:
S11:利用深度传感器获取人体运动过程的深度流数据。
本申请提供的人体姿态评估方法的应用场景不受限。但是为了便于理解,本申请后文的描述是以应用场景—帕金森患者的姿态评估来进行说明的。
深度数据也可以被称为深度图像(depth image)或者距离影像(range image),其中的像素值为像素坐标(u,v)对应的深度值。深度值代表的是对应的场景点到深度传感器的距离,u代表的是水平坐标,v代表的是垂直坐标。故,深度数据涵盖人体的三维姿态信息(即相比二维姿态信息,额外包括深度值)。
人体运动过程,可以是人体的行走过程、奔跑过程等等。
人体相对于深度传感器的朝向,视为人体运动的方向。如果人体的朝向是正对深度传感器,那么人体运动的方向是正向,视为人体在正向运动。如果人体的朝向是背对深度传感器,那么人体运动的方向是背向,视为人体在背向运动。如果人体运动的方向随时间变化而在正向和背向之间变化,那么可以根据人体运动的方向将人体运动过程划分为正向运动区间、背向运动区间和转弯区间,正向运动区间为人体在正向运动的区间,背向运动区间为人体在背向运动的区间,转弯区间为人体变换运动方向时的区间。
人体运动过程可以仅包括正向运动区间,相应地,深度流数据包括对应于正向运动区间的正面深度流数据。或者,人体运动过程可以仅包括背向运动区间,相应地,深度流数据包括对应于背向运动区间的背面深度流数据。或者,人体运动过程可以包括正向运动区间和背向运动区间,相应地,深度流数据包括对应于正向运动区间的正面深度流数据和对应于背向运动区间的背面深度流数据。正面深度流数据包括的深度数据为正面深度数据,背面深度流数据包括的深度数据为背面深度数据。
例如,医生为了精确了解帕金森患者的姿态情况,让帕金森患者按照医院诊室地面设有的运动标志运动,得到如图2所示的运动过程。图2中的运动过程包括2个背向运动区间、2个正向运动区间和4个转弯区间。
S12:获取深度流数据包括的至少一帧深度数据中人体的弯曲信息。
人体的弯曲信息可以包括躯干的弯曲信息和头部的弯曲信息。躯干为人体的颈部至髋部之间的部分。躯干的弯曲信息可以包括躯干前屈信息和躯干侧倾信息,头部的弯曲信息可以包括头部前屈信息和头部侧倾信息。躯干前屈信息可以包括躯干整体前屈信息、躯干腰段前屈信息、躯干上胸段前屈信息和椎骨凸度信息。
本申请后文将躯干前屈信息称为第一类型弯曲信息,将躯干侧倾信息、头部前屈信息和头部侧倾信息称为第二类型弯曲信息。第一类型的弯曲信息可以基于背面深度流数据获取得到,第二类型弯曲信息可以基于正面深度流数据和背面深度流数据获取得到。
在实际应用过程中,可以根据需求,选择性的获取上述人体的弯曲信息中的一种或多种,用于后续分析。如果获取的人体的弯曲信息有多种,那么人体的弯曲信息是多维向量。例如,人体的弯曲信息包括头部侧倾信息、躯干侧倾信息、头部前屈信息、躯干整体前屈信息、躯干上胸段前屈信息、躯干腰段前屈信息和躯干凸度前屈信息,那么人体的弯曲信息是一个7维向量。
可以理解的是,在人体的姿态是随时可变的,获取多帧深度数据中人体的弯曲信息用于确定人体的姿态评估结果,准确度更高。例如,帕金森患者存在开关现象,利用多帧深度数据中人体的弯曲信息来确定其姿态情况,准确度更高。
S13:基于人体的弯曲信息,确定人体的姿态评估结果。
可以通过阈值或者分类器的方式,对人体的弯曲信息进行分析,得到人体的姿态评估结果。在分类器方式下,将人体的弯曲信息送入分类器,分类器采用决策树的方式,得到人体的姿态评分,作为人体的姿态评估结果。例如,将帕金森患者的弯曲信息送入分类器,分类器以UPDRS 3量表为依据,分析得到一个0~4的姿态评分。
若至少一帧深度数据包括多帧深度数据,则可以将多帧深度数据的弯曲信息用于分析,也可以从多帧深度数据的弯曲信息中选出代表弯曲信息用于分析。结合参阅图2,后者情况下,S13可以包括以下子步骤:
S131:从至少一帧深度数据中人体的弯曲信息中,选出代表弯曲信息。
多帧深度数据中人体的弯曲信息构成人体的弯曲信息序列。例如,可以将序列中10分位、50分位和90分位的人体的弯曲信息,作为代表弯曲信息。
S132:基于代表弯曲信息,确定人体的姿态评估结果。
通过本实施例的实施,本申请在对人体进行姿态评估时,通过深度传感器获取深度流数据,故深度流数据包括的深度数据涵盖人体的三维姿态信息,由于三维姿态信息相比二维姿态信息能够更好地表达人体的姿态,因此从深度数据获取的人体的弯曲信息更加准确,进而基于人体的弯曲信息对人体进行姿态评估,得到的姿态评估结果更加准确。
如下对本申请后文涉及的人体的关键点进行说明:
人体的关键点处于世界坐标系xyz下。结合参阅图3,本申请中,将垂直于人体侧面的方向称为0方向(x轴方向,对应水平方向),将垂直于地面的方向称为1方向(y轴方向,对应垂直方向),将垂直于人体正面/背面的方向称为2方向(z轴方向)。
人体的关键点包括骨架关键点和轮廓关键点。正面深度数据和背面深度数据均有对应的骨架关键点。可以对正面深度数据/背面深度数据进行骨架关键点检测,得到对应的骨架关键点。背面深度数据有对应的轮廓关键点,可以基于背面深度数据对应的骨架关键点,得到轮廓关键点。
骨架关键点为人体部位的中心点。骨架关键点可以包括头部中心点、颈部中心点、髋部中心点、踝部中心点。图4所示为人体正面视角下,单帧深度数据中人体的骨架关键点。图4中,head表示头部中心点、neck表示颈部中心点、hip表示髋部中心点、ankle表示踝部中心点。
轮廓关键点位于人体表面,因此又可以被称为体表关键点。轮廓关键点可以包括外踝点、骶髂点、椎骨最凸点和后颈点。图5所示为人体侧面视角下,单帧背面深度数据中人体的背面轮廓关键点。图5中,LM表示外踝点,L5表示骶髂点,FC表示椎骨最凸点,c7表示后颈点。
如下对基于背面深度数据对应的骨架关键点,得到轮廓关键点的实现过程进行说明:
针对后颈点,可以将颈部中心点转换至人体背面体表,得到后颈点。具体来说,可以将颈部中心点(x1,y1,z1)从世界坐标系转换至像素坐标系,得到(u1,v1,d1),u1为像素坐标系下水平方向的坐标,v1为像素坐标系下垂直方向的坐标,d1为像素坐标(u1,v1)对应的深度值;改变d1为d1’,得到(u1,v1,d1’);将(u1,v1,d1’)从像素坐标系转换回世界坐标系,得到后颈点。
针对骶髂点,可以将髋部中心点转换至人体背面体表,得到骶髂点。具体转换过程与得到后颈点的过程类似,在此不赘述。
针对外踝点,可以直接将踝部中心点作为外踝点。或者,也可以将踝部中心点转换至人体背面体表,得到外踝点。
针对椎骨最凸点,可以基于颈部中心点和髋部中心点确定椎骨最凸点。具体如下:
图6是本申请人体姿态评估方法另一实施例的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图6所示的流程顺序为限。如图6所示,基于颈部中心点和髋部中心点确定椎骨最凸点的实现过程可以包括:
S21:确定后颈点与骶髂点之间的脊椎连线。
脊椎连线上每个采样点处于像素坐标系,具有像素坐标系的坐标(像素坐标)。
图7是确定的脊椎连线的示意图。
S22:获取脊椎连线上的采样点的像素坐标对应的深度值。
本步骤为基于采样点的水平坐标和垂直坐标找对应的深度值。可以理解的是,深度数据中像素坐标均为整数,这就意味着采样点的水平坐标和垂直坐标均为整数时,才能确定对应的深度值。
作为一实施例,直接确定采样点的水平坐标和垂直坐标对应的深度坐标。此种方式下,当采样点的水平坐标和垂直坐标中的至少一个为浮点数时,无法确定对应的深度值,导致形成的脊椎曲线不是连续的。
作为另一实施例,为了提高躯干的连续性,本步骤中,先判断采样点的水平坐标和垂直坐标是否均为整数;如果采样点的水平坐标和垂直坐标均为整数,则直接确定采样点的水平坐标和垂直坐标对应的深度值;如果采样点的水平坐标和垂直坐标中的至少一个为浮点数,则先对浮点数取整,再确定取整结果对应的深度值。
例如,水平坐标u2和垂直坐标v2均为浮点数,则对水平坐标和垂直坐标取整,得到经取整的水平坐标round(u2)和垂直坐标round(v2),并确定round(u2)和round(v2)对应的深度值d2。
S23:基于采样点的像素坐标和深度值,将采样点转换至世界坐标系,以形成脊椎曲线。
本步骤依据的公式可以如下:
z2=d2;
x2=(z*(u2-cx))/fx;
y2=(z*(v2-cy))/fy;
其中,z2表示采样点在世界坐标系下z轴方向的坐标,x2表示采样点在世界坐标系下x轴方向的坐标,y2表示采样点在世界坐标系下y轴方向的坐标,(cx,cy)表示相机(含深度传感器)的主光轴点,(fx,fy)表示相机的焦距。
图8是形成的脊椎曲线的示意图。
S24:选择脊椎曲线上与脊椎连线距离最远的采样点,作为椎骨最凸点。
第一类型弯曲信息可以基于背面深度流数据获取到。如下对通过S12获取第一类型弯曲信息进行说明:
图9是本申请人体姿态评估方法又一实施例的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图9所示的流程顺序为限。本实施例是对S12的进一步扩展。并且,本实施例中,弯曲信息包括第一类型弯曲信息。深度流数据包括背面深度流数据,背面深度流数据包括多帧背面深度数据。如图9所示,本实施例可以包括:
S31:获取至少一帧背面深度数据中人体的背面轮廓关键点。
背面轮廓关键点可以包括后颈点、椎骨最凸点、骶髂点和外踝点。
S32:基于对应的不同背面轮廓关键点之间的关联关系,确定至少一帧背面深度数据中人体的第一类型弯曲信息。
第一类型弯曲信息可以包括躯干整体前屈信息、躯干腰段前屈信息、躯干上胸段前屈信息和椎骨凸度中的至少一个。
作为一实施例,背面轮廓关键点包括后颈点、外踝点和骶髂点。第一类型弯曲信息包括躯干整体前屈信息。结合参阅图10,S32可以包括以下子步骤:
S321:对于单帧背面深度数据,获取其中的后颈点与骶髂点之间的向量,以及获取骶髂点与外踝点之间的向量。
例如,后颈点c7与骶髂点L5之间的向量为dir1=c7-c5,骶髂点L5与外踝点LM之间的向量为dir2=L5-LM。
S322:将后颈点与骶髂点之间的向量和骶髂点与外踝点之间的向量,作为躯干整体前屈相关的两个向量。
S323:将躯干整体前屈相关的两个向量映射到人体的侧面。
将向量映射到人体的侧面,即为令向量在0方向上的坐标为0。从而,本步骤可以表示为,令dir1[0]=0,得到dir1’;令dir2[0]=0,得到dir2’。
S324:将经映射的躯干整体前屈相关的两个向量之间的夹角,作为躯干整体前屈信息。
计算躯干整体前屈信息angle1依据的公式可以如下:
angle1=(arccos(dir1’*dir2’))/(norm(dir1’)*norm(dir2’))。
作为另一实施例,背面轮廓关键点包括椎骨最凸点、骶髂点和外踝点,第一类型弯曲信息包括躯干腰段前屈信息。结合参阅图11,S32可以包括以下子步骤:
S325:对于单帧背面深度数据,获取其中的椎骨最凸点与骶髂点之间的向量,以及获取骶髂点与外踝点之间的向量。
椎骨最凸点FC与骶髂点L5之间的向量dir3=FC-L5,骶髂点L5与外踝点LM之间的向量为dir2= L5-LM。
S326:将椎骨最凸点与骶髂点之间的向量和骶髂点与外踝点之间的向量,作为躯干腰段前屈相关的两个向量。
S327:将躯干腰段前屈相关的两个向量映射到人体的侧面。
将向量映射到人体的侧面,即为令向量在0方向上的坐标为0。从而,本步骤可以表示为,令dir3[0]=0,得到dir3’;令dir2[0]=0,得到dir2’。
S328:将经映射的躯干腰段前屈相关的两个向量之间的夹角,作为躯干腰段前屈信息。
计算躯干腰段前屈信息angle2依据的公式可以如下:
angle2=(arccos(dir3’*dir2’))/(norm(dir3’)*norm(dir2’))。
作为又一实施例,背面轮廓关键点包括椎骨最凸点、骶髂点和后颈点,第一类型弯曲信息包括躯干上胸段前屈信息。结合参阅图12,S32可以包括以下子步骤:
S329:对于单帧背面深度数据,获取其中的椎骨最凸点与骶髂点之间的向量,以及获取骶髂点与后颈点之间的向量。
椎骨最凸点FC与骶髂点L5之间的向量dir3=FC-L5,后颈点c7与骶髂点L5之间的向量为dir1=c7-c5。
S330:将椎骨最凸点与骶髂点之间的向量和骶髂点与后颈点之间的向量,作为躯干上胸段前屈相关的两个向量。
S331:将躯干上胸段前屈相关的两个向量映射到人体的侧面。
将向量映射到人体的侧面,即为令向量在0方向上的坐标为0。从而,本步骤可以表示为,令dir3[0]=0,得到dir3’;dir1[0]=0,得到dir1’。
S332:将经映射的躯干上胸段前屈相关的两个向量之间的夹角,作为躯干上胸段前屈信息。
计算躯干上胸段前屈信息angle3依据的公式可以如下:
angle3=(arccos(dir3’*dir1’))/(norm(dir3’)*norm(dir1’))。
作为再一实施例,背面轮廓关键点包括椎骨最凸点、骶髂点和后颈点,第一类型弯曲信息包括椎骨凸度。结合参阅图13,S32可以包括以下子步骤:
S333:对于单帧背面深度数据,获取其中的后颈点与骶髂点之间的向量。
后颈点c7与骶髂点L5之间的向量为dir1=c7-c5。
S334:计算椎骨最凸点到骶髂点与后颈点之间的向量的距离,作为椎骨凸度。
即,计算椎骨最凸点FC到dir1的距离。
可以理解的是,如果从人体的侧面视角获取人体的侧面深度流数据,并且基于侧面深度流数据获取人体的弯曲信息,可能因为头发、手臂的干扰,使确定的骨架关键点不准确(例如,长头发导致确定的头部中心点不准确),从而基于骨架关键点确定的背面轮廓关键点不准确,劲儿基于背面轮廓关键点确定的第一类型弯曲信息不准确。由于人体的背面不受头发、手臂的干扰,因此本实施例中基于背面数据/背面深度数据获取的人体的第一类型弯曲信息,准确度更高。
第二类型弯曲信息可以基于背面深度流数据和正面深度流数据获取到。换句话说,每帧背面深度数据具有对应的第二类型弯曲信息,每帧正面深度数据具有对应的第二类型弯曲信息。如下对通过S12获取第二类型弯曲信息进行说明:
图14是本申请人体姿态评估方法再一实施例的流程示意图。需注意的是,若有实质上相同的结果,本实施例并不以图14所示的流程顺序为限。本实施例是对S12的进一步扩展。并且,本实施例中,弯曲信息包括第二类型弯曲信息。深度流数据包括背面深度流数据和正面深度流数据,背面深度流数据包括多帧背面深度数据,正面深度流数据包括多帧背面深度数据。如图14所示,本实施例可以包括:
S41:将正面深度数据和背面深度数据作为目标深度数据。
S42:获取至少一帧目标深度数据中的骨架关键点。
可以对目标深度数据进行骨架关键点检测,得到目标深度数据中的骨架关键点。
S43:基于对应的不同骨架关键点之间的关联关系,确定至少一帧目标深度数据中人体的第二类型弯曲信息。
第二类型弯曲信息可以包括头部侧倾信息、躯干侧倾信息和头部前屈信息中的至少一个。
作为一实施例,第二类型弯曲信息包括头部弯曲信息,头部弯曲信息包括头部侧倾信息和头部前屈信息,骨架关键点包括头部中心点和颈部中心点。结合参阅图15,S43可以包括以下子步骤:
S431:获取头部中心点与颈部中心点之间的向量。
头部中心点head与颈部中心点neck之间的向量可以表示为dir5=head-neck。
S432:分别将头部中心点与颈部中心点之间的向量映射到人体的侧面和正面。
将向量映射到人体的侧面,即为令向量在0方向上的坐标为0。从而,本步骤可以表示为,令dir5[0]=0,得到dir5’。
将向量映射到人体的正面,即为令向量在2方向上的坐标为0。从而,本步骤可以表示为,令dir5[2]=0,得到dir5’’。
S433:将映射到侧面的头部中心点与颈部中心点之间的向量和地面法向量之间的夹角,作为头部前屈信息;以及将映射到正面的头部中心点与颈部中心点之间的向量和地面法向量之间的夹角,作为头部侧倾信息。
地面法向量可以表示为dir6=[0,-1,0]。本步骤计算头部前屈信息angle4依据的公式可以如下:
angle4=(arccos(dir5’*dir6))/(norm(dir5’)*norm(dir6))。
本步骤计算头部侧倾信息angle5依据的公式可以如下:
angle5=(arccos(dir5’’*dir6))/(norm(dir5’’)*norm(dir6))。
作为另一实施例,第二类型弯曲信息包括躯干侧倾信息,骨架关键点包括颈部中心点和髋部中心点。结合参阅图16,S43可以包括以下子步骤:
S434:获取颈部中心点与髋部中心点之间的向量。
颈部中心点neck与髋部中心点hip之间的向量dir7=neck-hip。
S435:将颈部中心点与髋部中心点之间的向量映射到人体的正面。
将向量映射到人体的正面,即为令向量在2方向上的坐标为0。从而,本步骤可以表示为,令dir7[2]=0,得到dir7’。
S436:将经映射的颈部中心点与髋部中心点之间的向量和地面法向量之间的夹角,作为躯干侧倾信息。
地面法向量可以表示为dir6=[0,-1,0]。本步骤计算头部侧倾信息angle6依据的公式可以如下:
angle6=(arccos(dir7’*dir6))/(norm(dir7’)*norm(dir6))。
下面以一个例子的方式,对本申请提供的方法进行说明:
深度流数据包括100帧连续的正面深度数据,100帧连续的背面深度数据。分别获取各帧背面深度数据中的人体的第一类型弯曲信息,构成第一类型弯曲信息序列;分别获取各帧正向深度数据、背向深度数据中的人体的第二类型弯曲信息,构成第二类型弯曲信息序列。将第一类型弯曲信息序列中第10、50、90个第一类型弯曲信息,以及第二类型弯曲信息序列中的第10、50、90个第一类型弯曲信息,作为代表弯曲信息。将代表弯曲信息送入分类器,得到姿态评分。
下面给出本案方法与前述的现有方法二进行对比的具体的实验例:
选取292个帕金森患者作为实验对象。医生给出该292个帕金森患者的姿态评分(视为标准姿态评分),对医生给出的姿态评分统计得到如下该292个实验对象的标准姿态评分的分布情况如下:
姿态评分 | 0 | 1 | 2 | 3 | 4 |
患者数量 | 84 | 117 | 43 | 42 | 6 |
由上标准姿态评分的分布情况可知,选取的实验对象包含了各个姿态评分下的帕金森患者。从而,在利用本案方法和现有方法二分别得到的姿态评分,能够更好地反映本案和方法二的姿态评估精度差异。
利用本案方法对292个帕金森患者进行姿态评估,得到第一姿态评分,利用现有方法二对292个帕金森患者进行姿态评估,得到第二姿态评分。分别将第一姿态评分、第二姿态评分与标准姿态评分比较,得到如下所示的本案方法的姿态评估精度和现有方法二的姿态评估精度:
ICC (组内相关系数) | AC(准确率) | |
方法二 | 0.76 | 81% |
本案 | 0.82 | 89.1% |
以上实验结果表明,从两个评价指标(ICC和AC)来看,本案姿态评估精度都明显高于基于静态数据的姿态评估精度。
图17是本申请电子设备一实施例的结构示意图。如图17所示,该电子设备包括处理器21、与处理器21耦接的存储器22。
其中,存储器22存储有用于实现上述任一实施例的方法的程序指令;处理器21用于执行存储器22存储的程序指令以实现上述方法实施例的步骤。其中,处理器21还可以称为CPU(Central Processing Unit,中央处理单元)。处理器21可能是一种集成电路芯片,具有信号的处理能力。处理器21还可以是通用处理器、数字信号处理器(DSP)、专用集成电路(ASIC)、现场可编程门阵列(FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
图18是本申请计算机可读存储介质一实施例的结构示意图。如图18所示,本申请实施例的计算机可读存储介质30存储有程序指令31,该程序指令31被执行时实现本申请上述实施例提供的方法。其中,该程序指令31可以形成程序文件以软件产品的形式存储在上述计算机可读存储介质30中,以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的计算机可读存储介质30包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质,或者是计算机、服务器、手机、平板等终端设备。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。以上仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (14)
1.一种人体姿态评估方法,其特征在于,包括:
利用深度传感器获取所述人体运动过程的深度流数据,所述深度流数据包括正面深度数据和背面深度数据;
获取所述深度流数据包括的至少一帧深度数据中所述人体的弯曲信息;
从所述至少一帧深度数据对应的所述人体的弯曲信息中,选出代表弯曲信息;
基于所述代表弯曲信息,确定所述人体的姿态评估结果;
所述弯曲信息包括第二类型弯曲信息,所述获取所述深度流数据包括的至少一帧深度数据中所述人体的弯曲信息,包括:
将所述正面深度数据和所述背面深度数据作为目标深度数据;
获取至少一帧所述目标深度数据中的骨架关键点;
基于对应的不同所述骨架关键点之间的关联关系,确定所述至少一帧目标深度数据中所述人体的第二类型弯曲信息。
2.根据权利要求1所述的方法,其特征在于,
所述人体的运动过程包括背向运动区间和正向运动区间,所述深度流数据包括对应于所述背向运动区间的所述背面深度流数据和对应于所述正向运动区间的所述正面深度流数据,所述背面深度流数据包括多帧背面深度数据,所述正面深度流数据包括多帧正面深度数据。
3.根据权利要求2所述的方法,其特征在于,所述弯曲信息包括第一类型弯曲信息;
所述获取所述深度流数据包括的至少一帧深度数据中所述人体的弯曲信息,包括:
获取至少一帧所述背面深度数据中所述人体的背面轮廓关键点;
基于对应的不同所述背面轮廓关键点之间的关联关系,确定所述至少一帧背面深度数据中所述人体的第一类型弯曲信息,其中,所述第一类型弯曲信息为躯干前屈信息。
4.根据权利要求3所述的方法,其特征在于,所述背面轮廓关键点包括后颈点、外踝点和骶髂点,所述躯干前屈信息包括躯干整体前屈信息;
所述基于对应的不同所述背面轮廓关键点之间的关联关系,确定所述至少一帧所述背面深度数据中所述人体的第一类型弯曲信息,包括:
对于单帧所述背面深度数据,获取其中的所述后颈点与所述骶髂点之间的向量,以及获取所述骶髂点与所述外踝点之间的向量;
将所述后颈点与所述骶髂点之间的向量和所述骶髂点与所述外踝点之间的向量,作为躯干整体前屈相关的两个向量;
将所述躯干整体前屈相关的两个向量映射到所述人体的侧面;
将经映射的所述躯干整体前屈相关的两个向量之间的夹角,作为所述躯干整体前屈信息。
5.根据权利要求3所述的方法,其特征在于,所述背面轮廓关键点包括椎骨最凸点、骶髂点和外踝点,所述躯干前屈信息包括躯干腰段前屈信息;
所述基于对应的不同所述背面轮廓关键点之间的关联关系,确定所述至少一帧所述背面深度数据中所述人体的躯干前屈信息,包括:
对于单帧所述背面深度数据,获取其中的所述椎骨最凸点与所述骶髂点之间的向量,以及获取所述骶髂点与所述外踝点之间的向量;
将所述椎骨最凸点与所述骶髂点之间的向量和所述骶髂点与所述外踝点之间的向量,作为躯干腰段前屈相关的两个向量;
将所述躯干腰段前屈相关的两个向量映射到所述人体的侧面;
将经映射的所述躯干腰段前屈相关的两个向量之间的夹角,作为所述躯干腰段前屈信息。
6.根据权利要求3所述的方法,其特征在于,所述背面轮廓关键点包括椎骨最凸点、骶髂点和后颈点,所述躯干前屈信息包括躯干上胸段前屈信息;
所述基于对应的不同所述背面轮廓关键点之间的关联关系,确定所述至少一帧所述背面深度数据中所述人体的躯干前屈信息,包括:
对于单帧所述背面深度数据,获取其中的所述椎骨最凸点与所述骶髂点之间的向量,以及获取所述后颈点与所述骶髂点之间的向量;
将所述椎骨最凸点与所述骶髂点之间的向量和所述后颈点与所述骶髂点之间的向量,作为躯干上胸段前屈相关的两个向量;
将所述躯干上胸段前屈相关的两个向量映射到所述人体的侧面;
将经映射的所述躯干上胸段前屈相关的两个向量之间的夹角,作为所述躯干上胸段前屈信息。
7.根据权利要求3所述的方法,其特征在于,所述背面轮廓关键点包括椎骨最凸点、骶髂点和后颈点,所述躯干前屈信息包括椎骨凸度;
所述基于对应的不同所述背面轮廓关键点之间的关联关系,确定所述至少一帧所述背面深度数据中所述人体的躯干前屈信息,包括:
对于单帧所述背面深度数据,获取其中的所述后颈点与所述骶髂点之间的向量;
计算所述椎骨最凸点到所述骶髂点与所述后颈点之间的向量的距离,作为所述椎骨凸度。
8.根据权利要求3所述的方法,其特征在于,所述背面轮廓关键点包括后颈点、骶髂点、外踝点和椎骨最凸点;
所述获取至少一帧所述背面深度数据中所述人体的背面轮廓关键点,包括:
对于单帧所述背面深度数据,获取其中的颈部中心点、髋部中心点、踝部中心点;
将所述颈部中心点转换至人体背面体表,得到所述后颈点;以及
将所述髋部中心点转换到人体背面体表,得到所述骶髂点;以及
将所述踝部中心点作为所述外踝点;以及
基于所述颈部中心点和所述髋部中心点确定所述椎骨最凸点。
9.根据权利要求8所述的方法,其特征在于,基于所述颈部中心点和所述髋部中心点确定所述椎骨最凸点,包括:
确定所述后颈点与所述骶髂点之间的脊椎连线;
获取所述脊椎连线上的采样点的像素坐标对应的深度值;
基于所述采样点的像素坐标和深度值,将所述采样点转换至世界坐标系,以形成脊椎曲线;
选择所述脊椎曲线上与所述脊椎连线距离最远的采样点,作为所述椎骨最凸点。
10.根据权利要求9所述的方法,其特征在于,所述采样点的像素坐标包括水平坐标和垂直坐标,所述获取所述脊椎连线上的采样点的像素坐标对应的深度值,包括:
对于单个所述采样点,若所述水平坐标和所述垂直坐标为浮点数,则对所述水平坐标和所述垂直坐标取整,并确定经取整的水平坐标和垂直坐标对应的所述深度值。
11.根据权利要求1所述的方法,其特征在于,所述第二类型弯曲信息包括头部弯曲信息,所述头部弯曲信息包括头部侧倾信息和头部前屈信息,所述骨架关键点包括头部中心点和颈部中心点;
所述基于对应的不同所述骨架关键点之间的关联关系,确定所述至少一帧目标深度数据中所述人体的弯曲信息,包括:
获取所述头部中心点与所述颈部中心点之间的向量;
分别将所述头部中心点与所述颈部中心点之间的向量映射到所述人体的侧面和正面;
将映射到侧面的所述头部中心点与所述颈部中心点之间的向量和地面法向量之间的夹角,作为所述头部前屈信息;以及
将映射到正面的所述头部中心点与所述颈部中心点之间的向量和地面法向量之间的夹角,作为所述头部侧倾信息。
12.根据权利要求1所述的方法,其特征在于,所述第二类型弯曲信息包括躯干侧倾信息,所述骨架关键点包括颈部中心点和髋部中心点;
所述基于对应的不同所述骨架关键点之间的关联关系,确定所述至少一帧目标深度数据中所述人体的弯曲信息,包括:
获取所述颈部中心点与所述髋部中心点之间的向量;
将所述颈部中心点与所述髋部中心点之间的向量映射到所述人体的正面;
将经映射的所述颈部中心点和所述髋部中心点之间的向量和地面法向量之间的夹角,作为所述躯干侧倾信息。
13.一种电子设备,其特征在于,包括处理器、与所述处理器连接的存储器,其中,
所述存储器存储有程序指令;
所述处理器用于执行所述存储器存储的所述程序指令以实现权利要求1-12中任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述存储介质存储程序指令,所述程序指令被执行时实现如权利要求1-12中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111230357.5A CN113673492B (zh) | 2021-10-22 | 2021-10-22 | 人体姿态评估方法、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111230357.5A CN113673492B (zh) | 2021-10-22 | 2021-10-22 | 人体姿态评估方法、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113673492A CN113673492A (zh) | 2021-11-19 |
CN113673492B true CN113673492B (zh) | 2022-03-11 |
Family
ID=78550842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111230357.5A Active CN113673492B (zh) | 2021-10-22 | 2021-10-22 | 人体姿态评估方法、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113673492B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI824650B (zh) * | 2022-08-05 | 2023-12-01 | 大可特股份有限公司 | 體態檢測系統及體態檢測方法 |
CN116310083B (zh) * | 2023-02-03 | 2023-11-14 | 杭州百世伽信息科技有限公司 | 人体姿态深度图像的生成方法与人体姿态识别系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392086A (zh) * | 2017-05-26 | 2017-11-24 | 深圳奥比中光科技有限公司 | 人体姿态的评估装置、系统及存储装置 |
CN111814772A (zh) * | 2020-09-07 | 2020-10-23 | 科大讯飞(苏州)科技有限公司 | 人体姿态评估方法、装置、电子设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105118236B (zh) * | 2015-09-25 | 2018-08-28 | 广东乐源数字技术有限公司 | 瘫倒监测和预防装置及其处理方法 |
-
2021
- 2021-10-22 CN CN202111230357.5A patent/CN113673492B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107392086A (zh) * | 2017-05-26 | 2017-11-24 | 深圳奥比中光科技有限公司 | 人体姿态的评估装置、系统及存储装置 |
CN111814772A (zh) * | 2020-09-07 | 2020-10-23 | 科大讯飞(苏州)科技有限公司 | 人体姿态评估方法、装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113673492A (zh) | 2021-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110495889B (zh) | 体态评估方法、电子装置、计算机设备及存储介质 | |
CN113673492B (zh) | 人体姿态评估方法、电子设备及存储介质 | |
US20230206448A1 (en) | Method And Apparatus For Determining Volumetric Data Of A Predetermined Anatomical Feature | |
US7899220B2 (en) | Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies | |
Gilles et al. | Musculoskeletal MRI segmentation using multi-resolution simplex meshes with medial representations | |
US20170330375A1 (en) | Data Processing Method and Apparatus | |
JP5797352B1 (ja) | 3次元物体を追跡するための方法 | |
Gu et al. | Markerless gait analysis based on a single RGB camera | |
CN104851123B (zh) | 一种三维人脸变化模拟方法 | |
US11954860B2 (en) | Image matching method and device, and storage medium | |
JP6191943B2 (ja) | 視線方向推定装置、視線方向推定装置および視線方向推定プログラム | |
JP4936491B2 (ja) | 視線方向の推定装置、視線方向の推定方法およびコンピュータに当該視線方向の推定方法を実行させるためのプログラム | |
JP2019096113A (ja) | キーポイントデータに関する加工装置、方法及びプログラム | |
Goffredo et al. | Markerless human motion analysis in Gauss–Laguerre transform domain: An application to sit-to-stand in young and elderly people | |
US10699480B2 (en) | System and method for providing reconstruction of human surfaces from orientation data | |
CN112232128B (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
KR20230078777A (ko) | 3차원 재구성 방법, 장치와 시스템, 매체 및 컴퓨터 기기 | |
Reyes et al. | Automatic digital biometry analysis based on depth maps | |
CN111881888A (zh) | 基于姿态识别的智能桌控制方法及装置 | |
Chen et al. | Measurement of body joint angles for physical therapy based on mean shift tracking using two low cost Kinect images | |
Nicolau et al. | Accuracy of a 3D temporal scanning system for gait analysis: comparative with a marker-based photogrammetry system | |
Assi et al. | Statistical model based 3D shape prediction of postoperative trunks for non-invasive scoliosis surgery planning | |
Bauer et al. | Anatomical mirroring: Real-time user-specific anatomy in motion using a commodity depth camera | |
Otsuka et al. | Joint position registration between OpenPose and motion analysis for rehabilitation | |
Groisser et al. | 3D Reconstruction of Scoliotic Spines from Stereoradiography and Depth Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |