CN114387680B - 评估信息的生成方法、装置、电子设备及介质 - Google Patents

评估信息的生成方法、装置、电子设备及介质 Download PDF

Info

Publication number
CN114387680B
CN114387680B CN202210291728.9A CN202210291728A CN114387680B CN 114387680 B CN114387680 B CN 114387680B CN 202210291728 A CN202210291728 A CN 202210291728A CN 114387680 B CN114387680 B CN 114387680B
Authority
CN
China
Prior art keywords
body frame
frame image
information
image
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210291728.9A
Other languages
English (en)
Other versions
CN114387680A (zh
Inventor
林伟辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Hongchengyun Big Data Co ltd
Original Assignee
Guangdong Hongchengyun Big Data Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Hongchengyun Big Data Co ltd filed Critical Guangdong Hongchengyun Big Data Co ltd
Priority to CN202210291728.9A priority Critical patent/CN114387680B/zh
Publication of CN114387680A publication Critical patent/CN114387680A/zh
Application granted granted Critical
Publication of CN114387680B publication Critical patent/CN114387680B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种评估信息的生成方法、装置、电子设备及介质。该方法在通过训练好的人脸特征模型,确定出待处理图像中待监测儿童的人脸框信息对应的各人脸框图像的待监测儿童的身份信息,从而获取各人体框图像对应的待监测儿童的身份信息;在确定各人体框图像对应的至少一个群人体框图像后,将至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;基于各群人体框图像对应的标签激活热力图和相应人体框图像,确定群人体框图像的标签信息对应的目标待监测儿童的身份信息,从而生成待监测儿童成长过程的评估信息。该方法节省了获取评估信息的时间,提高了评估信息的获取效率和准确性。

Description

评估信息的生成方法、装置、电子设备及介质
技术领域
本申请涉及图像处理技术领域,具体而言,涉及一种评估信息的生成方法、装置、电子设备及介质。
背景技术
对于评估儿童成长过程需要记录各儿童成长过程中的成长过程性图像作为评估信息,将评估佐证提供至评估系统后,评估系统会输出儿童成长过程性的评估结果。其中,目前获取评估佐证的方式需要人工观察、整理采集的各儿童的成长过程性图像,不仅耗费了大量时间,且效率低下,易出错。
发明内容
本申请实施例的目的在于提供一种评估信息的生成方法、装置、电子设备及介质,用以解决了现有技术存在的上述问题,节省了获取评估信息的时间,且提高了评估信息的获取效率和准确性。
第一方面,提供了一种评估信息的生成方法,该方法可以包括:
将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
在一个可选的实现中,基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息,包括:
基于预设的二分类图像匹配算法,对所述各人脸框图像和所述各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像;
将所述各人脸框图像对应的待监测儿童的身份信息,确定为匹配的人体框图像对应的待监测儿童的身份信息。
在一个可选的实现中,所述预设的二分类图像匹配算法为匈牙利算法或KM算法;
基于预设的二分类图像匹配算法,对所述各人脸框图像和所述各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像,包括:
基于各人脸框图像和各人体框图像,构建二分类图;
在所述二分类图中,若任一人脸框图像与任一人体框图像的重叠面积与该人脸框图像所占面积的比值大于预设关联阈值,则确定该人脸框图像与该人体框图像存在关联关系;
基于匈牙利算法或KM算法,对存在关联关系的各人脸框图像和各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像。
在一个可选的实现中,确定所述各人体框图像对应的至少一个群人体框图像,包括:
对所述各人体框图像中各完整人体框图像的各边界向外移动预设延伸阈值后,确定边界延伸后的完整人体框图像组成的至少一个外接矩形框;所述外接矩形框内包括区域相交的至少一个边界延伸后的完整人体框图像;
在所述至少一个外接矩形框对应的区域面积中,将满足预设删除条件的区域面积对应的外接矩形框删除,得到至少一个目标外接矩形框;
将每个目标外接矩形框内的图像确定为一个群人体框图像。
在一个可选的实现中,在所述至少一个外接矩形框对应的矩形面积中,将满足预设删除条件的矩形面积对应的外接矩形框删除,得到至少一个目标外接矩形框,包括:
获取各外接矩形框对应的区域面积;
若存在区域面积与所述至少一个外接矩形框的总区域面积的比值不大于预设系数,则删除该区域面积对应的外接矩形框,得到至少一个目标外接矩形框。
在一个可选的实现中,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息,包括:
基于最大类间方差算法,对所述群人体框图像对应的标签激活热力图进行二值化处理,得到标签掩码图;
计算所述标签掩码图和各人体框图像的相交区域的区域面积,与该人体框图像所占区域面积的比值;
若所述比值大于预设比例阈值,则确定所述标签信息对应的主要参与对象的身份信息为该人体框图像对应的待监测儿童的身份信息。
在一个可选的实现中,基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息,包括:
根据预设的行为标签与评估类别的映射表,将所述行为标签映射为评估类别;
基于所述评估类别、所述图像采集时间和相应目标待监测儿童的身份信息,对所述待处理图像进行分类,得到每个待监测儿童成长过程的评估信息。
第二方面,提供了一种评估信息的生成装置,该装置可以包括:
确定单元,用于将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
以及,基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
获取单元,用于基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
所述确定单元,还用于确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
所述获取单元,还用于将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
所述确定单元,还用于针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
生成单元,用于基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
在一个可选的实现中,所述获取单元,具体用于:
基于预设的二分类图像匹配算法,对所述各人脸框图像和所述各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像;
将所述各人脸框图像对应的待监测儿童的身份信息,确定为匹配的人体框图像对应的待监测儿童的身份信息。
在一个可选的实现中,所述预设的二分类图像匹配算法为匈牙利算法或KM算法;所述获取单元,还具体用于:
基于各人脸框图像和各人体框图像,构建二分类图;
在所述二分类图中,若任一人脸框图像与任一人体框图像的重叠面积与该人脸框图像所占面积的比值大于预设关联阈值,则确定该人脸框图像与该人体框图像存在关联关系;
基于匈牙利算法或KM算法,对存在关联关系的各人脸框图像和各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像。
在一个可选的实现中,所述确定单元,具体用于:
对所述各人体框图像中各完整人体框图像的各边界向外移动预设延伸阈值后,确定边界延伸后的完整人体框图像组成的至少一个外接矩形框;所述外接矩形框内包括区域相交的至少一个边界延伸后的完整人体框图像;
在所述至少一个外接矩形框对应的区域面积中,将满足预设删除条件的区域面积对应的外接矩形框删除,得到至少一个目标外接矩形框;
将每个目标外接矩形框内的图像确定为一个群人体框图像。
在一个可选的实现中,所述确定单元,还具体用于:
获取各外接矩形框对应的区域面积;
若存在区域面积与所述至少一个外接矩形框的总区域面积的比值不大于预设系数,则删除该区域面积对应的外接矩形框,得到至少一个目标外接矩形框。
在一个可选的实现中,所述确定单元,还具体用于:
基于最大类间方差算法,对所述群人体框图像对应的标签激活热力图进行二值化处理,得到标签掩码图;
计算所述标签掩码图和各人体框图像的相交区域的区域面积,与该人体框图像所占区域面积的比值;
若所述比值大于预设比例阈值,则确定所述标签信息对应的主要参与对象的身份信息为该人体框图像对应的待监测儿童的身份信息。
在一个可选的实现中,所述生成单元,具体用于:
根据预设的行为标签与评估类别的映射表,将所述行为标签映射为评估类别;
基于所述评估类别、所述图像采集时间和相应目标待监测儿童的身份信息,对所述待处理图像进行分类,得到每个待监测儿童成长过程的评估信息。
第三方面,提供了一种电子设备,该电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现上述第一方面中任一所述的方法步骤。
第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面中任一所述的方法步骤。
本申请提供的评估信息的生成方法,在通过训练好的人脸特征模型,确定出待处理图像中待监测儿童的人脸框信息对应的各人脸框图像对应的待监测儿童的身份信息,待处理图像包括待监测儿童的人脸框信息和人体框信息,从而获取各人体框图像对应的待监测儿童的身份信息;在确定各人体框图像对应的至少一个群人体框图像后,群人体框图像是各人体框图像中满足预设筛选条件的至少一个人体框的集合图像,将至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;标签信息为多标签分场景类模型的输出层输出的待监测儿童的行为标签、行为对象标签和场景标签;标签激活热力图为多标签分场景类模型的第4阶段卷积层输出的热力图;针对各群人体框图像,基于该群人体框图像对应的标签激活热力图和相应人体框图像,确定群人体框图像的标签信息对应的目标待监测儿童的身份信息,从而生成待监测儿童成长过程的评估信息。该方法不需要对采集的待处理图像进行人工整理来得到待监测儿童的评估信息,节省了获取评估信息的时间,提高了评估信息的获取效率和准确性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例提供的一种评估信息的生成方法的流程示意图;
图2为本申请实施例提供的一种待处理图像的示意图;
图3为本申请实施例提供的一种评估信息的生成装置的结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,并不是全部的实施例。基于本申请实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供的评估信息的生成方法可以应用在服务器上,也可以应用在终端上。其中,服务器是应用服务器或云服务器;终端可以是具有较强计算能力的移动电话、智能电话、笔记本电脑、数字广播接收器、个人数字助理(PDA)、平板电脑(PAD)等用户设备(User Equipment,UE)、手持设备、车载设备、可穿戴设备、计算设备或连接到无线调制解调器的其它处理设备、移动台(Mobile station,MS)、移动终端(Mobile Terminal)等。该终端具备经无线接入网(Radio Access Network,RAN)与一个或多个核心网进行通信的能力。
以下结合说明书附图对本申请的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本申请,并不用于限定本申请,并且在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
图1为本申请实施例提供的一种评估信息的生成方法的流程示意图。如图1所示,该方法可以包括:
步骤S110、将采集的包含待监测儿童的成长过程性图像确定为待处理图像。
在执行该步骤之前,可以根据待监测儿童的身份信息,如身份ID,为待监测儿童设立人脸模板,该人脸模板偏航角yaw<20°,俯仰角pitch<20°,清晰度sharp>200,其中sharp=Laplacian(gray_image).var(),其中,Laplacian()表示拉普拉斯运算,gray_image表示灰度图像数据。观察者或教育工作者,如幼师可以通过手机设备,基于设立的人脸模板,采集待监测儿童的成长过程性图像,或者基于设立的人脸模板,通过固定的摄像头采集待监测儿童的成长过程性图像。该成长过程性图像的数量可以是至少一个。若数量为多个,则可将多个成长过程性图像理解为是一段视频中连续的帧图像。
将采集的包含待监测儿童的成长过程性图像确定为待处理图像。
其中,对待处理图像进行目标检测,如采用YOLOv5,可得到待处理图像中监测儿童的人体框信息,人体框信息可以包括人体框图像的数量、各人体框图像的尺寸、各人体框图像的人体特征、各人体框图像在该待处理图像中的位置以及各人体框图像在该待处理图像中所占的面积等。以及,对待处理图像进行人脸检测,如采用RetinaFace,可得到待处理图像中监测儿童的人脸框信息,人脸框信息可以包括人脸框图像的数量、各人脸框图像的尺寸、各人脸框图像的人脸特征、各人脸框图像在该待处理图像中的位置以及各人脸框图像在该待处理图像中所占的面积等。
步骤S120、基于训练好的人脸特征模型和人脸框信息中的人脸特征,确定人脸框信息中各人脸框图像对应的待监测儿童的身份信息。
在执行该步骤之前,通过历史采集的大规模待监测儿童的带标注的人脸特征数据集对卷积神经网络进行训练,得到训练好的人脸特征模型,该卷积神经网络的主干网络(Backbone)采用SE-ResNet-101,且损失函数(loss)采用CosFace Loss。
将人脸框信息中各人脸框图像的人脸特征,输入训练好的人脸特征模型,可得到各人脸框图像对应的待监测儿童的身份信息,也就是说,此时得到了待处理图像中各人脸框图像对应的待监测儿童的身份信息。
步骤S130、基于各人脸框图像对应的待监测儿童的身份信息,对各人脸框图像和人体框信息中的各人体框图像进行处理,获取各人体框图像对应的待监测儿童的身份信息。
具体实施中,基于预设的二分类图像匹配算法,对各人脸框图像和各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像。
在一个实施例中,预设的二分类图像匹配算法为匈牙利算法或KM算法;
基于各人脸框图像和各人体框图像,构建二分类图;
在二分类图中,若任一人脸框图像与任一人体框图像的重叠面积与该人脸框图像所占面积的比值大于预设关联阈值,则确定该人脸框图像与该人体框图像存在关联关系;基于匈牙利算法或KM算法,对存在关联关系的各人脸框图像和各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像。
具体的,(1)建立二分类图,设X为人脸框图像集合,Y为人体框图像集合。
(2)记录X_i与Y_j重叠区域为XY_ij,X_i为第i个人脸框图像,Y_j为第j个人体框图像。之后,计算XY_ij面积与X_i面积之比S_ij;若S_ij>0.5,则第i个人脸框图像与第j个人体框图像之间联通。其中,0.5为经验值。
在采用重叠区域的面积大小作为是否联通的判断之前,需要得到第i个人脸框图像与第j个人体框图像的边权重,将边权重大小作为联通可能性大小的得分。第i个人脸框图像与第j个人体框图像的边权重为X_i中心点与Y_j中心点的棋盘距离的倒数,即1/(|X_i.center.x-Y_j.center.x|+|X_i.center.y-Y_j.center.y|),其中|*|为绝对值;X_i.center.x为X_i人脸框图像中心点的x坐标,Y_j.center.x为Y_j人体框图像中心点的x坐标,X_i.center.y为X_i人脸框图像中心点的y坐标,Y_j.center.y为Y_j人体框图像中心点的y坐标。由于边权重越大,匹配的可能性越高,故取棋盘距离的倒数。
(3)利用匈牙利算法或KM算法,求解X与Y的匹配问题,即得到与各人脸框图像匹配的人体框图像,由于匈牙利算法或KM算法的求解过程属于现有技术,故本申请实施例在此不做赘述。
之后,将各人脸框图像对应的待监测儿童的身份信息,确定为与之匹配的人体框图像对应的待监测儿童的身份信息,也就是说,此时得到了待处理图像中各人体框图像对应的待监测儿童的身份信息。
由于对儿童成长过程的评估,需要知道各待监测儿童的身份和相应的行为信息,上述实施例通过步骤S120-步骤S130通过识别出的人脸和人体进行匹配,可准确的确定出待处理图像中各待监测儿童的身份信息。
步骤S140、确定各人体框图像对应的至少一个群人体框图像。
其中,群人体框图像是各人体框图像中满足预设筛选条件的至少一个人体框的集合图像。
在确认了待监测儿童的身份信息后,可以将待处理图像中各待监测儿童的人体框图像进行分群,为了排除背景干扰,需要从待处理图像中识别出显著的待监测儿童群体,非显著的待监测儿童群体往往是不完整的人体框图像和不清晰的人体框图像,如待处理图像边缘出现的不完整人体框图像和区域面积较小的人体框图像,由于非显著的待监测儿童群体的不完整性和不清晰性,导致在评估中无法作为佐证,故需要剔除。
具体实施中,对各人体框图像进行人体框完整度的筛选,筛选出包含完整人体框的人体框图像,确定为完整人体框图像。
之后,为了准确的对人体框图像进行分群,可以对各人体框图像中各完整人体框图像的各边界向外移动预设延伸阈值;查看边界延伸后的不同完整人体框图像的区域相交情况,即图像相交的区域。
将区域相交的至少一个完整人体框图像,确定边界延伸后的完整人体框图像组成的至少一个外接矩形框,外接矩形框内包括区域相交的至少一个边界延伸后的完整人体框图像。如图2所示,外接矩形框1包括三个边界延伸后的完整人体框图像:人体框图像A、人体框图像B和人体框图像C,外接矩形框2包括两个边界延伸后的完整人体框图像:人体框图像D和人体框图像E。
在至少一个外接矩形框对应的区域面积中,将满足预设删除条件的区域面积对应的外接矩形框删除,得到至少一个目标外接矩形框;具体的,获取各外接矩形框对应的区域面积;
若存在区域面积与至少一个外接矩形框的总区域面积的比值不大于预设系数,则删除该区域面积对应的外接矩形框,得到至少一个目标外接矩形框,从而将每个目标外接矩形框内的图像确定为一个群人体框图像。
例如,记area为外接矩形框的区域面积,结合图2,外接矩形框A的区域面积和外接矩形框B的总区域面积为S_area。如果外接矩形框A的区域面积area与总区域面积为S_area不大于0.2,则确定外接矩形框A表征非显著的待监测儿童群体,其中,0.2为基于实际需求设置的值。
在一个实施方式中,对于获取显著的待监测儿童群体还可以采用如下方式:
采用显著目标检测算法,如U^2Net,对待处理图像进行检测,得到显著性掩码图;
基于最大类间方差算法,对显著性掩码图进行二值化处理,得到二值化掩码图;
计算二值化掩码图与该外接矩形框的交集面积SalientArea_i;
若交集面积SalientArea_i与该外接矩形框所占的区域面积的比值不大于预设检测系数,如0.5,则确定该外接矩形框表征非显著的待监测儿童群体。预设检测系数不小于预设系数,其中预设检测系数可基于实际需求进行设置。
可见,上述实施例是在确认了待监测儿童的身份信息后,将待处理图像中各待监测儿童的人体框图像进行分群,以一个群体表征的待监测儿童的行为信息,即初步认为一个群体内各待监测儿童有相同的行为信息。
步骤S150、将至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图。
其中,多标签分场景类模型是通过对标注了行为标签、行为对象标签和场景标签的图像,对卷积神经网络进行训练得到的,卷积神经网络的主干网络(Backbone)采用ResNet-50,损失函数(loss)采用Focal Loss,为了尽可能使标签激活热力图的边缘完整清晰,提高标签激活热力图的准确性,训练过程中采用了CutOut或CutMix图像增广方法。
具体实施中,将至少一个群人体框图像输入多标签分场景类模型,可得到多标签分场景类模型的输出层输出的标签信息,其包括待监测儿童的行为标签、行为对象标签和场景标签,以及多标签分场景类模型的第4阶段卷积层输出的标签激活热力图。
可以理解的是,标签信息可以是待监测儿童涉及的与教学相关的信息,也可以是待监测儿童涉及的与教学无关的活动,如绘画课上,某一待监测儿童的画纸、绘画动作和教学场景,或自由活动器件,某一待监测儿童涉及的三轮车、骑车动作和操场场景。
需要说明的是,步骤S130的具体实施过程可在步骤S120之后和步骤S160之前的任意时间执行,本申请对此不做限定。
步骤S160、针对各群人体框图像,基于群人体框图像对应的标签激活热力图和相应人体框图像,确定群人体框图像的标签信息对应的目标待监测儿童的身份信息。
具体实施中,针对各群人体框图像,基于最大类间方差算法,对群人体框图像对应的标签激活热力图进行二值化处理,得到标签掩码图;
计算标签掩码图和各人体框图像的相交区域的区域面积,与该人体框图像所占区域面积的比值;
若比值大于预设比例阈值,则确定标签信息对应的主要参与对象的身份信息为该人体框图像对应的待监测儿童的身份信息。
该实施例在已知某一群人体框图像的标签信息后,通过标签掩码图与各人体框图像的面积占比可识别出该群人体框图像的标签信息主要是指该群人体框图像中哪个人体框图像对应的待监测儿童,即该标签信息主要的参与对象是谁,也就是确定出该主要参与对象的行为信息。
步骤S170、基于各群人体框图像的标签信息、标签信息对应的目标待监测儿童的身份信息、待处理图像和相应的图像采集时间,生成待监测儿童成长过程的评估信息。
具体实施中,根据预设的行为标签与评估类别的映射表,将行为标签映射为评估类别。例如,可根据《3~6岁儿童学习与发展指南》构建预设的行为标签与评估类别的映射表,从而可以将走平衡木的行为、玩荡桥的行为、玩秋千的行为和玩转椅的行为均映射为平衡机能;将绘画的行为和唱歌的行为均映射为艺术机能,从而构建行为标签与评估类别的映射表等。
基于评估类别、图像采集时间和相应目标待监测儿童的身份信息,对待处理图像进行分类,得到每个待监测儿童成长过程的评估信息。其中,图像采集时间可以从可交换图像文件格式exif中的拍摄时间DateTimeOriginal字段中获取相应字段值。
之后,可依据评估需求,在评估时间段内为每个待监测儿童生成每个评估类别对应的一组成长过程性图像集作为评估佐证。
可选的,观察者或教育工作者可以自定义评估时间段,为特定的待监测儿童和评估类别,生成特定评估图像集。
与上述方法对应的,本申请实施例还提供一种评估信息的生成装置,如图3所示,该评估信息的生成装置包括:确定单元310、获取单元320和生成单元330。
确定单元310,用于将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
以及,基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
获取单元320,用于基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
确定单元310,还用于确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
获取单元320,还用于将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
确定单元310,还用于针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
生成单元330,用于基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
本申请上述实施例提供的评估信息的生成装置的各功能单元的功能,可以通过上述各方法步骤来实现,因此,本申请实施例提供的评估信息的生成装置中的各个单元的具体工作过程和有益效果,在此不复赘述。
本申请实施例还提供了一种电子设备,如图4所示,包括处理器410、通信接口420、存储器430和通信总线440,其中,处理器410,通信接口420,存储器430通过通信总线440完成相互间的通信。
存储器430,用于存放计算机程序;
处理器410,用于执行存储器430上所存放的程序时,实现如下步骤:
将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
上述提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于表示,图中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
由于上述实施例中电子设备的各器件解决问题的实施方式以及有益效果可以参见图1所示的实施例中的各步骤来实现,因此,本申请实施例提供的电子设备的具体工作过程和有益效果,在此不复赘述。
在本申请提供的又一实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的评估信息的生成方法。
在本申请提供的又一实施例中,还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述实施例中任一所述的评估信息的生成方法。
本领域内的技术人员应明白,本申请实施例中的实施例可提供为方法、系统、或计算机程序产品。因此,本申请实施例中可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例中可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例中是参照根据本申请实施例中实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例中的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例中范围的所有变更和修改。
显然,本领域的技术人员可以对本申请实施例中实施例进行各种改动和变型而不脱离本申请实施例中实施例的精神和范围。这样,倘若本申请实施例中实施例的这些修改和变型属于本申请实施例中权利要求及其等同技术的范围之内,则本申请实施例中也意图包含这些改动和变型在内。

Claims (10)

1.一种评估信息的生成方法,其特征在于,所述方法包括:
将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
2.如权利要求1所述的方法,其特征在于,基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息,包括:
基于预设的二分类图像匹配算法,对所述各人脸框图像和所述各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像;
将所述各人脸框图像对应的待监测儿童的身份信息,确定为匹配的人体框图像对应的待监测儿童的身份信息。
3.如权利要求2所述的方法,其特征在于,所述预设的二分类图像匹配算法为匈牙利算法或KM算法;
基于预设的二分类图像匹配算法,对所述各人脸框图像和所述各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像,包括:
基于各人脸框图像和各人体框图像,构建二分类图;
在所述二分类图中,若任一人脸框图像与任一人体框图像的重叠面积与该人脸框图像所占面积的比值大于预设关联阈值,则确定该人脸框图像与该人体框图像存在关联关系;
基于匈牙利算法或KM算法,对存在关联关系的各人脸框图像和各人体框图像进行匹配处理,得到与各人脸框图像匹配的人体框图像。
4.如权利要求1所述的方法,其特征在于,确定所述各人体框图像对应的至少一个群人体框图像,包括:
对所述各人体框图像中各完整人体框图像的各边界向外移动预设延伸阈值后,确定边界延伸后的完整人体框图像组成的至少一个外接矩形框;所述外接矩形框内包括区域相交的至少一个边界延伸后的完整人体框图像;
在所述至少一个外接矩形框对应的区域面积中,将满足预设删除条件的区域面积对应的外接矩形框删除,得到至少一个目标外接矩形框;
将每个目标外接矩形框内的图像确定为一个群人体框图像。
5.如权利要求4所述的方法,其特征在于,在所述至少一个外接矩形框对应的矩形面积中,将满足预设删除条件的矩形面积对应的外接矩形框删除,得到至少一个目标外接矩形框,包括:
获取各外接矩形框对应的区域面积;
若存在区域面积与所述至少一个外接矩形框的总区域面积的比值不大于预设系数,则删除该区域面积对应的外接矩形框,得到至少一个目标外接矩形框。
6.如权利要求1所述的方法,其特征在于,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息,包括:
基于最大类间方差算法,对所述群人体框图像对应的标签激活热力图进行二值化处理,得到标签掩码图;
计算所述标签掩码图和各人体框图像的相交区域的区域面积,与该人体框图像所占区域面积的比值;
若所述比值大于预设比例阈值,则确定所述标签信息对应的主要参与对象的身份信息为该人体框图像对应的待监测儿童的身份信息。
7.如权利要求1所述的方法,其特征在于,基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息,包括:
根据预设的行为标签与评估类别的映射表,将所述行为标签映射为评估类别;
基于所述评估类别、所述图像采集时间和相应目标待监测儿童的身份信息,对所述待处理图像进行分类,得到每个待监测儿童成长过程的评估信息。
8.一种评估信息的生成装置,其特征在于,所述装置包括:
确定单元,用于将采集的包含待监测儿童的成长过程性图像确定为待处理图像;所述待处理图像包括所述待监测儿童的人脸框信息和人体框信息;
以及,基于训练好的人脸特征模型和所述人脸框信息中的人脸特征,确定所述人脸框信息中各人脸框图像对应的待监测儿童的身份信息;
获取单元,用于基于所述各人脸框图像对应的待监测儿童的身份信息,对所述各人脸框图像和所述人体框信息中的各人体框图像进行处理,获取所述各人体框图像对应的待监测儿童的身份信息;
所述确定单元,还用于确定所述各人体框图像对应的至少一个群人体框图像,所述群人体框图像是所述各人体框图像中满足预设筛选条件的至少一个人体框的集合图像;
所述获取单元,还用于将所述至少一个群人体框图像输入多标签分场景类模型,得到各群人体框图像的标签信息和相应标签激活热力图;所述标签信息为所述多标签分场景类模型的输出层输出的所述待监测儿童的行为标签、行为对象标签和场景标签;所述标签激活热力图为所述多标签分场景类模型的第4阶段卷积层输出的热力图;
所述确定单元,还用于针对各群人体框图像,基于所述群人体框图像对应的标签激活热力图和相应人体框图像,确定所述群人体框图像的标签信息对应的目标待监测儿童的身份信息;
生成单元,用于基于所述各群人体框图像的标签信息、所述标签信息对应的目标待监测儿童的身份信息、所述待处理图像和相应的图像采集时间,生成所述待监测儿童成长过程的评估信息。
9.一种电子设备,其特征在于,所述电子设备包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存储的程序时,实现权利要求1-7任一所述的方法步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质内存储有计算机程序,所述计算机程序被处理器执行时实现权利要求1-7任一所述的方法步骤。
CN202210291728.9A 2022-03-24 2022-03-24 评估信息的生成方法、装置、电子设备及介质 Active CN114387680B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210291728.9A CN114387680B (zh) 2022-03-24 2022-03-24 评估信息的生成方法、装置、电子设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210291728.9A CN114387680B (zh) 2022-03-24 2022-03-24 评估信息的生成方法、装置、电子设备及介质

Publications (2)

Publication Number Publication Date
CN114387680A CN114387680A (zh) 2022-04-22
CN114387680B true CN114387680B (zh) 2022-05-27

Family

ID=81205877

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210291728.9A Active CN114387680B (zh) 2022-03-24 2022-03-24 评估信息的生成方法、装置、电子设备及介质

Country Status (1)

Country Link
CN (1) CN114387680B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875540A (zh) * 2018-03-12 2018-11-23 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质
CN111985374A (zh) * 2020-08-12 2020-11-24 汉王科技股份有限公司 人脸定位方法、装置、电子设备及存储介质
CN112215201A (zh) * 2020-10-28 2021-01-12 支付宝(杭州)信息技术有限公司 评估人脸识别模型、针对图像的分类模型的方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020024127A1 (zh) * 2018-08-01 2020-02-06 中国医药大学附设医院 骨龄评估与身高预测模型、其系统及其预测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875540A (zh) * 2018-03-12 2018-11-23 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质
CN111985374A (zh) * 2020-08-12 2020-11-24 汉王科技股份有限公司 人脸定位方法、装置、电子设备及存储介质
CN112215201A (zh) * 2020-10-28 2021-01-12 支付宝(杭州)信息技术有限公司 评估人脸识别模型、针对图像的分类模型的方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
汤一平等.非约束环境下人脸识别技术的研究.《浙江工业大学学报》.2010,第38卷(第02期),第155-161页. *

Also Published As

Publication number Publication date
CN114387680A (zh) 2022-04-22

Similar Documents

Publication Publication Date Title
CN109508688B (zh) 基于骨架的行为检测方法、终端设备及计算机存储介质
CN109359539B (zh) 注意力评估方法、装置、终端设备及计算机可读存储介质
CN109934065B (zh) 一种用于手势识别的方法和装置
CN107993191A (zh) 一种图像处理方法和装置
CN110781770B (zh) 基于人脸识别的活体检测方法、装置及设备
CN109559362B (zh) 一种图像主体脸部替换方法及装置
CN110287862B (zh) 基于深度学习的防偷拍检测方法
CN110097616B (zh) 一种联合绘画方法、装置、终端设备及可读存储介质
CN111860078B (zh) 人脸静默活体检测方法、装置、可读存储介质及设备
CN111161265A (zh) 一种动物计数、图像处理方法和装置
CN113160231A (zh) 一种样本生成方法、样本生成装置及电子设备
CN113850136A (zh) 基于yolov5与BCNN的车辆朝向识别方法及系统
WO2021103474A1 (zh) 图像的处理方法和装置、存储介质及电子装置
CN115620398A (zh) 一种目标动作检测方法及装置
CN110610131B (zh) 人脸运动单元的检测方法、装置、电子设备及存储介质
WO2021042544A1 (zh) 基于去网纹模型的人脸验证方法、装置、计算机设备及存储介质
CN111178153A (zh) 一种交通标志检测方法及系统
CN114387680B (zh) 评估信息的生成方法、装置、电子设备及介质
CN111967406A (zh) 人体关键点检测模型生成方法、系统、设备和存储介质
WO2020244076A1 (zh) 人脸识别方法、装置、电子设备及存储介质
CN111104965A (zh) 车辆目标识别的方法及装置
CN105469116A (zh) 一种基于人机交互的幼儿识图及数据扩充方法
CN111461971B (zh) 图像处理方法、装置、设备及计算机可读存储介质
CN109993816B (zh) 联合绘画方法、装置、终端设置及计算机可读存储介质
CN110969657A (zh) 一种枪球坐标关联方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant