CN115083020B - 信息生成方法、装置、电子设备和计算机可读介质 - Google Patents

信息生成方法、装置、电子设备和计算机可读介质 Download PDF

Info

Publication number
CN115083020B
CN115083020B CN202210859815.XA CN202210859815A CN115083020B CN 115083020 B CN115083020 B CN 115083020B CN 202210859815 A CN202210859815 A CN 202210859815A CN 115083020 B CN115083020 B CN 115083020B
Authority
CN
China
Prior art keywords
information
detection
candidate
corner
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210859815.XA
Other languages
English (en)
Other versions
CN115083020A (zh
Inventor
刘忠平
李浩浩
姚晓艳
王攀登
王红梅
王海鹏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Haiyi Technology Beijing Co ltd
Original Assignee
Haiyi Technology Beijing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Haiyi Technology Beijing Co ltd filed Critical Haiyi Technology Beijing Co ltd
Priority to CN202210859815.XA priority Critical patent/CN115083020B/zh
Publication of CN115083020A publication Critical patent/CN115083020A/zh
Application granted granted Critical
Publication of CN115083020B publication Critical patent/CN115083020B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了信息生成方法、装置、电子设备和计算机可读介质。该方法的一具体实施方式包括:获取目标图像集合;对目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合;对于检测信息集合中的每个检测信息,对检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合;根据动作信息集合,生成针对目标对象的动作评价信息。该实施方式保证了生成的动作评价信息的准确度和生成效率。

Description

信息生成方法、装置、电子设备和计算机可读介质
技术领域
本公开的实施例涉及计算机技术领域,具体涉及信息生成方法、装置、电子设备和计算机可读介质。
背景技术
动作评价是指将采集得到的待检测对象的动作与标准动作进行比较,以生成针对待检测对象的动作评价信息的一种技术。目前,在进行动作评价时,通常采用的方式为:通过人工的方式对待检测对象的动作进行评价。
然而,当采用上述方式时,经常会存在如下技术问题:
第一,通过人工的方式对待检测对象的动作进行评价,较为依赖评价人员的经验,主观性较强,会导致生成的评价信息不够精准;
第二,当需要对大量的待检测对象进行动作评价时,评价信息的生成效率较低。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了信息生成方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种信息生成方法,该方法包括:获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息;对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度;根据上述动作信息集合,生成针对上述目标对象的动作评价信息。
第二方面,本公开的一些实施例提供了一种信息生成装置,装置包括:获取单元,被配置成获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;目标检测单元,被配置成对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息;关键点检测单元,被配置成对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;第一生成单元,被配置成根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度;第二生成单元,被配置成根据上述动作信息集合,生成针对上述目标对象的动作评价信息。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的信息生成方法提高了生成的动作评价信息的准确度,以及提高了动作评价信息的生成效率。造成生成的动作评价信息的准确度较低,以及动作评价信息的生成效率较低的原因在于:第一,通过人工的方式对待检测对象的动作进行评价,较为依赖评价人员的经验,主观性较强,会导致生成的评价信息不够精准;第二,当需要对大量的待检测对象进行动作评价时,评价信息的生成效率较低。基于此,本公开的信息生成方法,首先,获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像。实际情况中,当需要对待检测对象进行动作评价时,待检测对象往往是在预先划定的区域内执行动作,因此,需要对目标区域进行图像采集。接着,对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息。通过目标检测,以此确定图像中包含的待检测对象。接着,对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。通过生成关键点检测信息,以此确定待检测对象的姿态。接着,根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度。通过生成动作信息,以此量化待检测对象的动作规范度。最后,根据上述动作信息集合,生成针对上述目标对象的动作评价信息。通过此种方式提高了生成的动作评价信息的客观性,保证了生成的动作评价信息的准确度和生成效率。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是根据本公开的信息生成方法的一些实施例的流程图;
图2是姿态检测模型的模型结构的示意图;
图3是根据本公开的信息生成装置的一些实施例的结构示意图;
图4是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
参考图1,示出了根据本公开的信息生成方法的一些实施例的流程100。该信息生成方法,包括以下步骤:
步骤101,获取目标图像集合。
在一些实施例中,信息生成方法的执行主体(例如,计算设备)可以通过有线连接或无线连接的方式,获取目标图像集合。其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像。上述图像采集装置可以是摄像头。上述目标区域可以是待检测对象执行目标场景对应的动作时所在的区域。上述目标场景可以是需要进行动作评价的场景。例如,上述目标场景可以是:“引体向上检测场景”。上述目标场景对应的动作可以是“引体向上”。又如,上述目标场景可以是:“原地弓步跳检测场景”。上述目标场景对应的动作可以是“原地弓步跳”。上述待检测对象可以是待进行动作评价的对象。
需要说明的是,上述计算设备可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
可选地,在上述获取目标图像集合之前,上述方法还包括:
第一步,响应于读卡装置读取到目标对象的身份信息,控制上述图像采集装置针对上述目标区域进行图像采集,以生成候选图像集合。
其中,上述读卡装置可以是IC(Integrated Circuit Card,集成电路卡)卡读卡器。实践中,上述目标对象可以将IC卡放置至读卡装置上,以使得读卡装置读取上述目标对象对应的身份信息。上述候选图像集合可以是上述图像采集装置采集的图像。
作为示例,当读卡装置读取到上述目标对象的身份信息时,上述执行主体可以控制图像采集装置开启,并对目标区域进行图像采集。
第二步,对上述候选图像集合中的候选图像进行人脸检测,以生成人脸信息,得到人脸信息集合。
其中,上述执行主体可以通过人脸检测模型,对候选图像进行人脸检测,以生成人脸信息。例如,上述人脸检测模型可以是SSD(Single Shot MultiBox Detector)模型。
第三步,根据上述人脸信息集合,生成活体检测信息。
其中,活体检测信息表征候选图像包括的对象是否为活体。上述执行主体可以对人脸信息集合中的人脸信息进行特征比对,以此确定目标对象是否发生动作变化,当目标对象发生动作变化时,即认定目标对象为活体。
第四步,响应于确定上述活体检测信息表征候选图像包括的对象为活体,根据上述身份信息和上述人脸信息集合,生成身份校验信息。
其中,身份校验信息用于表征上述目标对象与上述人脸信息集合对应的对象是否一致。上述执行主体可以通过确定人脸信息集合对应的对象和上述目标对象之间的相似度,以生成上述身份校验信息。
可选地,上述执行主体可以响应于上述身份校验信息表征上述目标对象与上述人脸信息集合对应的对象一致,获取由上述图像采集装置采集的上述目标图像集合。
作为示例,上述身份校验信息可以是“对象匹配”。其中,“对象匹配”可以表征上述目标对象与上述人脸信息集合对应的对象一致。
步骤102,对目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合。
在一些实施例中,上述执行主体可以对目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合。其中,检测信息集合中的检测信息包括:检测框位置信息。检测框位置信息表征目标图像中待检测对象的位置。检测框位置信息表征框定目标图像中待检测对象的检测框。
作为示例,上述执行主体可以通过目标检测模型,对目标图像进行目标检测,以生成检测信息。例如,上述目标检测模型可以是但不限于以下任意一项:YOLO(You only LookOnce)模型,R-CNN(regions with CNN features,区域卷积神经网络)模型。
可选地,上述执行主体对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息可以包括以下步骤:
第一步,通过预先训练的姿态检测模型包括的对象检测网络包括的特征粗提取网络,对上述目标图像进行特征提取,以生成粗提取特征信息。
其中,上述姿态检测模型可以是用于确定目标图像中的目标对象的位置,以及确定目标对象的骨骼关键点的网络模型。对象检测网络可以是用于确定目标图像中的目标对象的位置的网络模型。特征粗提取网络可以是用于对目标图像进行特征粗提取的网络模型。粗提取特征信息可以是特征粗提取网络提取得到的图像特征。
第二步,通过上述对象检测网络包括的多尺度特征提取网络,对上述粗提取特征信息进行特征提取,以生成特征提取信息。
其中,特征提取信息是多尺度特征提取网络提取得到的细化图像特征。
第三步,根据上述特征提取信息,生成上述目标图像对应的检测信息。
其中,上述执行主体根据上述特征提取信息,生成上述目标图像对应的检测信息,可以包括以下子步骤:
第一子步骤,将上述特征提取信息输入上述对象检测网络包括的第一角点检测网络,以生成第一候选角点信息集合。
其中,上述第一角点检测网络可以是用于确定检测框的左下角角点的网络。上述第一候选角点信息集合中的第一候选角点信息包括:角点置信度和角点坐标。
第二子步骤,将上述特征提取信息输入上述对象检测网络包括的第二角点检测网络,以生成第二候选角点信息集合。
其中,上述第二角点检测网络可以是用于确定检测框的右上角角点的网络。上述第二候选角点信息集合中的第二候选角点信息包括:角点置信度和角点坐标。
第三子步骤,根据上述第一候选角点信息集合中的第一候选角点信息包括的角点置信度,对上述第一候选角点信息集合中的第一候选角点信息进行排序,以生成第一候选角点信息序列。
其中,上述执行主体可以根据角点置信度对上述第一候选角点信息集合中的第一候选角点信息进行降序排序,以生成第一候选角点信息序列。
第四子步骤,根据上述第二候选角点信息集合中的第二候选角点信息包括的角点置信度,对上述第二候选角点信息集合中的第二候选角点信息进行排序,以生成第二候选角点信息序列。
其中,上述执行主体可以根据角点置信度对上述第二候选角点信息集合中的第二候选角点信息进行降序排序,以生成第二候选角点信息序列。
第五子步骤,从第一目标位置开始,从上述第一候选角点信息序列选取目标数量个第一候选角点信息,得到第一候选角点信息组。
其中,上述第一目标位置可以是上述第一候选角点信息序列中正序第一个第一候选角点信息的位置。上述目标数量可以是人为设定的数值。上述第一目标数值小于等于第一候选角点信息序列中的第一候选角点信息的数量。
第六子步骤,从第二目标位置开始,从上述第二候选角点信息序列选取上述目标数量个第二候选角点信息,得到第二候选角点信息组。
其中,上述第二目标位置可以是上述第二候选角点信息序列中正序第二个第二候选角点信息的位置。上述目标数量可以是人为设定的数值。上述第二目标数值小于等于第二候选角点信息序列中的第二候选角点信息的数量。
第七子步骤,对于上述第一候选角点信息组中的每个第一候选角点信息,执行以下候选检测框信息生成步骤:
第一生成步骤,将上述第一候选角点信息包括的角点坐标,与上述第二候选角点信息组中的每个第二候选角点信息包括的角点坐标进行坐标比对。
第二生成步骤,响应于确定上述第一候选角点信息包括的角点坐标中的横坐标小于上述第二候选角点信息包括的角点坐标中的横坐标、且上述第一候选角点信息包括的角点坐标中的纵坐标小于上述第二候选角点信息包括的角点坐标中的纵坐标,根据上述第一候选角点信息和上述第二候选角点信息,生成候选检测框信息。
其中,上述执行主体可以将上述第一候选角点信息包括的角点坐标,作为候选检测框信息对应的检测框的左下角的角点。上述执行主体可以将上述第二候选角点信息包括的角点坐标,作为候选检测框信息对应的检测框的右上角的角点。
第三生成步骤,确定得到的候选检测框信息集合中的每个候选检测框信息对应的检测框置信度。
其中,上述执行主体可以通过置信度确定网络,确定候选检测框信息对应的检测框置信度。
第四生成步骤,从上述候选检测框信息集合中筛选出对应的检测框置信度满足筛选条件的候选检测框信息,作为目标检测框信息。
其中,上述筛选条件为:候选检测框信息对应的检测框置信度,为上述候选检测框信息集合中候选检测框信息对应的最大的检测框置信度。
第五生成步骤,根据上述目标检测框信息,生成上述目标图像对应的检测信息。
其中,上述执行主体可以将上述目标检测框信息,确定为上述目标图像对应的检测信息。
步骤103,对于检测信息集合中的每个检测信息,对检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。
在一些实施例中,上述执行主体可以对于检测信息集合中的每个检测信息,对检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。其中,检测框位置信息对应的子图像为检测框位置信息对应的检测框在目标图像中框定的图像。关键点检测信息表征目标对象的骨骼关键点。目标对象为目标图像中包含的待检测对象。
作为示例,上述执行主体可以通过关键点检测模型,对检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。例如,上述关键点检测模型可以是DNN(Deep Neural Networks,深度神经网络)模型。
可选地,上述执行主体对于检测信息集合中的每个检测信息,对检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。其中,上述执行主体可以通过上述姿态检测模型包括的关键点检测网络,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成上述关键点检测信息。
作为示例,上述姿态检测模型的模型结构如图2所示,其中,姿态检测模型包括:对象检测网络201、第一角点检测网络202、第二角点检测网络203、置信度确定网络204和关键点检测网络205。
其中,上述对象检测网络201包括:特征粗提取网络和多尺度特征提取网络。上述特征粗提取网络包括:第一卷积块、第二卷积块、第三卷积块和第四卷积块。第一卷积块包括:1个最大池化层和4个卷积层。第二卷积块包括:6个卷积层。第三卷积块包括:6个卷积层。第四卷积块包括:6个卷积层。上述多尺度特征提取网络可以是FPN(Feature PyramidNetworks,特征金字塔网络)。
上述第一角点检测网络202可以包括:1个卷积层。
上述第二角点检测网络203可以包括:1个卷积层。
上述置信度确定网络可以包括:1个卷积层。
上述关键点检测网络205可以包括:第一卷积层、第二卷积层、第三卷积层、第四卷积层、第五卷积层、第六卷积层、第七卷积层、第八卷积层、第九卷积层、第十卷积层、第十一卷积层、第十二卷积层、第十三卷积层、第十四卷积层、第十五卷积层。
第三卷积层输出的特征分别输入第四卷积层和第九卷积层。第四卷积层输出的特征分别输入第五卷积层、第十卷积层和第十三卷积层。第五卷积层输出的特征分别输入第六卷积层、第十一卷积层和第十四卷积层。第六卷积层输出的特征分别输入第七卷积层、第十二卷积层和第十五卷积层。第八卷积层输出的特征分别输入第四卷积层和第九卷积层。第九卷积层输出的特征分别输入第五卷积层、第十卷积层和第十三卷积层。第十卷积层输出的特征分别输入第六卷积层、第十一卷积层和第十四卷积层。第十一卷积层输出的特征分别输入第七卷积层、第十二卷积层和第十五卷积层。第十三卷积层输出的特征分别输入第六卷积层、第十一卷积层和第十四卷积层。第十四卷积层输出的特征分别输入第七卷积层、第十二卷积层和第十五卷积层。
第三卷积层的卷积核尺寸大于第八卷积层的卷积核尺寸。第四卷积层的卷积核尺寸大于第九卷积层的卷积和尺寸。第五卷积层的卷积和尺寸大于第十卷积层的卷积核尺寸。第十卷积层的卷积和尺寸大于第十三卷积层的卷积核尺寸。第六卷积层的卷积和尺寸大于第十一卷积层的卷积核尺寸。第十一卷积层的卷积和尺寸大于第十四卷积层的卷积核尺寸。第五卷积层的卷积和尺寸大于第十卷积层的卷积核尺寸。
上述姿态检测模型作为本公开的一个发明点,解决了背景技术中的技术问题一,即“通过人工的方式对待检测对象的动作进行评价,较为依赖评价人员的经验,主观性较强,会导致生成的评价信息不够精准”。实际情况中,通过人工的方式进行评价主观性较强。此外,现有目标检测模型,往往需要提前设置大量的锚框,即锚框的设计需要提前设置大量的超参数。而超参数的设计较为依赖人的主观经验。同时参数数量的增加往往会增加模型的训练难度和训练周期。本公开通过设置第一角点检测网络和第二角点检测网络,通过预测边界的一组角点,无需设置大量的超参数,大大简化了网络本身需要训练的参数的数量。此外,通过设置特征粗提取网络和多尺度特征提取网络进行二阶段的特征提取,保证了提取得到的特征的多样性。除此之外,通过设置网状的特征点检测网络,使得特征点检测网络中的卷积层能够共享同级别不同感受野的卷积层采集得到的特征。由此,在缩减模型训练周期的前提下,大大提高了生成关键点检测信息的精准度。
步骤104,根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合。
在一些实施例中,上述执行主体可以根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合。其中,上述动作信息集合中的动作信息表征目标对象的动作规范度。上述预设动作信息表征目标场景对应的标准动作。
作为示例,上述执行主体可以通过确定关键点检测信息对应的目标对象的动作,与预设动作信息对应的标准动作之间的相似度,以生成动作信息。
可选地,预设动作信息包括:预设动作角度、第一角度阈值和第二角度阈值,上述第一角度阈值小于上述第二角度阈值。其中,预设动作角度表征目标场景对应的标准动作的动作角度。第一角度阈值表征最小的动作角度阈值。第二角度阈值表征最大的动作角度阈值。第一角度阈值小于所述预设动作角度。第二角度阈值大于所述预设动作角度。
可选地,上述执行主体根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,可以包括以下步骤:
第一步,对于上述关键点检测信息集合中的每个关键点检测信息,执行以下处理步骤:
第一子步骤,响应于确定上述关键点检测信息表征的动作角度位于上述第一角度阈值和上述第二角度阈值之间、且上述关键点检测信息表征的动作角度小于上述预设动作角度,根据上述关键点检测信息表征的动作角度、上述预设动作角度和上述第一角度阈值,确定上述关键点检测信息对应的动作信息。
作为示例,上述执行主体可以根据上述关键点检测信息表征的动作角度、上述预设动作角度和上述第一角度阈值,通过以下公式,确定上述关键点检测信息对应的动作信息:
Figure DEST_PATH_IMAGE001
其中,
Figure 235363DEST_PATH_IMAGE002
表示动作信息。
Figure DEST_PATH_IMAGE003
表示关键点检测信息表征的动作角度。
Figure 480400DEST_PATH_IMAGE004
表示预设动作角度。
Figure DEST_PATH_IMAGE005
表示第一角度阈值。
Figure 791295DEST_PATH_IMAGE006
表示取绝对值操作。
第二子步骤,响应于确定上述关键点检测信息表征的动作角度位于上述第一角度阈值和上述第二角度阈值之间、且上述关键点检测信息表征的动作角度大于上述预设动作角度,根据上述关键点检测信息表征的动作角度、上述预设动作角度和上述第二角度阈值,确定上述关键点检测信息对应的动作信息。
作为示例,上述执行主体可以根据上述关键点检测信息表征的动作角度、上述预设动作角度和上述第二角度阈值,通过以下公式,确定上述关键点检测信息对应的动作信息:
Figure DEST_PATH_IMAGE007
其中,
Figure 452084DEST_PATH_IMAGE002
表示动作信息。
Figure 63194DEST_PATH_IMAGE003
表示关键点检测信息表征的动作角度。
Figure 620077DEST_PATH_IMAGE004
表示预设动作角度。
Figure 683848DEST_PATH_IMAGE008
表示第二角度阈值。
Figure 617169DEST_PATH_IMAGE006
表示取绝对值操作。
第三子步骤,上述关键点检测信息表征的动作角度未位于上述第一角度阈值和上述第二角度阈值之间,将第一预设分值确定为上述关键点检测信息对应的动作信息。
其中,上述第一预设分值为0分。
第四子步骤,上述关键点检测信息表征的动作角度位于上述第一角度阈值和上述第二角度阈值之间、且上述关键点检测信息表征的动作角度等于上述预设动作角度,将第一预设分值确定为上述关键点检测信息对应的动作信息。
其中,上述第一预设分值为100分。
步骤105,根据动作信息集合,生成针对目标对象的动作评价信息。
在一些实施例中,上述执行主体可以根据动作信息集合,生成针对目标对象的动作评价信息。
作为示例,上述执行主体可以对动作信息集合中的动作信息表征的相似度数值进行加权求和,以生成针对目标对象的动作评价信息。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的信息生成方法提高了生成的动作评价信息的准确度,以及提高了动作评价信息的生成效率。造成生成的动作评价信息的准确度较低,以及动作评价信息的生成效率较低的原因在于:第一,通过人工的方式对待检测对象的动作进行评价,较为依赖评价人员的经验,主观性较强,会导致生成的评价信息不够精准;第二,当需要对大量的待检测对象进行动作评价时,评价信息的生成效率较低。基于此,本公开的信息生成方法,首先,获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像。实际情况中,当需要对待检测对象进行动作评价时,待检测对象往往是在预先划定的区域内执行动作,因此,需要对目标区域进行图像采集。接着,对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息。通过目标检测,以此确定图像中包含的待检测对象。接着,对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息。通过生成关键点检测信息,以此确定待检测对象的姿态。接着,根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度。通过生成动作信息,以此量化待检测对象的动作规范度。最后,根据上述动作信息集合,生成针对上述目标对象的动作评价信息。通过此种方式提高了生成的动作评价信息的客观性,保证了生成的动作评价信息的准确度和生成效率。
进一步参考图3,作为对上述各图所示方法的实现,本公开提供了一种信息生成装置的一些实施例,这些装置实施例与图1所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图3所示,一些实施例的信息生成装置300包括:获取单元301、目标检测单元302、关键点检测单元303、第一生成单元304和第二生成单元305。其中,获取单元301,被配置成获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;目标检测单元302,被配置成对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息;关键点检测单元303,被配置成对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;第一生成单元304,被配置成根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度;第二生成单元305,被配置成根据上述动作信息集合,生成针对上述目标对象的动作评价信。
可以理解的是,该装置300中记载的诸单元与参考图1描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置300及其中包含的单元,在此不再赘述。
下面参考图4,其示出了适于用来实现本公开的一些实施例的电子设备(如,计算设备)400的结构示意图。图4示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置408;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图4中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置408被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例中记载的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标图像集合,其中,上述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;对上述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,上述检测信息集合中的检测信息包括:检测框位置信息;对于上述检测信息集合中的每个检测信息,对上述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,上述动作信息集合中的动作信息表征目标对象的动作规范度;根据上述动作信息集合,生成针对上述目标对象的动作评价信息。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、目标检测单元、关键点检测单元、第一生成单元和第二生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第二生成单元还可以被描述为“根据上述动作信息集合,生成针对上述目标对象的动作评价信息的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (8)

1.一种信息生成方法,包括:
获取目标图像集合,其中,所述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;
对所述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,所述检测信息集合中的检测信息包括:检测框位置信息;
对于所述检测信息集合中的每个检测信息,对所述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;
根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,所述动作信息集合中的动作信息表征目标对象的动作规范度;
根据所述动作信息集合,生成针对所述目标对象的动作评价信息,其中,所述对所述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,包括:
通过预先训练的姿态检测模型包括的对象检测网络包括的特征粗提取网络,对所述目标图像进行特征提取,以生成粗提取特征信息;
通过所述对象检测网络包括的多尺度特征提取网络,对所述粗提取特征信息进行特征提取,以生成特征提取信息;
根据所述特征提取信息,生成所述目标图像对应的检测信息,其中,所述根据所述特征提取信息,生成所述目标图像对应的检测信息,包括:
将所述特征提取信息输入所述对象检测网络包括的第一角点检测网络,以生成第一候选角点信息集合,其中,所述第一候选角点信息集合中的第一候选角点信息包括:角点置信度和角点坐标;
将所述特征提取信息输入所述对象检测网络包括的第二角点检测网络,以生成第二候选角点信息集合,其中,所述第二候选角点信息集合中的第二候选角点信息包括:角点置信度和角点坐标;
根据所述第一候选角点信息集合中的第一候选角点信息包括的角点置信度,对所述第一候选角点信息集合中的第一候选角点信息进行排序,以生成第一候选角点信息序列;
根据所述第二候选角点信息集合中的第二候选角点信息包括的角点置信度,对所述第二候选角点信息集合中的第二候选角点信息进行排序,以生成第二候选角点信息序列;
从第一目标位置开始,从所述第一候选角点信息序列选取目标数量个第一候选角点信息,得到第一候选角点信息组;
从第二目标位置开始,从所述第二候选角点信息序列选取所述目标数量个第二候选角点信息,得到第二候选角点信息组;
对于所述第一候选角点信息组中的每个第一候选角点信息,执行以下候选检测框信息生成步骤:
将所述第一候选角点信息包括的角点坐标,与所述第二候选角点信息组中的每个第二候选角点信息包括的角点坐标进行坐标比对;
响应于确定所述第一候选角点信息包括的角点坐标中的横坐标小于所述第二候选角点信息包括的角点坐标中的横坐标、且所述第一候选角点信息包括的角点坐标中的纵坐标小于所述第二候选角点信息包括的角点坐标中的纵坐标,根据所述第一候选角点信息和所述第二候选角点信息,生成候选检测框信息;
确定得到的候选检测框信息集合中的每个候选检测框信息对应的检测框置信度;
从所述候选检测框信息集合中筛选出对应的检测框置信度满足筛选条件的候选检测框信息,作为目标检测框信息;
根据所述目标检测框信息,生成所述目标图像对应的检测信息。
2.根据权利要求1所述的方法,其中,在所述获取目标图像集合之前,所述方法还包括:
响应于读卡装置读取到目标对象的身份信息,控制所述图像采集装置针对所述目标区域进行图像采集,以生成候选图像集合;
对所述候选图像集合中的候选图像进行人脸检测,以生成人脸信息,得到人脸信息集合;
根据所述人脸信息集合,生成活体检测信息,其中,所述活体检测信息表征候选图像包括的对象是否为活体;
响应于确定所述活体检测信息表征候选图像包括的对象为活体,根据所述身份信息和所述人脸信息集合,生成身份校验信息。
3.根据权利要求2所述的方法,其中,所述获取目标图像集合,包括:
响应于所述身份校验信息表征所述目标对象与所述人脸信息集合对应的对象一致,获取由所述图像采集装置采集的所述目标图像集合。
4.根据权利要求3所述的方法,其中,所述对于所述检测信息集合中的每个检测信息,对所述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息,包括:
通过所述姿态检测模型包括的关键点检测网络,对所述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成所述关键点检测信息。
5.根据权利要求4所述的方法,其中,所述预设动作信息包括:预设动作角度、第一角度阈值和第二角度阈值,所述第一角度阈值小于所述第二角度阈值;以及
所述根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,包括:
对于所述关键点检测信息集合中的每个关键点检测信息,执行以下处理步骤:
响应于确定所述关键点检测信息表征的动作角度位于所述第一角度阈值和所述第二角度阈值之间、且所述关键点检测信息表征的动作角度小于所述预设动作角度,根据所述关键点检测信息表征的动作角度、所述预设动作角度和所述第一角度阈值,确定所述关键点检测信息对应的动作信息;
响应于确定所述关键点检测信息表征的动作角度位于所述第一角度阈值和所述第二角度阈值之间、且所述关键点检测信息表征的动作角度大于所述预设动作角度,根据所述关键点检测信息表征的动作角度、所述预设动作角度和所述第二角度阈值,确定所述关键点检测信息对应的动作信息。
6.一种信息生成装置,包括:
获取单元,被配置成获取目标图像集合,其中,所述目标图像集合中的目标图像是图像采集装置针对目标区域采集的图像;
目标检测单元,被配置成对所述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,得到检测信息集合,其中,所述检测信息集合中的检测信息包括:检测框位置信息;
关键点检测单元,被配置成对于所述检测信息集合中的每个检测信息,对所述检测信息包括的检测框位置信息对应的子图像进行关键点检测,以生成关键点检测信息;
第一生成单元,被配置成根据得到的关键点检测信息集合和预设动作信息,生成动作信息集合,其中,所述动作信息集合中的动作信息表征目标对象的动作规范度;
第二生成单元,被配置成根据所述动作信息集合,生成针对所述目标对象的动作评价信息,其中,所述对所述目标图像集合中的每张目标图像进行目标检测,以生成检测信息,包括:
通过预先训练的姿态检测模型包括的对象检测网络包括的特征粗提取网络,对所述目标图像进行特征提取,以生成粗提取特征信息;
通过所述对象检测网络包括的多尺度特征提取网络,对所述粗提取特征信息进行特征提取,以生成特征提取信息;
根据所述特征提取信息,生成所述目标图像对应的检测信息,其中,所述根据所述特征提取信息,生成所述目标图像对应的检测信息,包括:
将所述特征提取信息输入所述对象检测网络包括的第一角点检测网络,以生成第一候选角点信息集合,其中,所述第一候选角点信息集合中的第一候选角点信息包括:角点置信度和角点坐标;
将所述特征提取信息输入所述对象检测网络包括的第二角点检测网络,以生成第二候选角点信息集合,其中,所述第二候选角点信息集合中的第二候选角点信息包括:角点置信度和角点坐标;
根据所述第一候选角点信息集合中的第一候选角点信息包括的角点置信度,对所述第一候选角点信息集合中的第一候选角点信息进行排序,以生成第一候选角点信息序列;
根据所述第二候选角点信息集合中的第二候选角点信息包括的角点置信度,对所述第二候选角点信息集合中的第二候选角点信息进行排序,以生成第二候选角点信息序列;
从第一目标位置开始,从所述第一候选角点信息序列选取目标数量个第一候选角点信息,得到第一候选角点信息组;
从第二目标位置开始,从所述第二候选角点信息序列选取所述目标数量个第二候选角点信息,得到第二候选角点信息组;
对于所述第一候选角点信息组中的每个第一候选角点信息,执行以下候选检测框信息生成步骤:
将所述第一候选角点信息包括的角点坐标,与所述第二候选角点信息组中的每个第二候选角点信息包括的角点坐标进行坐标比对;
响应于确定所述第一候选角点信息包括的角点坐标中的横坐标小于所述第二候选角点信息包括的角点坐标中的横坐标、且所述第一候选角点信息包括的角点坐标中的纵坐标小于所述第二候选角点信息包括的角点坐标中的纵坐标,根据所述第一候选角点信息和所述第二候选角点信息,生成候选检测框信息;
确定得到的候选检测框信息集合中的每个候选检测框信息对应的检测框置信度;
从所述候选检测框信息集合中筛选出对应的检测框置信度满足筛选条件的候选检测框信息,作为目标检测框信息;
根据所述目标检测框信息,生成所述目标图像对应的检测信息。
7.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1至5中任一所述的方法。
8.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1至5中任一所述的方法。
CN202210859815.XA 2022-07-22 2022-07-22 信息生成方法、装置、电子设备和计算机可读介质 Active CN115083020B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210859815.XA CN115083020B (zh) 2022-07-22 2022-07-22 信息生成方法、装置、电子设备和计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210859815.XA CN115083020B (zh) 2022-07-22 2022-07-22 信息生成方法、装置、电子设备和计算机可读介质

Publications (2)

Publication Number Publication Date
CN115083020A CN115083020A (zh) 2022-09-20
CN115083020B true CN115083020B (zh) 2022-11-01

Family

ID=83243553

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210859815.XA Active CN115083020B (zh) 2022-07-22 2022-07-22 信息生成方法、装置、电子设备和计算机可读介质

Country Status (1)

Country Link
CN (1) CN115083020B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126143A (zh) * 2019-11-20 2020-05-08 北京健康有益科技有限公司 一种基于深度学习的运动评判指导方法及系统
CN112613440A (zh) * 2020-12-29 2021-04-06 北京市商汤科技开发有限公司 一种姿态检测的方法、装置、电子设备及存储介质
WO2021068589A1 (zh) * 2019-10-09 2021-04-15 东软睿驰汽车技术(沈阳)有限公司 一种图像中物体及其关键点的确定方法和装置
CN113255512A (zh) * 2021-05-21 2021-08-13 北京百度网讯科技有限公司 用于活体识别的方法、装置、设备以及存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021068589A1 (zh) * 2019-10-09 2021-04-15 东软睿驰汽车技术(沈阳)有限公司 一种图像中物体及其关键点的确定方法和装置
CN111126143A (zh) * 2019-11-20 2020-05-08 北京健康有益科技有限公司 一种基于深度学习的运动评判指导方法及系统
CN112101315A (zh) * 2019-11-20 2020-12-18 北京健康有益科技有限公司 一种基于深度学习的运动评判指导方法和系统
CN112613440A (zh) * 2020-12-29 2021-04-06 北京市商汤科技开发有限公司 一种姿态检测的方法、装置、电子设备及存储介质
CN113255512A (zh) * 2021-05-21 2021-08-13 北京百度网讯科技有限公司 用于活体识别的方法、装置、设备以及存储介质

Also Published As

Publication number Publication date
CN115083020A (zh) 2022-09-20

Similar Documents

Publication Publication Date Title
CN108205655B (zh) 一种关键点预测方法、装置、电子设备及存储介质
CN109671020B (zh) 图像处理方法、装置、电子设备和计算机存储介质
CN111476306A (zh) 基于人工智能的物体检测方法、装置、设备及存储介质
CN112668588B (zh) 车位信息生成方法、装置、设备和计算机可读介质
CN110738235B (zh) 肺结核判定方法、装置、计算机设备及存储介质
CN109977832B (zh) 一种图像处理方法、装置及存储介质
CN110399847B (zh) 关键帧提取方法、装置及电子设备
CN111027450A (zh) 银行卡信息识别方法、装置、计算机设备及存储介质
CN110941978B (zh) 一种未识别身份人员的人脸聚类方法、装置及存储介质
WO2022028147A1 (zh) 图像分类模型训练方法、装置、计算机设备及存储介质
CN112529149A (zh) 一种数据处理方法及相关装置
KR20230043318A (ko) 영상 내 객체를 분류하는 객체 분류 방법 및 장치
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN111414921B (zh) 样本图像处理方法、装置、电子设备及计算机存储介质
CN115083020B (zh) 信息生成方法、装置、电子设备和计算机可读介质
CN114882576B (zh) 人脸识别方法、电子设备、计算机可读介质和程序产品
CN115100536B (zh) 建筑物识别方法、装置、电子设备和计算机可读介质
CN110765304A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN111898529B (zh) 脸部检测方法、装置、电子设备和计算机可读介质
CN111291640B (zh) 用于识别步态的方法和装置
CN113780239A (zh) 虹膜识别方法、装置、电子设备和计算机可读介质
CN114612979A (zh) 一种活体检测方法及装置、电子设备、存储介质
CN114120423A (zh) 人脸图像检测方法、装置、电子设备和计算机可读介质
CN112070022A (zh) 人脸图像识别方法、装置、电子设备和计算机可读介质
CN108960014B (zh) 图像处理方法、装置和系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant