CN111582206B - 用于生成生物体姿态关键点信息的方法和装置 - Google Patents

用于生成生物体姿态关键点信息的方法和装置 Download PDF

Info

Publication number
CN111582206B
CN111582206B CN202010403394.0A CN202010403394A CN111582206B CN 111582206 B CN111582206 B CN 111582206B CN 202010403394 A CN202010403394 A CN 202010403394A CN 111582206 B CN111582206 B CN 111582206B
Authority
CN
China
Prior art keywords
feature map
processed
image
sub
organism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010403394.0A
Other languages
English (en)
Other versions
CN111582206A (zh
Inventor
喻冬东
王长虎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Douyin Vision Co Ltd
Original Assignee
Douyin Vision Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douyin Vision Co Ltd filed Critical Douyin Vision Co Ltd
Priority to CN202010403394.0A priority Critical patent/CN111582206B/zh
Publication of CN111582206A publication Critical patent/CN111582206A/zh
Application granted granted Critical
Publication of CN111582206B publication Critical patent/CN111582206B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Image Analysis (AREA)

Abstract

本公开的实施例公开了用于生成生物体姿态关键点信息的方法和装置。该方法的一具体实施方式包括:将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;对该目标图像进行分割,得到子图像集合;基于该子图像集合和预先训练的第二深度学习网络,生成第二特征图;基于注意力机制网络,该第一特征图,该第二特征图和第三深度学习网络,生成生物体姿态关键点信息。该实施方式提高了生成生物体姿态关键点信息的准确性,有利于提高电子设备检测生物体姿态的准确性。

Description

用于生成生物体姿态关键点信息的方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及用于生成生物体姿态关键点信息的方法和装置。
背景技术
生物体姿态关键点的检测在计算机视觉等领域的研究中起到了基础性的作用。具体应用主要集中在智能视频监控,病人监护系统,人机交互,虚拟现实,生物体动画(例如人体动画),智能家居,智能安防,运动员辅助训练等等。
由于生物体(例如人体或者其他动物体)具有相当的柔性,会出现各种姿态和形状,生物体任何一个部位的微小变化都会产生一种新的姿态。为了体现微小变化的姿态,需要生成更准确的生物体姿态关键点信息。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了用于生成生物体姿态关键点信息的方法、装置、设备和计算机可读介质,来解决以上背景技术部分提到的技术问题。
第一方面,本公开的实施例提供了一种用于生成生物体姿态关键点信息的方法,该方法包括:将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;对上述目标图像进行分割,得到子图像集合;基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图;基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
第二方面,本公开的实施例提供了一种用于生成生物体姿态关键点信息的装置,该装置包括:输入单元,被配置成将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;分割单元,被配置成对上述目标图像进行分割,得到子图像集合;第一生成单元,被配置成基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图;第二生成单元,被配置成基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
第三方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一的方法。
第四方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如第一方面中任一的方法。
本公开的上述各个实施例中的一个实施例具有如下有益效果:将目标图像输入至预先训练的第一深度学习网络,用于提取上述目标图像的特征信息,进而得到第一特征图。然后对上述目标图像进行分割,得到子图像集合。在这里,对目标图像进行分割是为了获得子图像的特征信息。其中,上述子图像的特征信息表征着上述目标图像的局部特征信息。然后通过上述子图像集合和上述预先训练的第二深度学习网络,得到第二特征图。其中,第二深度学习网络用于提取子图像特征。获到第二特征图的目的在于可以从多次提取局部特征信息再将局部特征信息拼接的角度得到有关目标图像的特征信息。从而,可以得到有关目标图像更为多元化的特征信息。最后通过注意力机制网络,在上述多元化的特征信息中选取对生成生物体姿态关键点信息中更关键的特征信息。在生成生物体姿态关键点信息的方法中,将提取上述目标图像的特征信息作为基础,进而将子图像特征信息考虑进去,可以更为准确地表征上述目标图像的特征信息,进一步提高了生成生物体姿态关键点信息的准确性。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是根据本公开一些实施例的用于生成生物体姿态关键点信息的方法的一个应用场景的示意图;
图2是根据本公开的实施例的用于生成生物体姿态关键点信息的方法的一个实施例的流程图;
图3是根据本公开的实施例的用于生成生物体姿态关键点信息的方法的生物体关键点连线图像的示例性示意图;
图4是根据本公开的用于生成生物体姿态关键点信息的方法的又一些实施例的流程图;
图5是根据本公开的用于生成生物体姿态关键点信息的装置的一些实施例的结构示意图;
图6是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
图1是根据本公开一些实施例的用于生成生物体姿态关键点信息的方法的一个应用场景的示意图100。
如图1所示,作为示例,电子设备101将生物体图像102输入至第一深度学习网络104,得到第一特征图。上述第一特征图表征生物体图像102的特征信息。然后,生物体图像102进行图像分割,得到子图像集合103。将子图像集合103中每个子图像分别输入至第二深度学习网络105,得到子图像特征集合。可选的,可以根据子图像在生物体图像102中的空间位置,对子图像特征集合进行拼接,得到第二特征图。上述第二特征图表征子特征图拼接后的特征信息。进而,将第一特征图反卷积后的结果和第二特征图反卷积后的结果进行通道上叠加,得到的结果输入至注意力机制网络105,以此得到生物体图像102中特征信息更为准确的特征图。将注意力机制网络105的结果输入至第三深度学习网络106,得到通道数目为17的特征图。最后根据上述通道数目为17的特征图得到生物体姿态关键点信息107。
可以理解的是,生成生物体姿态关键点信息的方法可以是由上述电子设备101来执行。其中,电子设备101可以是硬件,也可以是软件。当电子设备101为硬件时,可以是具有信息处理能力的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机、台式计算机、服务器等等。当电子设备101为软件时,可以安装在上述所列举的电子设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的电子设备数目仅仅是示意性的。根据实现需要,可以具有任意数目的电子设备。
继续参考图3,示出了根据本公开的用于生成生物体姿态关键点信息的方法的一个实施例的流程200。该用于生成生物体姿态关键点信息的方法,包括以下步骤:
步骤201,将目标图像输入至预先训练的第一深度学习网络,得到第一特征图。
在一些实施例中,用于生成生物体姿态关键点信息的方法的执行主体(例如图1所示的电子设备)将目标图像输入至预先训练的第一深度学习网络,输出第一特征图。其中,目标图像是待确定其对应的生物体关键点信息的生物体图像。第一深度学习网络可以是以下之一:残差网络(Residual Network,ResNet),VGG模型(VGGNet,Visual Geometry GroupNetwork)和GoogLeNet。第一特征图是表征着上述目标图像的特征信息的特征图。作为示例,上述执行主体可以将上述目标图像输入至预先训练的残差网络中,得到上述第一特征图。
步骤202,对上述目标图像进行分割,得到子图像集合。
在一些实施例中,上述执行主体可以将目标生物体图像进行分割,得到子图像集合。子图像集合是经过上述目标图像分割后而得到的子图像的集合。其中,子图像表征着上述目标图像的部分信息。在这里,在分割目标图像过程中,可以有两个可变参数M和N。其中,可变参数M表征将上述目标图像横向分割成M个部分。可变参数N表征将上述目标图像竖向分割成N个部分。M*N表征着将上述目标图像分成M*N个子图像。作为示例,可以将目标图像分割成3*5个子图像,得到的3*5个子图像作为子图像集合。
步骤203,基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图。
在一些实施例中,基于上述子图像集合和预先训练的第二深度学习网络,得到第二特征图。其中,第二特征图是每个子图像特征图根据子图像在上述目标图像的空间位置拼接而成的特征图。上述第二深度学习网络和上述第一深度的网络结构可以是相同的,网络参数可以是共享。
在这里,上述第一深度学习网络和上述第二深度学习网络的不同之处在于:(1)上述第一深度学习网络的输入是上述目标图像,上述第二深度学习网络的输入是子图像。(2)由于上述目标图像与子图像的分辨率是不同的,对应深度学习网络的输出特征图大小也不相同。
作为示例,可以在已知上述子图像集合和上述预先训练的第二深度学习网络的基础上,通过各种方法得到第二特征。
在一些实施例的一些可选的实现方式中,通过上述子图像集合和预先训练的第二深度学习网络,得到第二特征图的步骤可以如下:
第一步,上述执行主体可以将上述子图像集合中的每个子图像输入至上述第二深度学习网络生成子图像特征图,得到子图像特征图集合。
第二步,将每个子图像特征图根据所对应的子图像在上述目标图像的空间位置进行拼接,得到上述第二特征图。
步骤204,基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
在一些实施例中,上述执行主体可以根据注意力机制网络,上述第一特征图和上述第二特征图,生成生物体姿态关键点信息。其中,生物体姿态关键点信息可以是包括生物体姿态的关键点和用于连接生物体姿态的关键点的连线的图像。
如图3所示,示出了根据用于生成人体姿态关键点信息的方法而得到的人体关键点连线图像的示例性示意图300。作为示例,人体姿态关键点连线图像301示出了:人体姿态关键点,如编号A-Q所示;用于连接人体姿态关键点的连线,如附图标记302所示。其中,人体姿态关键点是人体图像中、用于表征人体的某个特定部位(例如头顶、手腕、膝盖等)的点。在这里,人体姿态关键点包括:头部5个关键点,如图3中的编号A、B、C、D、E所示;左肢3个关键点,如图3中的编号F、G、H所示;右肢3个关键点,如图3中的编号L、P、Q所示;下半体为6个关键点,如图3中的编号I、J、K、M、N、O所示。通常,人体姿态关键点可以标注有对应的编号,上述执行主体根据标注出的人体姿态关键点的编号,对各个人体姿态关键点进行连线,从而生成人体姿态各个关键点之间的连线。
需要说明的是,在上述注意力机制网络中,赋予上述第一特征图和上述第二特征图一定的权重。其中,上述权重代表上述第一特征图和上述第二特征图与上述目标图像的关键信息的相关度。权重越大,则表示相关度越高,也就是越需要去注意的特征图。作为示例,可以是将上述第一特征图和上述第二特征图输入至空间和通道注意力机制的融合的网络模型,再将上述空间和通道注意力机制的融合的网络模型的输出结果输入至预先训练的卷积神经网络,进而生成生物体姿态关键点信息。
在一些实施例的一些可选的实现方式中,基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息的步骤可以是:
第一步,对上述第一特征图和上述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图。
其中,上述已处理的第一特征图与上述已处理的第二特征图之间的相关性是通过均方误差函数来约束的。反卷积也被称为转置卷积,反卷积是卷积的逆过程。通过反卷积并不能还原出卷积之前的图像,只能还原出卷积之前图片的尺寸。通过反卷积可以用来可视化卷积的过程,反卷积在生成对抗等领域中有着大量的应用。在这里,使用均方误差函数来约束的目的是使已处理的第一特征图与上述已处理的第二特征图之间的响应更大,避免已处理的第一特征图与上述已处理的第二特征图之间特征信息差距太大。
第二步,将上述已处理的第一特征图和上述已处理的第二特征图进行叠加,得到第三特征图。
在这里,将上述已处理的第一特征图和上述已处理的第二特征图的叠加是指特征图之间的叠加。叠加后得到的上述第三特征图的通道数是已处理的第一特征图的通道数和上述已处理的第二特征图的通道数的总和。
第三步,将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图。
第四步,将上述第四特征图输入至上述第三深度学习网络,生成生物体姿态关键点信息。作为示例,可以是将第四特征图输入至第三深度学习网络,得到通道数目为17的特征图。上述通道数目为17的特征图中每个通道来预测一个生物体关键点,通过每个通道的像素最大值来确定x,y。其中,上述x,y表示通道数目为17的特征图中生物体姿态关键点的像素点坐标。通过输出的(x,y)为关键点位置,进而得到生物体姿态关键点信息。
在一些实施例的一些可选的实现方式中,上述注意力机制网络包括:叉乘层和至少一层卷积层。
在一些实施例的一些可选的实现方式中,将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图的步骤可以是:
第一步,将上述第三特征图输入至上述卷积层,得到卷积层结果。
第二步,将上述卷积层结果输入至归一化指数函数(Softmax),得到上述已处理的第一特征图的权重系数和上述已处理的第二特征图的权重系数。
第三步,将上述已处理的第一特征图的权重系数、上述已处理的第二特征图的权重系数、上述已处理的第一特征图和上述已处理的第二特征图输入至叉乘层,得到第四特征图。在这里,叉乘层可以是:将上述已处理的第一特征图的权重系数与上述已处理的第一特征图相乘,得到第一结果;将上述已处理的第二特征图的权重系数与上述已处理的第二特征图相乘,得到第二结果;将上述第一结果与第二结果进行相加操作。除此之外,第四特征图是指拥有第一特征图部分信息和第二特征图部分信息的特征图。
由上述示例可以看出,在上述目标图像生成生物体姿态关键点信息的基础上,然后进行目标图像分割,得到子图像集合。最后利用注意力机制网络来筛选通过子图像集合生成的生物体姿态关键点信息。由此,提高了生成生物体姿态关键点信息的准确性。
图4是根据本公开的实施例的用于生成生物体姿态关键点信息的方法的又一个实施例的流程图。该用于生成生物体姿态关键点信息的方法,包括以下步骤:
步骤401,将目标图像输入至预先训练的第一深度学习网络,得到第一特征图。
步骤402,对上述目标图像进行分割,得到子图像集合。
步骤403,基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图。
步骤404,基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
在一些实施例中,步骤401-404的具体实现及所带来的技术效果可以参考图2对应的那些实施例中的步骤201-204,在此不再赘述。
步骤405,基于上述生物体姿态关键点信息,生成用于表征上述目标图像中显示的生物体姿态的生物体姿态信息。
在一些实施例中,上述执行主体可以按照各种方式生成用于表征目标生物体图像指示的生物体的姿态的生物体姿态信息。作为示例,上述执行主体可以利用预设的、表征目标生物体关键点的信息与目标生物体姿态信息的对应关系的对应关系表,生成目标生物体姿态信息。该对应关系表中可以存储有大量的预先根据生物体关键点信息生成的生物体关键点图像(即包括目标生物体关键点的图像)。上述执行主体可以根据生成的目标生物体关键点信息,生成对应的目标生物体关键点图像,再将该生物体关键点图像与上述对应关系表征中包括的目标生物体关键点图像进行匹配,确定与该目标生物体关键点图像之间的相似度最大的目标生物体关键点图像对应的目标生物体姿态信息作为最终生成的目标生物体姿态信息。
步骤406,根据上述生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。
在一些实施例中,上述执行主体可以根据生成的生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。其中,目标设备可以是与上述执行主体通信连接的设备,目标操作可以是预先与目标生物体姿态信息建立对应关系的操作。例如,目标设备可以是与上述执行主体连接的摄像头,上述执行主体检测到生物体姿态信息用于表征人的抬手动作时,生成用于控制摄像头进行拍照(即目标操作)的控制信号。再例如,目标设备可以是与上述执行主体连接的报警器,当上述执行主体检测到生物体姿态信息用于表征人摔倒时,生成用于控制报警器发出报警声(即目标操作)的控制信号。本实现方式可以在提高生成生物体姿态信息的准确性的基础上,进一步利用生物体姿态信息,提高输出控制信号的准确性。从而可以使目标设备更准确地根据生物体姿态信息执行进一步的操作。本实现方式可以应用于诸如智能视频监控、病人监护系统、人机交互、虚拟现实、智能家居等各种领域,从而有利于在上述各种领域中,使用户通过各种生物体姿态准确地控制各种电子设备。
由上述示例可以看出,在更为准确地从目标图像中生成生物体姿态关键点信息的基础上,相应的提高了电子设备检测生物体姿态的精准性。进而电子设备可以更有效的针对生物体姿态做出相关反应。
如图5所示,一些实施例的用于生成生物体姿态关键点信息的装置500包括:输入单元501,分割单元502,第一生成单元503和第二生成单元504,其中,输入单元501被配置成将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;分割单元502,被配置成对上述目标图像进行分割,得到子图像集合;第一生成单元503,被配置成基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图;第二生成单元504,被配置成基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
在一些实施例的一些可选的实现方式中,第一生成单元503可以进一步被配置成:将上述子图像集合中的每个子图像输入至上述第二深度学习网络生成子图像特征图,得到子图像特征图集合;将每个子图像特征图根据所对应的子图像在上述目标图像的空间位置进行拼接,得到上述第二特征图。
在一些实施例的一些可选的实现方式中,第二生成单元504可以进一步被配置成:对上述第一特征图和上述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图,其中,上述已处理的第一特征图与上述已处理的第二特征图之间的相关性是通过均方误差函数来约束的;将上述已处理的第一特征图和上述已处理的第二特征图进行叠加,得到第三特征图;将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图;将上述第四特征图输入至上述第三深度学习网络,生成生物体姿态关键点信息。
在一些实施例的一些可选的实现方式中,上述注意力机制网络包括:叉乘层和至少一层卷积层。
在一些实施例的一些可选的实现方式中,第二生成单元504可以进一步被配置成:将上述第三特征图输入至上述卷积层,得到卷积层结果;基于上述卷积层结果和归一化指数函数,得到上述已处理的第一特征图的权重系数和上述已处理的第二特征图的权重系数;将上述已处理的第一特征图的权重系数、上述已处理的第二特征图的权重系数、上述已处理的第一特征图和上述已处理的第二特征图输入至叉乘层,得到第四特征图。
在一些实施例的一些可选的实现方式中,装置500还可以包括:第五生成单元(图中未示出),第五确定单元可以被配置成基于上述生物体姿态关键点信息,生成用于表征上述目标图像中显示的生物体姿态的生物体姿态信息。
在一些实施例的一些可选的实现方式中,装置500还可以包括:第六输出单元(图中未示出),第六确定单元可以被配置成根据上述生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。
可以理解的是,该装置500中记载的诸单元与参考图2描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置500及其中包含的单元,在此不再赘述。
下面参考图6,其示出了适于用来实现本公开的一些实施例的电子设备(例如图2中的电子设备)600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的电子设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图6中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;对上述目标图像进行分割,得到子图像集合;基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图;基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括输入单元、分割单元、第一生成单元和第二生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,输入单元还可以被描述为“将目标图像输入至预先训练的第一深度学习网络,得到第一特征图的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
根据本公开的一个或多个实施例,提供了一种用于生成生物体姿态关键点信息的方法,包括:将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;对上述目标图像进行分割,得到子图像集合;基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图;基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
根据本公开的一个或多个实施例,上述基于上述子图像集合和预先训练的第二深度学习网络,生成第二特征图,包括:将上述子图像集合中的每个子图像输入至上述第二深度学习网络生成子图像特征图,得到子图像特征图集合;将每个子图像特征图根据所对应的子图像在上述目标图像的空间位置进行拼接,得到上述第二特征图。
根据本公开的一个或多个实施例,上述基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息,包括:对上述第一特征图和上述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图,其中,上述已处理的第一特征图与上述已处理的第二特征图之间的相关性是通过均方误差函数来约束的;将上述已处理的第一特征图和上述已处理的第二特征图进行叠加,得到第三特征图;将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图;将上述第四特征图输入至上述第三深度学习网络,生成生物体姿态关键点信息。
根据本公开的一个或多个实施例,上述注意力机制网络包括:叉乘层和至少一层卷积层。
根据本公开的一个或多个实施例,上述将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图,包括:将上述第三特征图输入至上述卷积层,得到卷积层结果;基于上述卷积层结果和归一化指数函数,得到上述已处理的第一特征图的权重系数和上述已处理的第二特征图的权重系数;将上述已处理的第一特征图的权重系数、上述已处理的第二特征图的权重系数、上述已处理的第一特征图和上述已处理的第二特征图输入至叉乘层,得到第四特征图。
根据本公开的一个或多个实施例,上述方法还包括:基于上述生物体姿态关键点信息,生成用于表征上述目标图像中显示的生物体姿态的生物体姿态信息。
根据本公开的一个或多个实施例,上述方法还包括:根据上述生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。
根据本公开的一个或多个实施例,上述一种用于生成生物体姿态关键点信息的装置,包括:输入单元,被配置成将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;分割单元,被配置成对上述目标图像进行分割,得到子图像集合;第一生成单元,被配置成基于上述子图像集合和预先训练的第二深度学习网络,得到第二特征图;第二生成单元,被配置成基于注意力机制网络,上述第一特征图,上述第二特征图和第三深度学习网络,生成生物体姿态关键点信息。
根据本公开的一个或多个实施例,第一生成单元可以进一步被配置成:将上述子图像集合中的每个子图像输入至上述第二深度学习网络生成子图像特征图,得到子图像特征图集合;将每个子图像特征图根据所对应的子图像在上述目标图像的空间位置进行拼接,得到上述第二特征图。
根据本公开的一个或多个实施例,第二生成单元可以进一步被配置成:对上述第一特征图和上述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图,其中,上述已处理的第一特征图与上述已处理的第二特征图之间的相关性是通过均方误差函数来约束的;将上述已处理的第一特征图和上述已处理的第二特征图进行叠加,得到第三特征图;将上述已处理的第一特征图,上述已处理的第二特征图和上述第三特征图输入至上述注意力机制网络,得到第四特征图;将上述第四特征图输入至上述第三深度学习网络,生成生物体姿态关键点信息。
根据本公开的一个或多个实施例,第二生成单元可以进一步被配置成:将上述第三特征图输入至上述卷积层,得到卷积层结果;基于上述卷积层结果和归一化指数函数,得到上述已处理的第一特征图的权重系数和上述已处理的第二特征图的权重系数;将上述已处理的第一特征图的权重系数、上述已处理的第二特征图的权重系数、上述已处理的第一特征图和上述已处理的第二特征图输入至叉乘层,得到第四特征图。
根据本公开的一个或多个实施例,装置还可以包括:第五生成单元(图中未示出),第五确定单元可以被配置成基于上述生物体姿态关键点信息,生成用于表征上述目标图像中显示的生物体姿态的生物体姿态信息。
根据本公开的一个或多个实施例,装置还可以包括:第六输出单元(图中未示出),第六确定单元可以被配置成根据上述生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述任一实施例描述的方法。
根据本公开的一个或多个实施例,提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现如上述任一实施例描述的方法。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种用于生成生物体姿态关键点信息的方法,包括:
将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;
对所述目标图像进行分割,得到子图像集合;
基于所述子图像集合和预先训练的第二深度学习网络,生成第二特征图;
对所述第一特征图和所述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图;将所述已处理的第一特征图和所述已处理的第二特征图进行叠加,得到第三特征图;将所述已处理的第一特征图,所述已处理的第二特征图和所述第三特征图输入至注意力机制网络,得到第四特征图;将所述第四特征图输入至第三深度学习网络,生成生物体姿态关键点信息。
2.根据权利要求1所述的方法,其中,所述基于所述子图像集合和预先训练的第二深度学习网络,生成第二特征图,包括:
将所述子图像集合中的每个子图像输入至所述第二深度学习网络生成子图像特征图,得到子图像特征图集合;
将每个子图像特征图根据所对应的子图像在所述目标图像的空间位置进行拼接,得到所述第二特征图。
3.根据权利要求1所述的方法,其中,所述已处理的第一特征图与所述已处理的第二特征图之间的相关性是通过均方误差函数来约束的。
4.根据权利要求3所述的方法,其中,所述注意力机制网络包括:叉乘层和卷积层。
5.根据权利要求4所述的方法,其中,所述将所述已处理的第一特征图,所述已处理的第二特征图和所述第三特征图输入至所述注意力机制网络,得到第四特征图,包括:
将所述第三特征图输入至所述卷积层,得到卷积层结果;
基于所述卷积层结果和归一化指数函数,得到所述已处理的第一特征图的权重系数和所述已处理的第二特征图的权重系数;
将所述已处理的第一特征图的权重系数、所述已处理的第二特征图的权重系数、所述已处理的第一特征图和所述已处理的第二特征图输入至叉乘层,得到第四特征图。
6.根据权利要求1-5之一所述的方法,其中,所述方法还包括:
基于所述生物体姿态关键点信息,生成用于表征所述目标图像中显示的生物体姿态的生物体姿态信息。
7.根据权利要求6所述的方法,其中,所述方法还包括:
根据所述生物体姿态信息,输出用于控制目标设备进行目标操作的控制信号。
8.一种用于生成生物体姿态关键点信息的装置,包括:
输入单元,被配置成将目标图像输入至预先训练的第一深度学习网络,得到第一特征图;
分割单元,被配置成对所述目标图像进行分割,得到子图像集合;
第一生成单元,被配置成基于所述子图像集合和预先训练的第二深度学习网络,生成第二特征图;
第二生成单元,被配置成对所述第一特征图和所述第二特征图分别进行反卷积,得到已处理的第一特征图和已处理的第二特征图;将所述已处理的第一特征图和所述已处理的第二特征图进行叠加,得到第三特征图;将所述已处理的第一特征图,所述已处理的第二特征图和所述第三特征图输入至注意力机制网络,得到第四特征图;将所述第四特征图输入至第三深度学习网络,生成生物体姿态关键点信息。
9.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
10.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
CN202010403394.0A 2020-05-13 2020-05-13 用于生成生物体姿态关键点信息的方法和装置 Active CN111582206B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010403394.0A CN111582206B (zh) 2020-05-13 2020-05-13 用于生成生物体姿态关键点信息的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010403394.0A CN111582206B (zh) 2020-05-13 2020-05-13 用于生成生物体姿态关键点信息的方法和装置

Publications (2)

Publication Number Publication Date
CN111582206A CN111582206A (zh) 2020-08-25
CN111582206B true CN111582206B (zh) 2023-08-22

Family

ID=72113455

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010403394.0A Active CN111582206B (zh) 2020-05-13 2020-05-13 用于生成生物体姿态关键点信息的方法和装置

Country Status (1)

Country Link
CN (1) CN111582206B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229497A (zh) * 2017-07-28 2018-06-29 北京市商汤科技开发有限公司 图像处理方法、装置、存储介质、计算机程序和电子设备
CN109558864A (zh) * 2019-01-16 2019-04-02 苏州科达科技股份有限公司 人脸关键点检测方法、装置及存储介质
CN109697446A (zh) * 2018-12-04 2019-04-30 北京字节跳动网络技术有限公司 图像关键点提取方法、装置、可读存储介质及电子设备
CN109858444A (zh) * 2019-01-31 2019-06-07 北京字节跳动网络技术有限公司 人体关键点检测模型的训练方法和装置
WO2019122168A1 (en) * 2017-12-21 2019-06-27 Yoti Holding Limited Biometric user authentication
CN110827342A (zh) * 2019-10-21 2020-02-21 中国科学院自动化研究所 三维人体模型重建方法及存储设备、控制设备
CN110991443A (zh) * 2019-10-29 2020-04-10 北京海益同展信息科技有限公司 关键点检测、图像处理方法、装置、电子设备及存储介质
CN111008618A (zh) * 2019-10-29 2020-04-14 黄山学院 一种自注意力深度学习端到端的行人再识别方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229497A (zh) * 2017-07-28 2018-06-29 北京市商汤科技开发有限公司 图像处理方法、装置、存储介质、计算机程序和电子设备
WO2019122168A1 (en) * 2017-12-21 2019-06-27 Yoti Holding Limited Biometric user authentication
CN109697446A (zh) * 2018-12-04 2019-04-30 北京字节跳动网络技术有限公司 图像关键点提取方法、装置、可读存储介质及电子设备
CN109558864A (zh) * 2019-01-16 2019-04-02 苏州科达科技股份有限公司 人脸关键点检测方法、装置及存储介质
CN109858444A (zh) * 2019-01-31 2019-06-07 北京字节跳动网络技术有限公司 人体关键点检测模型的训练方法和装置
CN110827342A (zh) * 2019-10-21 2020-02-21 中国科学院自动化研究所 三维人体模型重建方法及存储设备、控制设备
CN110991443A (zh) * 2019-10-29 2020-04-10 北京海益同展信息科技有限公司 关键点检测、图像处理方法、装置、电子设备及存储介质
CN111008618A (zh) * 2019-10-29 2020-04-14 黄山学院 一种自注意力深度学习端到端的行人再识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"姿态检测网络在服装关键点检测中的应用";季晨颖等;《中国科技论文》;第15卷(第3期);全文 *

Also Published As

Publication number Publication date
CN111582206A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
CN109902659B (zh) 用于处理人体图像的方法和装置
CN111368685B (zh) 关键点的识别方法、装置、可读介质和电子设备
CN106846497B (zh) 应用于终端的呈现三维地图的方法和装置
CN111091166B (zh) 图像处理模型训练方法、图像处理方法、设备及存储介质
CN112668588B (zh) 车位信息生成方法、装置、设备和计算机可读介质
CN109754464B (zh) 用于生成信息的方法和装置
CN111950570B (zh) 目标图像提取方法、神经网络训练方法及装置
CN112381707B (zh) 图像生成方法、装置、设备以及存储介质
CN112884770A (zh) 图像分割处理方法、装置及计算机设备
CN110427915A (zh) 用于输出信息的方法和装置
CN111598899A (zh) 图像处理方法、装置及计算机可读存储介质
CN112990053A (zh) 图像处理方法、装置、设备及存储介质
CN110288532B (zh) 生成全身图像的方法、装置、设备及计算机可读存储介质
CN112037305B (zh) 对图像中的树状组织进行重建的方法、设备及存储介质
CN114693876A (zh) 数字人生成方法、装置、存储介质和电子设备
CN113257412B (zh) 信息处理方法、装置、计算机设备及存储介质
CN112714263B (zh) 视频生成方法、装置、设备及存储介质
CN112115900B (zh) 图像处理方法、装置、设备及存储介质
CN111368668B (zh) 三维手部识别方法、装置、电子设备及存储介质
CN109816791B (zh) 用于生成信息的方法和装置
CN111582208B (zh) 用于生成生物体姿态关键点信息的方法和装置
CN111582206B (zh) 用于生成生物体姿态关键点信息的方法和装置
CN113743186B (zh) 医学图像的处理方法、装置、设备及存储介质
CN111798385B (zh) 图像处理方法及装置、计算机可读介质和电子设备
CN111353470B (zh) 图像的处理方法、装置、可读介质和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Tiktok vision (Beijing) Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: BEIJING BYTEDANCE NETWORK TECHNOLOGY Co.,Ltd.

Address after: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant after: Douyin Vision Co.,Ltd.

Address before: 100041 B-0035, 2 floor, 3 building, 30 Shixing street, Shijingshan District, Beijing.

Applicant before: Tiktok vision (Beijing) Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant