CN108664948A - 用于生成信息的方法和装置 - Google Patents
用于生成信息的方法和装置 Download PDFInfo
- Publication number
- CN108664948A CN108664948A CN201810489758.4A CN201810489758A CN108664948A CN 108664948 A CN108664948 A CN 108664948A CN 201810489758 A CN201810489758 A CN 201810489758A CN 108664948 A CN108664948 A CN 108664948A
- Authority
- CN
- China
- Prior art keywords
- human body
- information
- sample
- network
- body image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 78
- 238000000605 extraction Methods 0.000 claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 35
- 210000000746 body region Anatomy 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 6
- 239000003795 chemical substances by application Substances 0.000 description 27
- 230000003321 amplification Effects 0.000 description 10
- 238000003199 nucleic acid amplification method Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 230000006854 communication Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 210000002414 leg Anatomy 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 210000004218 nerve net Anatomy 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000000047 product Substances 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 2
- 230000005291 magnetic effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000005267 amalgamation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于生成信息的方法和装置。该方法的一具体实施方式包括:获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;将目标人体图像输入特征提取网络,获得人体特征图像;将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。该实施方式提高了信息生成的准确性。
Description
技术领域
本申请实施例涉及计算机技术领域,尤其涉及用于生成信息的方法和装置。
背景技术
人体解析是对人体图像进行分析,确定出人体图像中所包括人体部位,例如头部、四肢等。
现有技术中,通常利用深度学习方法,对人体图像进行像素级别的人体解析。像素级别的人体解析可以对人体图像中的每个像素进行解析,进而确定出各像素所属于的人体部位。
发明内容
本申请实施例提出了用于生成信息的方法和装置。
第一方面,本申请实施例提供了一种用于生成信息的方法,该方法包括:获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;将目标人体图像输入特征提取网络,获得人体特征图像;将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
在一些实施例中,在将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息之后,该方法还包括:获取预先训练的第二卷积神经网络,其中,第二卷积神经网络包括第二信息生成网络和融合网络;将特征提取网络输出的人体特征图像输入第二信息生成网络,生成目标人体图像所对应的第二人体部位信息;将第一信息生成网络输出的第一人体部位信息和第二信息生成网络输出的第二人体部位信息输入融合网络,获得目标人体图像所对应的目标人体部位信息。
在一些实施例中,第一信息生成网络包括子信息生成网络,对于子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合;以及将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息,包括:将所获得的放大后的人体部位图像区域输入第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息;将所获得的预设子信息确定为目标人体图像所对应的第一人体部位信息。
在一些实施例中,预设子信息集合中的预设子信息通过如下步骤得到:获取第一样本集,其中,第一样本包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息,第一样本集中包括至少两个所包括的第一样本人体部位信息相同的第一样本;从第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组;对于至少一个目标第一样本组中的目标第一样本组,执行以下步骤:对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果;基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心;基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息;将所生成的第一样本人体部位子信息确定为预设子信息。
在一些实施例中,第一卷积神经网络通过如下步骤训练得到:获取第二样本集,其中,第二样本包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息;将第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到第一卷积神经网络。
第二方面,本申请实施例提供了一种用于生成信息的装置,该装置包括:第一获取单元,被配置成获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;第一输入单元,被配置成将目标人体图像输入特征提取网络,获得人体特征图像;第二输入单元,被配置成将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;放大单元,被配置成对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;第三输入单元,被配置成将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
在一些实施例中,该装置还包括:第二获取单元,被配置成获取预先训练的第二卷积神经网络,其中,第二卷积神经网络包括第二信息生成网络和融合网络;第四输入单元,被配置成将特征提取网络输出的人体特征图像输入第二信息生成网络,生成目标人体图像所对应的第二人体部位信息;第五输入单元,被配置成将第一信息生成网络输出的第一人体部位信息和第二信息生成网络输出的第二人体部位信息输入融合网络,获得目标人体图像所对应的目标人体部位信息。
在一些实施例中,第一信息生成网络包括子信息生成网络,对于子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合;以及第三输入单元包括:输入模块,被配置成将所获得的放大后的人体部位图像区域输入第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息;确定模块,被配置成将所获得的预设子信息确定为目标人体图像所对应的第一人体部位信息。
在一些实施例中,预设子信息集合中的预设子信息通过如下步骤得到:获取第一样本集,其中,第一样本包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息,第一样本集中包括至少两个所包括的第一样本人体部位信息相同的第一样本;从第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组;对于至少一个目标第一样本组中的目标第一样本组,执行以下步骤:对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果;基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心;基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息;将所生成的第一样本人体部位子信息确定为预设子信息。
在一些实施例中,第一卷积神经网络通过如下步骤训练得到:获取第二样本集,其中,第二样本包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息;将第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到第一卷积神经网络。
第三方面,本申请实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述用于生成信息的方法中任一实施例的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该程序被处理器执行时实现上述用于生成信息的方法中任一实施例的方法。
本申请实施例提供的用于生成信息的方法和装置,通过获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络,然后将目标人体图像输入特征提取网络,获得人体特征图像,接着将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域,然后对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域,最后将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息,从而有效利用了放大后的人体部位图像区域来生成人体图像所对应的人体部位信息,可以在生成人体部位信息的过程中,考虑与人体部位图像区域相邻的图像区域的特征,提高了信息生成的准确性。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的用于生成信息的方法的一个实施例的流程图;
图3是根据本申请的用于生成信息的方法的一个应用场景的示意图;
图4是根据本申请的用于生成信息的方法的又一个实施例的流程图;
图5是根据本申请的用于生成信息的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于生成信息的方法或用于生成信息的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像处理类应用、网页浏览器应用、搜索类应用、即时通信工具、美图软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的图像进行处理的图像处理服务器。图像处理服务器可以对接收到的人体图像等数据进行分析等处理,并将处理结果(例如第一人体部位信息)反馈给终端设备。
需要说明的是,本申请实施例所提供的用于生成信息的方法可以由终端设备101、102、103执行,也可以由服务器105执行,相应地,用于生成信息的装置可以设置于终端设备101、102、103中,也可以设置于服务器105中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。特别地,在生成人体部位信息的过程中所使用的数据不需要从远程获取的情况下,上述系统架构可以不包括网络。
继续参考图2,示出了根据本申请的用于生成信息的方法的一个实施例的流程200。该用于生成信息的方法,包括以下步骤:
步骤201,获取目标人体图像和预先训练的第一卷积神经网络。
在本实施例中,用于生成信息的方法的执行主体(例如图1所示的终端设备101、102、103)可以通过有线连接方式或者无线连接方式获取目标人体图像和预先训练的第一卷积神经网络。其中,目标人体图像为待对其进行解析以确定其所对应的人体部位信息的人体图像。第一卷积神经网络可以用于表征人体图像与人体图像所对应的第一人体部位信息的对应关系。第一人体部位信息可以包括但不限于以下至少一项:文字、数字、符号、图片。第一人体部位信息可以用于指示所输入的人体图像所包括的人体部位图像的类别(例如头部、颈部等)。
具体的,第一卷积神经网络可以包括特征提取网络、区域划分网络和第一信息生成网络。特征提取网络可以用于提取所输入的人体图像的图像特征。区域划分网络可以用于基于特征提取网络所提取的图像特征,对人体图像进行划分,获得人体部位图像区域。第一信息生成网络可以用于生成人体图像所对应的第一人体部位信息。
在本实施例中,第一卷积神经网络可以为预先利用机器学习方法,基于训练样本对作为初始模型的初始卷积神经网络进行训练后所得到的模型。实践中,卷积神经网络是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现,因而,可以利用卷积神经网络进行图像的处理。需要说明的是,上述执行主体可以利用各种方式(例如有监督训练、无监督训练等方式)训练上述初始卷积神经网络得到第一卷积神经网络。
在这里,上述执行主体可以获取预先存储于本地的目标人体图像和预先训练的第一卷积神经网络,也可以获取与之通信连接的其他电子设备(例如图1所示的服务器105)发送的目标人体图像和预先训练的第一卷积神经网络。
在本实施例的一些可选的实现方式中,上述执行主体或其他电子设备可以通过如下步骤训练得到上述第一卷积神经网络:首先,获取第二样本集,其中,第二样本集中的第二样本可以包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息。然后,可以将第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到上述第一卷积神经网络。
步骤202,将目标人体图像输入特征提取网络,获得人体特征图像。
在本实施例中,基于步骤201得到的目标人体图像和预先训练的第一卷积神经网络,上述执行主体可以将目标人体图像输入上述第一卷积神经网络中的特征提取网络,获得人体特征图像。其中,特征提取网络可以用于提取目标人体图像的图像特征,获得人体特征图像。人体特征图像可以用于表征人体特征。人体特征可以包括但不限于以下至少一项:肤色、身高、脸宽、腿长。
具体的,作为示例,特征提取网络可以包括卷积层,进而,上述执行主体可以通过特征提取网络中的卷积层提取目标人体图像的图像特征,获得人体特征图像。
步骤203,将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域。
在本实施例中,基于步骤202得到的人体特征图像,上述执行主体可以将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域。其中,区域划分网络可以用于基于所输入的人体特征图像,对目标人体图像进行划分,生成至少一个人体部位图像区域。
具体的,作为示例,区域划分网络可以包括区域级解析网络(Region-levelParsing Network,R-PN),进而,上述执行主体可以通过区域划分网络中的区域级解析网络生成至少一个人体部位图像区域。实践中,区域级解析网络可以基于图像的图像特征对图像进行处理,提取出图像的感兴趣区域(Region of Interest,ROI),进而,可以将所获得的感兴趣区域确定为上述至少一个人体部位图像区域。需要说明的是,感兴趣区域可以为从待处理图像中以方框、圆、椭圆、不规则多边形等方式勾勒出的、需要处理的区域。
步骤204,对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域。
在本实施例中,对于步骤203中得到的至少一个人体部位图像区域中的人体部位图像区域,上述执行主体可以将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域。其中,预设倍数可以为技术人员预先设置的大于1的数。具体的,上述执行主体可以将上述至少一个人体部位图像区域中的各个人体部位图像区域的尺寸放大预设倍数,也可以将上述至少一个人体部位图像区域中的一个或多个人体部位图像区域的尺寸放大预设倍数,具体可以由技术人员确定。需要说明的是,人体部位图像区域的尺寸可以为技术人员预先确定的参数的尺寸,例如可以为边长的尺寸、半径的尺寸等。
可以理解的是,将人体部位图像区域放大预设倍数后,可以在获取了人体部位图像的基础上,得到与该人体部位图像相邻的部分图像区域,进而,结合与该人体部位图像相邻的部分图像区域的图像特征,可以对该人体部位图像进行更为准确的识别。例如,待识别的人体部位图像是头部图像,放大后的人体部位图像可以包括部分颈部图像,由于头部与颈部相邻,故基于包括部分颈部图像的放大后人体部位图像,可以对待识别的人体部位图像进行更为准确的识别。
步骤205,将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
在本实施例中,基于步骤204中得到的放大后的人体部位图像区域,上述执行主体可以将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。其中,第一人体部位信息为通过上述第一卷积神经网络生成的人体部位信息。所生成的第一人体部位信息可以为针对目标人体图像中的各个放大后的人体部位图像区域所标注出的人体部位信息。第一信息生成网络可以用于对所输入的放大后的人体部位图像区域进行识别,确定出各个放大后的人体部位图像区域所对应的人体部位,生成目标人体图像所对应的第一人体部位信息。
具体的,作为示例,第一信息生成网络可以包括分类器,上述执行主体可以通过第一信息生成网络中的分类器对所输入的放大后的人体部位图像区域进行分类,确定出各个放大后的人体部位图像区域所对应的人体部位,生成目标人体图像所对应的第一人体部位信息。
在本实施例的一些可选的实现方式中,第一信息生成网络可以包括子信息生成网络,对于子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合,其中,预设子信息可以包括但不限于以下至少一项:文字、数字、符号、图片。预设子信息可以用于指示人体图像所包括的人体部位图像的子类别。例如,若某人体部位图像的类别为胳膊,预设子信息可以用于指示该人体部位图像所对应的是左胳膊还是右胳膊。
在这里,上述执行主体可以通过如下步骤生成目标人体图像所对应的第一人体部位信息:首先,上述执行主体可以将所获得的放大后的人体部位图像区域输入第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息。然后,上述执行主体可以将所获得的预设子信息确定为目标人体图像所对应的第一人体部位信息。
在本实施例的一些可选的实现方式中,上述执行主体或其他电子设备可以通过如下步骤得到上述预设子信息集合中的预设子信息:
首先,可以获取第一样本集。其中,第一样本集中的第一样本可以包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息。并且,第一样本集中可以包括至少两个所包括的第一样本人体部位信息相同的第一样本。
示例性的,第一样本集可以包括五个第一样本,各个第一样本的第一样本部位信息可以为:头部、胳膊、腿、胳膊、胳膊。可见,该第一样本集包括三个第一样本部位信息相同(均为胳膊)的第一样本。
然后,可以从第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组。其中,对于至少一个目标第一样本组中的每个目标第一样本组,该目标第一样本组所包括的第一样本的第一样本人体部位信息相同。
示例性的,各个第一样本的第一样本部位信息为:头部、胳膊、腿、胳膊、胳膊。则可以生成一个目标第一样本组,其中,该目标第一样本组中包括三个第一样本,各个第一样本的第一样本部位信息均为胳膊。
最后,对于至少一个目标第一样本组中的目标第一样本组,可以执行以下预设子信息确定步骤:
步骤一,对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果。
其中,计算结果可以用于表征所计算的两个第一样本人体部位图像的相似程度。具体的,作为示例,所获得的计算结果可以为用于表征所计算的两个第一样本人体部位图像的相似特征的特征矩阵。需要说明的是,交并比计算是目前广泛研究和应用的现有技术,在此不再赘述。
步骤二、基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心。
具体的,可以将所获得的计算结果作为聚类分析的输入,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心。需要说明的是,聚类分析是目前广泛研究和应用的现有技术,在此不再赘述。
示例性的,针对包括三个第一样本且各个第一样本的第一样本人体部位信息均为胳膊的目标第一样本组,通过上述步骤一和步骤二可以得到该目标第一样本组所对应的人体部位“胳膊”的两个子类别,即得到了两个聚类中心(第一类胳膊、第二类胳膊)。
步骤三、基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息。
具体的,可以将所获得的聚类中心直接确定为该目标第一样本组所对应的第一样本人体部位子信息,也可以对所获得的聚类中心进行处理(例如添加预设信息),获得该目标第一样本组所对应的第一样本人体部位子信息。
步骤四、将所生成的第一样本人体部位子信息确定为预设子信息。
需要说明的是,上述执行主体或其他电子设备可以基于所获得的至少一个目标第一样本组,对至少一个目标第一样本组中的每个目标第一样本组执行上述预设子信息确定步骤,也可以对至少一个目标第一样本组中的一个或多个目标第一样本组执行上述预设子信息确定步骤,具体可以由技术人员确定。
继续参见图3,图3是根据本实施例的用于生成信息的方法的应用场景的一个示意图。在图3的应用场景中,手机可以首先获取用户的人体图像作为目标人体图像,如附图标记301所示,并获取预先训练的第一卷积神经网络,其中,第一卷积神经网络可以包括特征提取网络、区域划分网络和第一信息生成网络;然后,上述手机可以将目标人体图像输入特征提取网络,获得人体特征图像;接着,上述手机可以将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域,如附图标记302所示;对于至少一个人体部位图像区域中的人体部位图像区域,手机可以将该人体部位图像区域的尺寸放大预设倍数(1.2倍),获得放大后的人体部位图像区域,如附图标记303所示;最后,上述手机可以将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息,如附图标记304所示。
本申请的上述实施例提供的方法通过获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络,然后将目标人体图像输入特征提取网络,获得人体特征图像,接着将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域,然后对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域,最后将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息,从而有效利用了放大后的人体部位图像区域来生成人体图像所对应的人体部位信息,可以在生成人体部位信息的过程中,考虑人体部位图像区域的上下文信息,提高了信息生成的准确性。
进一步参考图4,其示出了用于生成信息的方法的又一个实施例的流程400。该用于生成信息的方法的流程400,包括以下步骤:
步骤401,获取目标人体图像和预先训练的第一卷积神经网络。
在本实施例中,用于生成信息的方法的执行主体(例如图1所示的终端设备101、102、103)可以通过有线连接方式或者无线连接方式获取目标人体图像和预先训练的第一卷积神经网络。其中,目标人体图像为待对其进行解析以确定其所对应的人体部位信息的人体图像。第一卷积神经网络可以用于表征人体图像与人体图像所对应的第一人体部位信息的对应关系。第一人体部位信息可以包括但不限于以下至少一项:文字、数字、符号、图片。第一人体部位信息可以用于指示所输入的人体图像所包括的人体部位图像的类别。
具体的,第一卷积神经网络可以包括特征提取网络、区域划分网络和第一信息生成网络。特征提取网络可以用于提取所输入的人体图像的图像特征。区域划分网络可以用于基于特征提取网络所提取的图像特征,对人体图像进行划分,获得人体部位图像区域。第一信息生成网络可以用于生成人体图像所对应的第一人体部位信息。
步骤402,将目标人体图像输入特征提取网络,获得人体特征图像。
在本实施例中,基于步骤401得到的目标人体图像和预先训练的第一卷积神经网络,上述执行主体可以将目标人体图像输入上述第一卷积神经网络中的特征提取网络,获得人体特征图像。其中,特征提取网络可以用于提取目标人体图像的图像特征,获得人体特征图像。
步骤403,将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域。
在本实施例中,基于步骤402得到的人体特征图像,上述执行主体可以将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域。其中,区域划分网络可以用于基于所输入的人体特征图像,对目标人体图像进行划分,生成至少一个人体部位图像区域。
步骤404,对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域。
在本实施例中,对于步骤403中得到的至少一个人体部位图像区域中的人体部位图像区域,上述执行主体可以将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域。其中,预设倍数可以为技术人员预先设置的大于1的数。具体的,上述执行主体可以将上述至少一个人体部位图像区域中的各个人体部位图像区域的尺寸放大预设倍数,也可以将上述至少一个人体部位图像区域中的一个或多个人体部位图像区域的尺寸放大预设倍数,具体可以由技术人员确定。需要说明的是,人体部位图像区域的尺寸可以为技术人员预先确定的参数的尺寸等。
步骤405,将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
在本实施例中,基于步骤404中得到的放大后的人体部位图像区域,上述执行主体可以将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。其中,第一人体部位信息可以为通过上述第一卷积神经网络生成的人体部位信息。所生成的第一人体部位信息可以为针对目标人体图像中的各个放大后的人体部位图像区域所标注出的人体部位信息。第一信息生成网络可以用于对所输入的放大后的人体部位图像区域进行识别,确定出各个放大后的人体部位图像区域所对应的人体部位,生成目标人体图像所对应的第一人体部位信息。
上述步骤401、步骤402、步骤403、步骤404、步骤405分别与前述实施例中的步骤201、步骤202、步骤203、步骤204、步骤205一致,上文针对步骤201、步骤202、步骤203、步骤204和步骤205的描述也适用于步骤401、步骤402、步骤403、步骤404、步骤405,此处不再赘述。
步骤406,获取预先训练的第二卷积神经网络。
在本实施例中,上述执行主体可以获取预先训练的第二卷积神经网络。其中,第二卷积神经网络可以包括第二信息生成网络和融合网络。第二信息生成网络可以用于基于步骤402所获得的人体特征图像,生成人体图像所对应的第二人体部位信息。融合网络可以用于对步骤405生成的第一人体部位信息和第二信息生成网络生成的第二人体部位信息进行融合,获得目标人体部位信息。
在这里,第二人体部位信息可以包括但不限于以下至少一项:文字、数字、符号、图片。第二人体部位信息可以用于指示所输入的人体图像所包括的各个像素所对应的人体部位的类别。目标人体部位信息可以包括但不限于以下至少一项:文字、数字、符号、图片。目标人体部位信息可以为待输出的、通过第一卷积神经网络和第二卷积神经网络获得的、最终的人体部位信息。
在本实施例中,第二卷积神经网络可以为预先利用机器学习方法,基于训练样本对作为初始模型的初始卷积神经网络进行训练后所得到的模型。
需要说明的是,上述执行主体可以获取预先存储于本地的第二卷积神经网络,也可以获取与之通信连接的电子设备(例如图1所示的服务器105)发送的第二卷积神经网络。
步骤407,将特征提取网络输出的人体特征图像输入第二信息生成网络,生成目标人体图像所对应的第二人体部位信息。
在本实施例中,上述执行主体可以将特征提取网络输出的人体特征图像输入第二信息生成网络,生成目标人体图像所对应的第二人体部位信息。其中,第二人体部位信息可以为通过上述第二卷积神经网络生成的人体部位信息。所生成的第二人体部位信息可以为针对目标人体图像中的像素点所标注出的人体部位信息。第二信息生成网络可以用于基于所输入的人体特征图像,对目标人体图像进行识别,确定出目标人体图像中的像素点所对应的人体部位,生成目标人体图像所对应的第二人体部位信息。
具体的,作为示例,第二信息生成网络可以包括像素级解析网络(Pixel-levelParing Network,PPN),进而,上述执行主体可以通过第二信息生成网络中的像素级解析网络对目标人体图像进行识别,确定出目标人体图像中的像素点所对应的人体部位,生成目标人体图像所对应的第二人体部位信息。
步骤408,将第一信息生成网络输出的第一人体部位信息和第二信息生成网络输出的第二人体部位信息输入融合网络,获得目标人体图像所对应的目标人体部位信息。
在本实施例中,上述执行主体可以将第一信息生成网络输出的第一人体部位信息和第二信息生成网络输出的第二人体部位信息输入融合网络,获得目标人体图像所对应的目标人体部位信息。在这里,上述执行主体可以利用融合网络通过各种融合方式对第一人体部位信息和第二人体部位信息进行融合,获得目标人体部位信息。需要说明的是,上述融合方式可以为技术人员预先确定的。
具体的,作为示例,对于目标人体图像的某个人体部位图像区域,若通过第一信息生成网络生成的第一人体部位信息与通过第二信息生成网络生成的第二人体部位信息相同,则可以将该相同的人体部位信息确定为目标人体部位信息。若通过第一信息生成网络生成的第一人体部位信息与通过第二信息生成网络生成的第二人体部位信息不相同,则上述执行主体可以获取上述人体部位图像区域所对应的人体部位为第一人体部位信息所表征的人体部位的概率,以及上述人体部位图像区域所对应的人体部位为第二人体部位信息所表征的人体部位的概率,进而从所获取的概率中选取数值较大的概率值所对应的人体部位信息作为目标人体部位信息。
需要说明的是,对人体图像进行解析时,对于人体图像中的每个人体部位图像区域,通常首先生成该人体部位图像区域所对应的候选人体部位信息,对于每个候选人体部位信息,通常可以包括该人体部位图像区域所对应的人体部位是该候选人体部位信息所表征的人体部位的概率,进而可以基于候选人体部位信息中概率值最大的候选人体部位信息,生成该人体部位图像区域所对应的人体部位信息。例如,对于某人体部位图像区域,所生成的候选人体部位信息可以包括“胳膊:0.6;腿:0.4”,由于0.6大于0.4,故可以生成该人体部位图像区域所对应的人体部位信息“胳膊”。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于生成信息的方法的流程400突出了获取第二卷积神经网络,并将第一卷积神经网络所输出的第一人体部位信息输入第二卷积神经网络,获得目标人体部位信息的步骤。由此,本实施例描述的方案可以通过第二卷积神经网络对第一卷积神经网络所输出的第一人体部位信息进行验证,从而实现更准确的信息生成。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于生成信息的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于生成信息的装置500包括:第一获取单元501、第一输入单元502、第二输入单元503、放大单元504和第三输入单元505。其中,第一获取单元501被配置成获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络可以包括特征提取网络、区域划分网络和第一信息生成网络;第一输入单元502被配置成将目标人体图像输入特征提取网络,获得人体特征图像;第二输入单元503被配置成将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;放大单元504被配置成对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;第三输入单元505被配置成将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
在本实施例中,用于生成信息的装置500的第一获取单元501可以通过有线连接方式或者无线连接方式获取目标人体图像和预先训练的第一卷积神经网络。其中,目标人体图像为待对其进行解析以确定其所对应的人体部位信息的人体图像。第一卷积神经网络可以用于表征人体图像与人体图像所对应的第一人体部位信息的对应关系。第一人体部位信息可以包括但不限于以下至少一项:文字、数字、符号、图片。第一人体部位信息可以用于指示所输入的人体图像所包括的人体部位图像的类别。
具体的,第一卷积神经网络可以包括特征提取网络、区域划分网络和第一信息生成网络。特征提取网络可以用于提取所输入的人体图像的图像特征。区域划分网络可以用于基于特征提取网络所提取的图像特征,对人体图像进行划分,获得人体部位图像区域。第一信息生成网络可以用于生成人体图像所对应的第一人体部位信息。
在本实施例中,基于第一获取单元501得到的目标人体图像和预先训练的第一卷积神经网络,第一输入单元502可以将目标人体图像输入上述第一卷积神经网络中的特征提取网络,获得人体特征图像。其中,特征提取网络可以用于提取目标人体图像的图像特征,获得人体特征图像。
在本实施例中,基于第一输入单元502得到的人体特征图像,第二输入单元503可以将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域。其中,区域划分网络可以用于基于所输入的人体特征图像,对目标人体图像进行划分,生成至少一个人体部位图像区域。
在本实施例中,对于第二输入单元503得到的至少一个人体部位图像区域中的人体部位图像区域,放大单元504可以将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域。其中,预设倍数可以为技术人员预先设置的大于1的数。具体的,放大单元504可以将上述至少一个人体部位图像区域中的各个人体部位图像区域的尺寸放大预设倍数,也可以将上述至少一个人体部位图像区域中的一个或多个人体部位图像区域的尺寸放大预设倍数,具体可以由技术人员确定。需要说明的是,人体部位图像区域的尺寸可以为技术人员预先确定的参数的尺寸。
在本实施例中,基于放大单元504得到的放大后的人体部位图像区域,第三输入单元505可以将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。其中,第一人体部位信息可以为通过上述第一卷积神经网络生成的人体部位信息。所生成的第一人体部位信息可以为针对目标人体图像中的各个放大后的人体部位图像区域所标注出的人体部位信息。第一信息生成网络可以用于对所输入的放大后的人体部位图像区域进行识别,确定出各个放大后的人体部位图像区域所对应的人体部位,生成目标人体图像所对应的第一人体部位信息。
在本实施例的一些可选的实现方式中,该装置500还可以包括:第二获取单元,被配置成获取预先训练的第二卷积神经网络,其中,第二卷积神经网络包括第二信息生成网络和融合网络;第四输入单元,被配置成将特征提取网络输出的人体特征图像输入第二信息生成网络,生成目标人体图像所对应的第二人体部位信息;第五输入单元,被配置成将第一信息生成网络输出的第一人体部位信息和第二信息生成网络输出的第二人体部位信息输入融合网络,获得目标人体图像所对应的目标人体部位信息。
在本实施例的一些可选的实现方式中,第一信息生成网络可以包括子信息生成网络,对于子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合;以及第三输入单元505可以包括:输入模块,被配置成将所获得的放大后的人体部位图像区域输入第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息;确定模块,被配置成将所获得的预设子信息确定为目标人体图像所对应的第一人体部位信息。
在本实施例的一些可选的实现方式中,预设子信息集合中的预设子信息可以通过如下步骤得到:获取第一样本集,其中,第一样本包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息,第一样本集中包括至少两个所包括的第一样本人体部位信息相同的第一样本;从第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组;对于至少一个目标第一样本组中的目标第一样本组,执行以下步骤:对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果;基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心;基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息;将所生成的第一样本人体部位子信息确定为预设子信息。
在本实施例的一些可选的实现方式中,第一卷积神经网络可以通过如下步骤训练得到:获取第二样本集,其中,第二样本包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息;将第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到上述第一卷积神经网络。
需要说明的是,该装置实施例与图2所示的方法实施例相对应,其可以具有与图2所示的方法实施例相应的技术特征。
本申请的上述实施例提供的装置500通过第一获取单元501获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;第一输入单元502将目标人体图像输入特征提取网络,获得人体特征图像;第二输入单元503将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;对于至少一个人体部位图像区域中的人体部位图像区域,放大单元504将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;第三输入单元505将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息,从而有效利用了放大后的人体部位图像区域来生成人体图像所对应的人体部位信息,可以在生成人体部位信息的过程中,考虑人体部位图像区域的上下文信息,提高了信息生成的准确性。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备(例如服务器或终端设备)的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括第一获取单元、第一输入单元、第二输入单元、放大单元和第三输入单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取目标人体图像和预先训练的第一卷积神经网络的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取目标人体图像和预先训练的第一卷积神经网络,其中,第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;将目标人体图像输入特征提取网络,获得人体特征图像;将所获得的人体特征图像输入区域划分网络,生成至少一个人体部位图像区域;对于至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;将所获得的放大后的人体部位图像区域输入第一信息生成网络,生成目标人体图像所对应的第一人体部位信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (12)
1.一种用于生成信息的方法,包括:
获取目标人体图像和预先训练的第一卷积神经网络,其中,所述第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;
将所述目标人体图像输入所述特征提取网络,获得人体特征图像;
将所获得的人体特征图像输入所述区域划分网络,生成至少一个人体部位图像区域;
对于所述至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;
将所获得的放大后的人体部位图像区域输入所述第一信息生成网络,生成所述目标人体图像所对应的第一人体部位信息。
2.根据权利要求1所述的方法,其中,在所述将所获得的放大后的人体部位图像区域输入所述第一信息生成网络,生成所述目标人体图像所对应的第一人体部位信息之后,所述方法还包括:
获取预先训练的第二卷积神经网络,其中,所述第二卷积神经网络包括第二信息生成网络和融合网络;
将所述特征提取网络输出的人体特征图像输入所述第二信息生成网络,生成所述目标人体图像所对应的第二人体部位信息;
将所述第一信息生成网络输出的第一人体部位信息和所述第二信息生成网络输出的第二人体部位信息输入所述融合网络,获得所述目标人体图像所对应的目标人体部位信息。
3.根据权利要求1所述的方法,其中,所述第一信息生成网络包括子信息生成网络,对于所述子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合;以及
所述将所获得的放大后的人体部位图像区域输入所述第一信息生成网络,生成所述目标人体图像所对应的第一人体部位信息,包括:
将所获得的放大后的人体部位图像区域输入所述第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息;
将所获得的预设子信息确定为所述目标人体图像所对应的第一人体部位信息。
4.根据权利要求3所述的方法,其中,所述预设子信息集合中的预设子信息通过如下步骤得到:
获取第一样本集,其中,第一样本包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息,所述第一样本集中包括至少两个所包括的第一样本人体部位信息相同的第一样本;
从所述第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组;
对于所述至少一个目标第一样本组中的目标第一样本组,执行以下步骤:对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果;基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心;基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息;将所生成的第一样本人体部位子信息确定为预设子信息。
5.根据权利要求1-4之一所述的方法,其中,所述第一卷积神经网络通过如下步骤训练得到:
获取第二样本集,其中,第二样本包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息;
将所述第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到所述第一卷积神经网络。
6.一种用于生成信息的装置,包括:
第一获取单元,被配置成获取目标人体图像和预先训练的第一卷积神经网络,其中,所述第一卷积神经网络包括特征提取网络、区域划分网络和第一信息生成网络;
第一输入单元,被配置成将所述目标人体图像输入所述特征提取网络,获得人体特征图像;
第二输入单元,被配置成将所获得的人体特征图像输入所述区域划分网络,生成至少一个人体部位图像区域;
放大单元,被配置成对于所述至少一个人体部位图像区域中的人体部位图像区域,将该人体部位图像区域的尺寸放大预设倍数,获得放大后的人体部位图像区域;
第三输入单元,被配置成将所获得的放大后的人体部位图像区域输入所述第一信息生成网络,生成所述目标人体图像所对应的第一人体部位信息。
7.根据权利要求6所述的装置,其中,所述装置还包括:
第二获取单元,被配置成获取预先训练的第二卷积神经网络,其中,所述第二卷积神经网络包括第二信息生成网络和融合网络;
第四输入单元,被配置成将所述特征提取网络输出的人体特征图像输入所述第二信息生成网络,生成所述目标人体图像所对应的第二人体部位信息;
第五输入单元,被配置成将所述第一信息生成网络输出的第一人体部位信息和所述第二信息生成网络输出的第二人体部位信息输入所述融合网络,获得所述目标人体图像所对应的目标人体部位信息。
8.根据权利要求6所述的装置,其中,所述第一信息生成网络包括子信息生成网络,对于所述子信息生成网络,预先设置有用于作为该网络的输出的预设子信息集合;以及
所述第三输入单元包括:
输入模块,被配置成将所获得的放大后的人体部位图像区域输入所述第一信息生成网络中的子信息生成网络,获得所输入的放大后的人体部位图像区域所对应的预设子信息;
确定模块,被配置成将所获得的预设子信息确定为所述目标人体图像所对应的第一人体部位信息。
9.根据权利要求8所述的装置,其中,所述预设子信息集合中的预设子信息通过如下步骤得到:
获取第一样本集,其中,第一样本包括第一样本人体部位图像以及预先标注的、与第一样本人体部位图像对应的第一样本人体部位信息,所述第一样本集中包括至少两个所包括的第一样本人体部位信息相同的第一样本;
从所述第一样本集中选取所包括的第一样本人体部位信息相同的第一样本生成目标第一样本组,以及得到至少一个目标第一样本组;
对于所述至少一个目标第一样本组中的目标第一样本组,执行以下步骤:对该目标第一样本组中的每两个第一样本人体部位图像进行交并比计算,获得计算结果;基于所获得的计算结果,对该目标第一样本组所包括的第一样本人体部位图像进行聚类,获得聚类中心;基于所获得的聚类中心,生成该目标第一样本组所对应的第一样本人体部位子信息;将所生成的第一样本人体部位子信息确定为预设子信息。
10.根据权利要求6-9之一所述的装置,其中,所述第一卷积神经网络通过如下步骤训练得到:
获取第二样本集,其中,第二样本包括第二样本人体图像以及预先标注的、与第二样本人体图像对应的第二样本人体部位信息;
将所述第二样本集中的每个第二样本的第二样本人体图像作为输入,将预先标注的、与输入的第二样本人体图像对应的第二样本人体部位信息作为输出,训练得到所述第一卷积神经网络。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-5中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810489758.4A CN108664948B (zh) | 2018-05-21 | 2018-05-21 | 用于生成信息的方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810489758.4A CN108664948B (zh) | 2018-05-21 | 2018-05-21 | 用于生成信息的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108664948A true CN108664948A (zh) | 2018-10-16 |
CN108664948B CN108664948B (zh) | 2022-12-27 |
Family
ID=63777145
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810489758.4A Active CN108664948B (zh) | 2018-05-21 | 2018-05-21 | 用于生成信息的方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108664948B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111783754A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于部位上下文的人体属性图像分类方法、系统和装置 |
CN112035038A (zh) * | 2020-08-31 | 2020-12-04 | 北京字节跳动网络技术有限公司 | 一种图片处理方法、装置、设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120045095A1 (en) * | 2010-08-18 | 2012-02-23 | Canon Kabushiki Kaisha | Image processing apparatus, method thereof, program, and image capturing apparatus |
CN106326857A (zh) * | 2016-08-19 | 2017-01-11 | 乐视控股(北京)有限公司 | 基于人脸图像的性别识别方法及装置 |
CN107910060A (zh) * | 2017-11-30 | 2018-04-13 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108038469A (zh) * | 2017-12-27 | 2018-05-15 | 百度在线网络技术(北京)有限公司 | 用于检测人体的方法和装置 |
-
2018
- 2018-05-21 CN CN201810489758.4A patent/CN108664948B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120045095A1 (en) * | 2010-08-18 | 2012-02-23 | Canon Kabushiki Kaisha | Image processing apparatus, method thereof, program, and image capturing apparatus |
CN106326857A (zh) * | 2016-08-19 | 2017-01-11 | 乐视控股(北京)有限公司 | 基于人脸图像的性别识别方法及装置 |
CN107910060A (zh) * | 2017-11-30 | 2018-04-13 | 百度在线网络技术(北京)有限公司 | 用于生成信息的方法和装置 |
CN108038469A (zh) * | 2017-12-27 | 2018-05-15 | 百度在线网络技术(北京)有限公司 | 用于检测人体的方法和装置 |
Non-Patent Citations (2)
Title |
---|
吴浩 等: "多神经网络在超声图像感兴趣区域检测中的应用", 《激光杂志》 * |
张恒瑜: "基于卷积神经网络的多部位人体检测", 《中国优秀硕士学位论文全文数据库信息科技辑(月刊)》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112035038A (zh) * | 2020-08-31 | 2020-12-04 | 北京字节跳动网络技术有限公司 | 一种图片处理方法、装置、设备及存储介质 |
CN111783754A (zh) * | 2020-09-04 | 2020-10-16 | 中国科学院自动化研究所 | 基于部位上下文的人体属性图像分类方法、系统和装置 |
CN111783754B (zh) * | 2020-09-04 | 2020-12-08 | 中国科学院自动化研究所 | 基于部位上下文的人体属性图像分类方法、系统和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108664948B (zh) | 2022-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108038469B (zh) | 用于检测人体的方法和装置 | |
CN108898185A (zh) | 用于生成图像识别模型的方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN108509915A (zh) | 人脸识别模型的生成方法和装置 | |
CN108830235A (zh) | 用于生成信息的方法和装置 | |
CN107168952A (zh) | 基于人工智能的信息生成方法和装置 | |
CN108446387A (zh) | 用于更新人脸注册库的方法和装置 | |
CN108229485A (zh) | 用于测试用户界面的方法和装置 | |
CN109034069A (zh) | 用于生成信息的方法和装置 | |
CN109086719A (zh) | 用于输出数据的方法和装置 | |
CN108595628A (zh) | 用于推送信息的方法和装置 | |
CN108494778A (zh) | 身份认证方法和装置 | |
CN108491823A (zh) | 用于生成人眼识别模型的方法和装置 | |
CN110009059A (zh) | 用于生成模型的方法和装置 | |
CN107910060A (zh) | 用于生成信息的方法和装置 | |
CN108960110A (zh) | 用于生成信息的方法和装置 | |
CN109344752A (zh) | 用于处理嘴部图像的方法和装置 | |
CN108509916A (zh) | 用于生成图像的方法和装置 | |
CN109214501A (zh) | 用于识别信息的方法和装置 | |
CN108133197A (zh) | 用于生成信息的方法和装置 | |
CN108509994A (zh) | 人物图像聚类方法和装置 | |
CN109299477A (zh) | 用于生成文本标题的方法和装置 | |
CN109117758A (zh) | 用于生成信息的方法和装置 | |
CN109241934A (zh) | 用于生成信息的方法和装置 | |
CN108491812A (zh) | 人脸识别模型的生成方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TG01 | Patent term adjustment | ||
TG01 | Patent term adjustment |