CN107622252A - 信息生成方法和装置 - Google Patents
信息生成方法和装置 Download PDFInfo
- Publication number
- CN107622252A CN107622252A CN201710908680.0A CN201710908680A CN107622252A CN 107622252 A CN107622252 A CN 107622252A CN 201710908680 A CN201710908680 A CN 201710908680A CN 107622252 A CN107622252 A CN 107622252A
- Authority
- CN
- China
- Prior art keywords
- coordinate
- detected
- image
- key point
- face key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本申请实施例公开了信息生成方法和装置。该方法的一具体实施方式包括:获取待检测图像和用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息;基于第一区域位置信息,对待检测图像进行人脸关键点定位操作,得到待检测图像所包括的各个人脸关键点的坐标;基于各个人脸关键点的坐标,确定用于限定待检测图像中的人脸区域的第二区域位置信息;生成待检测图像和第二区域位置信息的对应关系信息。该实施方式实现了富于针对性的信息生成。
Description
技术领域
本申请涉及计算机技术领域,具体涉及互联网技术领域,尤其涉及信息生成方法和装置。
背景技术
现有的目标(例如目标人脸等)跟踪方法通常是基于相关性的跟踪方法。例如通过一些相关性判断的方法将不同帧的目标串联起来,得到目标跟踪信息。但现有的目标跟踪方法存在鲁棒性差的问题。例如,当非目标与目标发生遮挡时,常常会导致目标的暂时消失。或当目标快速靠近或远离摄像头时可能导致目标大小突然增大或缩小,容易丢失。当目标再次出现时,往往不能很准确的继续跟踪到目标。
发明内容
本申请实施例的目的在于提出一种信息生成方法和装置。
第一方面,本申请实施例提供了一种信息生成方法,该方法包括:获取待检测图像和用于限定上述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标;基于上述各个人脸关键点的坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息;生成上述待检测图像和上述第二区域位置信息的对应关系信息。
在一些实施例中,上述基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标,包括:扩大上述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息;基于上述第三区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标。
在一些实施例中,上述基于上述第三区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标,包括:在上述待检测图像中截取上述第三区域位置信息所限定的区域以得到目标图像;将上述目标图像输入预先训练的第一人脸关键点定位模型,得到上述目标图像所包括的各个人脸关键点的坐标,并将上述目标图像所包括的各个人脸关键点确定为上述待检测图像所包括的各个人脸关键点,其中,上述第一人脸关键点定位模型用于表征包含人脸的图像与人脸关键点的坐标的对应关系。
在一些实施例中,上述基于上述第三区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标,还包括:将上述待检测图像和上述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到上述待检测图像所包括的各个人脸关键点的坐标,其中,上述第二人脸关键点定位模型用于表征输入信息与人脸关键点的坐标的对应关系,上述输入信息包括:包括人脸的图像、与该图像同时被输入的区域位置信息。
在一些实施例中,人脸区域可以为矩形区域。
在一些实施例中,上述基于上述各个人脸关键点的坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息,包括:基于上述待检测图像所包括的各个人脸关键点的坐标,确定上述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标;基于上述至少一项,生成上述第二区域位置信息。
在一些实施例中,上述基于上述待检测图像所包括的各个人脸关键点的坐标,确定上述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标,包括:从上述待检测图像所包括的各个人脸关键点的坐标中提取出最小的X坐标值和Y坐标值,以及最大的X坐标值和Y坐标值;基于上述最小的X坐标值和Y坐标值以及上述最大的X坐标值和Y坐标值,确定上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标。
在一些实施例中,上述基于上述至少一项,生成上述第二区域位置信息,包括:将上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标生成上述第二区域位置信息。
在一些实施例中,上述基于上述至少一项,生成上述第二区域位置信息,还包括:基于上述至少一项确定上述待检测图像中的人脸区域的高度和宽度;将所确定的上述待检测图像中的人脸区域的高度、宽度和以下至少一项生成上述第二区域位置信息:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。
在一些实施例中,上述扩大上述第一区域位置信息所限定的人脸区域的范围,包括:将上述第一区域位置信息所限定的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
第二方面,本申请实施例提供了一种信息生成装置,该装置包括:获取单元,配置用于获取待检测图像和用于限定上述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;第一确定单元,配置用于基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标;第二确定单元,配置用于基于上述各个人脸关键点的坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息;生成单元,配置用于生成上述待检测图像和上述第二区域位置信息的对应关系信息。
在一些实施例中,上述第一确定单元包括:扩大子单元,配置用于扩大上述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息;定位子单元,配置用于基于上述第三区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标。
在一些实施例中,上述定位子单元包括:截取模块,配置用于在上述待检测图像中截取上述第三区域位置信息所限定的区域以得到目标图像;第一确定模块,配置用于将上述目标图像输入预先训练的第一人脸关键点定位模型,得到上述目标图像所包括的各个人脸关键点的坐标,并将上述目标图像所包括的各个人脸关键点确定为上述待检测图像所包括的各个人脸关键点,其中,上述第一人脸关键点定位模型用于表征包含人脸的图像与人脸关键点的坐标的对应关系。
在一些实施例中,上述定位子单元还包括:第二确定模块,配置用于将上述待检测图像和上述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到上述待检测图像所包括的各个人脸关键点的坐标,其中,上述第二人脸关键点定位模型用于表征输入信息与人脸关键点的坐标的对应关系,上述输入信息包括:包括人脸的图像、与该图像同时被输入的区域位置信息。
在一些实施例中,人脸区域可以为矩形区域。
在一些实施例中,上述第二确定单元包括:确定子单元,配置用于基于上述待检测图像所包括的各个人脸关键点的坐标,确定上述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标;生成子单元,配置用于基于上述至少一项,生成上述第二区域位置信息。
在一些实施例中,上述确定子单元进一步配置用于:从上述待检测图像所包括的各个人脸关键点的坐标中提取出最小的X坐标值和Y坐标值,以及最大的X坐标值和Y坐标值;基于上述最小的X坐标值和Y坐标值以及上述最大的X坐标值和Y坐标值,确定上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标。
在一些实施例中,上述生成子单元进一步配置用于:将上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标生成上述第二区域位置信息。
在一些实施例中,上述生成子单元还进一步配置用于:基于上述至少一项确定上述待检测图像中的人脸区域的高度和宽度;将所确定的上述待检测图像中的人脸区域的高度、宽度和以下至少一项生成上述第二区域位置信息:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。
在一些实施例中,上述扩大子单元进一步配置用于:将上述第一区域位置信息所限定的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序;当上述一个或多个程序被上述一个或多个处理器执行,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,上述程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的信息生成方法和装置,通过获取待检测图像和用于限定该待检测图像的前一帧图像中的人脸区域的第一区域位置信息,以便基于该第一区域位置信息,对该待检测图像进行人脸关键点定位操作,得到该待检测图像所包括的各个人脸关键点的坐标。而后,基于该各个人脸关键点的坐标,确定用于限定该待检测图像中的人脸区域的第二区域位置信息,以便生成该待检测图像和该第二区域位置信息的对应关系信息。从而有效利用了用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息,实现了富于针对性的信息生成。
在视频流中,帧与帧之间的时间间隔通常比较短,目标所处的位置通常不会有太大的变化。因此,对于视频流中的非首帧的图像,可以利用该非首帧的图像的前一帧图像中的人脸区域的区域位置信息,来确定该非首帧的图像所包括的人脸区域所处的位置,以实现目标的跟踪。将本申请实施例提供的信息生成方法和装置应用于目标跟踪场景,可以尽可能地避免目标丢失,而且还可以实现目标跟踪的实时性,提高目标跟踪效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构图;
图2是根据本申请的信息生成方法的一个实施例的流程图;
图3是根据本申请的信息生成方法的一个应用场景的示意图;
图4是根据本申请的信息生成方法的又一个实施例的流程图;
图5是根据本申请的信息生成装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的信息生成方法或信息生成装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、即时通信工具、社交平台软件(例如视频聊天软件等)等。
终端设备101、102、103可以是能够产生视频流的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机、图像采集装置(例如摄像头)等等。
服务器105可以是提供各种服务的服务器,例如获取终端设备101、102、103所产生的视频流中的图像(该图像可以包括人脸区域),对该图像进行分析等处理,还可以生成用于表征该图像和该图像中的人脸区域的区域位置信息之间的对应关系的信息。
需要说明的是,本申请实施例所提供的信息生成方法一般由服务器105执行,相应地,信息生成装置一般设置于服务器105中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的信息生成方法的一个实施例的流程200。该信息生成方法的流程200,包括以下步骤:
步骤201,获取待检测图像和用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息。
在本实施例中,信息生成方法运行于其上的电子设备(例如图1所示的服务器105)例如可以实时获取待检测图像和用于限定该待检测图像的前一帧图像中的人脸区域的第一区域位置信息。这里,该待检测图像可以是上述电子设备所连接的终端设备(例如终端设备101、102、103)所产生的视频流中的非首帧图像。
需要说明的是,上述待检测图像所在的视频流中的首帧图像中的人脸区域的区域位置信息例如可以是上述电子设备基于预设的人脸区域检测方法生成的,也可以是与上述电子设备远程通信连接的服务器生成的,本实施例不对此方面内容做任何限定。
另外,人脸区域可以是具有任意形状(例如圆形、梯形等等)的人脸区域。作为示例,当上述待检测图像的前一帧图像中的人脸区域为圆形区域时,上述第一区域位置信息例如可以包括该人脸区域的中心点的坐标和该人脸区域的半径。
步骤202,基于第一区域位置信息,对待检测图像进行人脸关键点定位操作,得到待检测图像所包括的各个人脸关键点的坐标。
在本实施例中,上述电子设备在获取到上述待检测图像和上述第一区域位置信息后,上述电子设备可以基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到待检测图像所包括的各个人脸关键点的坐标。这里,人脸关键点的坐标可以是二维坐标,该二维坐标可以包括X坐标值和Y坐标值。
作为示例,上述电子设备可以在上述待检测图像中截取上述第一区域位置信息所限定的区域得到第一图像,上述电子设备可以将该第一图像输入预先训练的第一人脸关键点定位模型,得到该第一图像所包括的各个人脸关键点的坐标。上述电子设备可以将该第一图像所包括的各个人脸关键点确定为上述待检测图像所包括的各个人脸关键点。其中,该第一人脸关键点定位模型可以用于表征包括人脸的图像与人脸关键点的坐标的对应关系。这里,该第一人脸关键点定位模型例如可以是通过机器学习方法和训练样本对现有的卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。需要指出的是,该第一人脸关键点定位模型例如可以包括至少一个卷积层、至少一个池化层和一个全连接层(Fully Connected Layers,FC)。其中,卷积层可以用于提取图像特征(图像的特征可以是图像的各种基本要素,例如颜色、线条、纹理等);池化层可以用于对输入的信息进行降采样;全连接层可以用于输出各个人脸关键点的坐标。此外,该第一人脸关键点定位模型还可以使用各种非线性激活函数(例如ReLU(Rectified Linear Unit,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。实践中,卷积神经网络可以是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于大型图像处理有出色表现。
可选地,该第一人脸关键点定位模型还可以是技术人员基于大量统计而预先制定的、用于表征包括人脸的图像与人脸关键点的坐标的对应关系的对应关系表。需要说明的是,本实施例不对该第一人脸关键点定位模型的组成部分和训练方法等做任何限定。
需要说明的是,人脸关键点可以是预先指定的、人脸中的具有较强语义信息的点(例如眼角、嘴角、鼻翼位置、轮廓中的点等)。实践中,人脸关键点的数量可以是72个,也可以是其他预设的数值,本实施例不对此方面内容做任何限定。
步骤203,基于各个人脸关键点的坐标,确定用于限定待检测图像中的人脸区域的第二区域位置信息。
在本实施例中,上述电子设备在确定上述待检测图像所包括的各个人脸关键点的坐标后,上述电子设备可以基于该坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息。作为示例,若人脸区域为圆形区域,则上述电子设备可以基于该坐标确定上述待检测图像中的人脸区域的中心点的坐标,上述电子设备还可以计算该中心点的坐标与所确定的人脸关键点的坐标之间的直线距离,将最大的直线距离确定为该人脸区域的半径。上述电子设备可以将该中线点的坐标和该半径确定为该第二区域位置信息。
需要说明的是,该中心点的坐标的X坐标值例如可以是所确定的各个人脸关键点的坐标的X坐标值的平均值;该中心点的坐标的Y坐标值例如可以是所确定的各个人脸关键点的坐标的Y坐标值的平均值。
步骤204,生成待检测图像和第二区域位置信息的对应关系信息。
在本实施例中,上述电子设备在确定上述第二区域位置信息后,上述电子设备可以生成上述待检测图像和上述第二区域位置信息的对应关系信息。这里,该对应关系信息可以用于表征上述待检测图像和上述第二区域位置信息之间的对应关系。
需要说明的是,上述待检测图像可以具有对应的图像标识(例如图像名称或图像编号等等),该对应关系信息例如可以包括该图像标识和上述第二区域位置信息。
需要指出的是,当上述待检测图像具有下一帧图像时,上述对应关系信息所包括的上述第二区域位置信息可以用于确定用于限定该下一帧图像中的人脸区域的区域位置信息。
继续参见图3,图3是根据本实施例的信息生成方法的应用场景的一个示意图。在图3的应用场景中,服务器301可以从终端设备302实时获取待检测图像303,以及本地获取用于限定待检测图像303的前一帧图像中的人脸区域(人脸区域为圆形区域)的第一区域位置信息304,其中,第一区域位置信息304预先存储在服务器301本地。而后,服务器301可以基于第一区域位置信息304,对待检测图像303进行人脸关键点定位操作,得到待检测图像303所包括的各个人脸关键点的坐标,即人脸关键点坐标集合305。之后,服务器301可以基于人脸关键点坐标集合305,确定待检测图像303中的人脸区域的中心点的坐标306。接着,服务器301可以确定坐标306与人脸关键点坐标集合305所包括的坐标之间的直线距离,以得到最大直线距离,并将该最大直线距离确定为该人脸区域的半径307。然后,服务器301可以生成用于限定待检测图像303中的人脸区域的第二区域位置信息308,其中,第二区域位置信息308包括坐标306和半径307。最后,服务器301可以生成待检测图像303和第二区域位置信息308的对应关系信息309,其中,该对应关系信息包括待检测图像303的图像标识和第二区域位置信息308。
本申请的上述实施例提供的方法有效利用了用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息,实现了富于针对性的信息生成。
而且,将本申请实施例提供的上述方法应用于目标跟踪场景,可以尽可能地避免目标丢失,而且还可以实现目标跟踪的实时性,提高目标跟踪效率。
进一步参见图4,其示出了信息生成方法的又一个实施例的流程400。该信息生成方法的流程400,包括以下步骤:
步骤401,获取待检测图像和用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息。
在本实施例中,信息生成方法运行于其上的电子设备(例如图1所示的服务器105)例如可以实时获取待检测图像和用于限定该待检测图像的前一帧图像中的人脸区域的第一区域位置信息。这里,该待检测图像可以是上述电子设备所连接的终端设备(例如终端设备101、102、103)所产生的视频流中的非首帧图像。
需要指出的是,人脸区域可以是矩形区域。上述第一区域位置信息例如可以包括上述待检测图像的前一帧图像中的人脸区域的左上顶点和右下顶点的坐标和/或左下顶点和右上顶点的坐标。可选地,上述第一区域位置信息例如可以包括该人脸区域的高度、宽度和以下至少一项:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。需要指出的是,人脸区域的顶点的坐标可以是二维坐标,该二维坐标可以包括X坐标值和Y坐标值。
步骤402,扩大第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息。
在本实施例中,上述电子设备在获取到上述待检测图像和上述第一区域位置信息后,上述电子设备可以扩大上述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息。这里,该第三区域位置信息是上述待检测图像的前一帧图像所包括的、范围扩大后的人脸区域的区域位置信息。
作为示例,上述电子设备可以将上述第一区域位置信息所限定的人脸区域的高度和宽度扩大预设倍数或增加预设数值。这里,该预设倍数例如可以是1等数值。而且,该高度和该宽度可以对应同一个预设数值,也可以对应不同的预设数值。例如,与该高度对应的预设数值是与该高度相同的数值;与该宽度对应的预设数值是与该高度相同的数值。预设倍数和预设数值是可以根据实际需要进行修改的,本实施例不对此方面内容做任何限定。
步骤403,基于第三区域位置信息,对待检测图像进行人脸关键点定位操作,得到待检测图像所包括的各个人脸关键点的坐标。
在本实施例中,上述电子设备在得到上述第三区域位置信息后,上述电子设备可以对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标。需要说明的是,人脸关键点可以是预先指定的、人脸中的具有较强语义信息的点(例如眼角、嘴角、鼻翼位置、轮廓中的点等)。实践中,人脸关键点的数量可以是72个,也可以是其他预设的数值,本实施例不对此方面内容做任何限定。
作为示例,上述电子设备可以先在上述待检测图像中截取上述第三区域位置信息所限定的区域以得到目标图像。而后,上述电子设备可以将该目标图像输入预先训练的第一人脸关键点定位模型,得到该目标图像所包括的各个人脸关键点的坐标,并将该目标图像所包括的各个人脸关键点确定为上述待检测图像所包括的各个人脸关键点。其中,该第一人脸关键点定位模型可以用于表征包含人脸的图像与人脸关键点的坐标的对应关系。这里,针对该第一人脸关键点定位模型的解释说明可参看图2所示实施例中的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述电子设备还可以通过以下方式来确定上述待检测图像所包括的各个人脸关键点的坐标:将上述待检测图像和上述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到上述待检测图像所包括的各个人脸关键点的坐标。其中,上述第二人脸关键点定位模型可以用于表征输入信息与人脸关键点的坐标的对应关系。该输入信息可以包括:包括人脸的图像、与该图像同时被输入的区域位置信息。这里,该第二人脸关键点定位模型例如可以是通过机器学习方法和训练样本对现有的卷积神经网络(例如DenseBox、VGGNet、ResNet、SegNet等)进行有监督训练而得到的。需要指出的是,该第二人脸关键点定位模型例如可以包括至少一个卷积层、至少一个池化层和一个全连接层。其中,卷积层可以用于提取图像特征;池化层可以用于对输入的信息进行降采样;全连接层可以用于输出各个人脸关键点的坐标。此外,该第二人脸关键点定位模型还可以使用各种非线性激活函数(例如ReLU(Rectified Linear Unit,修正线性单元)函数、Sigmoid函数等)对信息进行非线性计算。
可选地,该第二人脸关键点定位模型还可以是技术人员基于大量统计而预先制定的、用于表征输入信息(包括人脸的图像、与该图像同时被输入的区域位置信息)与人脸关键点的坐标的对应关系的对应关系表。需要说明的是,本实施例不对该第二人脸关键点定位模型的组成部分和训练方法等做任何限定。
步骤404,基于待检测图像所包括的各个人脸关键点的坐标,确定待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标。
在本实施例中,上述电子设备在确定上述待检测图像所包括的各个人脸关键点的坐标后,上述电子设备可以基于待检测图像所包括的各个人脸关键点的坐标,确定待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标。
这里,上述电子设备可以从上述待检测图像所包括的各个人脸关键点的坐标中提取出最小的X坐标值和Y坐标值,以及最大的X坐标值和Y坐标值。然后,上述电子设备可以基于该最小的X坐标值和Y坐标值以及该最大的X坐标值和Y坐标值,确定上述待检测图像中的人脸区域的左上顶点和右下顶点的坐标和/或左下顶点和右上顶点的坐标。
例如,上述电子设备可以将提取出的最小的X坐标值和Y坐标值确定为该左上顶点的坐标的X坐标值和Y坐标值。上述电子设备可以将提取出的最大的X坐标值和Y坐标值确定为该右下顶点的坐标的X坐标值和Y坐标值。上述电子设备可以将提取出的最小的X坐标值和最大的Y坐标值确定为该左下顶点的坐标的X坐标值和Y坐标值。上述电子设备还可以将提取出的最大的X坐标值和最小的Y坐标值确定为该右上顶点的坐标的X坐标值和Y坐标值。
步骤405,基于上述至少一项,生成用于限定待检测图像中的人脸区域的第二区域位置信息。
在本实施例中,上述电子设备在确定上述至少一项后,上述电子设备可以基于上述至少一项,生成用于限定上述待检测图像中的人脸区域的第二区域位置信息。作为示例,上述电子设备可以将所确定的上述待检测图像中的人脸区域的左上顶点和右下顶点的坐标和/或左下顶点和右上顶点的坐标生成该第二区域位置信息。即该第二区域位置信息可以包括该左上顶点和右下顶点的坐标和/或该左下顶点和右上顶点的坐标。
需要说明的是,上述电子设备所生成的上述第二区域位置信息可以是向量。而且,上述第一区域位置信息也可以是向量。这两个向量可以具有相同的维度,而且这两个向量可以包括相同的分量,例如顶点坐标分量、高度分量、宽度分量等,该顶点坐标分量还可以包括以下至少一项:左上顶点坐标分量、左下顶点坐标分量、右上顶点坐标分量、右下顶点坐标分量。
在本实施例的一些可选的实现方式中,上述电子设备还可以基于所确定的上述待检测图像中的人脸区域的左上顶点和右下顶点的坐标和/或左下顶点和右上顶点的坐标,确定上述待检测图像中的人脸区域的高度和宽度。上述电子设备可以将所确定的上述待检测图像中的人脸区域的高度、宽度和以下至少一项生成上述第二区域位置信息:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。
这里,以上述待检测图像中的人脸区域的左上顶点和右下顶点的坐标为例,上述电子设备可以将该左上顶点和右下顶点的坐标的X坐标值之差的绝对值确定为该人脸区域的宽度,可以将该左上顶点和右下顶点的坐标的Y坐标值之差的绝对值确定为该人脸区域的高度。
步骤406,生成待检测图像和第二区域位置信息的对应关系信息。
在本实施例中,上述电子设备在确定上述第二区域位置信息后,上述电子设备可以生成上述待检测图像和上述第二区域位置信息的对应关系信息。这里,该对应关系信息可以用于表征上述待检测图像和上述第二区域位置信息之间的对应关系。
从图4中可以看出,与图2对应的实施例相比,本实施例中的信息生成方法的流程400突出了在人脸区域为矩形区域时的处理步骤(步骤402-步骤405)。由此,本实施例描述的方案,通过对上述第一区域位置信息所限定的人脸区域的范围进行扩大得到上述第三区域位置信息,可以使上述待检测图像中的、上述第三区域位置信息所限定的区域中尽可能地包括较多的人脸关键点,这样可以提高所确定的上述第二区域位置信息的准确度。而且,在目标跟踪场景中,还可以提高目标跟踪的准确度。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种信息生成装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例所示的信息生成装置500包括:获取单元501、第一确定单元502、第二确定单元503和生成单元504。其中,获取单元501配置用于获取待检测图像和用于限定上述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;第一确定单元502配置用于基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标;第二确定单元503配置用于基于上述各个人脸关键点的坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息;而生成单元504配置用于生成上述待检测图像和上述第二区域位置信息的对应关系信息。
在本实施例中,信息生成装置500中:获取单元501、第一确定单元502、第二确定单元503和生成单元504的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203和步骤204的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,上述第一确定单元502可以包括:扩大子单元(图中未示出),配置用于扩大上述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息;定位子单元(图中未示出),配置用于基于上述第三区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标。
在本实施例的一些可选的实现方式中,上述定位子单元可以包括:截取模块(图中未示出),配置用于在上述待检测图像中截取上述第三区域位置信息所限定的区域以得到目标图像;第一确定模块(图中未示出),配置用于将上述目标图像输入预先训练的第一人脸关键点定位模型,得到上述目标图像所包括的各个人脸关键点的坐标,并将上述目标图像所包括的各个人脸关键点确定为上述待检测图像所包括的各个人脸关键点,其中,上述第一人脸关键点定位模型可以用于表征包含人脸的图像与人脸关键点的坐标的对应关系。
在本实施例的一些可选的实现方式中,上述定位子单元还可以包括:第二确定模块(图中未示出),配置用于将上述待检测图像和上述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到上述待检测图像所包括的各个人脸关键点的坐标,其中,上述第二人脸关键点定位模型可以用于表征输入信息与人脸关键点的坐标的对应关系,上述输入信息可以包括:包括人脸的图像、与该图像同时被输入的区域位置信息。
在本实施例的一些可选的实现方式中,人脸区域可以为矩形区域。
在本实施例的一些可选的实现方式中,上述第二确定单元503可以包括:确定子单元(图中未示出),配置用于基于上述待检测图像所包括的各个人脸关键点的坐标,确定上述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标;生成子单元(图中未示出),配置用于基于上述至少一项,生成上述第二区域位置信息。
在本实施例的一些可选的实现方式中,上述确定子单元可以进一步配置用于:从上述待检测图像所包括的各个人脸关键点的坐标中提取出最小的X坐标值和Y坐标值,以及最大的X坐标值和Y坐标值;基于上述最小的X坐标值和Y坐标值以及上述最大的X坐标值和Y坐标值,确定上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标。
在本实施例的一些可选的实现方式中,上述生成子单元可以进一步配置用于:将上述左上顶点和右下顶点的坐标和/或上述左下顶点和右上顶点的坐标生成上述第二区域位置信息。
在本实施例的一些可选的实现方式中,上述生成子单元还可以进一步配置用于:基于上述至少一项确定上述待检测图像中的人脸区域的高度和宽度;将所确定的上述待检测图像中的人脸区域的高度、宽度和以下至少一项生成上述第二区域位置信息:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。
在本实施例的一些可选的实现方式中,上述扩大子单元可以进一步配置用于:将上述第一区域位置信息所限定的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
本申请的上述实施例提供的上述装置有效利用了用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息,实现了富于针对性的信息生成。
而且,将本申请实施例提供的上述装置应用于目标跟踪场景,可以尽可能地避免目标丢失,而且还可以实现目标跟踪的实时性,提高目标跟踪效率。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一确定单元、第二确定单元和生成单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待检测图像和用于限定待检测图像的前一帧图像中的人脸区域的第一区域位置信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备包括:获取待检测图像和用于限定上述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;基于上述第一区域位置信息,对上述待检测图像进行人脸关键点定位操作,得到上述待检测图像所包括的各个人脸关键点的坐标;基于上述各个人脸关键点的坐标,确定用于限定上述待检测图像中的人脸区域的第二区域位置信息;生成上述待检测图像和上述第二区域位置信息的对应关系信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (16)
1.一种信息生成方法,其特征在于,所述方法包括:
获取待检测图像和用于限定所述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;
基于所述第一区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标;
基于所述各个人脸关键点的坐标,确定用于限定所述待检测图像中的人脸区域的第二区域位置信息;
生成所述待检测图像和所述第二区域位置信息的对应关系信息。
2.根据权利要求1所述的方法,其特征在于,所述基于所述第一区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标,包括:
扩大所述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息;
基于所述第三区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标。
3.根据权利要求2所述的方法,其特征在于,所述基于所述第三区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标,包括:
在所述待检测图像中截取所述第三区域位置信息所限定的区域以得到目标图像;
将所述目标图像输入预先训练的第一人脸关键点定位模型,得到所述目标图像所包括的各个人脸关键点的坐标,并将所述目标图像所包括的各个人脸关键点确定为所述待检测图像所包括的各个人脸关键点,其中,所述第一人脸关键点定位模型用于表征包含人脸的图像与人脸关键点的坐标的对应关系。
4.根据权利要求2所述的方法,其特征在于,所述基于所述第三区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标,还包括:
将所述待检测图像和所述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到所述待检测图像所包括的各个人脸关键点的坐标,其中,所述第二人脸关键点定位模型用于表征输入信息与人脸关键点的坐标的对应关系,所述输入信息包括:包括人脸的图像、与该图像同时被输入的区域位置信息。
5.根据权利要求1所述的方法,其特征在于,人脸区域为矩形区域。
6.根据权利要求5所述的方法,其特征在于,所述基于所述各个人脸关键点的坐标,确定用于限定所述待检测图像中的人脸区域的第二区域位置信息,包括:
基于所述待检测图像所包括的各个人脸关键点的坐标,确定所述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标;
基于所述至少一项,生成所述第二区域位置信息。
7.根据权利6所述的方法,其特征在于,所述基于所述待检测图像所包括的各个人脸关键点的坐标,确定所述待检测图像中的人脸区域的以下至少一项:左上顶点和右下顶点的坐标、左下顶点和右上顶点的坐标,包括:
从所述待检测图像所包括的各个人脸关键点的坐标中提取出最小的X坐标值和Y坐标值,以及最大的X坐标值和Y坐标值;
基于所述最小的X坐标值和Y坐标值以及所述最大的X坐标值和Y坐标值,确定所述左上顶点和右下顶点的坐标和/或所述左下顶点和右上顶点的坐标。
8.根据权利要求6所述的方法,其特征在于,所述基于所述至少一项,生成所述第二区域位置信息,包括:
将所述左上顶点和右下顶点的坐标和/或所述左下顶点和右上顶点的坐标生成所述第二区域位置信息。
9.根据权利要求6所述的方法,其特征在于,所述基于所述至少一项,生成所述第二区域位置信息,还包括:
基于所述至少一项确定所述待检测图像中的人脸区域的高度和宽度;
将所确定的所述待检测图像中的人脸区域的高度、宽度和以下至少一项生成所述第二区域位置信息:左上顶点的坐标、左下顶点的坐标、右上顶点的坐标、右下顶点的坐标。
10.根据权利要求5所述的方法,其特征在于,所述扩大所述第一区域位置信息所限定的人脸区域的范围,包括:
将所述第一区域位置信息所限定的人脸区域的高度和宽度扩大预设倍数或增加预设数值。
11.一种信息生成装置,其特征在于,所述装置包括:
获取单元,配置用于获取待检测图像和用于限定所述待检测图像的前一帧图像中的人脸区域的第一区域位置信息;
第一确定单元,配置用于基于所述第一区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标;
第二确定单元,配置用于基于所述各个人脸关键点的坐标,确定用于限定所述待检测图像中的人脸区域的第二区域位置信息;
生成单元,配置用于生成所述待检测图像和所述第二区域位置信息的对应关系信息。
12.根据权利要求11所述的装置,其特征在于,所述第一确定单元包括:
扩大子单元,配置用于扩大所述第一区域位置信息所限定的人脸区域的范围以得到第三区域位置信息;
定位子单元,配置用于基于所述第三区域位置信息,对所述待检测图像进行人脸关键点定位操作,得到所述待检测图像所包括的各个人脸关键点的坐标。
13.根据权利要求12所述的装置,其特征在于,所述定位子单元包括:
截取模块,配置用于在所述待检测图像中截取所述第三区域位置信息所限定的区域以得到目标图像;
第一确定模块,配置用于将所述目标图像输入预先训练的第一人脸关键点定位模型,得到所述目标图像所包括的各个人脸关键点的坐标,并将所述目标图像所包括的各个人脸关键点确定为所述待检测图像所包括的各个人脸关键点,其中,所述第一人脸关键点定位模型用于表征包含人脸的图像与人脸关键点的坐标的对应关系。
14.根据权利要求12所述的装置,其特征在于,所述定位子单元还包括:
第二确定模块,配置用于将所述待检测图像和所述第三区域位置信息输入预先训练的第二人脸关键点定位模型,得到所述待检测图像所包括的各个人脸关键点的坐标,其中,所述第二人脸关键点定位模型用于表征输入信息与人脸关键点的坐标的对应关系,所述输入信息包括:包括人脸的图像、与该图像同时被输入的区域位置信息。
15.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现如权利要求1-10中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710908680.0A CN107622252B (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710908680.0A CN107622252B (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107622252A true CN107622252A (zh) | 2018-01-23 |
CN107622252B CN107622252B (zh) | 2022-02-22 |
Family
ID=61091012
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710908680.0A Active CN107622252B (zh) | 2017-09-29 | 2017-09-29 | 信息生成方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107622252B (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564571A (zh) * | 2018-03-30 | 2018-09-21 | 精锐视觉智能科技(深圳)有限公司 | 图像区域选取方法及终端设备 |
CN108960206A (zh) * | 2018-08-07 | 2018-12-07 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN109241921A (zh) * | 2018-09-17 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于检测人脸关键点的方法和装置 |
CN111126268A (zh) * | 2019-12-24 | 2020-05-08 | 北京奇艺世纪科技有限公司 | 关键点检测模型训练方法、装置、电子设备及存储介质 |
CN111126101A (zh) * | 2018-10-30 | 2020-05-08 | 北京猎户星空科技有限公司 | 关键点位置的确定方法、装置、电子设备和存储介质 |
CN111243011A (zh) * | 2018-11-29 | 2020-06-05 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN111274852A (zh) * | 2018-12-05 | 2020-06-12 | 北京猎户星空科技有限公司 | 目标对象关键点检测方法和装置 |
CN113011356A (zh) * | 2021-03-26 | 2021-06-22 | 杭州朗和科技有限公司 | 人脸特征检测方法、装置、介质及电子设备 |
CN113591852A (zh) * | 2021-08-09 | 2021-11-02 | 数坤(北京)网络科技股份有限公司 | 感兴趣区域标记的方法和装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100040288A1 (en) * | 2008-08-18 | 2010-02-18 | Jonathan Yen | System and method for validation of face detection in electronic images |
CN102314589A (zh) * | 2010-06-29 | 2012-01-11 | 比亚迪股份有限公司 | 一种快速人眼定位方法及装置 |
CN105320921A (zh) * | 2014-07-31 | 2016-02-10 | 腾讯科技(深圳)有限公司 | 双眼定位方法及双眼定位装置 |
CN106709932A (zh) * | 2015-11-12 | 2017-05-24 | 阿里巴巴集团控股有限公司 | 一种人脸位置跟踪方法、装置和电子设备 |
CN106778585A (zh) * | 2016-12-08 | 2017-05-31 | 腾讯科技(上海)有限公司 | 一种人脸关键点跟踪方法和装置 |
CN106875422A (zh) * | 2017-02-06 | 2017-06-20 | 腾讯科技(上海)有限公司 | 人脸跟踪方法和装置 |
-
2017
- 2017-09-29 CN CN201710908680.0A patent/CN107622252B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100040288A1 (en) * | 2008-08-18 | 2010-02-18 | Jonathan Yen | System and method for validation of face detection in electronic images |
CN102314589A (zh) * | 2010-06-29 | 2012-01-11 | 比亚迪股份有限公司 | 一种快速人眼定位方法及装置 |
CN105320921A (zh) * | 2014-07-31 | 2016-02-10 | 腾讯科技(深圳)有限公司 | 双眼定位方法及双眼定位装置 |
CN106709932A (zh) * | 2015-11-12 | 2017-05-24 | 阿里巴巴集团控股有限公司 | 一种人脸位置跟踪方法、装置和电子设备 |
CN106778585A (zh) * | 2016-12-08 | 2017-05-31 | 腾讯科技(上海)有限公司 | 一种人脸关键点跟踪方法和装置 |
CN106875422A (zh) * | 2017-02-06 | 2017-06-20 | 腾讯科技(上海)有限公司 | 人脸跟踪方法和装置 |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564571A (zh) * | 2018-03-30 | 2018-09-21 | 精锐视觉智能科技(深圳)有限公司 | 图像区域选取方法及终端设备 |
CN108960206A (zh) * | 2018-08-07 | 2018-12-07 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN108960206B (zh) * | 2018-08-07 | 2021-01-22 | 北京字节跳动网络技术有限公司 | 视频帧处理方法和装置 |
CN109241921A (zh) * | 2018-09-17 | 2019-01-18 | 北京字节跳动网络技术有限公司 | 用于检测人脸关键点的方法和装置 |
CN111126101B (zh) * | 2018-10-30 | 2023-06-06 | 北京猎户星空科技有限公司 | 关键点位置的确定方法、装置、电子设备和存储介质 |
CN111126101A (zh) * | 2018-10-30 | 2020-05-08 | 北京猎户星空科技有限公司 | 关键点位置的确定方法、装置、电子设备和存储介质 |
CN111243011A (zh) * | 2018-11-29 | 2020-06-05 | 北京市商汤科技开发有限公司 | 关键点检测方法及装置、电子设备和存储介质 |
CN111274852A (zh) * | 2018-12-05 | 2020-06-12 | 北京猎户星空科技有限公司 | 目标对象关键点检测方法和装置 |
CN111274852B (zh) * | 2018-12-05 | 2023-10-31 | 北京猎户星空科技有限公司 | 目标对象关键点检测方法和装置 |
CN111126268A (zh) * | 2019-12-24 | 2020-05-08 | 北京奇艺世纪科技有限公司 | 关键点检测模型训练方法、装置、电子设备及存储介质 |
CN111126268B (zh) * | 2019-12-24 | 2023-04-25 | 北京奇艺世纪科技有限公司 | 关键点检测模型训练方法、装置、电子设备及存储介质 |
CN113011356A (zh) * | 2021-03-26 | 2021-06-22 | 杭州朗和科技有限公司 | 人脸特征检测方法、装置、介质及电子设备 |
CN113591852B (zh) * | 2021-08-09 | 2022-08-23 | 数坤(北京)网络科技股份有限公司 | 感兴趣区域标记的方法和装置 |
CN113591852A (zh) * | 2021-08-09 | 2021-11-02 | 数坤(北京)网络科技股份有限公司 | 感兴趣区域标记的方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN107622252B (zh) | 2022-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107622252A (zh) | 信息生成方法和装置 | |
CN108038469B (zh) | 用于检测人体的方法和装置 | |
CN107590807A (zh) | 用于检测图像质量的方法和装置 | |
Wieczorek et al. | Lightweight convolutional neural network model for human face detection in risk situations | |
US10853623B2 (en) | Method and apparatus for generating information | |
CN107590482A (zh) | 信息生成方法和装置 | |
CN108509915A (zh) | 人脸识别模型的生成方法和装置 | |
CN107644209A (zh) | 人脸检测方法和装置 | |
CN107578034A (zh) | 信息生成方法和装置 | |
CN108229575A (zh) | 用于检测目标的方法和装置 | |
CN108960090A (zh) | 视频图像处理方法及装置、计算机可读介质和电子设备 | |
CN109584276A (zh) | 关键点检测方法、装置、设备及可读介质 | |
CN109255830A (zh) | 三维人脸重建方法和装置 | |
CN108710885A (zh) | 目标对象的检测方法和装置 | |
CN108304075A (zh) | 一种在增强现实设备进行人机交互的方法与设备 | |
CN108470328A (zh) | 用于处理图像的方法和装置 | |
CN108197618A (zh) | 用于生成人脸检测模型的方法和装置 | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
CN108363995A (zh) | 用于生成数据的方法和装置 | |
CN109034095A (zh) | 一种人脸对齐检测方法、装置和存储介质 | |
CN110443222A (zh) | 用于训练脸部关键点检测模型的方法和装置 | |
CN109308469A (zh) | 用于生成信息的方法和装置 | |
CN109063587A (zh) | 数据处理方法、存储介质和电子设备 | |
CN110427915A (zh) | 用于输出信息的方法和装置 | |
CN107945219A (zh) | 脸部图像对齐方法、计算机程序、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |