CN109858402A - 一种图像检测方法、装置、终端以及存储介质 - Google Patents
一种图像检测方法、装置、终端以及存储介质 Download PDFInfo
- Publication number
- CN109858402A CN109858402A CN201910039627.0A CN201910039627A CN109858402A CN 109858402 A CN109858402 A CN 109858402A CN 201910039627 A CN201910039627 A CN 201910039627A CN 109858402 A CN109858402 A CN 109858402A
- Authority
- CN
- China
- Prior art keywords
- area
- key point
- location information
- detection
- association
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本申请实施例公开了一种图像检测方法、装置、终端以及存储介质,其中,本申请实施例获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,然后得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息,该方案可以提高图像检测的效率。
Description
技术领域
本申请涉及图像检测技术领域,具体涉及一种图像检测方法、装置、终端以及存储介质。
背景技术
近年来,基于人工智能的计算机视觉技术得到快速发展,图像检测作为其中的一个重要方向,在体感游戏、虚拟现实、安防、监控等多个领域都有较大的应用前景。
目前常见的图像检测方式,主要是基于深度学习网络(比如卷积神经网络)对目标对象图像进行检测,得到目标对象关键点(比如人体部位关键点)。由于目前的图像检测方式复杂且耗时,因此,会导致图像检测的效率较低。
发明内容
本申请实施例提供了一种图像检测方法、装置、终端以及存储介质,可以提高图像检测的效率。
第一方面,本申请实施例提供了一种图像检测方法,包括:
获取目标对象图像;
对所述目标对象图像进行部位检测,得到起始部位区域的位置信息;
根据所述起始部位区域的位置信息,得到起始部位区域的关键点位置信息;
根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域;
采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息;
当关联部位不为检测结束部位时,将所述起始部位区域更新为所述关联部位区域,并返回执行根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域的步骤;
当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
第二方面,本申请实施例提供了一种图像检测装置,包括:
图像获取模块,用于获取目标对象图像;
第一区域获取模块,用于对所述目标对象图像进行部位检测,得到起始部位区域的位置信息;
第一关键点获取模块,用于根据所述起始部位区域的位置信息,得到起始部位区域的关键点位置信息;
第二区域获取模块,用于根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域;
第二关键点获取模块,用于采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息;
更新模块,用于当关联部位不为检测结束部位时,将所述起始部位区域更新为所述关联部位区域,并返回执行根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域的步骤;
输出模块,用于当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
第三方面,本申请实施例提供的存储介质,其上存储有计算机程序,当所述计算机程序在计算机上运行时,使得所述计算机执行如本申请任一实施例提供的图像检测方法。
本申请实施例公开了一种图像检测方法、装置、终端以及存储介质,其中,本申请实施例获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中目标对象部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的图像检测方法的应用场景示意图。
图2是本申请实施例提供的图像检测方法的第一流程示意图。
图3是本申请实施例提供的图像检测方法的第二流程示意图。
图4是本申请实施例提供的图像检测方法的第三流程示意图。
图5是本申请实施例提供的人体关键点示意图。
图6是本申请实施例提供的点击手掌部位添加动态效果示意图。
图7是本申请实施例提供的点击荧光棒添加动态效果示意图。
图8是本申请实施例提供的图像检测装置的第一结构示意图。
图9是本申请实施例提供的图像检测装置的第二结构示意图。
图10是本申请实施例提供的图像检测装置的第三结构示意图。
图11是本申请实施例提供的图像检测装置的第四结构示意图。
图12是本申请实施例提供的终端的结构示意图。
具体实施方式
请参照图式,其中相同的组件符号代表相同的组件,本申请的原理是以实施在一适当的运算环境中来举例说明。以下的说明是基于所例示的本申请具体实施例,其不应被视为限制本申请未在此详述的其它具体实施例。
在以下的说明中,本申请的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有述明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存系统中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实体位置,其具有由该数据格式所定义的特定特性。但是,本申请原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本文所使用的术语“模块”可看作在该运算系统上执行的软件对象。本文所述的不同组件、模块、引擎及服务可看作在该运算系统上的实施对象。而本文所述的装置及方法可以以软件的方式进行实施,当然也可在硬件上进行实施,均在本申请保护范围之内。
本申请中的术语“第一”、“第二”和“第三”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、系统、产品或设备没有限定于已列出的步骤或模块,而是某些实施例还包括没有列出的步骤或模块,或某些实施例还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
本申请实施例提供一种图像检测方法,该图像检测方法的执行主体可以是本申请实施例提供的图像检测装置,或者集成了该图像检测装置的终端,其中该图像检测装置可以采用硬件或者软件的方式实现。
请参阅图1,图1是本申请实施例提供的图像检测方法的应用场景示意图,以图像检测装置集成在终端中为例,终端可以获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
请参阅图2,图2是本申请实施例提供的图像检测方法的第一流程示意图。本申请实施例提供的图像检测方法的具体流程可以如下:
201、获取目标对象图像。
其中,目标对象可以为待识别关键点的对象,比如,可以为人体、动物体、植物体等等。目标对象图像为包括目标对象的图像,根据目标对象图像可以实现目标对象关键点的检测比如,目标对象图像可以包括目标对象的整体,也可以包括目标对象待检测关键点的部分,等等。
其中,获取目标对象图像的方式可以有多种,比如,可以从目标对象视频图像中截取一帧作为目标对象图像,还可以通过终端进行拍摄获取目标对象图像,或者还可以从本地或者外部数据库中获取目标对象图像,或者可以从网络中搜索目标对象图像等等。
在一实施例中,具体地,步骤“获取目标对象图像”可以包括:
从视频中获取目标对象图像。
其中,视频可以为包括目标对象的视频图像,比如,可以为包括人体的视频图像,等等。
其中,获取视频的方式可以有多种,比如,可以通过终端进行录制获取视频,还可以从本地或者外部数据库中获取视频,或者可以从网络中搜索视频等等。获取到视频之后,可以从该视频中截取一帧图像,作为目标对象图像。
在一实施例中,目标对象还可以为虚拟的漫画形象或者动画形象等等。
202、对目标对象图像进行部位检测,得到起始部位区域的位置信息。
其中,起始部位为目标对象中的部位,比如,当目标对象为人体时,起始部位可以为人脸部位,等等。
在一实施例中,比如,当目标对象为人体时,起始部位可以不局限于依照器官划分的人体部位,还可以为人体中任意指定的区域。
其中,起始部位区域的位置信息为表示起始部位区域位置的信息,比如,起始部位区域的位置信息可以为起始部位区域特征点的坐标值,等等。
在一实施例中,比如,还可以用矩形框的方式表示起始部位区域,利用矩形框四个顶点的坐标值表示起始部位区域的位置信息。
在实际应用中,可以在目标对象图像中准确识别并标定出起始部位区域的位置信息。比如,当起始部位区域为人脸区域时,可以利用Android(安卓操作系统)的人脸检测接口或者IOS(苹果公司的移动操作系统)的人脸检测接口,该人脸检测接口可以提取人脸区域特征,并将人脸区域特征写进含有标识码的文件中,该人脸检测程序可以保存至终端,终端可以通过调用程序实现对目标对象图像进行人脸检测,得到人脸区域的位置坐标和尺寸,并用矩形框的形式进行标注。
203、根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息。
其中,起始部位区域的关键点为起始部位区域中可以对起始部位进行定位的若干点,比如,当起始部位区域为人脸区域时,可以将人眼睛所在的点作为起始部位区域的关键点。起始部位区域的关键点的位置信息为表示起始部位区域的关键点位置的信息,比如,当人眼睛所在的点为起始部位区域的关键点时,可以将人眼睛所在的点的坐标作为起始部位区域的关键点的位置信息。
在实际应用中,可以通过对起始部位区域进行检测,得到起始部位区域的关键点的位置信息。比如,当起始部位区域为人脸区域,起始部位区域的关键点为眼睛所在的点时,可以利用OpenCV(Open Source Computer Vision Library,开源计算机视觉库)对人脸区域进行检测,可以加载相应训练好的分类器,根据分类器获取标签值和/或置信度,进而得到眼睛所在的点的坐标。
204、根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域。
其中,关联部位区域包括与起始部位区域相关联,并且包含目标对象部位的区域。与起始部位区域相关联可以包括位置相关,比如,当起始部位区域为人脸区域时,关联部位区域可以为肩膀区域,可以通过人脸区域的位置确定肩膀区域的位置。
在一实施例中,与起始部位区域相关联还可以包括指定的相关,关联部位区域可以与起始部位区域没有位置等的联系,可以通过设置,指定与起始部位区域相关联的关联部位区域,比如,当起始部位区域为人脸区域时,关联部位区域还可以指定为手掌区域、脚部区域等等。
在实际应用中,为了确定关联部位区域的位置信息,从而提高关键点检测准确性,可以通过起始部位区域的关键点的位置信息和预设参数,确定出关联部位区域的位置信息。
在一实施例中,具体地,步骤“根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域”可以包括:
根据所述起始部位区域的关键点位置信息、以及关联部位区域尺寸信息,确定初始关联部位区域;
根据所述关联部位区域对应的预设移动参数,将所述初始关联部位区域移动,得到关联部位区域。
其中,关联部位区域尺寸为对于相应关联部位区域的预设尺寸,比如,当关联部位区域为肩膀区域时,可以通过矩形框的形式代表肩膀区域,预设一个肩膀矩形框的尺寸(矩形框的长和宽),使得该矩形框可以涵盖人体肩膀所在的区域。
其中,初始关联部位区域为与关联部位区域尺寸相同,但位置不同的区域,该初始关联部位区域还需要通过位移,移动至关联部位区域所在的位置。
在实际应用中,可以将初始部位区域的关键点的位置信息作为位置基准,确定初始关联部位区域的位置信息,将关联部位区域尺寸作为初始关联部位区域尺寸信息,通过初始关联部位区域的位置信息和初始关联部位区域尺寸信息确定初始关联部位区域。
比如,当初始部位区域为人脸区域、关联部位区域为肩膀区域、初始部位区域的关键点为眼睛所在点时,可以将两个眼睛所在点的连线作为初始关联部位区域的上边缘所在直线,将两个眼睛所在点的中心点作为初始关联部位区域上边缘的中心点,基于肩膀区域尺寸,并根据初始关联部位区域的上边缘所在的位置,构建出初始关联部位区域。
其中,预设移动参数为初始关联部位区域和关联部位区域位置之间的差异值,比如,预设移动参数可以包括移动方向和移动距离,等等。
在实际应用中,为了得到准确的关联部位区域位置,可以基于预设移动参数,将初始关联部位区域进行移动,可以得到关联部位区域。
具体地,步骤“根据所述关联部位区域对应的预设移动参数将所述初始关联部位区域移动,得到关联部位区域”可以包括:
根据所述起始部位区域的关键点位置信息确定身体方向;
根据所述身体方向确定所述移动方向;
将所述初始关联部位区域沿所述移动方向移动所述移动距离,得到所述关联部位区域。
其中,身体方向为根据起始部位区域的关键点位置信息确定出的身体方向,比如,可以通过两个眼睛关键点确定出眼睛中心点的位置,通过两个肩膀关键点确定出肩膀中心点的位置,将眼睛中心点和肩膀中心点进行连线,将该连线所在的直线方向作为身体方向。
其中,预设移动参数可以包括移动方向和移动距离,根据移动方向和移动距离确定初始关联部位区域的移动参数。
在实际应用中,可以基于移动方向,将初始关联部位区域移动移动距离,得到关联部位区域。比如,当起始部位区域为人脸区域,关联部位区域为肩膀区域时,可以通过眼睛关键点所在的位置和肩膀区域尺寸,构建出初始关联部位区域,之后将初始关联部位区域向移动方向移动移动距离,得到肩膀区域。
在一实施例中,还可以根据身体方向,确定出移动方向,比如,当身体方向为眼睛中心点和肩膀中心点连线所在的直线方向时,根据人脸区域确定肩膀区域,该移动方向就可以为沿身体方向向下。
在一实施例中,还可以将起始部位区域的关键点,根据关联部位区域对应的预设移动参数进行移动,得到移动后起始部位区域的关键点,之后根据该移动后起始部位区域的关键点和关联部位区域尺寸信息,确定出关联部位区域。
比如,当起始部位区域的关键点为眼睛关键点,关联部位区域为肩膀区域,预设移动参数包括移动方向和移动距离时,可以首先将眼睛关键点沿移动方向移动移动距离,得到移动后眼睛关键点,之后根据移动后眼睛关键点确定移动后眼睛中心点,将该移动后眼睛中心点作为肩膀区域上边缘中心点,将两个移动后眼睛关键点所在直线,作为肩膀区域上边缘所在直线,之后根据肩膀区域尺寸,确定出肩膀区域。
在一实施例中,还可以对预设移动参数和关联部位区域尺寸信息进行调整。比如,当起始部位区域包括人脸区域时,由于图像中可能有一个人,还可能有多个人,而图像中人体数目的差异,会导致图像中人体尺寸的差异,又或者,即使图像中人体数目相同,也会出现由于人体所处位置的不同,比如位置远近的不同,产生尺寸上的差异,所以需要对关联部位区域尺寸和预设移动参数进行调整,使得调整后的关联部位区域尺寸和预设移动参数可以适应当前图像中人体的尺寸。
在一实施例中,比如,基准起始部位区域可以包括最初设定作为基准的起始部位区域。可以根据起始部位区域的尺寸信息,基于起始部位区域尺寸和基准起始部位区域尺寸的比例信息,对关联部位区域尺寸和预设移动参数进行调整。当起始部位区域尺寸比基准起始部位区域尺寸大时,将关联部位区域尺寸和预设移动参数根据比例相应调大,当起始部位区域尺寸比基准起始部位区域尺寸小时,将关联部位区域尺寸和预设移动参数根据比例相应调小,从而使得关联部位区域的获取更加准确。
205、采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息。
其中,深度学习网络模型是一种依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而进行信息处理的模型。深度学习网络模型可以对关键点进行检测。比如,该深度学习网络模型可以包括卷积神经网络模型,等等。
其中,关联部位区域的关键点包括关联部位区域中可以对关联部位进行定位的若干点,比如,当关联部位区域为肩膀区域时,可以将肩膀三角肌中心点作为关联部位区域的关键点。
其中,关联部位区域的关键点的位置信息包括表示关联部位区域的关键点位置的信息,比如,当三角肌中心点作为关联部位区域的关键点时,可以将三角肌中心点的坐标作为关联部位区域的关键点的位置信息。
在一实施例中,为了提高关键点检测的准确性,可以采用网络模型对关键点进行检测。具体地,步骤“采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息”可以包括:
采用深度学习网络模型对所述关联部位区域进行关键点检测,得到若干关联部位区域的候选关键点及其置信度;
根据所述关联部位区域的候选关键点的置信度、以及所述起始部位区域的关键点位置信息,从若干关联部位区域的候选关键点中确定关联部位区域的关键点。
其中,关联部位区域的候选关键点为经过深度学习网络模型检测后,检测出的多个可能的关联部位区域的关键点。
其中,置信度为样本某个参数的真实值有一定概率落在测量结果的周围的程度。关联部位区域的候选关键点对应的置信度,为每个关联部位区域的候选关键点是真实关联部位区域的关键点的可信程度,比如,该置信度可以包括概率,等等。
在实际应用中,可以根据多个关联部位区域的候选关键点对应的置信度和起始部位区域的关键点的位置,从多个关联部位区域的候选关键点中,选取最合适的关联部位区域的关键点。
比如,可以将概率最大的候选关键点作为关联部位区域的关键点,还可以根据实际情况进行其他选取关联部位区域的关键点方案。
通过基于深度学习网络模型对部位区域进行检测,使得检测区域减小,降低了网络检测的复杂性,节约了检测的时间,从而提高了检测的效率。
206、当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤。
其中,关联部位不为检测结束部位,可以代表关键点检测尚未终止,当前关联部位是检测结束部位时,可以代表关键点检测终止。
其中,检测结束部位为代表检测结束的部位。比如,该检测结束部位可以为预设部位,将脚预设为检测结束部位时,当关联部位不为脚时,说明检测尚未结束,可以将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤。
在一实施例中,该检测结束部位还可以根据部位动效编辑操作获取。
在实际应用中,当关联部位不为检测结束部位时,可以用检测出的关联部位区域对起始部位区域进行替换,用检测出的关联部位区域的关键点对起始部位区域的关键点进行替换,以实现循环的检测。
比如,当起始部位区域为人脸区域,关联部位区域为肩膀区域,检测结束部位为腿部时,检测完肩膀区域的关键点后,可以用肩膀区域替换人脸区域,用肩膀区域的关键点替换人脸区域的关键点,之后可以利用肩膀区域和肩膀区域的关键点,进行对于腰部区域和腰部区域的关键点的检测,以此类推,直至检测完腿部区域的关键点,完成关键点的检测,执行输出所有检测到的部位关键点信息的步骤。
207、当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
在实际应用中,当关联部位为检测结束部位时,可以代表关键点检测结束,然后输出所有检测到的部位关键点信息。
在一实施例中,为了使得检测到的部位关键点信息,在目标对象图像中进行输出,具体地,步骤“输出所有检测到的部位关键点信息”可以包括:
基于所述目标对象图像的尺寸信息、以及部位关键点在部位区域内的位置信息,获取部位关键点在目标对象图像内的位置信息;
根据所述部位关键点在目标对象图像内的位置信息,将所述部位关键点映射到所述目标对象图像中输出。
其中,部位关键点信息为部位关键点在部位区域内的位置信息,由于部位关键点是通过对若干部位区域进行检测得到的,而不是对整张图像进行检测得到的,因此,需要基于目标对象图像的尺寸信息和部位关键点在部位区域内的位置信息,获取部位关键点在目标对象图像内的位置信息,并将部位关键点在目标对象图像内的位置信息映射到目标对象图像中输出。
在一实施例中,还可以将部位关键点在目标对象图像中标注并进行显示,比如,可以用标记点的形式对部位关键点进行标注。还可以将同一部位区域的关键点进行连接,通过连线的形式显示人体各部位所处的姿态。比如,对于肩膀区域的两个关键点可以用线段的形式进行连接,以显示肩膀的姿态。
在一实施例中,也可以不将所有的关键点都显示在界面上,比如,只将希望显示的关键点进行显示,其余关键点检测出来可以进行隐藏,从而提升用户体验。
在一实施例中,为了使得关键点检测结果更加准确,可以采取关键点稳点和部位区域稳框的步骤。具体地,步骤“输出所有检测到的部位关键点信息”可以包括:
获取历史目标对象图像对应的部位关键点信息,所述历史目标对象图像包括所述视频中目标对象图像之前的图像;
将所述历史目标对象图像对应的部位关键点信息,和所述检测到的部位关键点信息进行比较,得到关键点差异信息;
根据所述关键点差异信息对所述检测到的部位关键点信息进行调整,得到调整后的关键点信息;
输出所述调整后的关键点信息。
其中,历史目标对象图像为视频中,目标对象图像之前截取的若干帧目标对象图像,该截取帧数可以预先设定,比如,可以获取当前目标对象图像,之前截取的5帧目标对象图像,作为历史目标对象图像。
在实际应用中,可以将历史目标对象图像对应的部位关键点信息,和检测到的部位关键点信息进行比较,比如,可以将目标对象图像中左眼的坐标(x0,y0)和历史目标对象图像中左眼的坐标(x1,y1)进行比较。
其中,关键点差异信息可以包括相比较两点位置信息之间的偏差信息,比如,关键点差异信息可以为相比较两点位置信息之间的偏差值,目标对象图像中左眼的坐标为(x0,y0),历史目标对象图像中左眼的坐标为(x1,y1)时,关键点差异信息可以为
在实际应用中,可以根据关键点差异信息对检测到的部位关键点信息进行调整,并输出调整后的关键点信息。
在一实施例中,可以剔除关键点检测后差异过大的关键点,保留关键点检测后差异在允许范围内的关键点,从而提高关键点检测准确性。具体地,步骤“根据所述关键点差异信息对所述检测到的部位关键点信息进行调整,得到调整后的关键点信息”可以包括:
当所述关键点差异信息满足第一预设调整条件时,保留所述检测到的部位关键点信息;
当所述关键点差异信息不满足第一预设调整条件时,用所述历史目标对象图像对应的部位关键点信息替换所述检测到的部位关键点信息。
其中,第一预设调整条件包括判断是否需要对检测到的部位关键点信息进行调整的条件,比如,该第一预设调整条件可以包括关键点差异阈值,通过该第一预设调整条件可以判定两关键点之间的距离是否满足要求,等等。
在实际应用中,当关键点差异信息满足第一预设调整条件时,可以保留检测到的部位关键点信息,不对部位关键点信息进行替换;当关键点差异信息不满足第一预设调整条件时,可以用历史目标对象图像对应的部位关键点信息替换检测到的部位关键点信息。
比如,若相比较的关键点为目标对象图像中的左眼关键点,和历史目标对象图像中的左眼关键点时,当两左眼关键点之间的距离大于预设的关键点差异阈值时,不进行关键点的替换;当两个左眼关键点之间的距离不大于预设的关键点差异阈值时,用历史目标对象图像中的左眼关键点替换目标对象图像中的左眼关键点。
在一实施例中,还可以通过剔除差异较大的部位区域,保留允许范围差异的部位区域,以提高关键点检测的准确性。具体地,步骤“将所述历史目标对象图像对应的部位关键点信息,和所述检测到的部位关键点信息进行比较,得到关键点差异信息”之后,还可以包括:
当所述关键点差异信息满足第二预设调整条件时,保留所述目标对象图像对应的部位区域;
当所述关键点差异信息不满足第二预设调整条件时,用所述历史目标对象图像对应的部位区域替换所述目标对象图像对应的部位区域;
输出调整后的部位区域。
其中,第二预设调整条件包括判断是否需要对检测到的部位区域信息进行调整的条件,比如,该第二预设调整条件可以包括关键点差异阈值,通过该第二预设调整条件可以判定两关键点之间的距离是否满足要求,等等。
在实际应用中,当关键点差异信息满足第二预设调整条件时,可以保留目标对象图像对应的部位区域,不对部位区域信息进行替换;当关键点差异信息不满足第二预设调整条件时,用历史目标对象图像对应的部位区域替换目标对象图像对应的部位区域。
比如,若相比较的关键点为目标对象图像中的左眼关键点,和历史目标对象图像中的左眼关键点时,当两左眼关键点之间的距离大于预设的关键点差异阈值时,不进行关键区域的替换;当两个左眼关键点之间的距离不大于预设的关键点差异阈值时,用历史目标对象图像中的人脸区域替换目标对象图像中的人脸区域。
在一实施例中,还可以将调整后的部位区域进行输出,比如,可以通过矩形框的形式表示部位区域,等等。
通过对部位关键点和部位区域进行替换,避免了由于人体进行轻微的移动,而造成的部位关键点位置的移动,以及部位区域的移动,从而提高了关键点检测的准确性。
在一实施例中,该图像检测方法还可以通过对用户部位动效编辑操作的检测,确定检测结束部位,实现动态效果的添加,以提升用户体验。
具体地,该图像检测方法还可以包括:
显示包括所述目标对象图像的图像编辑界面;
基于用户针对所述图像编辑界面的部位动效编辑操作,确定检测结束部位。
其中,部位动效编辑操作可以为用户对于添加动态效果的操作,比如,该部位动效编辑操作可以为用户对于图像编辑界面的点击操作,等等。
在实际应用中,可以基于用户针对图像编辑界面的部位动效编辑操作,确定出检测结束部位。
比如,当目标对象为人体时,当用户点击目标对象图像的手掌部位时,可以将手掌部位作为检测结束部位,即检测出手掌部位的关键点后,关键点检测结束。
在一实施例中,为了提升用户的体验,具体地,步骤“基于用户针对所述图像编辑界面的动效编辑操作,确定检测结束部位”可以包括:
基于用户针对目标对象图像的动效添加操作,确定待添加动效的目标部位;
基于所述目标部位确定检测结束部位。
其中,动效编辑操作包括用户针对目标对象图像的动效添加操作。
比如,目标对象为人体时,当检测到用户针对人体中手掌部位的点击操作时,可以将手掌部位确定为待添加动效的目标部位,之后根据待添加动效的目标部位,确定出检测结束部位,比如,检测结束部位可以为手掌部位,等等。
在一实施例中,为了提升用户的体验,具体地,步骤“基于用户针对所述图像编辑界面的动效编辑操作,确定检测结束部位”可以包括:
基于用户针对所述待添加动效的选择操作,确定目标动效;
基于所述目标动效的部位属性确定检测结束部位。
其中,动效编辑操作还包括用户针对所述待添加动效的选择操作。
其中,待添加动效为可以触发添加动态效果指令的动效图标,比如,可以为荧光棒动效图标,等等。目标动效的部位属性可以为目标动效所对应的目标对象的部位,比如,当目标动效为荧光棒时,荧光棒可以对应目标对象的手掌部位。
比如,目标对象为人体,当检测到用户点击荧光棒操作时,目标动效为荧光棒,可以获取荧光棒对应的目标对象部位,即手掌部位,之后可以确定出检测结束部位。
在一实施例中,该图像检测方法还可以通过对用户部位动效编辑操作的检测,确定起始部位,实现动态效果的添加,以提升用户体验。
具体地,该图像检测方法还可以包括:
显示包括所述目标对象图像的图像编辑界面;
基于用户针对所述图像编辑界面的部位动效编辑操作,确定待添加动效的目标部位;
基于所述目标部位确定起始部位。
比如,当目标对象为人体时,检测到用户点击手掌的操作时,可以确定待添加动效的目标部位为手掌部位,之后根据预先设置,确定出目标部位为手掌部位时,对应的起始部位可以为人脸部位。
又比如,当目标对象为人体时,检测到用户点击荧光棒的操作时,可以确定待添加动效的目标部位为手掌部位,之后根据预先设置,确定出目标部位为手掌部位时,对应的起始部位可以为人脸部位。
其中,确定出检测结束部位和起始部位后,还可以根据部位动效编辑操作,添加动态效果,从而提升用户体验。
其中,动态效果可以为在目标对象图像上针对目标对象添加的动态效果,从而提升用户体验,比如,动态效果可以为挥动荧光棒等等。
在实际应用中,比如,检测到用户的部位动效编辑操作之后,可以根据部位动效编辑操作确定出检测结束部位,和起始部位,并进行关键点检测,得到相应部位的关键点,之后根据部位动效编辑操作,在相应目标部位上添加动态效果。比如,当用户点击荧光棒时,可以确定出荧光棒对应的部位属性,即荧光棒对应手掌部位,并确定出检测结束部位为手掌部位,起始部位为人脸部位,进行关键点检测,当关键点检测结束后,可以在相应手掌部位添加挥舞荧光棒的动态效果。
由上可知,本申请实施例获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。还可以通过对目标对象添加动态效果,提高用户体验。根据动态效果确定检测结束部位,从而关键点检测步骤可以仅检测到检测结束部位为止,无需将目标对象所有关键点都进行检测,从而提高了效率。
根据上述实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,如图3所示,将以该图像检测装置具体集成在终端中为例进行说明。
301、终端获取目标人体图像。
其中,终端获取目标人体图像的方式可以有多种,比如,可以从人体视频图像中截取一帧作为目标人体图像,还可以通过终端进行拍摄获取目标人体图像,或者还可以从本地或者外部数据库中获取目标人体图像,或者可以从网络中搜索目标人体图像等等。
在一实施例中,终端可以从视频中获取目标人体图像,终端获取视频的方式可以有多种,比如,可以通过终端进行录制获取视频,还可以从本地或者外部数据库中获取视频,或者可以从网络中搜索视频等等。获取到视频之后,可以从该视频中截取一帧图像,作为目标人体图像。
302、终端对目标人体图像进行部位检测,得到人脸区域的位置信息。
在实际应用中,终端可以在目标人体图像中识别并标定出人脸区域的位置信息。比如,终端可以利用Android(安卓操作系统)的人脸检测接口或者IOS(苹果公司的移动操作系统)的人脸检测接口,该人脸检测接口可以提取人脸区域特征,并将人脸区域特征写进含有标识码的文件中,实现对目标人体图像进行人脸检测,得到人脸区域的位置坐标和尺寸。
在一实施例中,比如,终端还可以用矩形框的方式表示人脸区域,利用矩形框四个顶点的坐标值表示人脸区域的位置信息。
303、终端根据人脸区域的位置信息,得到眼睛关键点位置信息。
在实际应用中,终端可以通过对人脸区域进行检测,得到眼睛关键点的位置信息。比如,终端可以利用OpenCV(Open Source Computer Vision Library,开源计算机视觉库)对人脸区域进行检测,可以加载相应训练好的分类器,根据分类器获取标签值和/或置信度,进而得到眼睛关键点的坐标。
请参阅图4,图4为本申请实施例提供的人体关键点示意图。图4中7个矩形框代表人体部位区域,图中点代表部位关键点。
304、终端根据眼睛关键点位置信息,确定肩膀区域,采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息。
在实际应用中,终端可以根据眼睛关键点位置信息和预设参数,确定肩膀区域的位置信息。该预设参数可以包括肩膀区域尺寸、移动方向和移动距离,比如,当使用矩形框的形式表示区域时,可以将矩形框的长和宽的尺寸作为肩膀区域尺寸。
在一实施例中,终端可以根据眼睛关键点的位置信息、两个眼睛关键点之间的距离、以及人脸区域的尺寸,确定肩膀区域上边缘到人脸区域下边缘的距离,作为移动距离,之后可以根据两个眼睛关键点的位置信息,确定眼睛中心点的位置信息,将眼睛中心点作为初始肩膀区域上边缘的中心点,将两个眼睛关键点之间连线所在的直线作为初始肩膀区域上边缘所在的直线,根据肩膀区域尺寸建立一个区域,作为初始肩膀区域。然后可以将初始肩膀区域向下平移移动距离的长度,得到肩膀区域。
在一实施例中,终端可以采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息,比如,可以将肩膀区域输入深度学习网络模型中,得到多个候选肩膀关键点、以及候选肩膀关键点对应的置信度,根据候选肩膀关键点对应的置信度和眼睛关键点的位置信息,从多个候选肩膀关键点中确定出肩膀关键点。
305、终端根据肩膀关键点位置信息,确定腰部区域,采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息。
在实际应用中,终端可以根据肩膀关键点位置信息和预设参数,确定腰部区域的位置信息。该预设参数可以包括腰部区域尺寸、移动方向和移动距离,比如,当使用矩形框的形式表示区域时,可以将矩形框的长和宽的尺寸作为腰部区域尺寸。
在一实施例中,比如,终端可以根据两个眼睛关键点的位置信息,确定出眼睛中心点的位置信息,根据两个肩膀关键点的位置信息,确定出肩膀中心点的位置信息,将眼睛中心点和肩膀中心点进行连接,将所连线段的方向作为身体方向。之后可以根据身体方向确定出移动方向,移动方向可以为沿身体方向向下。然后可以将肩膀中心点作为初始腰部区域上边缘的中心点,将两肩膀关键点之间连线所在直线作为初始腰部区域上边缘所在直线,根据腰部区域尺寸建立一个区域,作为初始腰部区域。然后可以将初始腰部区域沿身体方向向下平移移动距离的长度,得到腰部区域。
在一实施例中,终端可以采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息,比如,可以将腰部区域输入深度学习网络模型中,得到多个候选腰部关键点、以及候选腰部关键点对应的置信度,根据候选腰部关键点对应的置信度和肩膀关键点的位置信息,从多个候选腰部关键点中确定出腰部关键点。
306、终端根据肩膀关键点位置信息和腰部关键点位置信息,确定手臂区域,采用深度学习网络模型对手臂区域进行关键点检测,得到手臂关键点信息。
在实际应用中,终端可以根据肩膀关键点位置信息、腰部关键点位置信息和预设参数,确定手臂区域的位置信息。该预设参数可以包括手臂区域尺寸、移动方向和移动距离,比如,当使用矩形框的形式表示区域时,可以将矩形框的长和宽的尺寸作为手臂区域尺寸。
在一实施例中,比如,当确定左手臂区域时,终端可以将左肩膀关键点和左腰部关键点连线所在的直线作为初始左手臂区域右边缘所在的直线,将左肩膀关键点作为初始左手臂区域右边缘的顶点,根据手臂区域尺寸建立一个区域,作为初始左手臂区域,然后可以将初始左手臂区域沿移动方向平移移动距离,得到左手臂区域。
在一实施例中,终端可以采用深度学习网络模型对左手臂区域进行关键点检测,得到左手臂关键点信息,比如,可以将左手臂区域输入深度学习网络模型中,得到多个候选左手臂关键点以及候选左手臂关键点对应的置信度,根据候选左手臂关键点对应的置信度、肩膀关键点的位置信息和腰部关键点的位置信息,从多个候选左手臂关键点中确定出左手臂关键点。
在一实施例中,比如,当确定右手臂区域时,终端可以将右肩膀关键点和右腰部关键点连线所在的直线作为初始右手臂区域左边缘所在的直线,将右肩膀关键点作为初始右手臂区域左边缘的顶点,根据手臂区域尺寸建立一个区域,作为初始右手臂区域,然后可以将初始右手臂区域沿移动方向平移移动距离,得到右手臂区域。
在一实施例中,终端可以采用深度学习网络模型对右手臂区域进行关键点检测,得到右手臂关键点信息,比如,可以将右手臂区域输入深度学习网络模型中,得到多个候选右手臂关键点、以及候选右手臂关键点对应的置信度,根据候选右手臂关键点对应的置信度、肩膀关键点的位置信息和腰部关键点的位置信息,从多个候选右手臂关键点中确定出右手臂关键点。
307、终端根据腰部关键点位置信息,确定腹部区域,采用深度学习网络模型对腹部区域进行关键点检测,得到腹部关键点信息。
在实际应用中,终端可以根据腰部关键点位置信息和预设参数,确定腹部区域的位置信息。该预设参数可以包括腹部区域尺寸、移动方向和移动距离,比如,当使用矩形框的形式表示区域时,可以将矩形框的长和宽的尺寸作为腹部区域尺寸。
在一实施例中,比如,终端可以根据两个肩膀关键点的位置信息,确定出肩膀中心点的位置信息,根据两个腰部关键点的位置信息,确定出腰部中心点的位置信息,将肩膀中心点和腰部中心点进行连接,将所连线段的方向作为身体方向。之后可以根据身体方向确定出移动方向,移动方向可以为沿身体方向向下。然后可以将腰部中心点作为初始腹部区域上边缘的中心点,将两腰部关键点之间连线所在直线作为初始腹部区域上边缘所在直线,根据腹部区域尺寸建立一个区域,作为初始腹部区域。然后可以将初始腹部区域沿身体方向向下平移移动距离的长度,得到腹部区域。
在一实施例中,终端可以采用深度学习网络模型对腹部区域进行关键点检测,得到腹部关键点信息,比如,可以将腹部区域输入深度学习网络模型中,得到多个候选腹部关键点、以及候选腹部关键点对应的置信度,根据候选腹部关键点对应的置信度和腰部关键点的位置信息,从多个候选腹部关键点中确定出腹部关键点。
308、终端根据腹部关键点位置信息,确定腿部区域,采用深度学习网络模型对腿部区域进行关键点检测,得到腿部关键点信息。
在实际应用中,终端可以根据腹部关键点位置信息和预设参数,确定腿部区域的位置信息。该预设参数可以包括腿部区域尺寸、移动方向和移动距离,比如,当使用矩形框的形式表示区域时,可以将矩形框的长和宽的尺寸作为腿部区域尺寸。
在一实施例中,比如,终端可以将腹部关键点作为初始腿部区域上边缘的中心点,将两腰部关键点之间连线所在直线作为与初始腿部区域上边缘平行的直线,根据腿部区域尺寸建立一个区域,作为初始腿部区域。然后可以将初始腿部区域沿身体方向向下平移移动距离的长度,得到腿部区域。
在一实施例中,终端可以采用深度学习网络模型对腿部区域进行关键点检测,得到腿部关键点信息,比如,可以将腿部区域输入深度学习网络模型中,得到多个候选腿部关键点、以及候选腿部关键点对应的置信度,根据候选腿部关键点对应的置信度和腹部关键点的位置信息,从多个候选腿部关键点中确定出腿部关键点。
309、终端输出检测到的人体部位关键点信息。
在实际应用中,如图5所示,当检测完所有人体部位关键点时,终端可以将所有检测到的部位关键点映射到目标人体图像中,并进行输出。
在一实施例中,终端可以基于目标人体图像的尺寸信息和部位关键点在部位区域内的位置信息,获取部位关键点在目标人体图像内的位置信息,并将部位关键点在目标人体图像内的位置信息映射到目标人体图像中输出。
在一实施例中,终端还可以将部位关键点在目标人体图像中标注并进行显示,比如,可以用标记点的形式对部位关键点进行标注。还可以将同一部位区域的关键点进行连接,通过连线的形式显示人体各部位所处的姿态。比如,对于肩膀区域的两个关键点可以用线段的形式进行连接,以显示肩膀的姿态。
在一实施例中,该图像检测方法还可以获取历史人体图像对应的部位关键点信息,之后将历史人体图像对应的部位关键点信息,和检测到的部位关键点信息进行比较,得到关键点差异信息,然后所述关键点差异信息对检测到的部位关键点信息进行调整,得到调整后的关键点信息,最后输出调整后的关键点信息。
其中,历史人体图像为视频中,目标人体图像之前截取的若干帧人体图像,该截取帧数可以预先设定,比如,可以获取之前截取的5帧人体图像,作为历史人体图像。
在实际应用中,终端可以将历史人体图像对应的部位关键点信息,和检测到的部位关键点信息进行比较,比如,可以将目标人体图像中左眼的坐标(x0,y0)和历史人体图像中左眼的坐标(x1,y1)进行比较。
其中,关键点差异信息可以包括相比较两点位置信息之间的偏差信息,比如,关键点差异信息可以包括相比较两点位置信息之间的偏差值,目标人体图像中左眼的坐标为(x0,y0),历史人体图像中左眼的坐标为(x1,y1)时,关键点差异信息可以为
在实际应用中,终端可以根据关键点差异信息对检测到的部位关键点信息进行调整,并输出调整后的关键点信息。当关键点差异信息满足第一预设调整条件时,可以保留检测到的部位关键点信息,不对部位关键点信息进行替换;当关键点差异信息不满足第一预设调整条件时,用历史人体图像对应的部位关键点信息替换检测到的部位关键点信息,比如,若相比较的关键点为目标人体图像中的左眼关键点,和历史人体图像中的左眼关键点时,当两左眼关键点之间的距离大于预设的关键点差异阈值时,不进行关键点的替换;当两个左眼关键点之间的距离不大于预设的关键点差异阈值时,用历史人体图像中的左眼关键点替换目标人体图像中的左眼关键点。
在一实施例中,当关键点差异信息满足第二预设调整条件时,可以保留目标人体图像对应的部位区域,不对部位区域信息进行替换;当关键点差异信息不满足第二预设调整条件时,用历史人体图像对应的部位区域替换目标人体图像对应的部位区域,比如,若相比较的关键点为目标人体图像中的左眼关键点,和历史人体图像中的左眼关键点时,当两左眼关键点之间的距离大于预设的关键点差异阈值时,不进行关键区域的替换;当两个左眼关键点之间的距离不大于预设的关键点差异阈值时,用历史人体图像中的人脸区域替换目标人体图像中的人脸区域。
由上可知,本申请实施例通过终端获取目标人体图像,对目标人体图像进行部位检测,得到人脸区域的位置信息,根据人脸区域的位置信息,得到眼睛关键点位置信息,根据眼睛关键点位置信息,确定肩膀区域,采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息,根据肩膀关键点位置信息,确定腰部区域,采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息,根据肩膀关键点位置信息和腰部关键点位置信息,确定手臂区域,采用深度学习网络模型对手臂区域进行关键点检测,得到手臂关键点信息,根据腰部关键点位置信息,确定腹部区域,采用深度学习网络模型对腹部区域进行关键点检测,得到腹部关键点信息,根据腹部关键点位置信息,确定腿部区域,采用深度学习网络模型对腿部区域进行关键点检测,得到腿部关键点信息,输出检测到的人体部位关键点信息。
由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中目标对象部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。还可以通过对目标对象添加动态效果,提高用户体验。根据动态效果确定检测结束部位,从而关键点检测步骤可以仅检测到检测结束部位为止,无需将目标对象所有关键点都进行检测,从而提高了效率。
根据上述实施例所描述的方法,以下将举例作进一步详细说明。
在本实施例中,将以该图像检测装置具体集成在终端中为例进行说明。
401、终端显示包括目标人体图像的图像编辑界面。
其中,终端显示图像编辑界面之前,还可以获取图像编辑指令。比如用户可以通过对终端进行操作发送图像编辑指令,终端可以根据该图像编辑指令显示包括目标人体图像的图像编辑界面。
402、终端基于用户针对图像编辑界面的部位动效编辑操作,确定检测结束部位和起始部位。
比如,如图6所示,当终端检测到用户点击图像编辑界面的手掌部位时,可以将手掌部位确定为检测结束部位,即用户希望在手掌部位添加动态效果,之后可以根据预先设定,当检测结束部位为手掌部位时,确定出起始部位为人脸部位。
在一实施例中,比如,如图7所示,当终端检测到用户点击屏幕显示的荧光棒时,可以获取荧光棒对应的部位属性,即荧光棒可以对应手掌部位,将手掌部位确定为检测结束部位,即用户希望在手掌部位添加动态效果,之后可以根据预先设定,当检测结束部位为手掌部位时,确定出起始部位为人脸部位。
403、终端获取目标人体图像。
比如,终端可以从视频中获取目标人体图像,终端获取视频的方式可以有多种,比如,可以通过终端进行录制获取视频,还可以从本地或者外部数据库中获取视频,或者可以从网络中搜索视频等等。获取到视频之后,可以从该视频中截取一帧图像,作为目标人体图像。
404、终端对目标人体图像进行部位检测,得到人脸区域的位置信息。
在实际应用中,终端可以在目标人体图像中识别并标定出人脸区域的位置信息。比如,终端可以利用Android(安卓操作系统)的人脸检测接口或者IOS(苹果公司的移动操作系统)的人脸检测接口,该人脸检测接口可以提取人脸区域特征,并将人脸区域特征写进含有标识码的文件中,实现对目标人体图像进行人脸检测,得到人脸区域的位置坐标和尺寸。
在一实施例中,比如,终端还可以用矩形框的方式表示人脸区域,利用矩形框四个顶点的坐标值表示人脸区域的位置信息。
405、终端根据人脸区域的位置信息,得到眼睛关键点位置信息。
在实际应用中,终端可以通过对人脸区域进行检测,得到眼睛关键点的位置信息。比如,终端可以利用OpenCV(Open Source Computer Vision Library,开源计算机视觉库)对人脸区域进行检测,可以加载相应训练好的分类器,根据分类器获取标签值和/或置信度,进而得到眼睛关键点的坐标。
406、终端根据眼睛关键点位置信息,确定肩膀区域,采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息。
在一实施例中,终端可以根据眼睛关键点的位置信息、两个眼睛关键点之间的距离、以及人脸区域的尺寸,确定肩膀区域上边缘到人脸区域下边缘的距离,作为移动距离,之后可以根据两个眼睛关键点的位置信息,确定眼睛中心点的位置信息,将眼睛中心点作为初始肩膀区域上边缘的中心点,将两个眼睛关键点之间连线所在的直线作为初始肩膀区域上边缘所在的直线,根据肩膀区域尺寸建立一个区域,作为初始肩膀区域。然后可以将初始肩膀区域向下平移移动距离的长度,得到肩膀区域。
在一实施例中,终端可以采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息,比如,可以将肩膀区域输入深度学习网络模型中,得到多个候选肩膀关键点、以及候选肩膀关键点对应的置信度,根据候选肩膀关键点对应的置信度和眼睛关键点的位置信息,从多个候选肩膀关键点中确定出肩膀关键点。
407、终端根据肩膀关键点位置信息,确定腰部区域,采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息。
在一实施例中,比如,终端可以根据两个眼睛关键点的位置信息,确定出眼睛中心点的位置信息,根据两个肩膀关键点的位置信息,确定出肩膀中心点的位置信息,将眼睛中心点和肩膀中心点进行连接,将所连线段的方向作为身体方向。之后可以根据身体方向确定出移动方向,移动方向可以为沿身体方向向下。然后可以将肩膀中心点作为初始腰部区域上边缘的中心点,将两肩膀关键点之间连线所在直线作为初始腰部区域上边缘所在直线,根据腰部区域尺寸建立一个区域,作为初始腰部区域。然后可以将初始腰部区域沿身体方向向下平移移动距离的长度,得到腰部区域。
在一实施例中,终端可以采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息,比如,可以将腰部区域输入深度学习网络模型中,得到多个候选腰部关键点、以及候选腰部关键点对应的置信度,根据候选腰部关键点对应的置信度和肩膀关键点的位置信息,从多个候选腰部关键点中确定出腰部关键点。
408、终端根据肩膀关键点位置信息和腰部关键点位置信息,确定手臂区域,采用深度学习网络模型对手臂区域进行关键点检测,得到手臂关键点信息。
其中,手臂关键点包括手掌关键点,等等。
在一实施例中,比如,当确定左手臂区域时,终端可以将左肩膀关键点和左腰部关键点连线所在的直线作为初始左手臂区域右边缘所在的直线,将左肩膀关键点作为初始左手臂区域右边缘的顶点,根据手臂区域尺寸建立一个区域,作为初始左手臂区域,然后可以将初始左手臂区域沿移动方向平移移动距离,得到左手臂区域。
在一实施例中,终端可以采用深度学习网络模型对左手臂区域进行关键点检测,得到左手臂关键点信息,比如,可以将左手臂区域输入深度学习网络模型中,得到多个候选左手臂关键点以及候选左手臂关键点对应的置信度,根据候选左手臂关键点对应的置信度、肩膀关键点的位置信息和腰部关键点的位置信息,从多个候选左手臂关键点中确定出左手臂关键点。
在一实施例中,比如,当确定右手臂区域时,终端可以将右肩膀关键点和右腰部关键点连线所在的直线作为初始右手臂区域左边缘所在的直线,将右肩膀关键点作为初始右手臂区域左边缘的顶点,根据手臂区域尺寸建立一个区域,作为初始右手臂区域,然后可以将初始右手臂区域沿移动方向平移移动距离,得到右手臂区域。
在一实施例中,终端可以采用深度学习网络模型对右手臂区域进行关键点检测,得到右手臂关键点信息,比如,可以将右手臂区域输入深度学习网络模型中,得到多个候选右手臂关键点、以及候选右手臂关键点对应的置信度,根据候选右手臂关键点对应的置信度、肩膀关键点的位置信息和腰部关键点的位置信息,从多个候选右手臂关键点中确定出右手臂关键点。
409、终端基于手臂关键点信息和部位动效编辑操作,添加动态效果。
比如,当终端检测到用户点击手掌部位时,可以根据预先设置,确定出用户希望在手掌部位添加动态效果,比如,挥舞荧光棒,并在手掌部位添加挥舞荧光棒的动态效果。
在一实施例中,比如,当终端检测到用户点击屏幕中的荧光棒时,可以根据预先设置,确定出用户希望在手掌部位添加动态效果,比如,挥舞荧光棒,并在手掌部位添加挥舞荧光棒的动态效果。
由上可知,本申请实施例通过终端显示包括目标人体图像的图像编辑界面,基于用户针对图像编辑界面的部位动效编辑操作,确定检测结束部位和起始部位,获取目标人体图像,对目标人体图像进行部位检测,得到人脸区域的位置信息,根据人脸区域的位置信息,得到眼睛关键点位置信息,根据眼睛关键点位置信息,确定肩膀区域,采用深度学习网络模型对肩膀区域进行关键点检测,得到肩膀关键点信息,根据肩膀关键点位置信息,确定腰部区域,采用深度学习网络模型对腰部区域进行关键点检测,得到腰部关键点信息,根据肩膀关键点位置信息和腰部关键点位置信息,确定手臂区域,采用深度学习网络模型对手臂区域进行关键点检测,得到手臂关键点信息,基于手臂关键点信息和部位动效编辑操作,添加动态效果。
由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中目标对象部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。还可以通过对目标对象添加动态效果,提高用户体验。根据动态效果确定检测结束部位,从而关键点检测步骤可以仅检测到检测结束部位为止,无需将目标对象所有关键点都进行检测,从而提高了效率。
为了更好地实施以上方法,本申请实施例还提供一种图像检测装置,该图像检测装置具体可以集成在终端等设备中。
例如,如图8所示,该图像检测装置可以包括图像获取模块81、第一区域获取模块82、第一关键点获取模块83、第二区域获取模块84、第二关键点获取模块85、更新模块86和输出模块87,如下:
图像获取模块81,用于获取目标对象图像;
第一区域获取模块82,用于对所述目标对象图像进行部位检测,得到起始部位区域的位置信息;
第一关键点获取模块83,用于根据所述起始部位区域的位置信息,得到起始部位区域的关键点位置信息;
第二区域获取模块84,用于根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域;
第二关键点获取模块85,用于采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息;
更新模块86,用于当关联部位不为检测结束部位时,将所述起始部位区域更新为所述关联部位区域,并返回执行根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域的步骤;
输出模块87,用于当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
在一实施例中,参考图9,所述第二区域获取模块84,可以包括:
初始关联部位区域确定子模块841,用于根据所述起始部位区域的关键点位置信息、以及关联部位区域尺寸信息,确定初始关联部位区域;
关联部位区域确定子模块842,用于根据所述关联部位区域对应的预设移动参数,将所述初始关联部位区域移动,得到关联部位区域。
在一实施例中,关联部位区域确定子模块842可以具体用于:
根据所述起始部位区域的关键点位置信息确定身体方向;
根据所述身体方向确定所述移动方向;
将所述初始关联部位区域沿所述移动方向移动所述移动距离,得到所述关联部位区域。
在一实施例中,参考图10,所述第二关键点获取模块85,可以包括:
检测子模块851,用于采用深度学习网络模型对所述关联部位区域进行关键点检测,得到若干关联部位区域的候选关键点及其置信度;
确定子模块852,用于根据所述关联部位区域的候选关键点的置信度、以及所述起始部位区域的关键点位置信息,从若干关联部位区域的候选关键点中确定关联部位区域的关键点。
在一实施例中,参考图11,所述输出模块87,可以包括:
获取子模块871,用于基于所述目标对象图像的尺寸信息、以及部位关键点在部位区域内的位置信息,获取部位关键点在目标对象图像内的位置信息;
输出子模块872,用于根据所述部位关键点在目标对象图像内的位置信息,将所述部位关键点映射到所述目标对象图像中输出。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
由上可知,本申请实施例通过图像获取模块81获取目标对象图像,通过第一区域获取模块82对目标对象图像进行部位检测,得到起始部位区域的位置信息,通过第一关键点获取模块83根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,通过第二区域获取模块84根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,通过第二关键点获取模块85采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,通过更新模块86将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,通过输出模块87输出所有检测到的部位关键点信息。
由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中目标对象部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。
本申请实施例还提供一种终端,该终端可以集成本申请实施例所提供的任一种图像检测装置。
例如,如图12所示,其示出了本申请实施例所涉及的终端的结构示意图,具体来讲:
该终端可以包括一个或者一个以上处理核心的处理器121、一个或一个以上计算机可读存储介质的存储器122、电源123和输入单元124等部件。本领域技术人员可以理解,图12中示出的终端结构并不构成对终端的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器121是该终端的控制中心,利用各种接口和线路连接整个终端的各个部分,通过运行或执行存储在存储器122内的软件程序和/或模块,以及调用存储在存储器122内的数据,执行终端的各种功能和处理数据,从而对终端进行整体监控。可选的,处理器121可包括一个或多个处理核心;优选的,处理器121可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器121中。
存储器122可用于存储软件程序以及模块,处理器121通过运行存储在存储器122的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器122可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器122可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器122还可以包括存储器控制器,以提供处理器121对存储器122的访问。
终端还包括给各个部件供电的电源123,优选的,电源123可以通过电源管理系统与处理器121逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。电源123还可以包括一个或一个以上的直流或交流电源、再充电系统、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该终端还可包括输入单元124,该输入单元124可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,终端还可以包括显示单元等,在此不再赘述。具体在本实施例中,终端中的处理器121会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器122中,并由处理器121来运行存储在存储器122中的应用程序,从而实现各种功能,如下:
获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
处理器121还可以运行存储在存储器122中的应用程序,从而实现如下功能:
获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
由上可知,本实施例的终端在需要对图像进行检测时,可以获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
由于方案采用深度学习网络模型对目标对象图像进行关键点检测,无需依赖人工对于目标对象关键点进行检测,减少了人工工作量,提高了目标对象关键点检测效率;同时,由于方案基于深度学习网络模型,对目标对象图像中目标对象部位区域进行检测,无需检测整张图像,降低了检测的复杂性,提高了目标对象关键点检测效率和准确率。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本申请实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本申请实施例所提供的任一种图像检测方法中的步骤。例如,该指令可以执行如下步骤:
获取目标对象图像,对目标对象图像进行部位检测,得到起始部位区域的位置信息,根据起始部位区域的位置信息,得到起始部位区域的关键点位置信息,根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域,采用深度学习网络模型对关联部位区域进行关键点检测,得到关联部位区域的关键点信息,当关联部位不为检测结束部位时,将起始部位区域更新为关联部位区域,并返回执行根据起始部位区域的关键点位置信息,确定与起始部位区域相关联的关联部位区域的步骤,当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本申请实施例所提供的任一种图像检测方法中的步骤,因此,可以实现本申请实施例所提供的任一种图像检测方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本申请实施例所提供的一种图像检测方法、装置、终端以及存储介质进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
Claims (12)
1.一种图像检测方法,其特征在于,包括:
获取目标对象图像;
对所述目标对象图像进行部位检测,得到起始部位区域的位置信息;
根据所述起始部位区域的位置信息,得到起始部位区域的关键点位置信息;
根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域;
采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息;
当关联部位不为检测结束部位时,将所述起始部位区域更新为所述关联部位区域,并返回执行根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域的步骤;
当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
2.根据权利要求1所述的图像检测方法,其特征在于,根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域,包括:
根据所述起始部位区域的关键点位置信息、以及关联部位区域尺寸信息,确定初始关联部位区域;
根据所述关联部位区域对应的预设移动参数,将所述初始关联部位区域移动,得到关联部位区域。
3.根据权利要求2所述的图像检测方法,其特征在于,所述预设移动参数包括移动方向和移动距离;
根据所述关联部位区域对应的预设移动参数,将所述初始关联部位区域移动,得到关联部位区域,包括:
根据所述起始部位区域的关键点位置信息确定身体方向;
根据所述身体方向确定所述移动方向;
将所述初始关联部位区域沿所述移动方向移动所述移动距离,得到所述关联部位区域。
4.根据权利要求1所述的图像检测方法,其特征在于,采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息,包括:
采用深度学习网络模型对所述关联部位区域进行关键点检测,得到若干关联部位区域的候选关键点及其置信度;
根据所述关联部位区域的候选关键点的置信度、以及所述起始部位区域的关键点位置信息,从若干关联部位区域的候选关键点中确定关联部位区域的关键点。
5.根据权利要求1所述的图像检测方法,其特征在于,所述方法还包括:
显示包括所述目标对象图像的图像编辑界面;
基于用户针对所述图像编辑界面的部位动效编辑操作,确定检测结束部位。
6.根据权利要求5所述的图像检测方法,其特征在于,基于用户针对所述图像编辑界面的动效编辑操作,确定检测结束部位,包括:
基于用户针对目标对象图像的动效添加操作,确定待添加动效的目标部位;
基于所述目标部位确定检测结束部位。
7.根据权利要求5所述的图像检测方法,其特征在于,所述图像编辑界面还包括待添加动效;
基于用户针对所述图像编辑界面的动效编辑操作,确定检测结束部位,包括:
基于用户针对所述待添加动效的选择操作,确定目标动效;
基于所述目标动效的部位属性确定检测结束部位。
8.根据权利要求1所述的图像检测方法,其特征在于,所述方法还包括:
显示包括所述目标对象图像的图像编辑界面;
基于用户针对所述图像编辑界面的部位动效编辑操作,确定待添加动效的目标部位;
基于所述目标部位确定起始部位。
9.根据权利要求1所述的图像检测方法,其特征在于,所述部位关键点信息包括部位关键点在部位区域内的位置信息;
输出所有检测到的部位关键点信息,包括:
基于所述目标对象图像的尺寸信息、以及部位关键点在部位区域内的位置信息,获取部位关键点在目标对象图像内的位置信息;
根据所述部位关键点在目标对象图像内的位置信息,将所述部位关键点映射到所述目标对象图像中输出。
10.一种图像检测装置,其特征在于,包括:
图像获取模块,用于获取目标对象图像;
第一区域获取模块,用于对所述目标对象图像进行部位检测,得到起始部位区域的位置信息;
第一关键点获取模块,用于根据所述起始部位区域的位置信息,得到起始部位区域的关键点位置信息;
第二区域获取模块,用于根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域;
第二关键点获取模块,用于采用深度学习网络模型对所述关联部位区域进行关键点检测,得到关联部位区域的关键点信息;
更新模块,用于当关联部位不为检测结束部位时,将所述起始部位区域更新为所述关联部位区域,并返回执行根据所述起始部位区域的关键点位置信息,确定与所述起始部位区域相关联的关联部位区域的步骤;
输出模块,用于当关联部位为检测结束部位时,输出所有检测到的部位关键点信息。
11.一种存储介质,其上存储有计算机程序,其特征在于,当所述计算机程序在计算机上运行时,使得所述计算机执行如权利要求1至9任一项所述的图像检测方法。
12.一种终端,其特征在于,包括处理器和存储器,所述存储器存储有多条指令;所述处理器从所述存储器中加载指令,以执行如权利要求1至9任一项所述的图像检测方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910039627.0A CN109858402B (zh) | 2019-01-16 | 2019-01-16 | 一种图像检测方法、装置、终端以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910039627.0A CN109858402B (zh) | 2019-01-16 | 2019-01-16 | 一种图像检测方法、装置、终端以及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109858402A true CN109858402A (zh) | 2019-06-07 |
CN109858402B CN109858402B (zh) | 2021-08-31 |
Family
ID=66894900
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910039627.0A Active CN109858402B (zh) | 2019-01-16 | 2019-01-16 | 一种图像检测方法、装置、终端以及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109858402B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321849A (zh) * | 2019-07-05 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110647834A (zh) * | 2019-09-18 | 2020-01-03 | 北京市商汤科技开发有限公司 | 人脸和人手关联检测方法及装置、电子设备和存储介质 |
CN112288804A (zh) * | 2019-07-25 | 2021-01-29 | 杭州海康威视数字技术股份有限公司 | 一种目标定位的方法及装置 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944175A (zh) * | 2009-07-07 | 2011-01-12 | 华中师范大学 | 物理运动学实验的动态几何虚拟方法 |
CN103605965A (zh) * | 2013-11-25 | 2014-02-26 | 苏州大学 | 一种多姿态人脸识别方法和装置 |
CN103699908A (zh) * | 2014-01-14 | 2014-04-02 | 上海交通大学 | 基于联合推理的视频多目标跟踪方法 |
CN104268591A (zh) * | 2014-09-19 | 2015-01-07 | 海信集团有限公司 | 一种面部关键点检测方法及装置 |
CN104794464A (zh) * | 2015-05-13 | 2015-07-22 | 上海依图网络科技有限公司 | 一种基于相对属性的活体检测方法 |
CN105095827A (zh) * | 2014-04-18 | 2015-11-25 | 汉王科技股份有限公司 | 人脸表情识别装置和方法 |
CN105678284A (zh) * | 2016-02-18 | 2016-06-15 | 浙江博天科技有限公司 | 一种固定位人体行为分析方法 |
CN105872477A (zh) * | 2016-05-27 | 2016-08-17 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
CN106611158A (zh) * | 2016-11-14 | 2017-05-03 | 深圳奥比中光科技有限公司 | 人体3d特征信息的获取方法及设备 |
CN106845377A (zh) * | 2017-01-10 | 2017-06-13 | 北京小米移动软件有限公司 | 人脸关键点定位方法及装置 |
CN106874826A (zh) * | 2015-12-11 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 人脸关键点跟踪方法和装置 |
CN107992783A (zh) * | 2016-10-26 | 2018-05-04 | 上海银晨智能识别科技有限公司 | 人脸图像处理方法及装置 |
CN108121945A (zh) * | 2017-11-14 | 2018-06-05 | 深圳市深网视界科技有限公司 | 一种多目标检测跟踪方法、电子设备及存储介质 |
CN108470179A (zh) * | 2018-03-29 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于检测对象的方法和装置 |
US10068128B2 (en) * | 2015-05-29 | 2018-09-04 | Tencent Technology (Shenzhen) Company Limited | Face key point positioning method and terminal |
CN109101915A (zh) * | 2018-08-01 | 2018-12-28 | 中国计量大学 | 基于深度学习的人脸与行人及属性识别网络结构设计方法 |
-
2019
- 2019-01-16 CN CN201910039627.0A patent/CN109858402B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101944175A (zh) * | 2009-07-07 | 2011-01-12 | 华中师范大学 | 物理运动学实验的动态几何虚拟方法 |
CN103605965A (zh) * | 2013-11-25 | 2014-02-26 | 苏州大学 | 一种多姿态人脸识别方法和装置 |
CN103699908A (zh) * | 2014-01-14 | 2014-04-02 | 上海交通大学 | 基于联合推理的视频多目标跟踪方法 |
CN105095827A (zh) * | 2014-04-18 | 2015-11-25 | 汉王科技股份有限公司 | 人脸表情识别装置和方法 |
CN104268591A (zh) * | 2014-09-19 | 2015-01-07 | 海信集团有限公司 | 一种面部关键点检测方法及装置 |
CN104794464A (zh) * | 2015-05-13 | 2015-07-22 | 上海依图网络科技有限公司 | 一种基于相对属性的活体检测方法 |
US10068128B2 (en) * | 2015-05-29 | 2018-09-04 | Tencent Technology (Shenzhen) Company Limited | Face key point positioning method and terminal |
CN106874826A (zh) * | 2015-12-11 | 2017-06-20 | 腾讯科技(深圳)有限公司 | 人脸关键点跟踪方法和装置 |
CN105678284A (zh) * | 2016-02-18 | 2016-06-15 | 浙江博天科技有限公司 | 一种固定位人体行为分析方法 |
CN105872477A (zh) * | 2016-05-27 | 2016-08-17 | 北京旷视科技有限公司 | 视频监控方法和视频监控系统 |
CN107992783A (zh) * | 2016-10-26 | 2018-05-04 | 上海银晨智能识别科技有限公司 | 人脸图像处理方法及装置 |
CN106611158A (zh) * | 2016-11-14 | 2017-05-03 | 深圳奥比中光科技有限公司 | 人体3d特征信息的获取方法及设备 |
CN106845377A (zh) * | 2017-01-10 | 2017-06-13 | 北京小米移动软件有限公司 | 人脸关键点定位方法及装置 |
CN108121945A (zh) * | 2017-11-14 | 2018-06-05 | 深圳市深网视界科技有限公司 | 一种多目标检测跟踪方法、电子设备及存储介质 |
CN108470179A (zh) * | 2018-03-29 | 2018-08-31 | 百度在线网络技术(北京)有限公司 | 用于检测对象的方法和装置 |
CN109101915A (zh) * | 2018-08-01 | 2018-12-28 | 中国计量大学 | 基于深度学习的人脸与行人及属性识别网络结构设计方法 |
Non-Patent Citations (2)
Title |
---|
XI PENG 等: "A Recurrent Encoder-Decoder Network for Sequential Face Alignment", 《ARXIV》 * |
彭业胜 等: "基于深度学习的鲁棒表情关键点定位算法设计与实现思考", 《数字技术与应用》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321849A (zh) * | 2019-07-05 | 2019-10-11 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN110321849B (zh) * | 2019-07-05 | 2023-12-22 | 腾讯科技(深圳)有限公司 | 图像数据处理方法、装置以及计算机可读存储介质 |
CN112288804A (zh) * | 2019-07-25 | 2021-01-29 | 杭州海康威视数字技术股份有限公司 | 一种目标定位的方法及装置 |
CN110647834A (zh) * | 2019-09-18 | 2020-01-03 | 北京市商汤科技开发有限公司 | 人脸和人手关联检测方法及装置、电子设备和存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109858402B (zh) | 2021-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106537422B (zh) | 用于捕获信息内的关系的系统和方法 | |
US10521692B2 (en) | Intelligent image search results summarization and browsing | |
Zhou et al. | Salient region detection via integrating diffusion-based compactness and local contrast | |
CN104200240B (zh) | 一种基于内容自适应哈希编码的草图检索方法 | |
CN109523526A (zh) | 组织结节检测及其模型训练方法、装置、设备和系统 | |
CN108520229A (zh) | 图像检测方法、装置、电子设备和计算机可读介质 | |
CN109657583A (zh) | 脸部关键点检测方法、装置、计算机设备和存储介质 | |
Wang et al. | Remote sensing image retrieval by scene semantic matching | |
Wang et al. | Dynamic attention guided multi-trajectory analysis for single object tracking | |
Wei et al. | On the spatial distribution of buildings for map generalization | |
CN110458095A (zh) | 一种有效手势的识别方法、控制方法、装置和电子设备 | |
KR20140079262A (ko) | 이미지 검색 방법, 실시간 그리기 프롬프팅 방법 및 그 장치 | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
CN109671020A (zh) | 图像处理方法、装置、电子设备和计算机存储介质 | |
CN104349217B (zh) | 一种动态物体的检测处理方法及其系统 | |
CN109934065A (zh) | 一种用于手势识别的方法和装置 | |
WO2021051868A1 (zh) | 目标的定位方法及装置、计算机设备、计算机存储介质 | |
CN110222686A (zh) | 物体检测方法、装置、计算机设备和存储介质 | |
CN108596098A (zh) | 人体部件的解析方法、系统、设备和存储介质 | |
CN109858402A (zh) | 一种图像检测方法、装置、终端以及存储介质 | |
CN107704799A (zh) | 一种人体动作识别方法及设备、计算机可读存储介质 | |
CN109271546A (zh) | 图像检索特征提取模型建立、数据库建立及检索方法 | |
CN106777284A (zh) | 一种基于标签信息的图游走表示方法 | |
CN110414402A (zh) | 一种手势数据标注方法、装置、电子设备及存储介质 | |
Chen et al. | Slender flexible object segmentation based on object correlation module and loss function optimization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |