CN106991688A - 人体跟踪方法、人体跟踪装置和电子装置 - Google Patents
人体跟踪方法、人体跟踪装置和电子装置 Download PDFInfo
- Publication number
- CN106991688A CN106991688A CN201710138692.XA CN201710138692A CN106991688A CN 106991688 A CN106991688 A CN 106991688A CN 201710138692 A CN201710138692 A CN 201710138692A CN 106991688 A CN106991688 A CN 106991688A
- Authority
- CN
- China
- Prior art keywords
- portrait area
- face region
- depth
- human face
- human body
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/164—Detection; Localisation; Normalisation using holistic features
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例公开了一种人体跟踪方法,用于处理成像装置采集的场景数据。所述场景数据包括当前帧场景主图像和下一帧场景主图像。所述人体跟踪方法包括:处理当前帧场景主图像以识别人脸区域;根据人脸区域确定人像区域;根据人像区域确定人体特征数据;根据人体特征数据跟踪下一帧场景主图像的人像区域。本发明实施例还公开了一种人体跟踪装置和电子装置。本发明实施方式的人体跟踪方法、人体跟踪装置和电子装置利用深度信息识别出人像区域,并根据深度信息和人像区域进行人体的辅助跟踪,避免光照变化及物体遮挡等因素对跟踪的影响,提升人体跟踪的鲁棒性。
Description
技术领域
本发明涉及图像处理技术,尤其涉及一种人体跟踪方法、人体跟踪装置和电子装置。
背景技术
目前,人体跟踪算法易受光照变化、复杂背景、物体遮挡等因素的影响,跟踪准确性不高甚至是跟踪失败。
发明内容
本发明的实施例提供了一种人体跟踪方法、人体跟踪装置和电子装置。
本发明实施方式的人体跟踪方法,用于处理成像装置采集的场景数据,所述场景数据包括当前帧场景主图像和下一帧场景主图像,所述人体跟踪方法包括以下步骤:
处理所述当前帧场景主图像以识别所述人脸区域;
根据所述人脸区域确定人像区域;
根据所述人像区域确定人体特征数据;和
根据所述人体特征数据跟踪所述下一帧场景主图像的所述人像区域。
本发明实施方式的人体跟踪装置,用于处理成像装置采集的场景数据,所述场景数据包括当前帧场景主图像和下一帧场景主图像,所述人体跟踪装置包括识别模块、第一确定模块、第二确定模块和跟踪模块。所述识别模块用于处理所述当前帧场景主图像以识别所述人脸区域;所述第一确定模块用于根据所述人脸区域确定人像区域;所述第二确定模块用于根据所述人像区域确定人体特征数据;所述跟踪模块用于根据所述人体特征数据跟踪所述下一帧场景主图像的所述人像区域。
本发明实施方式的电子装置包括成像装置和上述的人体跟踪装置。所述人体跟踪装置和所述成像装置电连接。
本发明实施方式的人体跟踪方法、人体跟踪装置和电子装置利用深度信息识别出场景中的人像区域,并利用深度信息和人像区域进行人体的辅助跟踪,避免光线变化及物体遮挡等环境因素的影响导致的跟踪失败的问题,提升人体跟踪的鲁棒性。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施方式的描述中将变得明显和容易理解,其中:
图1是本发明实施方式的人体跟踪方法的流程示意图;
图2是本发明实施方式的电子装置的功能模块示意图;
图3是本某些发明实施方式的人体跟踪方法的流程示意图;
图4是本某些发明实施方式的第一确定模块的功能模块示意图;
图5是本某些发明实施方式的人体跟踪方法的状态示意图;
图6是本某些发明实施方式的人体跟踪方法的流程示意图;
图7是本某些发明实施方式的第一处理单元的功能模块示意图;
图8是本某些发明实施方式的人体跟踪方法的流程示意图;
图9是本某些发明实施方式的第一处理单元的功能模块示意图;
图10是本某些发明实施方式的人体跟踪方法的流程示意图;
图11是本某些发明实施方式的确定单元的功能模块示意图;
图12是本某些发明实施方式的人体跟踪方法的状态示意图;
图13是本某些发明实施方式的人体跟踪方法的流程示意图;
图14是本某些发明实施方式的确定单元的功能模块示意图;
图15是本某些发明实施方式的人体跟踪方法的状态示意图;
图16是本某些发明实施方式的人体跟踪方法的状态示意图;
图17是本某些发明实施方式的人体跟踪方法的状态示意图;
图18是本某些发明实施方式的人体跟踪方法的状态示意图;和
图19是本某些发明实施方式的人体跟踪方法的状态示意图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
请一并参阅图1至2,本发明实施方式的人体跟踪方法,用于处理成像装置20采集的场景数据。场景数据包括当前帧场景主图像和下一帧场景主图像。人体跟踪方法包括以下步骤:
S12:处理当前帧场景主图像以识别人脸区域;
S13:根据人脸区域确定人像区域;
S14:根据人像区域确定人体特征数据;和
S15:根据人体特征数据跟述下一帧场景主图像的人像区域。
本发明实施方式的人体跟踪方法可以由本发明实施方式的人体跟踪装置10实现。本发明实施方式的人体跟踪装置10包括识别模块12、第一确定模块13、第二确定模块14和跟踪模块15。步骤S12可以由识别模块12实现,步骤S13可以由第一确定模块13实现,步骤S14可以由第二确定模块14实现,步骤S15可以由跟踪模块15实现。
也即是说,识别模块12用于处理当前帧场景主图像以识别人脸区域;第一确定模块13用于根据人脸区域确定人像区域;第二确定模块14用于根据人像区域确定人体特征数据;跟踪模块15用于根据人体特征数据跟踪下一帧场景主图像的人像区域。
本发明实施方式的人体跟踪装置10可以应用于本发明实施方式的电子装置100。也即是说,本发明实施方式的电子装置100包括本发明实施方式的人体跟踪装置10。当然,本发明实施方式的电子装置100还包括成像装置20。其中,人体跟踪装置10和成像装置20电连接。
在某些实施方式中,本发明实施方式的电子装置100包括手机、平板电脑、笔记本电脑、智能手表、智能手环、智能头盔、智能眼镜等,在此不做任何限制。在本发明的具体实施例中,电子装置100为手机。
传统的人体跟踪方法是基于RGB彩色图像的跟踪,但是RGB彩色图像在进行人像识别和跟踪时往往容易受到光照、阴影、物体遮挡等环境因素的影响,人像的识别率及人体跟踪的鲁棒性会大大降低。
本发明实施方式中,首先识别人脸区域并获取人脸区域的深度信息,随后根据人脸区域与人像的位置、大小等关系、彩色数据、深度信息等相关图像信息确定人像区域,根据人像区域确定人体特征数据。如此,当人体移动时,便可根据人体特征数据对人体进行持续跟踪。在本发明的具体实施方式中,人体特征数据包括肩部位置数据、颈部位置数据、头部位置数据及人体质心位置数据等特征数据。
综上所述,本发明实施方式的人体跟踪方法基于深度信息对人像进行识别,并根据深度信息和人像区域对人体进行跟踪。深度信息的获取不易受到光照、阴影、物体遮挡等环境因素的影响,因此,可以提升人体跟踪的鲁棒性。
请参阅图3,在某些实施方式中,步骤S13根据人脸区域确定人像区域包括以下子步骤:
S131:处理场景数据以获取人脸区域的深度信息;和
S132:根据人脸区域和人脸区域的深度信息确定人像区域。
请参阅图4,在某些实施方式中,第一确定模块13包括第一处理单元131和确定单元132。步骤S131可以由第一处理单元131实现,步骤S132可以由确定单元132实现。
也即是说,第一处理单元131用于处理场景数据以获取人脸区域的深度信息;确定单元132用于根据人脸区域和人脸区域的深度信息确定人像区域。
请参阅图5,具体地,人脸区域和人像区域的识别可基于灰度图像识别,而灰度图像识别易受光照变化、阴影、物体遮挡等环境因素的干扰,使得人像区域的识别准确率下降。本发明实施方式中,基于成像装置20采集的场景数据即对应的场景的彩色信息和深度信息,获取人脸区域的深度信息。由于人脸区域时人像区域的一部分,也即是说,人像区域的深度信息与人脸区域对应的深度信息同处于一个深度范围内,如此,可根据人脸区域及人脸区域的设定怒信息确定人像区域。
较佳地,对于人脸区域的识别过程,可以采用已经训练好的基于彩色信息和深度信息的深度学习模型检测当前帧场景主图像中是否存在人脸。深度学习模型在给定训练集时,训练集中的数据包括人脸的彩色信息和深度信息。因此,训练过后的深度学习模型可以根据当前场景的彩色信息和深度信息推断当前场景中是否存在人脸区域。由于人脸区域的深度信息的获取不易受光照等环境因素的影响,可以提升人脸检测的准确性,进一步地,根据人脸可确定基本位于同一深度的人像区域。
请参阅6,在某些实施方式中,场景数据还包括与当前帧场景主图像对应的深度图像,步骤S131处理场景数据以获取人脸区域的深度信息包括以下子步骤:
S1311:处理深度图像以获取对应人脸区域的深度数据;和
S1312:处理人脸区域的深度数据以得到人脸区域的深度信息。
请参阅图7,在某些实施方式中,第一处理单元131包括第一处理子单元1311和第二处理子单元1312。步骤S1311可以由第一处理子单元1311实现,步骤S1312可以由第二处理子单元1312实现。
也即是说,第一处理子单元1311用于处理深度图像以获取对应人脸区域的深度数据;第二处理子单元1312用于处理人脸区域的深度数据以得到人脸区域的深度信息。
可以理解,场景数据包括当前帧场景主图像和与当前帧场景主图像对应的深度图像。其中,当前帧场景主图像为RGB彩色图像,深度图像包含场景中各个人或物体的深度信息。由于当前帧场景主图像的色彩信息与深度图像的深度信息是一一对应的关系,因此,若检测到人脸区域,即可在对应的深度图像中获取到人脸区域的深度信息。
需要说明的是,场景内各个人、物相对于成像装置20的距离可以用深度图像来表征,深度图像中的每个像素值也即是深度数据表示场景中某一点与成像装置20的距离,深度信息则指代对人脸区域的深度数据进行选取或计算之后得到的最终人脸区域的深度信息。也即是说,由于人脸区域包括鼻子、眼睛、耳朵等特征,因此,在深度图像中,人脸区域中鼻子、耳朵、眼睛等特征在深度图像中对应的深度数据是不同的,例如对于人脸正对成像装置20的情况下所拍摄得的深度图像中,鼻子对应的深度数据可能较小,而耳朵对应的深度数据可能较大。因此,在某些示例中,处理人脸区域的深度数据得到的人脸区域的深度信息可能为一个数值或一个数值范围。其中,当人脸区域的深度信息为一个数值时,该数值可通过对人脸区域的深度数据求取平均值得到,或通过人脸区域的深度数据求中值得到。
在某些实施方式中,成像装置200包括深度摄像头。深度摄像头可用来获取深度图像。其中,深度摄像头包括基于结构光深度测距的深度摄像头和基于TOF测距的深度摄像头。
具体地,基于结构光深度测距的深度摄像头包括摄像头和投射器。投射器将一定模式的光结构投射到当前待拍摄的场景中,在场景中的各个人或物体表面形成由该场景中的人或物调制后的光条三维图像,再通过摄像头探测上述的光条三维图像即可获得光条二维畸变图像。光条的畸变程度取决于投射器与摄像头之间的相对位置以及当前待拍摄场景中的各个人或物体的表面形廓或高度。由于深度摄像头中的摄像头和投射器之间的相对位置是一定的,因此,由畸变的二维光条图像坐标便可重现场景中各个人或物体的表面三维轮廓,从而可以获取深度信息。结构光深度测距具有较高的分辨率和测量精度,可以提升获取的深度信息的精确度。
基于TOF(time of flight)测距的深度摄像头是通过传感器记录从发光单元发出的调制红外光发射到物体,再从物体反射回来的相位变化,在一个波长的范围内根据光速,可以实时的获取整个场景深度距离。当前待拍摄的场景中各个人或物体所处的深度位置不一样,因此调制红外光从发出到接收所用时间是不同的,如此,便可获取场景的深度信息。基于TOF深度测距的深度摄像头计算深度信息时不受被摄物表面的灰度和特征的影响,且可以快速地计算深度信息,具有很高的实时性。
请参阅图8,在某些实施方式中,步骤S131处理场景数据以获取人脸区域的深度信息包括以下子步骤:
S1313:处理当前帧场景主图像和当前帧场景副图像以得到人脸区域的深度数据;
S1314:处理人脸区域的深度数据以得到人脸区域的深度信息。
请参阅图9,在某些实施方式中,第一处理单元131包括第三处理子单元1313和第四处理子单元1314。步骤S1313可以由第三处理子单元1313实现,步骤S1314可以由第四处理子单元1314实现。
也即是说,第三处理子单元1313用于处理当前帧场景主图像和当前帧场景副图像以得到人脸区域的深度数据;第四处理子单元1314用于处理人脸区域的深度数据以得到人脸区域的深度信息。
在某些实施方式中,成像装置20包括主摄像头和副摄像头。
可以理解,深度信息可以通过双目立体视觉测距方法进行获取,此时场景数据包括当前帧场景主图像和当前帧场景副图像。其中,当前帧场景主图像由主摄像头拍摄得到,当前帧场景副图像由副摄像头拍摄得到,且当前帧场景主图像与当前帧场景副图像均为RGB彩色图像。在一些示例中,主摄像头和副摄像头可以是相同规格的两个摄像头,双目立体视觉测距是运用两个规格相同的摄像头对同一场景从不同的位置成像以获得场景的立体图像对,再通过算法匹配出立体图像对的相应像点,从而计算出视差,最后采用基于三角测量的方法恢复深度信息。在另一些示例中,主摄像头与副摄像头可以是不同规格的摄像头,主摄像头用于获取当前场景彩色信息,副摄像头则用于记录场景的深度数据。如此,通过对当前帧场景主图像和当前帧场景副图像这一立体图像对进行匹配便可获得人脸区域的深度数据。随后,对人脸区域的深度数据进行处理获得人脸区域的深度信息。同样地,深度数据表示场景中某一点与成像装置20的距离,深度信息则指代对人脸区域的深度数据进行选取或计算之后得到的最终人脸区域的深度信息。由于人脸区域中包含有多个特征,各个特征对应的深度数据可能不一样,因此,人脸区域的深度信息可以为一个数值范围;或者,可对深度数据进行求平均值处理以得到人脸区域的深度信息,或取深度数据的中值以获得人脸区域的深度信息。
请参阅图10,在某些实施方式中,步骤S132根据人脸区域和人脸区域的深度信息确定所述人像区域包括以下子步骤:
S1321:根据人脸区域确定预估人像区域;
S1322:根据人脸区域的深度信息确定人像区域的深度范围;
S1323:根据人像区域的深度范围确定与人脸区域连接且落入深度范围的计算人像区域;
S1324:判断计算人像区域与预估人像区域是否匹配;和
S1325:在计算人像区域与预估人像区域匹配时确定计算人像区域为人像区域。
请参阅图11,在某些实施方式中,确定单元132包括第一确定子单元1321、第二确定子单元1321、第三确定子单元1323、判断子单元1324和第四确定子单元1324。步骤S1321可以由第一确定子单元1321实现,步骤S1322可以由第二确定子单元1322实现,步骤S1323可以由第三确定子单元1323实现,步骤S1324可以由判断子单元1324实现,步骤S1325可以由第四确定子单元1325实现。
也即是说,第一确定子单元1321用于根据人脸区域确定预估人像区域;第二确定子单元1321用于根据人脸区域的深度信息确定人像区域的深度范围;第三确定子单元1323用于根据人像区域的深度范围确定与人脸区域连接且落入深度范围的计算人像区域;判断子单元1324用于判断所述计算人像区域与预估人像区域是否匹配;第四确定子单元1325用于在计算人像区域与预估人像区域匹配时确定计算人像区域为人像区域。
请参阅他12,具体地,由于拍摄过程中的人像存在有多种行为姿势,如站立、蹲坐等,因此,确定人脸区域后,首先根据人脸区域的当前状态确定预估人像区域,也即是说,根据人脸区域的当前状态确定人像当前的行为姿势。其中,预估人像区域为人像区域的匹配样本库,样本库中包含多种人像的行为姿势的信息。由于人像区域包含人脸区域,也即是说,人像区域与人脸区域同处于某一个深度范围内,因此,确定人脸区域的深度信息后,可以根据人脸区域的深度信息设定人像区域的深度范围,并根据人像区域的深度范围提取落入该深度范围内且与人脸区域相连接的计算人像区域。由于拍摄人像时人像所处的场景可能较为复杂,也即是说,与人像所处位置相邻的位置上可能存在有其他物体并且这些物体与人体发生接触,这些物体处于人像区域的深度范围内,因此,计算人像区域的提取仅在人像区域的深度范围内提取与人脸相连接的部分以去除其他落入人像区域的深度范围内的物体。在确定计算人像区域后,需将计算人像区域与预估人像区域进行匹配,匹配成功则可将计算人像区域确定为人像区域。若匹配不成功,则表明计算人像区域中还可能包含有除人像外的其他物体,人像区域的识别失败。
在另一示例中,针对拍摄场景中较为复杂的情况,还可对计算得到人像进行区域划分,并将面积较小的区域去除,可以理解,相对于人像区域,其他面积较小的区域可明显确定为非人像,如此可排除与人像处于同一深度范围内的其他物体的干扰。
请参阅图13,在某些实施方式中,步骤S13根据人脸区域确定人像区域的步骤还包括以下子步骤:
S133:处理当前帧场景主图像的人像区域以得到彩色边缘图;
S134:处理当前帧场景主图像的人像区域对应的深度信息以得到深度边缘图;和
S135:利用彩色边缘图和深度边缘图修正人像区域的边缘。
请参阅图14,在某些实施方式中,第一确定模块13还包括第二处理单元133、第三处理单元134和修正单元135。步骤S133可以由第二处理单元133实现,步骤S134可以由第三处理单元134实现,步骤S135可以由修正单元135实现。
也即是说,第二处理单元133用于处理当前帧场景主图像的人像区域以得到彩色边缘图;第三处理单元134用于处理当前帧场景主图像的人像区域对应的深度信息以得到深度边缘图;修正单元135用于利用彩色边缘图和深度边缘图修正人像区域的边缘。
请参阅图15,可以理解,由于彩色边缘图包含人像区域内部的边缘信息,如服装的边缘信息等,而目前获取的深度信息的精度有限,如在手指、头发、衣领等边缘存在些许误差。如此,利用彩色边缘图和深度边缘图共同修正人像区域的边缘一方面可以去除人像区域包含的人脸、服装等部分的边缘及细节信息,另一方面在手指、头发、衣领等边缘部分有更高的准确度,从而可以获得较为准确的人像区域的外轮廓的边缘信息。由于彩色边缘图及深度边缘图均只对人像区域部分对应的数据进行处理,因此所需处理的数据量较少,处理的速度较快。
请参阅图16,具体地,彩色边缘图可以通过边缘检测算法得到。边缘检测算法是通过对当前帧场景主图像中人像区域所对应的图像数据求微分以获得具有阶跃变化或屋顶变化的像素点的集合。常用的边缘检测算法那包括Roberts算子、Sobel算子、Prewitt算子、Canny算子、Laplacian算子、LOG算子等。在一些示例中,可以采用上述的任一种边缘检测算法进行计算以获得彩色边缘图,在此不做任何限制。
请参阅图17,进一步地,在深度边缘图的获取过程中,由于只需要对人像区域对应的深度信息进行处理,因此,首先对获得的人像区域进行膨胀处理,扩大人像区域以保留人像区域对应的深度信息中深度边缘的细节。随后,对膨胀处理后的人像区域对应的深度信息进行滤波处理,从而去除深度信息中携带的高频噪声,以用于平滑深度边缘图的边缘细节。最后,将滤波后的数据转换为灰度值数据,并对灰度数据进行线性逻辑回归组合,再利用图像边缘概率密度算法对线性逻辑回归组合以获取深度边缘图。
单一的彩色边缘图会保留人像内部区域的边缘,而单一的深度边缘图存在些许误差因此,需要通过深度边缘图去除彩色边缘概率中人像内部边缘,并通过彩色边缘图修正深度边缘图中外轮廓的精度。如此,利用深度边缘图和彩色边缘图修正所述人像区域的边缘,可得到较为精准的人像区域。
请一并参阅图18至19,确定人像区域后,可根据人体比例、骨骼点、深度信息等确定人体特征数据,如肩部位置数据、颈部位置数据、头部位置数据等。在当前帧场景主图像中确定了颈部、肩部及头部等人体特征后,可以采用基于卡尔曼滤波器的人体跟踪算法对人体的速度、加速度等信息进行估计并对人体在下一帧场景主图像中的位置进行预测。如此,可以实现对人体的实时跟踪。
电子装置100还包括壳体、存储器、电路板和电源电路。其中,电路板安置在壳体围成的空间内部,处理器和存储器设置在电路板上;电源电路用于为电子装置100的各个电路或器件供电;存储器用于存储可执行程序代码;人体跟踪装置10通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序以实现上述的本发明任一实施方式的人体跟踪方法。
在本说明书的描述中,参考术语“一个实施方式”、“一些实施方式”、“示意性实施方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合所述实施方式或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施方式或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施方式或示例中以合适的方式结合。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本发明的实施方式,可以理解的是,上述实施方式是示例性的,不能理解为对本发明的限制,本领域的普通技术人员在本发明的范围内可以对上述实施方式进行变化、修改、替换和变型。
Claims (15)
1.一种人体跟踪方法,用于处理成像装置采集的场景数据,其特征在于,所述场景数据包括当前帧场景主图像和下一帧场景主图像,所述人体跟踪方法包括以下步骤:
处理所述当前帧场景主图像以识别所述人脸区域;
根据所述人脸区域确定人像区域;
根据所述人像区域确定人体特征数据;和
根据所述人体特征数据跟踪所述下一帧场景主图像的所述人像区域。
2.如权利要求1所述的人体跟踪方法,其特征在于,所述根据所述人脸区域确定人像区域的步骤包括以下子步骤:
处理所述场景数据以获取所述人脸区域的深度信息;和
根据所述人脸区域和所述人脸区域的深度信息确定所述人像区域。
3.如权利要求2所述的人体跟踪方法,其特征在于,所述场景数据还包括与所述当前帧场景主图像对应的深度图像,所述处理所述场景数据以获取所述人脸区域的深度信息的步骤包括以下子步骤:
处理所述深度图像以获取对应所述人脸区域的深度数据;和
处理所述人脸区域的深度数据以得到所述人脸区域的深度信息。
4.如权利要求2所述的人体跟踪方法,其特征在于,所述场景数据还包括与所述当前帧场景主图像对应的当前帧场景副图像,所述处理所述场景数据以获取所述人脸区域的深度信息的步骤包括以下子步骤:
处理所述当前帧场景主图像和所述当前帧场景副图像以得到所述人脸区域的深度数据;和
处理所述人脸区域的深度数据以得到所述人脸区域的深度信息。
5.如权利要求2所述的人体跟踪方法,其特征在于,所述根据所述人脸区域和所述人脸区域的深度信息确定所述人像区域的步骤包括以下子步骤:
根据所述人脸区域确定预估人像区域;
根据所述人脸区域的深度信息确定所述人像区域的深度范围;
根据所述人像区域的深度范围确定与所述人脸区域连接且落入所述深度范围的计算人像区域;
判断所述计算人像区域与所述预估人像区域是否匹配;和
在所述计算人像区域与所述预估人像区域匹配时确定所述计算人像区域为所述人像区域。
6.如权利要求5所述人体跟踪方法,其特征在于,所述根据所述人脸区域确定人像区域的步骤还包括以下子步骤:
处理所述当前帧场景主图像的人像区域以得到彩色边缘图;
处理所述当前帧场景主图像的人像区域对应的深度信息以得到深度边缘图;和
利用所述彩色边缘图和所述深度边缘图修正所述人像区域的边缘。
7.如权利要求1所述的人体跟踪方法,其特征在于,所述人体特征数据包括肩颈部位置数据、头部位置数据及人体质心位置数据。
8.一种人体跟踪装置,用于处理成像装置采集的场景数据,其特征在于,所述场景数据包括当前帧场景主图像和下一帧场景主图像,所述人体跟踪装置包括:
识别模块,所述识别模块用于处理所述当前帧场景主图像以识别所述人脸区域;
第一确定模块,所述第一确定模块用于根据所述人脸区域确定人像区域;
第二确定模块,所述第二确定模块用于根据所述人像区域确定人体特征数据;和
跟踪模块,所述跟踪模块用于根据所述人体特征数据跟踪所述下一帧场景主图像的所述人像区域。
9.如权利要求8所述的人体跟踪装置,其特征在于,所述第一确定模块包括:
第一处理单元,所述第一处理单元用于处理所述场景数据以获取所述人脸区域的深度信息;和
确定单元,所述确定单元用于根据所述人脸区域和所述人脸区域的深度信息确定所述人像区域。
10.如权利要求9所述的人体跟踪装置,其特征在于,所述场景数据还包括与所述当前帧场景主图像对应的深度图像,所述第一处理单元包括:
第一处理子单元,所述第一处理子单元用于处理所述深度图像以获取对应所述人脸区域的深度数据;和
第二处理子单元,所述第二处理子单元用于处理所述人脸区域的深度数据以得到所述人脸区域的深度信息。
11.如权利要求9所述的人体跟踪装置,其特征在于,所述场景数据还包括与所述当前帧场景主图像对应的当前帧场景副图像,所述处理单元包括:
第三处理子单元,所述第三处理子单元用于处理所述当前帧场景主图像和所述当前帧场景副图像以得到所述人脸区域的深度数据;和
第四处理子单元,所述第四处理子单元用于处理所述人脸区域的深度数据以得到所述人脸区域的深度信息。
12.如权利要求9所述的人体跟踪装置,其特征在于,所述确定单元包括:
第一确定子单元,所述第一确定子单元用于根据所述人脸区域确定预估人像区域;
第二确定子单元,所述第二确定子单元用于根据所述人脸区域的深度信息确定所述人像区域的深度范围;
第三确定子单元,所述第三确定子单元用于根据所述人像区域的深度范围确定与所述人脸区域连接且落入所述深度范围的计算人像区域;
判断子单元,所述判断子单元用于判断所述计算人像区域与所述预估人像区域是否匹配;和
第四确定子单元,所述第四确定子单元用于在所述计算人像区域与所述预估人像区域匹配时确定所述计算人像区域为所述人像区域。
13.如权利要求10所述的人体跟踪装置,其特征在于,所述第一确定模块还包括:
第二处理单元,所述第二处理单元用于处理所述当前帧场景主图像的人像区域以得到彩色边缘图;
第三处理单元,所述第三处理单元用于处理所述当前帧场景主图像的人像区域对应的深度信息以得到深度边缘图;和
修正单元,所述修正单元用于利用所述彩色边缘图和所述深度边缘图修正所述人像区域的边缘。
14.如权利要求8所述的人体跟踪装置,其特征在于,所述人体特征数据包括肩部位置数据、颈部位置数据、头部位置数据及人体质心位置数据。
15.一种电子装置,其特征在于,所述电子装置包括:
成像装置;和
如权利要求7-14任意一项所述的人体跟踪装置,所述人体跟踪装置与所述成像装置电连接。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138692.XA CN106991688A (zh) | 2017-03-09 | 2017-03-09 | 人体跟踪方法、人体跟踪装置和电子装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710138692.XA CN106991688A (zh) | 2017-03-09 | 2017-03-09 | 人体跟踪方法、人体跟踪装置和电子装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106991688A true CN106991688A (zh) | 2017-07-28 |
Family
ID=59413180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710138692.XA Pending CN106991688A (zh) | 2017-03-09 | 2017-03-09 | 人体跟踪方法、人体跟踪装置和电子装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106991688A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107592468A (zh) * | 2017-10-23 | 2018-01-16 | 维沃移动通信有限公司 | 一种拍摄参数调整方法及移动终端 |
CN108537165A (zh) * | 2018-04-08 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于确定信息的方法和装置 |
CN108921008A (zh) * | 2018-05-14 | 2018-11-30 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN109460077A (zh) * | 2018-11-19 | 2019-03-12 | 深圳博为教育科技有限公司 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
CN109492521A (zh) * | 2018-09-13 | 2019-03-19 | 北京米文动力科技有限公司 | 一种人脸定位方法及机器人 |
CN109829439A (zh) * | 2019-02-02 | 2019-05-31 | 京东方科技集团股份有限公司 | 一种对头部运动轨迹预测值的校准方法及装置 |
CN109918969A (zh) * | 2017-12-12 | 2019-06-21 | 深圳云天励飞技术有限公司 | 人脸检测方法及装置、计算机装置和计算机可读存储介质 |
CN110135382A (zh) * | 2019-05-22 | 2019-08-16 | 北京华捷艾米科技有限公司 | 一种人体检测方法和装置 |
CN110717417A (zh) * | 2019-09-25 | 2020-01-21 | 福建天泉教育科技有限公司 | 深度图人体前景提取方法及计算机可读存储介质 |
CN111611837A (zh) * | 2019-02-23 | 2020-09-01 | 和硕联合科技股份有限公司 | 追踪系统及其方法 |
CN112446842A (zh) * | 2019-08-28 | 2021-03-05 | 深圳市光鉴科技有限公司 | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 |
CN114219832A (zh) * | 2021-11-29 | 2022-03-22 | 浙江大华技术股份有限公司 | 人脸跟踪方法、装置及计算机可读存储介质 |
TWI815351B (zh) * | 2022-01-25 | 2023-09-11 | 威盛電子股份有限公司 | 目標追蹤方法及目標追蹤裝置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1924894A (zh) * | 2006-09-27 | 2007-03-07 | 北京中星微电子有限公司 | 多姿态人脸检测与追踪系统及方法 |
CN101793562A (zh) * | 2010-01-29 | 2010-08-04 | 中山大学 | 一种红外热图像序列的人脸检测与跟踪的算法 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN102737368A (zh) * | 2011-03-29 | 2012-10-17 | 索尼公司 | 图像处理设备、方法和程序 |
CN103871014A (zh) * | 2012-12-17 | 2014-06-18 | 联想(北京)有限公司 | 改变图像颜色的方法及装置 |
CN103914691A (zh) * | 2014-04-15 | 2014-07-09 | 成都智引擎网络科技有限公司 | 基于人脸识别的目标群体分析系统、方法及身高识别方法 |
CN104243951A (zh) * | 2013-06-07 | 2014-12-24 | 索尼电脑娱乐公司 | 图像处理设备、图像处理系统以及图像处理方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
-
2017
- 2017-03-09 CN CN201710138692.XA patent/CN106991688A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1924894A (zh) * | 2006-09-27 | 2007-03-07 | 北京中星微电子有限公司 | 多姿态人脸检测与追踪系统及方法 |
CN101793562A (zh) * | 2010-01-29 | 2010-08-04 | 中山大学 | 一种红外热图像序列的人脸检测与跟踪的算法 |
CN102737368A (zh) * | 2011-03-29 | 2012-10-17 | 索尼公司 | 图像处理设备、方法和程序 |
CN102411371A (zh) * | 2011-11-18 | 2012-04-11 | 浙江大学 | 一种基于多传感器服务机器人跟随系统和方法 |
CN103871014A (zh) * | 2012-12-17 | 2014-06-18 | 联想(北京)有限公司 | 改变图像颜色的方法及装置 |
CN104243951A (zh) * | 2013-06-07 | 2014-12-24 | 索尼电脑娱乐公司 | 图像处理设备、图像处理系统以及图像处理方法 |
CN103914691A (zh) * | 2014-04-15 | 2014-07-09 | 成都智引擎网络科技有限公司 | 基于人脸识别的目标群体分析系统、方法及身高识别方法 |
CN105608699A (zh) * | 2015-12-25 | 2016-05-25 | 联想(北京)有限公司 | 一种图像处理方法及电子设备 |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107592468B (zh) * | 2017-10-23 | 2019-12-03 | 维沃移动通信有限公司 | 一种拍摄参数调整方法及移动终端 |
CN107592468A (zh) * | 2017-10-23 | 2018-01-16 | 维沃移动通信有限公司 | 一种拍摄参数调整方法及移动终端 |
CN109918969B (zh) * | 2017-12-12 | 2021-03-05 | 深圳云天励飞技术有限公司 | 人脸检测方法及装置、计算机装置和计算机可读存储介质 |
CN109918969A (zh) * | 2017-12-12 | 2019-06-21 | 深圳云天励飞技术有限公司 | 人脸检测方法及装置、计算机装置和计算机可读存储介质 |
CN108537165A (zh) * | 2018-04-08 | 2018-09-14 | 百度在线网络技术(北京)有限公司 | 用于确定信息的方法和装置 |
CN108921008A (zh) * | 2018-05-14 | 2018-11-30 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN108921008B (zh) * | 2018-05-14 | 2024-06-11 | 深圳市商汤科技有限公司 | 人像识别方法、装置及电子设备 |
CN109492521A (zh) * | 2018-09-13 | 2019-03-19 | 北京米文动力科技有限公司 | 一种人脸定位方法及机器人 |
CN109460077A (zh) * | 2018-11-19 | 2019-03-12 | 深圳博为教育科技有限公司 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
CN109460077B (zh) * | 2018-11-19 | 2022-05-17 | 深圳博为教育科技有限公司 | 一种自动跟踪方法、自动跟踪设备及自动跟踪系统 |
CN109829439A (zh) * | 2019-02-02 | 2019-05-31 | 京东方科技集团股份有限公司 | 一种对头部运动轨迹预测值的校准方法及装置 |
CN109829439B (zh) * | 2019-02-02 | 2020-12-29 | 京东方科技集团股份有限公司 | 一种对头部运动轨迹预测值的校准方法及装置 |
CN111611837A (zh) * | 2019-02-23 | 2020-09-01 | 和硕联合科技股份有限公司 | 追踪系统及其方法 |
CN110135382B (zh) * | 2019-05-22 | 2021-07-27 | 北京华捷艾米科技有限公司 | 一种人体检测方法和装置 |
CN110135382A (zh) * | 2019-05-22 | 2019-08-16 | 北京华捷艾米科技有限公司 | 一种人体检测方法和装置 |
CN112446842A (zh) * | 2019-08-28 | 2021-03-05 | 深圳市光鉴科技有限公司 | 基于稀疏和稠密深度图图像重建方法、系统、设备及介质 |
CN110717417A (zh) * | 2019-09-25 | 2020-01-21 | 福建天泉教育科技有限公司 | 深度图人体前景提取方法及计算机可读存储介质 |
CN110717417B (zh) * | 2019-09-25 | 2022-06-07 | 福建天泉教育科技有限公司 | 深度图人体前景提取方法及计算机可读存储介质 |
CN114219832A (zh) * | 2021-11-29 | 2022-03-22 | 浙江大华技术股份有限公司 | 人脸跟踪方法、装置及计算机可读存储介质 |
TWI815351B (zh) * | 2022-01-25 | 2023-09-11 | 威盛電子股份有限公司 | 目標追蹤方法及目標追蹤裝置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106991688A (zh) | 人体跟踪方法、人体跟踪装置和电子装置 | |
CN106909911A (zh) | 图像处理方法、图像处理装置和电子装置 | |
CN106991654A (zh) | 基于深度的人体美化方法和装置及电子装置 | |
CN106851238B (zh) | 白平衡控制方法、白平衡控制装置及电子装置 | |
CN106997457A (zh) | 人物肢体识别方法、人物肢体识别装置及电子装置 | |
CN107018323B (zh) | 控制方法、控制装置和电子装置 | |
CN107016348A (zh) | 结合深度信息的人脸检测方法、检测装置和电子装置 | |
CN106991377A (zh) | 结合深度信息的人脸识别方法、人脸识别装置和电子装置 | |
CN106993112A (zh) | 基于景深的背景虚化方法及装置和电子装置 | |
CN105933589B (zh) | 一种图像处理方法及终端 | |
CN108733208A (zh) | 智能设备的交互目标确定方法和装置 | |
CN110168562A (zh) | 基于深度的控制方法、基于深度的控制装置和电子装置 | |
CN106937049A (zh) | 基于景深的人像色彩的处理方法、处理装置和电子装置 | |
CN109215055A (zh) | 一种目标特征提取方法、装置及应用系统 | |
CN105938622A (zh) | 检测运动图像中的物体的方法和装置 | |
CN106780473B (zh) | 一种磁环缺陷多目视觉检测方法及系统 | |
KR100631235B1 (ko) | 스테레오 이미지의 에지를 체인으로 연결하는 방법 | |
CN107341467A (zh) | 虹膜采集方法及设备、电子装置和计算机可读存储介质 | |
US20080292192A1 (en) | Human detection device and method and program of the same | |
Dib et al. | A review on negative road anomaly detection methods | |
CN106991378A (zh) | 基于深度的人脸朝向检测方法、检测装置和电子装置 | |
CN110046560A (zh) | 一种危险驾驶行为检测方法和相机 | |
CN101834986A (zh) | 成像装置、运动体检测方法、运动体检测电路和程序 | |
CN111126393A (zh) | 车辆外观改装判断方法、装置、计算机设备及存储介质 | |
CN107798688A (zh) | 运动目标识别方法、预警方法以及汽车防追尾预警装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170728 |
|
RJ01 | Rejection of invention patent application after publication |