CN104978558B - 目标的识别方法及装置 - Google Patents
目标的识别方法及装置 Download PDFInfo
- Publication number
- CN104978558B CN104978558B CN201410146229.6A CN201410146229A CN104978558B CN 104978558 B CN104978558 B CN 104978558B CN 201410146229 A CN201410146229 A CN 201410146229A CN 104978558 B CN104978558 B CN 104978558B
- Authority
- CN
- China
- Prior art keywords
- target
- point
- pixel point
- boundary pixel
- histogram
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种目标的识别方法及装置,在上述方法中,采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;通过运动检测处理在目标集合中提取备选目标;获取备选目标与预设目标模型的匹配度;确定匹配度满足预设条件,并对备选目标进行目标跟踪。根据本发明提供的技术方案,进而改善了在识别过程中所受到的周围光照以及场景的影响,增强了识别目标的稳定性以及实用性。
Description
技术领域
本发明涉及图像识别领域,具体而言,涉及一种目标的识别方法及装置。
背景技术
目前,相关技术中所采用的在图像中提取特定目标的方式是通常使用色彩图并配合方向梯度直方图(Histogram of Oriented Gradient,简称为HOG)算法以提取图像中的特定目标,其提取方式为全图扫描提取特征,使用训练好的模型根据提取的图像特征进行识别。
然而,上述方法却存在如下缺陷:
(1)由于使用色彩图对图像中的特定目标进行识别,因此在人物提取以及动作表现上会受到环境光以及阴影等多种因素影响,稳定性较差;
(2)该方法的运算量较大,需要全图像提取特征并加以识别。
综上所述,相关技术中使用色彩图来提取图像中的特定目标难度较大。
发明内容
本发明提供了一种目标的识别方法及装置,以至少解决相关技术中使用色彩图来提取图像中的特定目标难度较大的问题。
根据本发明的一个方面,提供了一种目标的识别方法。
根据本发明实施例的目标的识别方法包括:采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;通过运动检测处理在目标集合中提取备选目标;获取备选目标与预设目标模型的匹配度;确定匹配度满足预设条件,并对备选目标进行目标跟踪。
优选地,通过运动检测处理在目标集合中提取备选目标包括:计算备选目标在相邻两帧的帧间差以及备选目标运动的剧烈程度,确定第一参考点的取值范围,其中,取值范围用于抑制深度测量过程中产生的误差以及备选目标与预设场景的背景交错时产生的边缘深度差;根据取值范围选取第一种子点,并以第一种子点为基础在第一区域内将与第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以第二种子点为基础在第二区域内继续生长与第二种子点的深度差小于第一预设阈值的新的种子点,持续生长直至以新的种子点为基础的区域内不存在与新的种子点的深度差小于第一预设阈值的种子点;根据第一种子点以及生长出的全部种子点获取备选目标。
优选地,获取备选目标与预设目标模型的匹配度包括:选取备选目标轮廓上的边界像素点;获取每个边界像素点的特征集合,其中,特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与三维直角坐标系中的Z轴夹角的第三直方图;将获取到的特征集合中的第一直方图、第二直方图以及第三直方图与预设目标模型进行匹配,生成匹配结果。
优选地,确定匹配度满足预设条件,并对备选目标进行目标跟踪包括:判断匹配结果是否大于第二预设阈值;如果是,则将备选目标确定为待查找的目标,并对备选目标进行目标跟踪。
优选地,获取每个边界像素点的特征集合包括:以深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;对转换后的边界像素点进行归一化处理,将转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
根据本发明的另一方面,提供了一种目标的识别装置。
根据本发明实施例的目标的识别装置包括:识别模块,用于采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;提取模块,用于通过运动检测处理在所述目标集合中提取备选目标;获取模块,用于获取所述备选目标与预设目标模型的匹配度;确定模块,用于确定所述匹配度满足预设条件,并对所述备选目标进行目标跟踪。
优选地,提取模块包括:计算单元,用于计算备选目标在相邻两帧的帧间差以及备选目标运动的剧烈程度,确定第一参考点的取值范围,其中,取值范围用于抑制深度测量过程中产生的误差以及备选目标与预设场景的背景交错时产生的边缘深度差;生成单元,用于根据取值范围选取第一种子点,并以第一种子点为基础在第一区域内将与第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以第二种子点为基础在第二区域内继续生长与第二种子点的深度差小于第一预设阈值的新的种子点,持续生长直至以新的种子点为基础的区域内不存在与新的种子点的深度差小于第一预设阈值的种子点;第一获取单元,用于根据第一种子点以及生长出的全部种子点获取备选目标。
优选地,获取模块包括:选取单元,用于选取备选目标轮廓上的边界像素点;第二获取单元,用于获取每个边界像素点的特征集合,其中,特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与三维直角坐标系中的Z轴夹角的第三直方图;匹配单元,用于将获取到的特征集合中的第一直方图、第二直方图以及第三直方图与预设目标模型进行匹配,生成匹配结果。
优选地,确定模块包括:判断单元,用于判断匹配结果是否大于第二预设阈值;确定单元,用于在判断单元输出为是时,将备选目标确定为待查找的目标,并对备选目标进行目标跟踪。
优选地,第二获取单元包括:转换子单元,用于以深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;处理子单元,用于对转换后的边界像素点进行归一化处理,将转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
通过本发明实施例,采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;通过运动检测处理在目标集合中提取备选目标;获取备选目标与预设目标模型的匹配度;确定匹配度满足预设条件,并对备选目标进行目标跟踪,解决了相关技术中使用色彩图来提取图像中的特定目标难度较大的问题,进而改善了在识别过程中所受到的周围光照以及场景的影响,增强了识别目标的稳定性以及实用性。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是根据本发明实施例的目标的识别方法的流程图;
图2是根据本发明实施例的目标的识别装置的结构框图;
图3是根据本发明优选实施例的目标的识别装置的结构框图。
具体实施方式
下文中将参考附图并结合实施例来详细说明本发明。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
图1是根据本发明实施例的目标的识别方法的流程图。如图1所示,该方法可以包括以下处理步骤:
步骤S102:采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;
步骤S104:通过运动检测处理在目标集合中提取备选目标;
步骤S106:获取备选目标与预设目标模型的匹配度;
步骤S108:确定匹配度满足预设条件,并对备选目标进行目标跟踪。
相关技术中,使用色彩图来提取图像中的特定目标难度较大。采用如图1所示的方法,采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;通过运动检测处理在目标集合中提取备选目标;获取备选目标与预设目标模型的匹配度;确定匹配度满足预设条件,并对备选目标进行目标跟踪,解决了相关技术中使用色彩图来提取图像中的特定目标难度较大的问题,进而改善了在识别过程中所受到的周围光照以及场景的影响,增强了识别目标的稳定性以及实用性。
需要说明的是,上述深度图像为不限定分辨率的数字图像,其中,每个像素点都是当前场景中物体垂直于图像采集装置(例如:摄像头)主光轴的直线距离,而需要识别的目标则表现为深度图像中具有特殊形状并且满足一定的运动特性的物体。
在优选实施例中,在深度图中待提取的特定目标为深度图中的人物。在完成深度图的输出之后,首先识别地面,可以将全部地面的像素点赋值为0;其次在深度图中使用连续深度物体分割算法;然后采用前几帧建立的背景模型为基础提取前景,从而得到前景图。
在完成深度连续物体分割的基础上,可以根据深度连续物体的属性对特定目标进行识别。按照首先判断是否存在运动发生,然后判断物体的形状是否满足人体模型,其识别结果为新加入到场景中的人物目标。而后再利用生成的前景图与深度连续物体的属性以及上一帧的最终结果进行目标跟踪,跟踪已经出现的人物目标在当前深度图中的分布。人物识别以及人物跟踪分布图即为最终结果。
优选地,在步骤S104中,通过运动检测处理在目标集合中提取备选目标可以包括以下操作:
步骤S1:计算备选目标在相邻两帧的帧间差以及备选目标运动的剧烈程度,确定第一参考点的取值范围,其中,取值范围用于抑制深度测量过程中产生的误差以及备选目标与预设场景的背景交错时产生的边缘深度差;
步骤S2:根据取值范围选取第一种子点,并以第一种子点为基础在第一区域内将与第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以第二种子点为基础在第二区域内继续生长与第二种子点的深度差小于第一预设阈值的新的种子点,持续生长直至以新的种子点为基础的区域内不存在与新的种子点的深度差小于第一预设阈值的种子点;
步骤S3:根据第一种子点以及生长出的全部种子点获取备选目标。
在优选实施例中,目标运动的方式为非剧烈运动,在保证图像每秒30帧的情况下,两帧之间的运动距离小于0.3米。通过前后两帧的帧间求差,并针对运动的非剧烈性,设定求差之后结果的阈值不大于0.3米,同时不小于50毫米,通过双端阈值,可以抑制深度测量时产生的误差,以及目标与背景交错时产生较大的边缘深度差。
通过获取前后两帧的帧间差,获取到帧差的点,以当前的点作为种子,对周围的点进行生长,生长方式为与种子深度差较小的点,并且继续将生长出来的点作为种子点,按照同样的方式进行生长。直到不满足深度差较小的条件。将生长出来的点在目标图的对应位置标记相应的标号。
在种子点生长完成之后,即可获得目标图。每一个可能为目标的区域都被标记相应的标号。这个目标图即是可能为目标的区域。
优选地,在步骤S106中,获取备选目标与预设目标模型的匹配度可以包括以下步骤:
步骤S4:选取备选目标轮廓上的边界像素点;
步骤S5:获取每个边界像素点的特征集合,其中,特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与三维直角坐标系中的Z轴夹角的第三直方图;
步骤S6:将获取到的特征集合中的第一直方图、第二直方图以及第三直方图与预设目标模型进行匹配,生成匹配结果。
在优选实施例中,目标模型的特征在于目标的形状特征,形状特征表现为目标物体的轮廓,轮廓上的像素点与其它像素点之间的相对位置。
优选地,在步骤S108中,确定匹配度满足预设条件,并对备选目标进行目标跟踪可以包括以下操作:
步骤S7:判断匹配结果是否大于第二预设阈值;
步骤S8:如果是,则将备选目标确定为待查找的目标,并对备选目标进行目标跟踪。
在优选实施例中,首先,获取轮廓上的边界像素点,边界像素点的数量为固定数量,当边界上的像素点数量较多时,对边界降采样,取距离较远可以覆盖整个目标各个位置的边界点。
然后,每个轮廓上的像素点都为目标物体的一个特征集合,集合中包括三个直方图,分别为当前像素点与其它周围像素点之间距离直方图,当前像素点与其它周围像素点连线与X轴夹角的直方图,当前像素点与其它周围像素点连线与Z轴夹角的直方图。
最后,按照生成的直方图与针对不同目标生成的直方图模型进行匹配,最终生成与模型的匹配度。当匹配度大于设定的阈值时,则说明该目标为需要查找的特定目标,当目标与模型的匹配度小于设定的阈值时,则说明该目标不属于需要查找的特定目标。
在优选实施过程中,在步骤S5中,获取每个边界像素点的特征集合可以包括以下步骤:
步骤S51:以深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;
步骤S52:对转换后的边界像素点进行归一化处理,将转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
在优选实施例中,目标物体轮廓像素点坐标系转换,取轮廓像素点的深度值,深度图像的中心点位置作为新坐标系的中心点,原有坐标系中像素点的坐标设为(x,y),设对应到新坐标系中的像素点坐标(x',y').新坐标与图像坐标的转换公式如下。
其中,W为数字图像的宽度分辨率,H为数字图像的高度分辨率。K为常数,常数取决于深度摄像头的焦距等基本属性。在完成新坐标的转换后,使用新坐标来计算形状的特征值。
对于轮廓上像素点的相对位置需要进行归一化操作,像素点的连线距离超过设定阈值的点统计到直方图中的最大数值统计区间。
作为本发明的一个优选实施例,基于深度图的目标识别方法可以包括以下处理步骤:
第一步、使用运动检测提取场景中的可能目标。通过前后两帧的帧间求差并针对运动的非剧烈性设定求差之后结果不大于第一预设阈值(例如:0.3米),且不小于第二预设阈值(例如:50毫米),通过两端阈值可以抑制深度测量时所产生的误差以及在目标与背景交错时所产生较大的边缘深度差。
第二步、生成可能目标图。通过获取前后两帧的帧间差确定帧差的点,以当前的点作为种子对周围的点进行生长,其生长方式为与种子深度差较小的点,并且继续将生长出来的点作为种子点,按照同样的方式进行生长,直至不满足深度差较小的条件。将生长出来的点在目标图的对应位置标记相应的标号。
待种子点生长完成之后,即可获得目标图。每一个可能为目标的区域都被标记相应的标号。这个目标图便是可能为目标的区域。
第三步、计算可能目标与特定目标模型的匹配度。目标模型的特征在于目标的形状特征,其形状特征可以表现但不限于为:目标物体的轮廓、轮廓上的像素点与其它像素点之间的相对位置。优选方法为选取轮廓上的边界像素点,边界像素点的数量为固定值,当边界上的像素点数量较多时,对边界进行降采样处理,以选取距离较远可以覆盖整个目标各个位置的边界点。
然后,每个轮廓上的像素点均为目标物体的一个特征集合,该特征集合中可以包括三个直方图,分别为当前像素点与其它周围像素点之间距离直方图、当前像素点与其它周围像素点的连线与X轴夹角的直方图以及当前像素点与其它周围像素点的连线与Z轴夹角的直方图。
其中,在统计直方图的过程中,还需要进行以下处理:目标物体轮廓像素点坐标系转换,获取轮廓像素点的深度值,深度图像的中心点位置作为新坐标系的中心点,假设原坐标系中像素点的坐标为(x,y),其对应到新坐标系中的像素点坐标为(x',y'),那么,新坐标与图像坐标的转换公式如下:
其中,W为数字图像的宽度分辨率,H为数字图像的高度分辨率,K为常数,该常数取决于深度摄像头的焦距等基本属性。在完成新坐标的转换后,便可以使用新坐标来计算形状的特征值。
此外,轮廓上像素点的相对位置需要执行归一化操作,像素点的连线距离超过特定阈值的点统计到直方图中的最大数值统计区间。
第四步、在完成模型匹配后,如果不满足预设的模型阈值,则需要对原先的目标图进行重新赋值,将原来的目标位置赋值为0,并采用该目标图对目标进行跟踪。
图2是根据本发明实施例的目标的识别装置的结构框图。如图2所示,该目标的识别装置可以包括:识别模块10,用于采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;提取模块20,用于通过运动检测处理在所述目标集合中提取备选目标;获取模块30,用于获取所述备选目标与预设目标模型的匹配度;确定模块40,用于确定所述匹配度满足预设条件,并对所述备选目标进行目标跟踪。
采用如图2所示的装置,解决了相关技术中使用色彩图来提取图像中的特定目标难度较大的问题,进而改善了在识别过程中所受到的周围光照以及场景的影响,增强了识别目标的稳定性以及实用性。
优选地,如图3所示,提取模块20可以包括:计算单元200,用于计算备选目标在相邻两帧的帧间差以及备选目标运动的剧烈程度,确定第一参考点的取值范围,其中,取值范围用于抑制深度测量过程中产生的误差以及备选目标与预设场景的背景交错时产生的边缘深度差;生成单元202,用于根据取值范围选取第一种子点,并以第一种子点为基础在第一区域内将与第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以第二种子点为基础在第二区域内继续生长与第二种子点的深度差小于第一预设阈值的新的种子点,持续生长直至以新的种子点为基础的区域内不存在与新的种子点的深度差小于第一预设阈值的种子点;第一获取单元204,用于根据第一种子点以及生长出的全部种子点获取备选目标。
优选地,如图3所示,获取模块30可以包括:选取单元300,用于选取备选目标轮廓上的边界像素点;第二获取单元302,用于获取每个边界像素点的特征集合,其中,特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与三维直角坐标系中的Z轴夹角的第三直方图;匹配单元304,用于将获取到的特征集合中的第一直方图、第二直方图以及第三直方图与预设目标模型进行匹配,生成匹配结果。
优选地,如图3所示,确定模块40可以包括:判断单元400,用于判断匹配结果是否大于第二预设阈值;确定单元402,用于在判断单元输出为是时,将备选目标确定为待查找的目标,并对备选目标进行目标跟踪。
优选地,第二获取单元302可以包括:转换子单元(图中未示出),用于以深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;处理子单元(图中未示出),用于对转换后的边界像素点进行归一化处理,将转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
从以上的描述中,可以看出,上述实施例实现了如下技术效果(需要说明的是这些效果是某些优选实施例可以达到的效果):采用本发明实施例所提供的技术方案,在已有深度图的前提下,能够完成在场景中提取地面的任务,为后续的人物目标识别与跟踪提供了重要的参考依据,不但解决了色彩图不容易提取地面的问题,而且在各个场景中可以保证较好的稳定性以及较少的数据处理量,使得提取地面的检测效率提高。与现有技术相比,使用深度图并且配合帧差能够有效地提高提取目标的稳定性,而且,提取特征的计算量更小。
显然,本领域的技术人员应该明白,上述的本发明的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种目标的识别方法,其特征在于,包括:
采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;
通过运动检测处理在所述目标集合中提取备选目标;
获取所述备选目标与预设目标模型的匹配度;
确定所述匹配度满足预设条件,并对所述备选目标进行目标跟踪;
其中,获取所述备选目标与所述预设目标模型的所述匹配度包括:选取所述备选目标轮廓上的边界像素点;获取每个边界像素点的特征集合,其中,所述特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与所述三维直角坐标系中的Z轴夹角的第三直方图;将获取到的所述特征集合中的所述第一直方图、所述第二直方图以及所述第三直方图与所述预设目标模型进行匹配,生成匹配结果。
2.根据权利要求1所述的方法,其特征在于,通过所述运动检测处理在所述目标集合中提取所述备选目标包括:
计算所述备选目标在相邻两帧的帧间差以及所述备选目标运动的剧烈程度,确定第一种子点的取值范围,其中,所述取值范围用于抑制深度测量过程中产生的误差以及所述备选目标与所述预设场景的背景交错时产生的边缘深度差;
根据所述取值范围选取所述第一种子点,并以所述第一种子点为基础在第一区域内将与所述第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以所述第二种子点为基础在第二区域内继续生长与所述第二种子点的深度差小于所述第一预设阈值的新的种子点,持续生长直至以所述新的种子点为基础的区域内不存在与所述新的种子点的深度差小于所述第一预设阈值的种子点;
根据所述第一种子点以及生长出的全部种子点获取所述备选目标。
3.根据权利要求1所述的方法,其特征在于,确定所述匹配度满足所述预设条件,并对所述备选目标进行目标跟踪包括:
判断所述匹配结果是否大于第二预设阈值;
如果是,则将所述备选目标确定为待查找的目标,并对所述备选目标进行目标跟踪。
4.根据权利要求1所述的方法,其特征在于,获取每个边界像素点的特征集合包括:
以所述深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;
对转换后的边界像素点进行归一化处理,将所述转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
5.一种目标的识别装置,其特征在于,包括:
识别模块,用于采用表征物体与图像采集装置之间距离的深度图像识别预设场景中的目标集合;
提取模块,用于通过运动检测处理在所述目标集合中提取备选目标;
获取模块,用于获取所述备选目标与预设目标模型的匹配度;
确定模块,用于确定所述匹配度满足预设条件,并对所述备选目标进行目标跟踪;
其中,所述获取模块包括:选取单元,用于选取所述备选目标轮廓上的边界像素点;第二获取单元,用于获取每个边界像素点的特征集合,其中,所述特征集合包括:该边界像素点与其周围像素点之间距离的第一直方图,该边界像素点与其周围像素点之间的连线与三维直角坐标系中的X轴夹角的第二直方图以及该边界像素点与其周围像素点之间的连线与所述三维直角坐标系中的Z轴夹角的第三直方图;匹配单元,用于将获取到的所述特征集合中的所述第一直方图、所述第二直方图以及所述第三直方图与所述预设目标模型进行匹配,生成匹配结果。
6.根据权利要求5所述的装置,其特征在于,所述提取模块包括:
计算单元,用于计算所述备选目标在相邻两帧的帧间差以及所述备选目标运动的剧烈程度,确定第一种子点的取值范围,其中,所述取值范围用于抑制深度测量过程中产生的误差以及所述备选目标与所述预设场景的背景交错时产生的边缘深度差;
生成单元,用于根据所述取值范围选取所述第一种子点,并以所述第一种子点为基础在第一区域内将与所述第一种子点的深度差小于第一预设阈值的种子点生长为第二种子点,再以所述第二种子点为基础在第二区域内继续生长与所述第二种子点的深度差小于所述第一预设阈值的新的种子点,持续生长直至以所述新的种子点为基础的区域内不存在与所述新的种子点的深度差小于所述第一预设阈值的种子点;
第一获取单元,用于根据所述第一种子点以及生长出的全部种子点获取所述备选目标。
7.根据权利要求5所述的装置,其特征在于,所述确定模块包括:
判断单元,用于判断所述匹配结果是否大于第二预设阈值;
确定单元,用于在所述判断单元输出为是时,将所述备选目标确定为待查找的目标,并对所述备选目标进行目标跟踪。
8.根据权利要求5所述的装置,其特征在于,所述第二获取单元包括:
转换子单元,用于以所述深度图像的中心点位置为坐标系原点对每个边界像素点进行坐标系转换;
处理子单元,用于对转换后的边界像素点进行归一化处理,将所述转换后的边界像素点之间的连线距离超过第三预设阈值的边界像素点均统计至与该边界像素点对应的直方图的最大数值统计区间。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410146229.6A CN104978558B (zh) | 2014-04-11 | 2014-04-11 | 目标的识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410146229.6A CN104978558B (zh) | 2014-04-11 | 2014-04-11 | 目标的识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104978558A CN104978558A (zh) | 2015-10-14 |
CN104978558B true CN104978558B (zh) | 2018-05-08 |
Family
ID=54275047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410146229.6A Active CN104978558B (zh) | 2014-04-11 | 2014-04-11 | 目标的识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104978558B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109472809B (zh) * | 2017-09-06 | 2020-09-25 | 中国移动通信有限公司研究院 | 一种目标鉴别方法及设备 |
CN109918974A (zh) * | 2017-12-13 | 2019-06-21 | 南京机器人研究院有限公司 | 一种机器人目标识别方法 |
CN110069966A (zh) * | 2018-01-24 | 2019-07-30 | 南京机器人研究院有限公司 | 一种基于机器人的图像快速识别方法 |
CN111325701B (zh) * | 2018-12-14 | 2023-05-09 | 杭州海康微影传感科技有限公司 | 图像处理方法、装置及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509074A (zh) * | 2011-10-18 | 2012-06-20 | Tcl集团股份有限公司 | 一种目标识别方法和设备 |
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN103366565A (zh) * | 2013-06-21 | 2013-10-23 | 浙江理工大学 | 一种基于Kinect的行人闯红灯检测方法及其系统 |
CN103473757A (zh) * | 2012-06-08 | 2013-12-25 | 株式会社理光 | 在视差图中的对象跟踪方法和系统 |
-
2014
- 2014-04-11 CN CN201410146229.6A patent/CN104978558B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102867311A (zh) * | 2011-07-07 | 2013-01-09 | 株式会社理光 | 目标跟踪方法和目标跟踪设备 |
CN102509074A (zh) * | 2011-10-18 | 2012-06-20 | Tcl集团股份有限公司 | 一种目标识别方法和设备 |
CN103473757A (zh) * | 2012-06-08 | 2013-12-25 | 株式会社理光 | 在视差图中的对象跟踪方法和系统 |
CN103366565A (zh) * | 2013-06-21 | 2013-10-23 | 浙江理工大学 | 一种基于Kinect的行人闯红灯检测方法及其系统 |
Also Published As
Publication number | Publication date |
---|---|
CN104978558A (zh) | 2015-10-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105894499B (zh) | 一种基于双目视觉的空间物体三维信息快速检测方法 | |
CN102971768B (zh) | 姿势状态估计装置及姿势状态估计方法 | |
CN108717531B (zh) | 基于Faster R-CNN的人体姿态估计方法 | |
US8824781B2 (en) | Learning-based pose estimation from depth maps | |
CN107403168B (zh) | 一种面部识别系统 | |
CN104463117B (zh) | 一种基于视频方式的人脸识别样本采集方法及系统 | |
JP5873442B2 (ja) | 物体検出装置および物体検出方法 | |
CN103514441B (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
CN105096269B (zh) | 基于畸变直线结构检测的图像径向畸变矫正的方法及系统 | |
CN109086724B (zh) | 一种加速的人脸检测方法及存储介质 | |
CN103473537B (zh) | 一种目标图像轮廓特征表示方法及装置 | |
CN109345568A (zh) | 基于计算机视觉算法的运动场智能化实现方法及系统 | |
CN105740945A (zh) | 一种基于视频分析的人群计数方法 | |
CN104978558B (zh) | 目标的识别方法及装置 | |
KR101635896B1 (ko) | 깊이 정보 기반 사람 추적 장치 및 그 방법 | |
CN111160291B (zh) | 基于深度信息与cnn的人眼检测方法 | |
CN109087323A (zh) | 一种基于精细cad模型的图像车辆三维姿态估计方法 | |
CN101777129A (zh) | 一种基于特征检测的图像匹配方法 | |
CN108765317A (zh) | 一种时空一致性与特征中心emd自适应视频稳定的联合优化方法 | |
CN108717704A (zh) | 基于鱼眼图像的目标跟踪方法、计算机装置及计算机可读存储介质 | |
CN103035003A (zh) | 一种实现增强现实的方法及装置 | |
CN105631852A (zh) | 基于深度图像等高线的室内人体检测方法 | |
CN109725721A (zh) | 用于裸眼3d显示系统的人眼定位方法及系统 | |
CN110505398A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN107093182B (zh) | 一种基于特征拐点的人体高度估计方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |