CN108805900A - 一种跟踪目标的确定方法及装置 - Google Patents
一种跟踪目标的确定方法及装置 Download PDFInfo
- Publication number
- CN108805900A CN108805900A CN201710303988.2A CN201710303988A CN108805900A CN 108805900 A CN108805900 A CN 108805900A CN 201710303988 A CN201710303988 A CN 201710303988A CN 108805900 A CN108805900 A CN 108805900A
- Authority
- CN
- China
- Prior art keywords
- target
- tracking target
- alternative
- sample
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种跟踪目标的确定方法及装置。所述方法包括:获得待确定跟踪目标的当前帧图像,确定所述当前帧图像中的备选目标;将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;获得所述深度学习网络提取的各个备选目标的第一外观特征;获得上一帧图像对应的第一跟踪目标的第二外观特征;根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。应用本申请实施例提供的方案,能够提高所确定的跟踪目标的准确性。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种跟踪目标的确定方法及装置。
背景技术
目标跟踪技术是计算机视觉应用中的一个重要研究方向,其任务是能够在视频图像中确定目标,对其进行长时间的跟踪,并保持目标身份,最终生成针对目标的跟踪轨迹。根据生成的跟踪轨迹,对目标的行为进行分析。
现有技术中,在对目标进行跟踪时,可以先从待确定跟踪目标的第一图像中检测出备选目标,并提取备选目标的特征,根据备选目标的特征与上一帧图像中跟踪目标的特征之间的相似度,从备选目标中确定跟踪目标。其中,所提取的备选目标的特征中非常重要的特征就是外观特征,当然还可以包括形状特征和位置特征等其他特征。在提取备选目标的外观特征时,常常以备选目标的颜色直方图这种特征作为外观特征。
但是,颜色直方图所描述的是不同色彩在整个目标中所占的比例,而并不关心每种色彩所处的空间位置,可见颜色直方图对目标的描述能力有限。因此,在有些情况下无法根据颜色直方图准确地区分各个目标,在跟踪目标的确定过程中可能将不同的目标判断为相似目标,导致跟踪错误。例如,对于两个衣着不同的人,一个穿蓝色上衣和红色裤子,另一个穿红色裤子和蓝色上衣,其统计得到的颜色直方图几乎是一样的。在这种情况下,根据颜色直方图对目标进行跟踪将出现跟踪错误。
发明内容
本申请实施例的目的在于提供了一种跟踪目标的确定方法及装置,以提高所确定的跟踪目标的准确性。具体的技术方案如下。
为了达到上述目的,本申请公开了一种跟踪目标的确定方法,所述方法包括:
获得待确定跟踪目标的当前帧图像;
确定所述当前帧图像中的备选目标;
将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;
获得所述深度学习网络提取的各个备选目标的第一外观特征;
获得上一帧图像对应的第一跟踪目标的第二外观特征;
根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;
根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
可选的,所述深度学习网络采用以下方式获得:
获得所述样本图像以及所述样本图像中包括的样本目标的标准分类,其中,不同标准分类对应的样本图像中相同像素的位置不同;
根据深度学习参数提取所述样本图像的样本外观特征;
根据所述样本外观特征确定所述样本目标的分类;
确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值;
如果否,则根据所述第一差异调整所述深度学习参数,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤。
可选的,所述方法还包括:
在提取所述样本图像的样本外观特征之后,获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个;
判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同;
如果相同,则确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,以使同一标准分类的样本图像的样本外观特征之间的差异减小,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤。
如果不相同,则确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,以使不同标准分类的样本图像的样本外观特征之间的差异增大,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤。
可选的,同一标准分类对应的样本图像的背景不同;和/或,同一标准分类对应的样本图像中的样本目标的姿态不同;和/或,同一标准分类对应的各个样本图像的亮度不同。
可选的,所述根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度;
根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
可选的,所述根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
获得各个备选目标的第一位置特征;
获得保存的各个第一跟踪目标的第二位置特征;
根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵;
根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还包括:
根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征;
根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
可选的,所述根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,所述根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还包括:
将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度;
所述根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,包括:
获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度;
将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标;
根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配;
根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配;
所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
可选的,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
将匹配成功的备选目标对应的相似度确定为第一相似度;
将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
可选的,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
获得匹配失败的第一跟踪目标的第一失败次数;
判断所述第一失败次数是否小于预设第一次数阈值;
如果小于,则将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
可选的,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
获得匹配失败的备选目标的第二失败次数;
判断所述第二失败次数是否大于预设第二次数阈值;
如果大于,则将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
为了达到上述目的,本申请还公开了一种跟踪目标的确定装置,所述装置包括:
当前帧图像获得模块,用于获得待确定跟踪目标的当前帧图像;
备选目标确定模块,用于确定所述当前帧图像中的备选目标;
备选目标发送模块,用于将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;
第一特征获得模块,用于获得所述深度学习网络提取的各个备选目标的第一外观特征;
第二特征获得模块,用于获得上一帧图像对应的第一跟踪目标的第二外观特征;
备选目标匹配模块,用于根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;
跟踪目标确定模块,用于根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
可选的,所述装置还包括学习网络获得模块,用于获得所述深度学习网络;
所述学习网络获得模块,包括:
样本获得子模块,用于获得所述样本图像以及所述样本图像中包括的样本目标的标准分类,其中,不同标准分类对应的样本图像中相同像素的位置不同;
特征提取子模块,用于根据深度学习参数提取所述样本图像的样本外观特征;
分类确定子模块,用于根据所述样本外观特征确定所述样本目标的分类;
差异判断子模块,用于确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值;
参数调整子模块,用于当所述第一差异不小于预设阈值时,根据所述第一差异调整所述深度学习参数,触发所述特征提取子模块。
可选的,所述学习网络获得模块还包括:
特征获得子模块,用于在提取所述样本图像的样本外观特征之后,获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个;
样本判断子模块,用于判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同;
第二差异确定子模块,用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,以使同一标准分类的样本图像的样本外观特征之间的差异减小,触发所述特征提取子模块。
第三差异确定子模块,用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类不相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,以使不同标准分类的样本图像的样本外观特征之间的差异增大,触发所述特征提取子模块。
可选的,所述备选目标匹配模块,包括:
相似度确定子模块,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度;
备选目标匹配子模块,用于根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
可选的,所述相似度确定子模块,包括:
第一矩阵确定单元,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一位置获得单元,用于获得各个备选目标的第一位置特征;
第二位置获得单元,用于获得保存的各个第一跟踪目标的第二位置特征;
第二矩阵确定单元,用于根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵;
第一相似度确定单元,用于根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,所述装置还包括:
预测位置确定模块,用于在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征;
目标位置保存模块,用于根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
可选的,所述相似度确定子模块,包括:
第一矩阵确定单元,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一形状获得单元,用于获得各个备选目标的第一形状特征;
第二形状获得单元,用于获得保存的各个第一跟踪目标的第二形状特征;
第三矩阵确定单元,用于根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
第二相似度确定单元,用于将所述第一相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,所述第一相似度确定单元,具体用于:
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
可选的,所述装置还包括:
置信度确定模块,用于在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度;
所述备选目标匹配子模块,包括:
置信度获得单元,用于获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度;
置信度分类单元,用于将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标;
第一次匹配单元,用于根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配;
第二次匹配单元,用于根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配;
所述跟踪目标确定模块,具体用于:
将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
可选的,所述跟踪目标确定模块,具体用于:
将匹配成功的备选目标对应的相似度确定为第一相似度;
将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
可选的,所述跟踪目标确定模块,包括:
第一获得子模块,用于获得匹配失败的第一跟踪目标的第一失败次数;
第一判断子模块,用于判断所述第一失败次数是否小于预设第一次数阈值;
第一确定子模块,用于当所述第一失败次数小于预设第一次数阈值时,将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
可选的,所述跟踪目标确定模块,包括:
第二获得子模块,用于获得匹配失败的备选目标的第二失败次数;
第二判断子模块,用于判断所述第二失败次数是否大于预设第二次数阈值;
第二确定子模块,用于当所述第二失败次数大于预设第二次数阈值时,将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
本申请实施例提供的跟踪目标的确定方法及装置,可以在获得待确定跟踪目标的当前帧图像之后,确定当前帧图像中的备选目标,并将各个备选目标发送至预设的深度学习网络,获得深度学习网络提取的各个备选目标的第一外观特征,获得上一帧图像对应的第一跟踪目标的第二外观特征,根据第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。其中,上述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征。
也就是说,本申请实施例可以采用深度学习网络提取各个备选目标的外观特征,根据上述外观特征确定当前帧图像的跟踪目标。由于上述外观特征包含像素的位置信息等特征,而现有技术中常采用的颜色直方图描述的是不同像素在整个图像中所占的比例,颜色直方图不具有像素的位置信息。因此,本申请实施例提供的方案中的外观特征比现有技术中的外观特征对图像的描述能力更强,采用本申请实施例提供的方案进行跟踪目标的确定,能够提高所确定的跟踪目标的准确性。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的跟踪目标的确定方法的一种流程示意图;
图2为本申请实施例提供的获得深度学习网络的一种流程示意图;
图2a为全连接层的一种原理示意图;
图2b训练阶段的损失函数曲线和准确率函数曲线的一种示意图;
图3为图1中步骤S106的一种流程示意图;
图3a~图3c为图3中步骤S106A的几种具体实施方式的流程示意图;
图4为本申请实施例提供的跟踪目标的确定装置的一种结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整的描述。显然,所描述的实施例仅仅是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请实施例提供了一种跟踪目标的确定方法及装置,应用于电子设备,该电子设备可以为普通计算机、服务器等提供计算服务的设备,或智能手机、平板电脑等移动通信设备,以及其他设备。本申请实施例能够提高所确定的跟踪目标的准确性。下面通过具体实施例,对本申请进行详细说明。
图1为本申请实施例提供的跟踪目标的确定方法的一种流程示意图,应用于电子设备,所述方法包括如下步骤S101~S107:
步骤S101:获得待确定跟踪目标的当前帧图像。
具体的,上述当前帧图像可以是视频中待确定跟踪目标的帧图像,上述视频可以是实时采集的视频,也可以是预先录制好的视频。在获得待确定跟踪目标的当前帧图像时,作为执行主体的电子设备可以将视频中当前待确定跟踪目标的帧图像确定为当前帧图像,也可以直接获得指定图像作为当前帧图像。
步骤S102:确定所述当前帧图像中的备选目标。
具体的,在确定当前帧图像中的备选目标时,可以包括:根据预设的物体特征,识别当前帧图像中的备选目标。预设的物体特征可以包括规则的边缘形状、有规律的色彩分布等特征。例如,当预设的物体特征为与人相关的特征时,可以从当前帧图像中检测出人。当预设的物体特征为与车相关的特征时,可以从当前帧图像中检测出车。
在确定当前帧图像中的备选目标时,还可以根据DPM(Deformable Parts Model,可变形部件模型)算法或FASTER-RCNN算法进行检测。
在本实施例中,确定备选目标,可以理解为确定出备选目标的区域坐标、帧标识信息以及图像等。
步骤S103:将各个备选目标发送至预设的深度学习网络。
其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征。上述样本图像可以理解为目标与背景相结合的图像,上述目标可以为人,也可以为物。上述像素的位置信息可以包括各个像素在图像中的坐标位置,此为绝对位置,也可以包括像素之间的相对位置等。深度学习网络为神经网络的一种具体实现形式。
具体的,在根据样本图像训练深度学习网络时,可以按照以下标准采集样本图像:每个样本图像对应至少一个样本目标的标准分类,不同标准分类对应的样本图像中相同像素的位置不同,或者更具体的是,不同标准分类对应的样本图像中样本目标部分中相同像素的位置不同。作为一个具体实施例,当跟踪目标为人时,所采集的样本图像可以包括不同人的样本图像,这些样本图像中同一个人的穿着相同,不同人的穿着不完全相同。当跟踪目标为物时,例如为车时,所采集的样本图像可以包括不同车的样本图像,这些样本图像中同一车的外观完全相同,不同车的外观不完全相同。当采用上述样本图像训练深度学习网络时,可以使上述深度学习网络提取的外观特征中包含像素的位置信息。
作为一个例子,在获得样本图像并标注样本图像的标准分类时,对于穿红色上衣、蓝色裤子的人和穿蓝色上衣、红色裤子的人,这两个人对应的图像会被标注为不同的标准分类。在根据上述样本图像对深度学习网络训练完成之后,该深度学习网络在提取红上衣、蓝裤子的目标和蓝上衣、红裤子的目标的外观特征时,所得到的两个外观特征是不同的。
除了提取包含像素的位置信息,上述外观特征还可以包含像素的像素值等各种可以从样本图像中提取的特征。
具体的,上述深度学习网络可以是对预设的网络模型训练而成。其中,网络模型可以包括GoogLeNet网络模型、VGGNet网络模型、AlexNet网络模型或Caffe网络模型。
步骤S104:获得所述深度学习网络提取的各个备选目标的第一外观特征。
其中,各个第一外观特征包含像素的位置信息等特征。
步骤S105:获得上一帧图像对应的第一跟踪目标的第二外观特征。
其中,上一帧图像为当前帧图像所在的视频中的帧图像。
具体的,在获得上一帧图像对应的第一跟踪目标的第二外观特征时,可以从保存的信息中直接获得上一帧图像对应的第一跟踪目标的第二外观特征。其中,上一帧图像对应的第一跟踪目标也是采用本申请实施例提供的跟踪目标的确定方法确定的。因此,第二外观特征与第一外观特征都是采用深度学习网络提取的特征。
步骤S106:根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配。
在本实施例中,外观特征既用于区分各个不同目标,也用于标注各个相同目标。因此,根据第一外观特征和第二外观特征,可以将各个备选目标和每一个第一跟踪目标进行匹配。在匹配时,可以将各个备选目标对应的第一外观特征与每一个第一跟踪目标对应的第二外观特征进行匹配,确定各个第一外观特征与每一个第二外观特征之间的接近程度,当上述接近程度大于预设阈值,即认为匹配成功。
也可以是,采用指定算法计算各个第一外观特征和每一个外观特征之间的相似度,根据计算的相似度确定各个备选目标与每一个第一跟踪目标是否匹配。
作为一种具体的实施方式,在匹配时,还可以根据其他的特征进行综合匹配,其他的特征可以包括位置特征、形状特征、速度特征等。其中,位置特征可以为横坐标特征和纵坐标特征,形状特征可以为目标的长度特征和宽度特征,速度特征可以为:两个图像中目标的位置特征的差与两个图像对应的时间差的比值。
步骤S107:根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
具体的,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标时,可以将匹配成功的备选目标直接确定为当前帧图像的跟踪目标,也可以根据上述第一外观特征与预设外观特征阈值的差值,对匹配成功的备选目标再次进行筛选,根据筛选出的备选目标确定为当前帧图像的跟踪目标。
作为一种具体的实施方式,在获得各个备选目标的外观特征之后,还可以获得各个备选目标的位置特征,和/或,获得各个备选目标的形状特征。其中,位置特征是与目标在图像中所在的位置有关的特征,形状特征是与目标的尺寸有关的特征。在根据外观特征对各个备选目标与第一跟踪目标进行匹配时,还可以根据外观特征和形状特征的结合对各个备选目标与第一跟踪目标进行匹配,也可以根据外观特征和位置特征的结合对各个备选目标与第一跟踪目标进行匹配,还可以根据外观特征、位置特征和形状特征的结合对各个备选目标与第一跟踪目标进行匹配。
在确定当前帧图像的跟踪目标之后,还可以根据匹配成功的备选目标,确定每个跟踪目标在当前帧图像中的以下信息:置信度、位置、外观特征。上述置信度可以为根据上述相似度确定的信息,位置可以为根据匹配成功的备选目标的位置确定的信息,外观特征可以为匹配成功的备选目标的外观特征。
在确定上述信息之后,还可以对上述信息进行保存。由于上一帧图像经过了与当前帧图像完全相同的处理过程,因此在获得上一帧图像的上述信息时可以直接从保存的信息中获得。
由上述内容可知,本实施例可以采用深度学习网络提取各个备选目标的外观特征,根据上述外观特征确定当前帧图像的跟踪目标。由于上述外观特征包含像素的位置信息等特征,而现有技术中常采用的颜色直方图描述的是不同像素在整个图像中所占的比例,颜色直方图不具有像素的位置信息。例如,对于两个衣着不同的人,一个穿蓝色上衣和红色裤子,另一个穿红色裤子和蓝色上衣,对上述两人的图像进行统计得到的颜色直方图几乎是一样的,而采用本实施例的方案所提取的上述两人图像的外观特征是完全不同的。因此,本实施例提供的方案中的外观特征比现有技术中的外观特征对图像的描述能力更强,采用本实施例提供的方案进行跟踪目标的确定,能够提高所确定的跟踪目标的准确性。
基于图1所示实施例的一种具体实施方式中,所述深度学习网络的获得过程可以按照图2所示流程图进行,具体包括以下步骤:
步骤S201:获得样本图像以及样本图像中包括的样本目标的标准分类。其中,不同标准分类对应的样本图像中相同像素的位置不同。
具体的,获得样本图像时,可以从现有的训练集中获得,也可以从监控视频中获得。在从监控视频中获得样本图像时,具体可以从每个监控视频中抽取关键帧,将关键帧图像确定为样本图像。在获得样本图像之后,还需要对样本图像中的样本目标的标准分类进行标注。需要说明的是,一种样本目标对应一个标准分类。为了使训练的深度学习网络的鲁棒性更好,每一个标准分类可以对应大量的样本图像。
由于通常需要获得大量的样本图像,因此在获得样本图像以及样本图像中包括的样本目标的标准分类时,可以针对不同的监控视频,获得不同标准分类对应的样本图像。也就是说,在获得样本图像以及标准分类时,可以首先获得针对各个样本目标的监控视频,然后针对每一个监控视频,从该监控视频中获得该样本目标对应的样本图像,并对该样本图像批量标注同一个标准分类。
不同标准分类对应的样本图像中相同像素的位置不同,可以理解为,在获得样本图像时,可以选择具有不同外观的目标作为样本目标,即不同标准分类对应的样本图像中的样本目标应具有不同的外观。例如,当选择人作为样本目标时,该外观可以理解为着装的颜色、款式或大小等不同。当选择车作为样本目标时,该外观可以理解为车身颜色、车型、车的外部尺寸等不同。
本实施例中的样本图像可以是经过预处理后的样本图像,上述预处理可以包括将样本图像的尺寸修改成指定尺寸等。
步骤S202:根据深度学习参数提取所述样本图像的样本外观特征。
在初始时,深度学习网络的深度学习参数可以是随机确定的参数值,也可以是预先训练好的参数值。
当随机确定深度学习参数的初始值时,可以在(0,预设值]之间随机确定,其中,初始值不取0值,预设值可以取为较小的值。具体的,可以采用填充算法将深度学习参数初始化为很小的值,填充算法可以包括xavier算法和gaussian算法。这样确定的初始值会比较小但不为0,例如在(0,0.1]区间取值,可以取0.01之类的值,这样在训练过程中可以单方向地逐渐增加该参数值直至训练完成。
当采用预先训练好的参数值作为深度学习参数的初始值时,该预先训练好的参数值可以是从预先训练好的深度学习模型中获得的。以预先训练好的参数值作为深度学习参数的初始值,能够减少训练过程,更快地将深度学习网络训练好。
深度学习参数的取值可以在训练过程中不断地被修改。在第一次将样本图像输入深度学习网络时,深度学习网络根据默认的深度学习参数提取样本图像的样本外观特征。在非第一次将样本图像输入深度学习网络时,深度学习网络可以根据调整后的深度学习参数提取样本图像的样本外观特征。
本实施例中的深度学习网络可以采用GoogLeNet网络模型、VGGNet网络模型、AlexNet网络模型或其他网络模型进行训练。
步骤S203:根据所述样本外观特征确定所述样本目标的分类。
具体的,根据所述样本外观特征确定所述样本目标的分类时,可以通过全连接层和所述样本外观特征,确定所述样本目标的分类。
具体的,可以将该样本外观特征输入该全连接层,接收全连接层输出的该样本外观特征属于预设的各个标准分类中每一分类的概率,将最大概率值对应的分类确定为该样本目标的分类。其中,全连接层用于确定样本外观特征属于预设的各个标准分类中每一分类的概率。例如,已知样本外观特征为1024维的向量,采集的各个标准分类一共有37286种,则全连接层可以针对该样本外观特征输出37286个概率值,该概率值在0~1之间。
作为一个例子,图2a为全连接层的一种原理示意图,图中列出了一个样本外观特征向量与各个标准分类之间的全连接过程,图中左侧一列方框为样本外观特征中向量中的每个元素,中间一列圆圈为各个标准分类,右侧一列箭头指向的各个三角为各个概率值。这些概率值即为全连接层的输出结果。
在将最大概率值对应的分类确定为该样本目标的分类时,可以全连接层输出的各个概率输入Softmax算法,通过Softmax算法从各个概率中确定最大的概率值,并将该最大的概率值对应的分类确定为该样本目标的分类。
也可以是,根据预设的样本图像的所有标准分类在当前深度学习网络中的权重值以及所述样本外观特征,确定所述样本目标的分类。其中,所述样本目标为上述样本图像对应的样本目标,预设的样本图像的所有标准分类可以为用于训练深度学习网络的所有样本图像对应的各个标准分类,而非当前输入深度学习网络的部分样本图像对应的各个标准分类。
步骤S204:确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值,如果否,则执行步骤S205,如果是,则确定深度学习网络已训练完成。
具体的,步骤S204可以包括:通过softmaxwithloss损失函数或euclidean_loss损失函数确定所述样本目标的分类与所述标准分类之间的第一差异,并判断所述第一差异是否小于预设阈值。
其中,上述第一差异可以称为loss值。预设阈值T1可以取较小的值,例如0.1等值。需要说明的是,T1越小则训练的深度学习网络的鲁棒性越好,通过该深度学习网络确定的外观特征准确性也就越高。通常,网络训练次数越多,得到的loss值就越小。因此,可以通过增加训练次数的方式提高网络的鲁棒性。
步骤S205:根据所述第一差异调整所述深度学习参数,返回执行步骤S202。
需要说明的是,在训练深度学习网络时,可以将所有用于训练的样本图像一一输入深度学习网络,针对每个样本图像,深度学习网络均执行一遍提取外观特征、确定分类、确定分类与标准分类之间的第一差异以及判断该第一差异是否小于预设阈值的过程。每次循环的过程均可以通过反向传播算法对深度学习网络的深度学习参数(即权值参数)进行调整,当第一差异小于预设阈值时,可以确定深度学习网络已训练完成。
可见,本实施例可以根据深度学习参数提取样本图像的样本外观特征,并根据样本外观特征确定样本目标的分类,确定样本目标的分类与标准分类之间的第一差异,当第一差异不小于预设阈值时,根据第一差异调整深度学习参数,返回执行根据深度学习参数提取样本图像的外观特征的步骤,不断地训练深度学习网络,直至深度学习参数调整到一定值时,即直到上述第一差异小于预设阈值时,深度学习网络训练完成。由于本实施例提供的深度学习网络是根据分类结果不断调整深度学习参数的,而且,不同标准分类对应的样本图像中相同像素的位置不同,因此,所训练得到的深度学习网络所提取的外观特征含有像素的位置信息这样的语义信息。
由于理想的外观特征应当对目标的外观具有很强的区分能力,即同一标准分类的样本图像的外观特征之间的差异很小,不同标准分类的样本图像的外观特征之间的差异很大。因此,为了达到上述目的,在本实施例中,还可以采用以下过程对深度学习网络进行进一步的训练。
进一步的,在图2所示实施例中,在提取样本图像的样本外观特征之后,所述方法还可以包括以下步骤S206~S209,这些步骤如图2中虚线部分所示:
步骤S206:获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个。
具体的,在步骤S202之后,即根据深度学习参数提取所述样本图像的样本外观特征之后,还可以包括:保存所述样本图像的样本外观特征。
在本实施例中,获得当前样本图像的第一样本外观特征时,可以直接获得深度学习网络提取的当前样本图像的第一样本外观特征。获得上一样本图像的第二样本外观特征时,可以从保存的样本图像的样本外观特征中获得上一样本图像的第二样本外观特征。
可以理解的是,上一样本图像是在当前样本图像之前发送至深度学习网络的,这两个样本图像之间存在先后顺序关系并且是依次发送至深度学习网络的。
步骤S207:判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同,如果相同,则执行步骤S208;如果不相同,则执行步骤S209。
步骤S208:确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,以使同一标准分类的样本图像的样本外观特征之间的差异减小,返回执行步骤S202,即根据深度学习参数提取所述样本图像的样本外观特征的步骤。
具体的,确定第一样本外观特征与第二样本外观特征之间的第二差异时,可以直接将第一样本外观特征与第二样本外观特征之间的差值确定为第二差异。也可以根据第一样本外观特征与第二样本外观特征之间的差值与预设第一差值阈值的比值,获得第二差异。其中,预设第一差值阈值为预设值,可以根据实际情况设置,例如,若要求同一标准分类的样本图像的样本外观特征差异尽可能小,则可以将预设第一差值阈值设置得尽可能小。
在根据所述第二差异调整所述深度学习参数,可以根据第二差异以及第一标签,通过反向传播算法调整所述深度学习参数,第一标签用于表示相同标准分类。具体的,根据所述第二差异调整所述深度学习参数时,也可以根据第二差异的正负符号,通过反向传播算法确定所需要调整的深度学习参数,根据第二差异的大小确定所需要调整的深度学习参数的大小,以减小同一标准分类的样本图像的样本外观特征的差异。
在本实施例中,当当前样本图像的标准分类和上一样本图像的标准分类相同时,第一样本外观特征与第二样本外观特征之间的差异应很小。因此,为了减小这种差异,可以根据上述第二差异调整所述深度学习参数,以使深度学习参数向减小第二差异的方向调整,以便深度学习网络再提取同一标准分类的样本图像时,所得到的两个样本外观特征之间的差异变小。
步骤S209:确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,以使不同标准分类的样本图像的样本外观特征之间的差异增大,返回执行步骤S202,即根据深度学习参数提取所述样本图像的样本外观特征的步骤。
具体的,确定第一样本外观特征与第二样本外观特征之间的第三差异时,可以直接将第一样本外观特征与第二样本外观特征之间的差值确定为第三差异。也可以根据第一样本外观特征与第二样本外观特征之间的差值与预设第二差值阈值的比值,获得第三差异。其中,预设第二差值阈值为预设值,可以根据实际情况设置,例如,若要求不同标准分类的样本图像的样本外观特征差异尽可能大,则可以将预设第二差值阈值设置得尽可能小。
在根据所述第三差异调整所述深度学习参数时,可以根据第三差异以及第二标签,通过反向传播算法调整所述深度学习参数,第二标签用于表示不同标准分类。具体的,根据所述第三差异调整所述深度学习参数时,可以根据第三差异的正负符号,通过反向传播算法确定所需要调整的深度学习参数,根据第三差异的大小确定所需要调整的深度学习参数的大小,以增大不同标准分类的样本图像的样本外观特征的差异。
在本实施例中,可以采用contrastive(对比损失函数)确定第二差异和第三差异。
在本实施例中,当当前样本图像的标准分类和上一样本图像的标准分类不同时,第一样本外观特征与第二样本外观特征之间的差异应较大。因此,为了增大这种差异,可以根据上述第三差异调整所述深度学习参数,以使深度学习参数向增大第三差异的方向调整,以便深度学习网络再次提取不同标准分类的样本图像时,所得到的两个样本外观特征之间的差异变大。
可见,在本实施例中,训练深度学习网络时可以判断当前样本图像的标准分类和上一样本图像的标准分类是否相同,根据判断结果确定第一样本外观特征与第二样本外观特征之间的差异,根据该差异调整深度学习参数,以使同一标准分类的样本外观特征之间尽可能接近,不同标准分类的样本外观特征之间尽可能远离,进而提高深度学习网络所提取的外观特征的区分能力。
由于在训练网络模型时,样本图像的选择至关重要。当样本图像满足以下几类特点时,训练得到的网络模型具有的功能也不相同:
一类是,同一标准分类对应的样本图像的背景不同。采用这样的样本图像训练深度学习网络时,可以使深度学习网络提取的外观特征不易受环境干扰,能有效区分真正的目标和背景,在提取目标的特征时能够排除背景的干扰。
二类是,同一标准分类对应的样本图像中的样本目标的姿态不同。采用这样的样本图像训练深度学习网络时,可以使深度学习网络提取的外观特征的鲁棒性更强,能有效地确定运动中的目标,即同一目标以不同姿势出现时,深度学习网络所提取的外观特征相差很小。
其中,上述姿态还包括样本目标被部分遮挡的情况。例如在行人行走过程中,可能出现被路边的建筑物遮挡住脚部或被其他行人遮挡住部分身体的情况。因此,在获得样本图像时,样本图像中样本目标可以是被部分遮挡的。采用这样的样本图像训练深度学习网络时,即便目标在运动过程中出现遮挡、交错等情况,深度学习网络也能够准确地提取出目标的外观特征。
三类是,同一标准分类对应的各个样本图像的亮度不同。同一目标在运动过程中,因光照强度变化会导致图像颜色出现轻微变化,采用上述样本图像训练深度学习网络时,可以使深度学习网络提取的外观特征不受光线变化影响,即在不同光照环境下对同一目标提取的外观特征相差很小。
而现有技术中,采用目标的颜色直方图作为外观特征。颜色直方图可能会将背景的颜色统计到目标的颜色直方图中,无法有效区分目标与背景;当图像的光照情况发生变化时,同一目标的颜色直方图会出现较大变化。由于颜色直方图的上述特点,导致其对目标的外观特征的描述能力很弱,在目标跟踪过程中可能会将不同的目标判断为相似,在多个运动目标之间出现遮挡、交错时,易导致跟踪错误。
本实施例采用上述几类样本图像训练深度学习网络时,深度学习网络提取的外观特征具有以下语义信息:不易受环境干扰,不易受目标的运动情况干扰,不易受环境光照强度干扰。因此,本实施例所提取的外观特征的鲁棒性更好,在确定跟踪目标时准确性更高。
下面通过一个具体实例介绍模型训练过程的参数设置。
本实施例获得了2165217个样本图像,这些样本图像中的样本目标为其中的37286个行人,平均每个行人对应58个样本图像。这些样本图像包含了同一行人在不同监控场景、不同姿态、不同光照等条件下的成像情况。不同样本图像的标准分类用不同的标签来表示。在具体实施时,可以将这些样本图像分成两个集合:训练集和验证集。从上述样本图像中针对每个行人抽取一个样本图像,即共抽取37286个样本图像组成验证集,剩下的2165217-37286=2127931个样本图像组成训练集。
训练集用来训练(调整)网络参数,在训练时会产生一个loss值(第一差异),即深度学习网络预测标签和真实标签的差异值,附着网络参数的不断调整,loss值会越来越小,逐渐趋近于0。验证集用来测试网络的准确率,测试时根据预测标签和真实标签的差异值,会产生一个准确率(accuracy)值,网络训练得逐渐成熟,该值也就越趋近于1。
在具体实施中,训练过程和测试过程可以交替进行。在训练和测试时,均可以将这些样本图像修改为224像素*224像素大小后,一一发送至深度学习网络GoogLeNet网络。该网络中pool5层核尺寸大小为7像素*7像素。该网络提取的外观特征的纬度为1024维。
本申请中,在判断深度学习网络是否训练完成时,可以通过判断是否满足以下训练停止条件中的至少一种:
一是,loss值小于阈值T1,如T1=0.1。其中,T1越小表示训练的网络越好,但网络训练次数很可能就会越多。
二是,accuracy值大于阈值T2,如T2=0.99。其中,T2越大表示训练的网络越好,但网络训练次数很可能就会越多。
三是,训练次数大于阈值T3,如T3=100万次。
在具体实施时,可以灵活选用上述3种条件。
图2b所示为训练阶段的损失(loss值)函数曲线和准确率(accuracy)函数曲线,图中的横坐标为训练的循环次数,纵坐标分别为对数损失(log loss)值和准确率值。从图中可以看出,当训练的循环次数逐渐增大直至超过一定阈值时,损失函数趋近于0,准确率函数趋近于1。
在训练完成后,从当前帧图像中确定各个备选目标之后,可以将各个备选目标缩放至224像素*224像素大小,将缩放后的备选目标发送至深度学习网络,深度学习网络可以得到每个备选目标的1024维的外观特征。
基于图1所示实施例的一种具体实施方式中,步骤S106,即根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,可以按照图3所示流程示意图进行,具体包括步骤S106A~S106B:
步骤S106A:根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度。
具体的,在确定相似度时,可以采用余弦相似度函数来确定。例如,cosine(X,Y)表示求第一外观特征X与第二外观特征Y之间的相似度。在确定相似度时,也可以采用其他相似度函数确定,例如欧几里德距离(Euclidean Distance)等。
步骤S106B:根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
具体的,在根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配时,可以判断确定的相似度是否大于预设相似度阈值,如果大于,则确定匹配成功。也可以是,根据匈牙利算法和确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。当然,还可以采用其他的方法对备选目标和第一跟踪目标进行匹配,本实施例对具体的匹配方法不做限定。
为了进一步提高所确定的备选目标与跟踪目标之间的相似度的准确性,在一种具体实施方式中,步骤S106A,即根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,具体可以按照图3a所示的流程示意图进行,具体包括步骤S301a~步骤S305a:
步骤S301a:根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵。
需要说明的是,当备选目标的数量和第一跟踪目标的数量较多时,为了便于计算,在确定相似度时可以将各个备选目标与每一个第一跟踪目标之间的相似度用相似矩阵表示。例如,当备选目标的数量为10,第一跟踪目标的数量为6时,所确定的第一相似矩阵即为6*10阶的矩阵,矩阵中的每个元素即为相似度。
作为一种具体的实施方式,根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵时,可以包括:
按照以下公式,确定备选目标detj与第一跟踪目标trki之间的第一相似矩阵:
其中,affapp(trki,detj)表示确定的i*j阶的第一相似度矩阵,表示第i个第一跟踪目标的外观特征,表示第j个备选目标的外观特征,i遍历所有的第一跟踪目标,j遍历所有的备选目标。cosine(X,Y)表示求特征X与特征Y之间的余弦相似度。
步骤S302a:获得各个备选目标的第一位置特征。
其中,上述位置特征可以采用直角坐标(x,y)表示,也可以采用极坐标(x,θ)表示。由于确定的备选目标通常为图像区域,而在获得备选目标的位置特征时,可以采用备选目标中心点的位置特征表示备选目标的位置特征,当然,也可以采用备选目标对角顶点的位置特征表示备选目标的位置特征。
步骤S303a:获得保存的各个第一跟踪目标的第二位置特征。
由于上一帧图像经过了与当前帧图像完全相同的处理过程,因此上述第二位置特征可以是从上一帧图像得到并保存的信息中获得的。
步骤S304a:根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵。
作为一种具体的实施方式,根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵时,可以包括:
按照以下公式,确定备选目标detj与第一跟踪目标trki之间的第二相似矩阵:
其中,affmot(trki,detj)表示确定的i*j阶的第二相似度矩阵,表示第i个第一跟踪目标的中心点的x轴坐标,表示第j个备选目标的中心点的x轴坐标,表示第i个第一跟踪目标的中心点的y轴坐标,表示第j个备选目标的中心点的y轴坐标,i遍历所有的第一跟踪目标,j遍历所有的备选目标。ω1,α,β为常数。在本实施例中,上述常数可以取以下数值:ω1=0.5,α=1600,β=1600。
需要说明的是,第二相似矩阵中的每个元素均表示一个备选目标与一个第一跟踪目标之间的位置相似度。
步骤S305a:根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
具体的,在本实施例中,可以按照以下公式,确定各个备选目标与每一个第一跟踪目标之间的相似度:
affinity(trki,detj)1=affapp(trki,detj)*affmot(trki,detj)T
其中,affinity(trki,detj)1矩阵中的每个元素均表示确定的相似度,affinity(trki,detj)1为i*j阶矩阵,affapp(trki,detj)表示第一相似矩阵,affmot(trki,detj)表示第二相似矩阵。
可见,在本实施例中,确定的相似度为外观特征和位置特征的融合。也就是说,本实施例根据融合后的相似度,将各个备选目标与每一个第一跟踪目标进行匹配,由于融合了外观特征和位置特征的相似度能提高相似度的准确性,因此本实施例可以提高匹配过程的准确性。
在上述实施例的基础上,在步骤S107之后,即在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还可以包括以下步骤1~步骤2:
步骤1:根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征。
具体的,在确定第一预测位置特征时,可以根据卡尔曼滤波算法以及匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在当前帧图像中的第一预测位置特征。其中,第一预测位置特征可以理解为根据卡尔曼滤波算法预测出的匹配成功的第一跟踪目标在当前帧图像中的可能位置特征。
需要说明的是,在确定当前帧图像中跟踪目标的位置特征时,对应的备选目标的位置特征可能存在偏差。为了减小这种偏差,可以先预测出对应的第一跟踪目标在当前帧图像中的位置特征,然后结合预测的位置特征和对应的备选目标的位置特征,确定当前帧图像中跟踪目标的位置特征。
步骤2:根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
具体的,在确定当前帧图像的跟踪目标的位置特征时,可以将上述第一位置特征和第一预测位置特征的平均值,确定为当前帧图像的跟踪目标的位置特征。也可以将上述第一位置特征和第一预测位置特征加权后的平均值,确定为当前帧图像的跟踪目标的位置特征。上述实施方式都是可行的。
在确定当前帧图像跟踪目标的位置特征之后,还可以保存该位置特征。这样,在对下一图像进行处理时,便可以直接从保存的信息中获得位置特征。
可见,本实施例可以根据第一位置特征和第一预测位置特征确定当前帧图像中跟踪目标的位置特征,从而减小所确定的位置特征的偏差,提高信息准确性。
为了进一步提高所确定的备选目标与跟踪目标之间的相似度的准确性,在一种具体实施方式中,步骤S106A,即根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,具体可以按照图3b所示流程示意图进行,包括以下步骤S301b~步骤S305b:
步骤S301b:根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵。
在本实施例中,步骤S301b与图3a中的步骤S301a完全相同,具体内容可以参照前文,此处不再赘述。
步骤S302b:获得各个备选目标的第一形状特征。
其中,上述形状特征可以采用(宽度,高度)表示,进一步的,可以采用像素数量表示宽度值和高度值。例如,一个备选目标的第一形状特征为(5像素,9像素),即表示该备选目标的高度为9像素,宽度为5像素。
步骤S303b:获得保存的各个第一跟踪目标的第二形状特征。
由于上一帧图像经过了与当前帧图像完全相同的处理过程,因此上述第二形状特征可以是从上一帧图像得到并保存的信息中获得的。
步骤S304b:根据上述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵。
作为一种具体的实施方式,当第一形状特征和第二形状特征均由高度值和宽度值表示时,根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵时,可以包括:
按照以下公式,确定备选目标detj与第一跟踪目标trki之间的第三相似矩阵:
其中,affshp(trki,detj)表示确定的第三相似矩阵,表示第i个第一跟踪目标的高度值,表示第j个备选目标的高度值,表示第i个第一跟踪目标的宽度值,表示第j个备选目标的宽度值,i遍历所有的第一跟踪目标,j遍历所有的备选目标,ω2为常数。在本实施例中,ω2可以取1.5。
需要说明的是,第三相似矩阵中的每个元素均表示一个备选目标与一个第一跟踪目标之间的形状相似度。
步骤S305b:将上述第一相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
具体的,在本实施例中,可以按照以下公式,确定各个备选目标与每一个第一跟踪目标之间的相似度:
affinity(trki,detj)2=affapp(trki,detj)*affshp(trki,detj)T
其中,affinity(trki,detj)2矩阵中的每个元素均表示确定的相似度,affinity(trki,detj)2为i*j阶矩阵,affapp(trki,detj)表示第一相似矩阵,affshp(trki,detj)表示第三相似矩阵。
可见,在本实施例中,确定的相似度为外观特征和形状特征的融合。也就是说,本实施例根据融合后的相似度,将各个备选目标与每一个第一跟踪目标进行匹配,由于融合了外观特征和形状特征的相似度能提高相似度的准确性,因此本实施例可以提高匹配过程的准确性。
在上述实施例中,在确定备选目标与第一跟踪目标之间的相似度时,第一种实施例中只根据外观特征确定上述相似度,第二种实施例中结合了外观特征和位置特征来确定上述相似度,第三种实施例中结合了外观特征和形状特征确定上述相似度。另外,还可以同时结合外观特征、位置特征和形状特征确定上述相似度。
为了进一步提高所确定的备选目标与跟踪目标之间的相似度的准确性,作为一种具体的实施方式,步骤S106A,即根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,具体可以按照图3c所示的流程示意图进行,具体包括以下步骤S301c~S305c:
步骤S301c:根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵。
步骤S302c:获得各个备选目标的第一位置特征。
步骤S303c:获得保存的各个第一跟踪目标的第二位置特征。
步骤S304c:根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵。
在本实施例中,上述步骤S301c~步骤S304c分别与图3a中的步骤S301a~步骤S304a相同,相关内容可以相互参照,此处不再赘述。
步骤S305c:获得各个备选目标的第一形状特征。
步骤S306c:获得保存的各个第一跟踪目标的第二形状特征。
步骤S307c:根据上述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵。
在本实施例中,上述步骤S305c~步骤S307c分别与图3b中的步骤S302b~步骤S304b相同,相关内容可以相互参照,此处不再赘述。
步骤S305c:将上述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
具体的,在本实施例中,可以按照以下公式,确定各个备选目标与每一个第一跟踪目标之间的相似度:
affinity(trki,detj)
=affapp(trki,detj)*affmot(trki,detj)T*affshp(trki,detj)
其中,affinity(trki,detj)矩阵中的每个元素均表示确定的相似度,且affinity(trki,detj)为i*j阶矩阵,affapp(trki,detj)表示第一相似矩阵,affmot(trki,detj)表示第二相似矩阵,affshp(trki,detj),表示第三相似矩阵。
可见,在本实施例中,确定的相似度为外观特征、位置特征和形状特征的融合。也就是说,本实施例根据融合后的相似度,将各个备选目标与每一个第一跟踪目标进行匹配,由于融合了外观特征、位置特征和形状特征的相似度能提高相似度的准确性,因此本实施例可以提高匹配过程的准确性。
为了方便获取与跟踪目标相关的信息,在步骤S107之后,即在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还可以包括:直接将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度。由于上一帧图像经过了与当前帧图像完全相同的处理过程,因此上一帧图像中的各个第一跟踪目标也存在对应的置信度,在获得上一帧图像对应的置信度时可以直接从保存的信息中获得。
在基于图3所示实施例的另一实施方式中,步骤S106B,根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,具体可以包括以下步骤1~步骤4:
步骤1:获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度。
具体的,上一帧图像对应的各个第一跟踪目标的第二置信度的获得过程与当前帧图像的相同,因此,可以直接从保存的信息中获得各个第二置信度。
步骤2:将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标。
其中,预设置信度阈值可以是预设值,例如取0.5。由于各个第一跟踪目标的置信度不同,因此在匹配时,可以先将第一跟踪目标划分成高置信度跟踪目标和低置信度跟踪目标,然后将高置信度跟踪目标与低置信度跟踪目标分别与不同的备选目标进行匹配,以便优先匹配高置信度跟踪目标,提高匹配过程的准确性。
步骤3:根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配。
具体的,在匹配时,可以根据预设的匹配算法和确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配。匹配算法可以包括匈牙利算法等。
步骤4:根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配。
具体的,在匹配时,可以根据预设的匹配算法和确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配。匹配算法可以包括匈牙利算法等。
在本实施例中,步骤S107,即根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,具体包括:将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
例如,已知备选目标为[a,b,c,d,e,f,g,h],将第一跟踪目标[A,B,C,D,E,F,G]划分为高置信度跟踪目标[A,B,C,D]和低置信度跟踪目标[E,F,G],在第一次匹配时,将各个备选目标为[a,b,c,d,e,f,g,h]与每一个高置信度跟踪目标[A,B,C,D]进行匹配,假设匹配成功的为A-b,B-c,C-f,D-g。在第二次匹配时,将匹配失败的各个备选目标为[a,d,e,h]与每一个低置信度跟踪目标[E,F,G]进行匹配,假设匹配成功的为E-a,F-e。根据两次匹配的结果,可以将匹配成功的A-b,B-c,C-f,D-g和E-a,F-e均确定为当前帧图像的跟踪目标。
可见,本实施例中的上述两次匹配过程对通常的匹配过程进行了优化,优先匹配高置信度跟踪目标与备选目标,然后再将低置信度跟踪目标与匹配失败的备选目标进行匹配,减少错误匹配的情况,提高匹配准确性。
在基于图3所示实施例的另一实施方式中,步骤S107,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,具体可以包括:将匹配成功的备选目标对应的相似度确定为第一相似度,将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
其中,预设相似度阈值τc可以是预设值,例如取0.2。
可以理解的是,本实施例可以在图3所示实施例的基础上对匹配结果进行进一步的筛选,从而可以提高所确定的跟踪目标的准确性。
由于在匹配失败的第一跟踪目标中可能还存在真正的跟踪目标,只是这些跟踪目标没有出现在当前帧图像中(可能暂时被完全遮挡住了),或者在匹配过程中这部分跟踪目标并没有准确地匹配成功。因此,本实施例还可以进一步从匹配失败的第一跟踪目标中确定当前帧图像的跟踪目标。
在基于图3所示实施例的另一实施方式中,步骤S107,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,具体可以包括以下步骤1~步骤3:
步骤1:获得匹配失败的第一跟踪目标的第一失败次数。
具体的,在获得第一失败次数时,可以包括:获得第二跟踪目标,所述第二跟踪目标为上一帧图像的前一图像对应的匹配失败的跟踪目标;将各个第二跟踪目标与每一个子跟踪目标进行匹配,获得匹配成功的第一子跟踪目标和匹配失败的第二子跟踪目标,其中,子跟踪目标为匹配失败的第一跟踪目标;将匹配成功的第二跟踪目标的失败次数与预设N值的和,确定为第一子跟踪目标的第一失败次数,将预设第一初始值确定为第二子跟踪目标的第一失败次数。其中,N可以取整数,例如1或其他值。预设第一初始值可以取0或1或其他值。
更具体的,将各个第二跟踪目标与每一个子跟踪目标进行匹配时,可以根据第二跟踪目标的位置和子跟踪目标的位置关系进行匹配。作为一种具体实施例,可以包括:计算各个第二跟踪目标的中心点与每一个子跟踪目标的中心点在平面上的距离,判断该距离是否小于预设距离阈值,如果是,则确定该距离对应的第二跟踪目标与子跟踪目标相匹配。也可以是,获得各个第二跟踪目标和子跟踪目标的面积,计算各个第二跟踪目标的面积与每一个子跟踪目标的面积在平面上的重合面积,计算该重合面积与对应的第二跟踪目标的面积的比例,判断该比例是否大于预设比例阈值,如果是,则确定该比例对应的第二跟踪目标与子跟踪目标相匹配。
步骤2:判断所述第一失败次数是否小于预设第一次数阈值,如果小于,则执行步骤3,如果大于,则删除匹配失败的第一跟踪目标。
其中,预设第一次数阈值可以为50或其他值。
步骤3:将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
可见,本实施例可以从匹配失败的第一跟踪目标中筛选出失败次数小于预设第一次数阈值的跟踪目标,将该跟踪目标连同匹配成功的备选目标均确定为当前帧图像的跟踪目标,因此可以避免漏掉真正的跟踪目标,提高所确定的跟踪目标的准确性。
由于在匹配失败的备选目标中可能还存在新的跟踪目标,只是这些跟踪目标还没有出现在当前帧图像之前的图像中(或者仅仅出现了少数的几次),或者在匹配过程中这部分备选目标并没有准确地匹配成功。因此,本实施例还可以进一步从匹配失败的备选目标中确定当前帧图像的跟踪目标。
在基于图3所示实施例的另一实施方式中,步骤S107,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,具体可以包括以下步骤1~步骤3:
步骤1:获得匹配失败的备选目标的第二失败次数。
具体的,在获得第二失败次数时,可以包括:获得上一帧图像对应的匹配失败的第一备选目标;将各个第一备选目标与每一个子备选目标进行匹配,获得匹配成功的第一子备选目标和匹配失败的第二子备选目标,其中,子备选目标为匹配失败的备选目标;将匹配成功的第一备选目标的失败次数与预设M值的和,确定为第一子备选目标的第二失败次数,将预设第二初始值确定为第二子备选目标的第二失败次数。其中,M可以取整数,例如1或其他值。预设第二初始值可以取0或1或其他值。
更具体的,将各个第一备选目标与每一个子备选目标进行匹配时,可以根据第一备选目标的位置和子备选目标的位置关系进行匹配。作为一种具体实施例,可以包括:计算各个第一备选目标的中心点与每一个子备选目标的中心点在平面上的距离,判断该距离是否小于预设距离阈值,如果是,则确定该距离对应的第一备选目标与子备选目标相匹配。也可以是,获得各个第一备选目标和子备选目标的面积,计算各个第一备选目标的面积与每一个子备选目标的面积在平面上的重合面积,计算该重合面积与对应的第一备选目标的面积的比例,判断该比例是否大于预设比例阈值,如果是,则确定该比例对应的第一备选目标与子备选目标相匹配。
步骤2:判断所述第二失败次数是否大于预设第二次数阈值,如果大于,则执行步骤3,如果小于,则删除匹配失败的备选目标。
其中,预设第二次数阈值可以为7或其他值。
步骤3:将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
可见,本实施例可以从匹配失败的备选目标中筛选出失败次数大于预设第一次数阈值的备选目标,将该备选目标连同匹配成功的备选目标均确定为当前帧图像的跟踪目标,因此可以避免漏掉真正的跟踪目标,提高所确定的跟踪目标的准确性。
在基于图3所示实施例的另一实施方式中,步骤S107,根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,具体可以包括:判断匹配成功的备选目标的位置是否位于当前帧图像的预设区域内;如果是,则将匹配成功的备选目标确定为当前帧图像的跟踪目标,如果否,则删除匹配成功的备选目标。
其中,预设区域用于表示当前帧图像的内部区域。可以理解的是,当备选目标位于预设区域之外时,认为该备选目标位于当前帧图像的边界之外,位于边界之外的目标是不可能作为跟踪目标的,因此可以删除该备选目标。
下面通过具体的算法流程对本申请实施例进行详细说明。
当前帧图像采用第t帧图像表示,上一帧图像采用第t-1帧图像表示。当前帧图像中检测得到的备选目标采用Dt表示,上一帧图像的第一跟踪目标采用Tt-1表示。从当前帧图像中确定的跟踪目标采用Tt表示。下面步骤列出了从当前帧图像中确定跟踪目标的算法流程。
步骤1:确定第t帧图像中的备选目标Dt。
步骤2:将各个备选目标发送至深度学习网络,获得深度学习网络提取的各个备选目标的第一外观特征。
步骤3:获得各个备选目标的第一位置特征和第一形状特征。
步骤4:获得保存的第t-1帧图像中第一跟踪目标Tt-1的第二外观特征、第二位置特征和第二形状特征。
步骤5:根据第一外观特征和第二外观特征,计算备选目标和第一跟踪目标之间的第一相似矩阵affapp(Tt-1,Dt);根据第一位置特征和第二位置特征,计算备选目标和第一跟踪目标之间的第二相似矩阵affmot(Tt-1,Dt);根据第一形状特征和第二形状特征,计算备选目标和第一跟踪目标之间的第三相似矩阵affshp(Tt-1,Dt)。
步骤6:根据获得的第一相似矩阵、第二相似矩阵和第三相似矩阵,计算相似度At-1=Affinity(Tt-1,Dt)=affapp(trki,detj)*affmot(trki,detj)T*affshp(trki,detj)。
步骤7:根据预设置信度阈值τc,将第一跟踪目标Tt-1分为高置信度跟踪目标和低置信度跟踪目标
步骤8:利用相似度At-1,使用匈牙利算法进行和Dt的第一次匹配,将和Dt中匹配失败的备选目标进行第二次匹配。
步骤9:根据上述两次匹配结果中匹配成功的备选目标的相似度,将大于预设相似度阈值τd的相似度对应的第一跟踪目标和备选目标分别记为和将匹配失败的第一跟踪目标和备选目标分别记为和
步骤10:将确定为第t帧图像的跟踪目标。
步骤11:在匹配失败的第一跟踪目标中,将小于τm的第一跟踪目标也确定为第t帧图像的跟踪目标。
步骤12:在匹配失败的备选目标中,将连续匹配失败次数大于τn的备选目标初始化为第t帧图像的跟踪目标。
合并上述步骤10~步骤12得到的第t帧图像的跟踪目标,得到最终的第t帧图像的跟踪目标。
可见,本实施例采用深度学习网络提取各个备选目标的外观特征,根据上述外观特征确定当前帧图像的跟踪目标,由于上述外观特征包含像素的位置信息等特征,而现有技术中常采用的颜色直方图描述的是不同像素在整个图像中所占的比例,颜色直方图不具有像素的位置信息。因此,本实施例提供的方案中的外观特征比现有技术中的外观特征对图像的描述能力更强,采用本实施例提供的方案进行跟踪目标的确定,能够提高所确定的跟踪目标的准确性。
图4为本申请实施例提供的跟踪目标的确定装置的一种结构示意图,应用于电子设备,与图1所示方法实施例相对应,所述装置包括:
当前帧图像获得模块401,用于获得待确定跟踪目标的当前帧图像;
备选目标确定模块402,用于确定所述当前帧图像中的备选目标;
备选目标发送模块403,用于将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;
第一特征获得模块404,用于获得所述深度学习网络提取的各个备选目标的第一外观特征;
第二特征获得模块405,用于获得上一帧图像对应的第一跟踪目标的第二外观特征;
备选目标匹配模块406,用于根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;
跟踪目标确定模块407,用于根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
基于图4所示实施例的一种具体实施方式中,所述装置还可以包括学习网络获得模块(图中未示出),用于获得所述深度学习网络;
所述学习网络获得模块,包括:
样本获得子模块(图中未示出),用于获得所述样本图像以及所述样本图像中包括的样本目标的标准分类,其中,不同标准分类对应的样本图像中相同像素的位置不同;
特征提取子模块(图中未示出),用于根据深度学习参数提取所述样本图像的样本外观特征;
分类确定子模块(图中未示出),用于根据所述样本外观特征确定所述样本目标的分类;
差异判断子模块(图中未示出),用于确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值;
参数调整子模块(图中未示出),用于当所述第一差异不小于预设阈值时,根据所述第一差异调整所述深度学习参数,触发所述特征提取子模块。
基于图4所示实施例的一种具体实施方式中,所述学习网络获得模块还可以包括:
特征获得子模块(图中未示出),用于获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个;
样本判断子模块(图中未示出),用于判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同;
第二差异确定子模块(图中未示出),用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,触发所述特征提取子模块。
第三差异确定子模块(图中未示出),用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类不相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,触发所述特征提取子模块。
基于图4所示实施例的一种具体实施方式中,所述备选目标匹配模块406可以包括:
相似度确定子模块(图中未示出),用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度;
备选目标匹配子模块(图中未示出),用于根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
基于图4所示实施例的一种具体实施方式中,所述相似度确定子模块,包括:
第一矩阵确定单元(图中未示出),用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一位置获得单元(图中未示出),用于获得各个备选目标的第一位置特征;
第二位置获得单元(图中未示出),用于获得保存的各个第一跟踪目标的第二位置特征;
第二矩阵确定单元(图中未示出),用于根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵;
第一相似度确定单元(图中未示出),用于根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
基于图4所示实施例的一种具体实施方式中,所述装置还可以包括:
预测位置确定模块(图中未示出),用于根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征;
目标位置保存模块(图中未示出),用于根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
基于图4所示实施例的一种具体实施方式中,相似度确定子模块可以包括:
第一矩阵确定单元(图中未示出),用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一形状获得单元(图中未示出),用于获得各个备选目标的第一形状特征;
第二形状获得单元(图中未示出),用于获得保存的各个第一跟踪目标的第二形状特征;
第三矩阵确定单元(图中未示出),用于根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
第二相似度确定单元(图中未示出),用于将所述第一相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
基于图4所示实施例的一种具体实施方式中,所述第一相似度确定单元,具体可以用于:
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
基于图4所示实施例的一种具体实施方式中,所述装置还可以包括:
置信度确定模块(图中未示出),用于将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度;
所述备选目标匹配子模块,包括:
置信度获得单元(图中未示出),用于获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度;
置信度分类单元(图中未示出),用于将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标;
第一次匹配单元(图中未示出),用于根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配;
第二次匹配单元(图中未示出),用于根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配;
所述跟踪目标确定模块407,具体可以用于:
将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
基于图4所示实施例的一种具体实施方式中,所述跟踪目标确定模块407具体可以用于:
将匹配成功的备选目标对应的相似度确定为第一相似度;
将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
基于图4所示实施例的一种具体实施方式中,所述跟踪目标确定模块407可以包括以下子模块(图中未示出):
第一获得子模块,用于获得匹配失败的第一跟踪目标的第一失败次数;
第一判断子模块,用于判断所述第一失败次数是否小于预设第一次数阈值;
第一确定子模块,用于当所述第一失败次数小于预设第一次数阈值时,将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
基于图4所示实施例的一种具体实施方式中,所述跟踪目标确定模块407可以包括以下子模块(图中未示出):
第二获得子模块,用于获得匹配失败的备选目标的第二失败次数;
第二判断子模块,用于判断所述第二失败次数是否大于预设第二次数阈值;
第二确定子模块,用于当所述第二失败次数大于预设第二次数阈值时,将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
由于上述装置实施例是基于方法实施例得到的,与该方法具有相同的技术效果,因此装置实施例的技术效果在此不再赘述。对于装置实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。
以上所述仅为本申请的较佳实施例而已,并非用于限定本申请的保护范围。凡在本申请的精神和原则之内所做的任何修改、等同替换、改进等,均包含在本申请的保护范围内。
Claims (25)
1.一种跟踪目标的确定方法,其特征在于,所述方法包括:
获得待确定跟踪目标的当前帧图像;
确定所述当前帧图像中的备选目标;
将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;
获得所述深度学习网络提取的各个备选目标的第一外观特征;
获得上一帧图像对应的第一跟踪目标的第二外观特征;
根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;
根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
2.根据权利要求1所述的方法,其特征在于,所述深度学习网络采用以下方式获得:
获得所述样本图像以及所述样本图像中包括的样本目标的标准分类,其中,不同标准分类对应的样本图像中相同像素的位置不同;
根据深度学习参数提取所述样本图像的样本外观特征;
根据所述样本外观特征确定所述样本目标的分类;
确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值;
如果否,则根据所述第一差异调整所述深度学习参数,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
在提取所述样本图像的样本外观特征之后,获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个;
判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同;
如果相同,则确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,以使同一标准分类的样本图像的样本外观特征之间的差异减小,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤;
如果不相同,则确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,以使不同标准分类的样本图像的样本外观特征之间的差异增大,返回执行所述根据深度学习参数提取所述样本图像的样本外观特征的步骤。
4.根据权利要求2或3任一项所述的方法,其特征在于,同一标准分类对应的样本图像的背景不同;和/或,同一标准分类对应的样本图像中的样本目标的姿态不同;和/或,同一标准分类对应的各个样本图像的亮度不同。
5.根据权利要求1所述的方法,其特征在于,所述根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度;
根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
6.根据权利要求5所述的方法,其特征在于,所述根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
获得各个备选目标的第一位置特征;
获得保存的各个第一跟踪目标的第二位置特征;
根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵;
根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
7.根据权利要求6所述的方法,其特征在于,在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还包括:
根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征;
根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
8.根据权利要求5所述的方法,其特征在于,所述根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
9.根据权利要求6所述的方法,其特征在于,所述根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度的步骤,包括:
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
10.根据权利要求5所述的方法,其特征在于,在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,所述方法还包括:
将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度;
所述根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配的步骤,包括:
获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度;
将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标;
根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配;
根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配;
所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
11.根据权利要求5~10任一项所述的方法,其特征在于,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
将匹配成功的备选目标对应的相似度确定为第一相似度;
将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
12.根据权利要求5~10任一项所述的方法,其特征在于,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
获得匹配失败的第一跟踪目标的第一失败次数;
判断所述第一失败次数是否小于预设第一次数阈值;
如果小于,则将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
13.根据权利要求5~10任一项所述的方法,其特征在于,所述根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标的步骤,包括:
获得匹配失败的备选目标的第二失败次数;
判断所述第二失败次数是否大于预设第二次数阈值;
如果大于,则将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
14.一种跟踪目标的确定装置,其特征在于,所述装置包括:
当前帧图像获得模块,用于获得待确定跟踪目标的当前帧图像;
备选目标确定模块,用于确定所述当前帧图像中的备选目标;
备选目标发送模块,用于将各个备选目标发送至预设的深度学习网络,其中,所述深度学习网络预先通过对样本图像进行训练获得,所述深度学习网络用于提取包含像素的位置信息的外观特征;
第一特征获得模块,用于获得所述深度学习网络提取的各个备选目标的第一外观特征;
第二特征获得模块,用于获得上一帧图像对应的第一跟踪目标的第二外观特征;
备选目标匹配模块,用于根据所述第一外观特征和第二外观特征,将各个备选目标与每一个第一跟踪目标进行匹配;
跟踪目标确定模块,用于根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标。
15.根据权利要求14所述的装置,其特征在于,所述装置还包括学习网络获得模块,用于获得所述深度学习网络;
所述学习网络获得模块,包括:
样本获得子模块,用于获得所述样本图像以及所述样本图像中包括的样本目标的标准分类,其中,不同标准分类对应的样本图像中相同像素的位置不同;
特征提取子模块,用于根据深度学习参数提取所述样本图像的样本外观特征;
分类确定子模块,用于根据所述样本外观特征确定所述样本目标的分类;
差异判断子模块,用于确定所述样本目标的分类与所述标准分类之间的第一差异,判断所述第一差异是否小于预设阈值;
参数调整子模块,用于当所述第一差异不小于预设阈值时,根据所述第一差异调整所述深度学习参数,触发所述特征提取子模块。
16.根据权利要求15所述的装置,其特征在于,所述学习网络获得模块还包括:
特征获得子模块,用于在提取所述样本图像的样本外观特征之后,获得当前样本图像的第一样本外观特征,获得上一样本图像的第二样本外观特征,其中,所述当前样本图像为所述样本图像中的一个;
样本判断子模块,用于判断所述当前样本图像的标准分类和所述上一样本图像的标准分类是否相同;
第二差异确定子模块,用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第二差异,并根据所述第二差异调整所述深度学习参数,以使同一标准分类的样本图像的样本外观特征之间的差异减小,触发所述特征提取子模块;
第三差异确定子模块,用于当所述当前样本图像的标准分类和所述上一样本图像的标准分类不相同时,确定所述第一样本外观特征与所述第二样本外观特征之间的第三差异,并根据所述第三差异调整所述深度学习参数,以使不同标准分类的样本图像的样本外观特征之间的差异增大,触发所述特征提取子模块。
17.根据权利要求14所述的装置,其特征在于,所述备选目标匹配模块,包括:
相似度确定子模块,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的相似度;
备选目标匹配子模块,用于根据确定的相似度,将各个备选目标与每一个第一跟踪目标进行匹配。
18.根据权利要求17所述的装置,其特征在于,所述相似度确定子模块,包括:
第一矩阵确定单元,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一位置获得单元,用于获得各个备选目标的第一位置特征;
第二位置获得单元,用于获得保存的各个第一跟踪目标的第二位置特征;
第二矩阵确定单元,用于根据所述第一位置特征和第二位置特征,确定各个备选目标与每一个第一跟踪目标之间的第二相似矩阵;
第一相似度确定单元,用于根据所述第一相似矩阵与第二相似矩阵的乘积,确定各个备选目标与每一个第一跟踪目标之间的相似度。
19.根据权利要求18所述的装置,其特征在于,所述装置还包括:
预测位置确定模块,用于在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,根据匹配成功的第一跟踪目标的第二位置特征,确定匹配成功的第一跟踪目标在所述当前帧图像中的第一预测位置特征;
目标位置保存模块,用于根据匹配成功的备选目标的第一位置特征和所述第一预测位置特征,确定所述当前帧图像的跟踪目标的位置特征,并保存所确定的位置特征。
20.根据权利要求17所述的装置,其特征在于,所述相似度确定子模块,包括:
第一矩阵确定单元,用于根据所述第一外观特征和第二外观特征,确定各个备选目标与每一个第一跟踪目标之间的第一相似矩阵;
第一形状获得单元,用于获得各个备选目标的第一形状特征;
第二形状获得单元,用于获得保存的各个第一跟踪目标的第二形状特征;
第三矩阵确定单元,用于根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
第二相似度确定单元,用于将所述第一相似矩阵与第三相似矩阵的乘积确定为各个备选目标与每一个第一跟踪目标之间的相似度。
21.根据权利要求18所述的装置,其特征在于,所述第一相似度确定单元,具体用于:
获得各个备选目标的第一形状特征;
获得保存的各个第一跟踪目标的第二形状特征;
根据所述第一形状特征和第二形状特征,确定各个备选目标与每一个第一跟踪目标之间的第三相似矩阵;
将所述第一相似矩阵、第二相似矩阵与第三相似矩阵的乘积,确定为各个备选目标与每一个第一跟踪目标之间的相似度。
22.根据权利要求17所述的装置,其特征在于,所述装置还包括:
置信度确定模块,用于在根据匹配成功的备选目标,确定所述当前帧图像的跟踪目标之后,将匹配成功的备选目标对应的相似度确定为所述当前帧图像的跟踪目标的第一置信度,并保存所述第一置信度;
所述备选目标匹配子模块,包括:
置信度获得单元,用于获得保存的上一帧图像对应的各个第一跟踪目标的第二置信度;
置信度分类单元,用于将大于预设置信度阈值的第二置信度对应的第一跟踪目标确定为高置信度跟踪目标,将所述第一跟踪目标中除所述高置信度跟踪目标之外的跟踪目标确定为低置信度跟踪目标;
第一次匹配单元,用于根据确定的相似度,将各个备选目标与每一个高置信度跟踪目标进行第一次匹配;
第二次匹配单元,用于根据确定的相似度,将各个匹配失败的备选目标与每一个低置信度跟踪目标进行第二次匹配;
所述跟踪目标确定模块,具体用于:
将第一次匹配成功的备选目标和第二次匹配成功的备选目标,均确定为所述当前帧图像的跟踪目标。
23.根据权利要求17~22任一项所述的装置,其特征在于,所述跟踪目标确定模块,具体用于:
将匹配成功的备选目标对应的相似度确定为第一相似度;
将大于预设相似度阈值的第一相似度对应的备选目标确定为所述当前帧图像的跟踪目标。
24.根据权利要求17~22任一项所述的装置,其特征在于,所述跟踪目标确定模块,包括:
第一获得子模块,用于获得匹配失败的第一跟踪目标的第一失败次数;
第一判断子模块,用于判断所述第一失败次数是否小于预设第一次数阈值;
第一确定子模块,用于当所述第一失败次数小于预设第一次数阈值时,将匹配失败的第一跟踪目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
25.根据权利要求17~22任一项所述的装置,其特征在于,所述跟踪目标确定模块,包括:
第二获得子模块,用于获得匹配失败的备选目标的第二失败次数;
第二判断子模块,用于判断所述第二失败次数是否大于预设第二次数阈值;
第二确定子模块,用于当所述第二失败次数大于预设第二次数阈值时,将匹配失败的备选目标和匹配成功的备选目标均确定为所述当前帧图像的跟踪目标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710303988.2A CN108805900B (zh) | 2017-05-03 | 2017-05-03 | 一种跟踪目标的确定方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710303988.2A CN108805900B (zh) | 2017-05-03 | 2017-05-03 | 一种跟踪目标的确定方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108805900A true CN108805900A (zh) | 2018-11-13 |
CN108805900B CN108805900B (zh) | 2021-04-16 |
Family
ID=64054143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710303988.2A Active CN108805900B (zh) | 2017-05-03 | 2017-05-03 | 一种跟踪目标的确定方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108805900B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109902610A (zh) * | 2019-02-22 | 2019-06-18 | 杭州飞步科技有限公司 | 交通标志识别方法和装置 |
CN110163068A (zh) * | 2018-12-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 目标对象跟踪方法、装置、存储介质和计算机设备 |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
CN110516734A (zh) * | 2019-08-23 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种图像匹配方法、装置、设备及存储介质 |
CN110633625A (zh) * | 2019-07-31 | 2019-12-31 | 北京木牛领航科技有限公司 | 识别方法和系统 |
CN111310526A (zh) * | 2018-12-12 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 目标跟踪模型的参数确定方法、装置及存储介质 |
CN111383246A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
CN111524161A (zh) * | 2019-02-01 | 2020-08-11 | 杭州海康威视数字技术股份有限公司 | 提取轨迹的方法和装置 |
CN111862624A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN112200126A (zh) * | 2020-10-26 | 2021-01-08 | 上海盛奕数字科技有限公司 | 一种基于人工智能跑步肢体遮挡姿态识别方法 |
CN113344978A (zh) * | 2021-06-29 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种目标跟踪方法、装置和用于目标跟踪的装置 |
CN114972814A (zh) * | 2022-07-11 | 2022-08-30 | 浙江大华技术股份有限公司 | 一种目标匹配的方法、装置及存储介质 |
WO2023093086A1 (zh) * | 2021-11-26 | 2023-06-01 | 上海商汤智能科技有限公司 | 目标跟踪及相关模型的训练方法、装置、设备、介质、计算机程序产品 |
CN116258984A (zh) * | 2023-05-11 | 2023-06-13 | 中航信移动科技有限公司 | 一种物体识别的系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577006A (zh) * | 2009-06-15 | 2009-11-11 | 北京中星微电子有限公司 | 视频监控中的徘徊检测方法和系统 |
CN105844634A (zh) * | 2016-03-18 | 2016-08-10 | 阜阳师范学院 | 一种多运动目标视频监控系统及其追踪监测方法 |
CN105976400A (zh) * | 2016-05-10 | 2016-09-28 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
CN106373145A (zh) * | 2016-08-30 | 2017-02-01 | 上海交通大学 | 基于跟踪片段置信度和区分性外观学习的多目标跟踪方法 |
US9626581B2 (en) * | 2012-04-26 | 2017-04-18 | General Electric Company | Real-time video tracking system |
-
2017
- 2017-05-03 CN CN201710303988.2A patent/CN108805900B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101577006A (zh) * | 2009-06-15 | 2009-11-11 | 北京中星微电子有限公司 | 视频监控中的徘徊检测方法和系统 |
US9626581B2 (en) * | 2012-04-26 | 2017-04-18 | General Electric Company | Real-time video tracking system |
CN105844634A (zh) * | 2016-03-18 | 2016-08-10 | 阜阳师范学院 | 一种多运动目标视频监控系统及其追踪监测方法 |
CN105976400A (zh) * | 2016-05-10 | 2016-09-28 | 北京旷视科技有限公司 | 基于神经网络模型的目标跟踪方法及装置 |
CN106373145A (zh) * | 2016-08-30 | 2017-02-01 | 上海交通大学 | 基于跟踪片段置信度和区分性外观学习的多目标跟踪方法 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111310526A (zh) * | 2018-12-12 | 2020-06-19 | 杭州海康威视数字技术股份有限公司 | 目标跟踪模型的参数确定方法、装置及存储介质 |
CN111310526B (zh) * | 2018-12-12 | 2023-10-20 | 杭州海康威视数字技术股份有限公司 | 目标跟踪模型的参数确定方法、装置及存储介质 |
CN110163068A (zh) * | 2018-12-13 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 目标对象跟踪方法、装置、存储介质和计算机设备 |
CN111383246A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
CN111383246B (zh) * | 2018-12-29 | 2023-11-07 | 杭州海康威视数字技术股份有限公司 | 条幅检测方法、装置及设备 |
CN111524161B (zh) * | 2019-02-01 | 2023-05-05 | 杭州海康威视数字技术股份有限公司 | 提取轨迹的方法和装置 |
CN111524161A (zh) * | 2019-02-01 | 2020-08-11 | 杭州海康威视数字技术股份有限公司 | 提取轨迹的方法和装置 |
CN109902610A (zh) * | 2019-02-22 | 2019-06-18 | 杭州飞步科技有限公司 | 交通标志识别方法和装置 |
CN110414443A (zh) * | 2019-07-31 | 2019-11-05 | 苏州市科远软件技术开发有限公司 | 一种目标跟踪方法、装置及枪球联动跟踪方法 |
CN110633625A (zh) * | 2019-07-31 | 2019-12-31 | 北京木牛领航科技有限公司 | 识别方法和系统 |
CN110516734A (zh) * | 2019-08-23 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 一种图像匹配方法、装置、设备及存储介质 |
CN111862624A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN111862624B (zh) * | 2020-07-29 | 2022-05-03 | 浙江大华技术股份有限公司 | 车辆匹配方法、装置、存储介质及电子装置 |
CN112200126A (zh) * | 2020-10-26 | 2021-01-08 | 上海盛奕数字科技有限公司 | 一种基于人工智能跑步肢体遮挡姿态识别方法 |
CN113344978A (zh) * | 2021-06-29 | 2021-09-03 | 北京搜狗科技发展有限公司 | 一种目标跟踪方法、装置和用于目标跟踪的装置 |
WO2023093086A1 (zh) * | 2021-11-26 | 2023-06-01 | 上海商汤智能科技有限公司 | 目标跟踪及相关模型的训练方法、装置、设备、介质、计算机程序产品 |
CN114972814A (zh) * | 2022-07-11 | 2022-08-30 | 浙江大华技术股份有限公司 | 一种目标匹配的方法、装置及存储介质 |
CN114972814B (zh) * | 2022-07-11 | 2022-10-28 | 浙江大华技术股份有限公司 | 一种目标匹配的方法、装置及存储介质 |
CN116258984A (zh) * | 2023-05-11 | 2023-06-13 | 中航信移动科技有限公司 | 一种物体识别的系统 |
Also Published As
Publication number | Publication date |
---|---|
CN108805900B (zh) | 2021-04-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805900A (zh) | 一种跟踪目标的确定方法及装置 | |
CN107527009B (zh) | 一种基于yolo目标检测的遗留物检测方法 | |
Kanimozhi et al. | Multiple Real-time object identification using Single shot Multi-Box detection | |
CN105160319B (zh) | 一种在监控视频下实现行人再识别的方法 | |
Hernández-Vela et al. | Graph cuts optimization for multi-limb human segmentation in depth maps | |
CN109919981A (zh) | 一种基于卡尔曼滤波辅助的多特征融合的多目标跟踪方法 | |
CN109359666A (zh) | 一种基于多特征融合神经网络的车型识别方法及处理终端 | |
CN109447169A (zh) | 图像处理方法及其模型的训练方法、装置和电子系统 | |
CN105046206B (zh) | 基于视频中运动先验信息的行人检测方法及装置 | |
CN110738101A (zh) | 行为识别方法、装置及计算机可读存储介质 | |
CN102982313B (zh) | 烟雾检测的方法 | |
CN103714181B (zh) | 一种层级化的特定人物检索方法 | |
CN106384345B (zh) | 一种基于rcnn的图像检测以及流量统计方法 | |
CN109657545B (zh) | 一种基于多任务学习的行人检测方法 | |
CN107992819A (zh) | 一种车辆属性结构化特征的确定方法与装置 | |
Santhosh et al. | An Automated Player Detection and Tracking in Basketball Game. | |
CN107633226A (zh) | 一种人体动作跟踪识别方法及系统 | |
CN108154159A (zh) | 一种基于多级检测器的具有自恢复能力的目标跟踪方法 | |
CN109271932A (zh) | 基于颜色匹配的行人再识别方法 | |
Park et al. | Detection of construction workers in video frames for automatic initialization of vision trackers | |
Komorowski et al. | Deepball: Deep neural-network ball detector | |
CN108241821A (zh) | 图像处理设备和方法 | |
CN109376677A (zh) | 一种基于外形-运动双流信息融合的视频行为检测方法 | |
Hao et al. | Recognition of basketball players’ action detection based on visual image and Harris corner extraction algorithm | |
CN112487926A (zh) | 一种基于时空图卷积网络的景区投喂行为识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |