CN109829936A - 一种目标追踪的方法及设备 - Google Patents

一种目标追踪的方法及设备 Download PDF

Info

Publication number
CN109829936A
CN109829936A CN201910084647.XA CN201910084647A CN109829936A CN 109829936 A CN109829936 A CN 109829936A CN 201910084647 A CN201910084647 A CN 201910084647A CN 109829936 A CN109829936 A CN 109829936A
Authority
CN
China
Prior art keywords
target
track
trajectory
model
prediction model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910084647.XA
Other languages
English (en)
Other versions
CN109829936B (zh
Inventor
张宁
刘雪莉
郝旭宁
杜保坤
黄金花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qingdao Hisense Network Technology Co Ltd
Original Assignee
Qingdao Hisense Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qingdao Hisense Network Technology Co Ltd filed Critical Qingdao Hisense Network Technology Co Ltd
Priority to CN201910084647.XA priority Critical patent/CN109829936B/zh
Publication of CN109829936A publication Critical patent/CN109829936A/zh
Application granted granted Critical
Publication of CN109829936B publication Critical patent/CN109829936B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种目标追踪的方法及设备,涉及计算机视觉技术领域,用以解决现有技术中,对目标进行追踪预测不准确,目标轨迹刻画操作复杂、效率低的问题,本发明方法包括:确定追踪的目标及所述目标当前时间对应的轨迹线,根据所述目标当前时间对应的轨迹线,通过基于自回归AR模型构建的目标轨迹预测模型,获得所述目标下一时间的预测轨迹点,根据所述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画所述目标的预测轨迹线。

Description

一种目标追踪的方法及设备
技术领域
本发明涉及计算机视觉技术领域,特别涉及一种目标追踪的方法及设备。
背景技术
随着我国平安城市建设的不断深入,公安天网覆盖的深度和广度不断扩大。一方面,多维数据信息采集技术(如监控、卡口、射频识别RFID(Radio FrequencyIdentification)、WiFi探针)在公共安全天网建设中使用越来越广泛,且会产生海量的视频图像、RFID数据以及其他多维数据信息。另一方面,海量数据信息的价值还没有得到充分挖掘,无法对海量数据进行高效存储及有效分析并运用,缺乏对视频监控中的目标进行轨迹预测和研判能力,不能充分的支撑公安实战业务。
视频目标跟踪因其应用的重要性已经成为计算机视觉领域的研究热点,目标跟踪是对视频图像序列中的目标进行特征提取和表观建模、运动分析和目标关联的过程。
针对当前多维数据(监控、卡口、RFID、WiFi探针等维度的数据)环境下的移动目标进行轨迹预测的方法和模型都较少,虽然基于卷积神经网络特征的目标跟踪模型和方法相对成熟,但也存在因模型卷积特征维度高而导致冗余较多,噪声较大,进而引起对目标的追踪不准确,轨迹刻画误差较大的问题。另外,在进行目标的轨迹查询时,往往需要为目标的位置点构建索引,现有搜索框架下的索引结构,均需对路网和目标轨迹位置点构建双层树状索引,过程相对复杂且返回结果时间较长。
综上所述,现有技术中,在对进行目标追踪时,存在对目标的追踪不准确,进行目标轨迹刻画操作复杂、效率低的问题。
发明内容
本发明提供一种目标追踪的方法及设备,用以解决现有技术中,对目标进行追踪预设目标的轨迹时,存在对目标的追踪预测不准确,进行目标轨迹刻画操作复杂、效率低的问题。
第一方面,本发明提供一种目标追踪的方法,该方法包括:
确定追踪的目标及所述目标当前时间对应的轨迹线;
根据所述目标当前时间对应的轨迹线,通过基于自回归AR(AutoregressiveModels)模型构建的目标轨迹预测模型,获得所述目标下一时间的预测轨迹点;
根据所述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画所述目标的预测轨迹线。
上述方法中,根据追踪的目标的当前时间对应的轨迹线,通过预设的目标轨迹预测模型获得下一时间的预测轨迹点,并刻画目标的轨迹线,提高了目标的轨迹生成效率,进而提高目标跟踪的效率。
在一种可选的实现方式中,确定追踪的目标及所述目标当前时间对应的轨迹线,包括:
确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对所述目标进行局部特征提取得到目标特征;根据所述目标特征,确定所述目标在预设地图上前n个时间的所有轨迹点;
对所述目标的轨迹点进行位置时间关联,构建所述目标前n个时间的轨迹线Tn,所述n为自然数。
上述方法中,利用卷积神经网络对追踪的目标提取目标特征,提取方式简单,特征丰富、且适用于绝大多数目标特征的提取,再根据提取到的目标特征对目标进行准确的追踪,能准确的定位所要追踪的目标,减少目标轨迹点数据的丢失。
在一种可选的实现方式中,通过如下方式获得所述预设地图:
获取地理信息系统GIS地图;
并根据预设方法将所述GIS地图的平面区域划分成互不相交的网格,得到所述预设地图。
上述方法中,将GIS地图的平面区域划分成不相交的区域,在追踪目标时,使用划分后的网格位置表示目标的轨迹点位置,简便易行,可以量化,便于计算机对目标的轨迹点位置的处理,且利于刻画目标的轨迹。
在一种可选的实现方式中,确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对所述目标进行局部特征提取得到目标特征,包括:
根据所述目标的监控视频信息,确定所述目标在空间中的目标尺度;
根据所述目标尺度,确定在预设地图上搜索所述目标的搜索尺度;
利用搜索尺度在所述预设地图上搜索所述目标的目标图像;
将所述目标图像输入预设特征识别模型,对所述目标进行局部特征提取得到目标特征。
在一种可选的实现方式中,基于自回归AR模型构建目标轨迹预测模型,包括:
确定用于构建目标轨迹预测模型的轨迹训练数据集、AR轨迹预测模型以及AR轨迹预测模型的模型参数;
确定触发模型训练时,用轨迹训练数据集训练所述AR轨迹预测模型,根据训练结果更新所述模型参数至满足预设训练结束条件时,将所述AR轨迹预测模型确定为所述目标轨迹预测模型。
在一种可选的实现方式中,用轨迹训练数据集训练所述AR轨迹预测模型,根据训练结果更新所述模型参数至满足预设训练结束条件时,将所述AR轨迹预测模型确定为所述目标轨迹预测模型,包括:
将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入所述AR轨迹预测模型,得到所述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求时,确定当前的AR轨迹预测模型为所述目标轨迹预测模型。
在一种可选的实现方式中,还包括:
得到任一轨迹线第n+1时间的预测轨迹点ARn+1时,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度不满足设定偏离要求时,且所述轨迹训练数据集中的所有轨迹线已经过当前的AR轨迹预测模型训练时,调整当前的AR轨迹预测模型的模型参数并触发模型训练,否则直接触发模型训练。
在一种可选的实现方式中,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求,包括:
根据预设损失函数,确定当前得到的预测轨迹点ARn+1与所述轨迹线第n+1时间的真实轨迹点的损失函数值;
确定所述损失函数值小于或等于预设阈值时,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求。
上述方法中,根据AR轨迹预测模型输出的大量预测值和轨迹训练数据集中的真实值对比情况,评估AR轨迹预测模型及其模型参数的可靠性,并根据训练的结果进行模型参数的调整,使训练的AR轨迹预测模型的预测效果接近于真实值,以达到对追踪的目标的轨迹预测。
第二方面,本发明提供一种目标追踪的设备,该设备包括处理器和存储器,其中,所述存储器存储有程序代码,当所述程序代码被执行时,使得所述处理器执行本发明第一方面提供的方法。
第三方面,本申请还提供一种计算机存储介质,其上存储有计算机程序,该程序被处理单元执行时实现第一方面所述方法的步骤。
另外,第二方面和第三方面中任一种实现方式所带来的技术效果可参见第一方面中不同实现方式所带来的技术效果,此处不再赘述。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例一提供的一种目标追踪的方法流程图;
图2为本发明实施例一提供的一种目标的轨迹点位置表示方法流程图;
图3为本发明实施例一提供的基于自回归AR模型构建目标轨迹预测模型的过程流程图;
图4为本发明实施例一提供的一个目标追踪的方法的完整流程示意图;
图5为本发明实施例二提供的一种目标追踪的设备示意图;
图6为本发明实施例二提供的一种目标追踪的装置示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
下面对文中出现的一些词语进行解释:
1、本发明实施例中术语“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
2、本发明实施例中术语“目标”,可以为自行移动的设备或生物,如车辆、动物等,也可以为能被动移动的设备,如电脑、冰箱等。
本发明实施例描述的应用场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着新应用场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。其中,在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上。
目前,随着图侦技术不断发展,公安办案过程中,会通过视频或图像发现大量的目标线索,但庞大数量的目标线索没有得到很好的整合,杂乱无章,理清线索,确认价值目标以,并进一步查找目标轨迹的工作耗费办案人员大量时间,降低了办案效率,如何有效整合目标信息,快速确认价值目标,成为公安刑侦面临的重大难题。
海量的视频图像数据是公共安全部门信息化建设中积累的重要数据,通过对视频内容的分析和处理,快速准确的发现有效线索,能够充分发挥视频资源的作用。
视觉目标跟踪是计算机视觉中的一个重要研究方向,有着广泛的应用,如:视频监控,人机交互,无人驾驶等。过去二三十年视觉目标跟踪技术取得了长足的进步,特别是最近两年利用深度学习的目标跟踪方法取得了令人满意的效果,使目标跟踪技术获得了突破性的进展。
基于上述场景及现有技术的发展,本发明提供一种目标追踪的方法及设备。
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
针对上述场景,下面结合说明书附图对本发明实施例做进一步详细描述。
实施例一:
如图1所示,本实施例提供一种目标追踪的方法,具体包括以下步骤:
步骤101,确定追踪的目标及上述目标当前时间对应的轨迹线;
根据多维数据信息采集技术(如监控、卡口、射频识别RFID、WiFi探针)获取目标的视频监控信息,利用预设特征识别模型对上述目标进行局部特征提取得到目标特征,并根据目标特征确定追踪的目标在预设地图上,当前时间及其之前出现的所有轨迹点,并根据所有轨迹点刻画上述目标当前时间对应的轨迹线。
步骤102,根据上述目标当前时间对应的轨迹线,通过基于自回归AR模型构建的目标轨迹预测模型,获得上述目标下一时间的预测轨迹点;
步骤103,根据上述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画上述目标的预测轨迹线。
上述方法中,根据追踪的目标的当前时间对应的轨迹线,通过预设的目标轨迹预测模型获得上述目标下一时间的预测轨迹点,并刻画目标的轨迹线,提高了目标的轨迹生成效率,进而提高目标跟踪的效率。
在一种可选的实现方式中,确定追踪的目标及上述目标当前时间对应的轨迹线,包括:
1)确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对上述目标进行局部特征提取得到目标特征;上述预设特征识别模型包括预设的卷积神经网络;
2)根据上述目标特征,确定上述目标在预设地图上前n个时间的所有轨迹点;
上述时间为上述目标到达地图上对应的轨迹点的时间;
3)对上述目标的轨迹点进行位置时间关联,构建上述目标前n个时间的轨迹线Tn,上述n为自然数。
在一种可选的实现方式中,通过如下方式获得上述预设地图:
获取地理信息系统GIS地图;
并根据预设方法将上述GIS地图的平面区域划分成互不相交的网格,得到上述预设地图;
如图2所示,在实施中,追踪目标时,使用划分后的网格位置表示目标的轨迹点位置,便于后期刻画目标的轨迹。
上述地理信息系统GIS(Geographic Information System或Geo-Informationsystem)地图,是一种特定的空间信息系统,它是在计算机硬、软件系统支持下,对整个或部分地球表层(包括大气层)空间中的有关地理分布数据进行采集、储存、管理、运算、分析、显示和描述的技术系统。
在一种可选的实现方式中,确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对上述目标进行局部特征提取得到目标特征,包括:
1)根据上述目标的监控视频信息,确定上述目标在空间中的目标尺度;
2)根据上述目标尺度,确定在预设地图上搜索上述目标的搜索尺度;
3)利用搜索尺度在上述预设地图上搜索上述目标的目标图像;
4)将上述目标图像输入预设特征识别模型,对上述目标进行局部特征提取得到目标特征。
在一种可选的实现方式中,当上述目标为车辆时,上述目标特征包括如下任一或任多:车牌号码、车辆类型、车辆品牌。
上述方法中,当被追踪的目标是车辆时,可以通过卷积神经网络对车辆的车牌号码、车辆类型、车辆品牌等进行特征的提取,便于在监控的过程中,精确地定位所要监控的对象,提高目标追踪的准确性。
上述卷积神经网络CNN(convolutional neural network)在目标预测和视频识别中应用广泛,利用卷积特征做目标追踪,提取简单、特征丰富,泛化能力强。
在本实施例中,采用卷积神经网络对被跟踪的目标进行表观特征提取,对给定的目标的t时间的视频帧和t-1时间的目标位置,首先确定目标的目标尺度的长、宽分别为A、B,则确定上述搜索尺度为{2(A×B)},将输入的目标的目标图像采用插值法调整为224×224大小,将卷积神经网络中间层的输出图像作为提取到的目标的多层卷积特征,再将该输出图像乘以余弦窗消除不连续现象。
上述通过CNN模型提取的目标的多层卷积特征具有不同的作用,底层的卷积特征适合用于目标定位,高层的卷积特征则更适合刻画目标语义,用于目标分类和消除噪声,如目标车辆时,高层的卷积特征可以但不局限于为车牌号。
上述在用CNN提取目标特征时,可以根据目标特征适当选择上述目标的卷积特征,以便更有效的提高目标特征提取的准确性。
上述在用CNN提取目标特征时,如下公式1所示,可以根据选择的CNN的层数训练相关滤波器Yn,其中n为选择的目标层数,最终目标位置为(x*,y*):
公式1:
其中,
其中,上述e是指数,agrmin{}是取{}中的最小值;
在一种可选的实现方式中,基于自回归AR模型构建目标轨迹预测模型过程如下:
(一)确定用于构建目标轨迹预测模型的轨迹训练数据集、AR轨迹预测模型以及AR轨迹预测模型的模型参数;
在一种可选的实现方式中,上述AR轨迹预测模型为自回归模型。在本实施例中,采用AR模型作为目标轨迹预测模型并对选定的目标轨迹预测模型的模型参数进行初始化,对一个目标轨迹在时间序列预处理后检验出该序列为平稳时间序列说明该模型有提取信息的价值,就要进行下一步的模型建立来拟合该模型然后做出预测。
AR轨迹预测模型建立过程中,首先使用轨迹分段算法对目标的轨迹点位置数据进行分段,为简化轨迹,可以但不局限于采用平面区域划分方法将轨迹表示成为网格序列,如将目标在前t个时间的轨迹表示为T(t)(其中,t=1,2,3,…,n+1);
上述AR轨迹预测模型的原型为AR(p),AR(p)称为P阶自回归模型,模型得简记形式如下公式2:
公式2:
其中,p为自回归阶数(p∈[1,N]的整数),是常数项,是模型参数,εt是具备均值,其值为0;称为中心化AR(p)模型;
在本实施例中,利用AR(p)模型做轨迹预测时,就是使用前n个时间序列的目标的轨迹点序列,预测前(n+1)个时间序列的目标的轨迹点序列,上述AR(p)模型假设两个相邻时间序列的轨迹存在线性关系。则对时间序列xt,t=1,2,3,…,N,则上述AR轨迹预测模型如下公式3所示:
公式3:
其中,AR(n)为上述目标前n个时间序列的轨迹点序列,xt为上述目标时间序列xt对应的轨迹点序列,εt是具备均值,其值为0,是上述AR轨迹预测模型的模型参数;
在本实施例中,通过构造AR轨迹预测模型,用轨迹训练数据集的数据对其进行训练求得上述模型参数,从轨迹训练数据集中取若干组n+1个时间相连的轨迹线中的前n个时间序列的轨迹点序列作为输入,第n+1个时间序列的轨迹点序列作为输出,从而进行模型参数的训练,进而使用训练完成的模型参数构建AR轨迹预测模型。
(二)确定触发模型训练时,用轨迹训练数据集训练上述AR轨迹预测模型,根据训练结果更新上述模型参数至满足预设训练结束条件时,将上述AR轨迹预测模型确定为上述目标轨迹预测模型;
将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入上述AR轨迹预测模型,得到上述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
其中,将轨迹线上前n时间的所有轨迹点输入上述AR轨迹预测模型时,可以但不局限于将同一目标不同的轨迹点序列输入AR轨迹预测模型时,也可以将不同目标的不同轨迹点序列输入AR轨迹预测模型;
确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求时,确定当前的AR轨迹预测模型为上述目标轨迹预测模型。
得到任一轨迹线第n+1时间的预测轨迹点ARn+1时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度不满足设定偏离要求时,且上述轨迹训练数据集中的所有轨迹线已经过当前的AR轨迹预测模型训练时,调整当前的AR轨迹预测模型的模型参数并触发模型训练,否则直接触发模型训练。
在一种可选的实现方式中,根据预设损失函数,确定当前得到的预测轨迹点ARn+1与上述轨迹线第n+1时间的真实轨迹点的损失函数值;
确定上述损失函数值小于或等于预设阈值时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求。
对上述损失函数不做过多限定,本领域的技术人员可根据实际设置,如:
应当理解的是,在利用轨迹训练数据集进行AR轨迹预测模型训练时,可以将同一目标的一个轨迹分段输入,也可以将同一目标的不同轨迹分段输入,还可以将不同目标的不同轨迹输入。
如图3所示,给出基于自回归AR模型构建目标轨迹预测模型的一个过程:
步骤301)确定轨迹训练数据集、AR轨迹预测模型及其模型参数;
步骤302)将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入上述AR轨迹预测模型,得到上述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
步骤303)判断ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度是否满足设定偏离要求,若满足,进入步骤4,否则进入步骤5;
步骤304)确定当前的AR轨迹预测模型为上述目标轨迹预测模型;
步骤305)判断轨迹训练数据集中的所有轨迹线是否都已经过当前的AR轨迹预测模型训练,若是,进入步骤6,否则进入步骤2;
步骤306)调整当前的AR轨迹预测模型的模型参数并进入步骤2;
如图4所示,给出一个目标追踪的方法的完整流程,具体包括:
步骤401)根据监控视频信息,确定追踪的目标;
步骤402)利用卷积神经网络对上述目标进行局部特征提取得到目标特征;
步骤403)根据上述目标特征确定上述目标当前时间对应的轨迹点序列;
步骤404)将上述目标当前时间对应的轨迹点序列进行时间空间关联,得到上述目标当前时间对应的轨迹线;
步骤405)将上述目标当前时间对应的轨迹线输入目标轨迹预测模型,得到上述目标下一时间的预测轨迹点;
步骤406)根据上述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画上述目标的预测轨迹线。
需要说明的是,本发明实施例中所列举的一种车辆追踪的方式只是举例说明,任何一种可以按上述方法进行目标追踪的方式都适用于本发明实施例。
实施例二:
如图5所示,本实施例提供了一种目标追踪的设备,该设备包括处理器501和存储器502,其中,上述存储器存储有程序代码,当上述程序代码被执行时,使得上述处理器执行下列过程:
确定追踪的目标及上述目标当前时间对应的轨迹线;
根据上述目标当前时间对应的轨迹线,通过基于自回归AR模型构建的目标轨迹预测模型,获得上述目标下一时间的预测轨迹点;
根据上述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画上述目标的预测轨迹线。
在一种可选的实现方式中,上述处理器具体用于,确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对上述目标进行局部特征提取得到目标特征;
根据上述目标特征,确定上述目标在预设地图上前n个时间的所有轨迹点;
对上述目标的轨迹点进行位置时间关联,构建上述目标前n个时间的轨迹线Tn,上述n为自然数。
在一种可选的实现方式中,上述处理器具体用于通过如下方式获得上述预设地图:
获取地理信息系统GIS地图;
并根据预设方法将上述GIS地图的平面区域划分成互不相交的网格,得到上述预设地图。
在一种可选的实现方式中,上述处理器具体用于,根据上述目标的监控视频信息,确定上述目标在空间中的目标尺度;
根据上述目标尺度,确定在预设地图上搜索上述目标的搜索尺度;
利用搜索尺度在上述预设地图上搜索上述目标的目标图像;
将上述目标图像输入预设特征识别模型,对上述目标进行局部特征提取得到目标特征。
在一种可选的实现方式中,当上述目标为车辆时,上述目标特征包括如下任一或任多:车牌号码、车辆类型、车辆品牌。
在一种可选的实现方式中,上述处理器具体用于,确定用于构建目标轨迹预测模型的轨迹训练数据集、AR轨迹预测模型以及AR轨迹预测模型的模型参数;
确定触发模型训练时,用轨迹训练数据集训练上述AR轨迹预测模型,根据训练结果更新上述模型参数至满足预设训练结束条件时,将上述AR轨迹预测模型确定为上述目标轨迹预测模型。
在一种可选的实现方式中,上述处理器具体用于,将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入上述AR轨迹预测模型,得到上述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求时,确定当前的AR轨迹预测模型为上述目标轨迹预测模型。
在一种可选的实现方式中,上述处理器还用于,得到任一轨迹线第n+1时间的预测轨迹点ARn+1时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度不满足设定偏离要求时,且上述轨迹训练数据集中的所有轨迹线已经过当前的AR轨迹预测模型训练时,调整当前的AR轨迹预测模型的模型参数并触发模型训练,否则直接触发模型训练。
在一种可选的实现方式中,上述处理器具体用于,根据预设损失函数,确定当前得到的预测轨迹点ARn+1与上述轨迹线第n+1时间的真实轨迹点的损失函数值;
确定上述损失函数值小于或等于预设阈值时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求。
在一种可选的实现方式中,上述AR轨迹预测模型为自回归模型。
如图6所示,基于相同的发明构思,本实施例还提供了一种目标追踪的设装置,该装置包括:
目标确定单元601,用于确定追踪的目标及上述目标当前时间对应的轨迹线;
轨迹点预测单元602,用于根据上述目标当前时间对应的轨迹线,通过基于自回归AR模型构建的目标轨迹预测模型,获得上述目标下一时间的预测轨迹点;
轨迹刻画单元603,用于根据上述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画上述目标的预测轨迹线。
在一种可选的实现方式中,上述目标确定单元,用于确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对上述目标进行局部特征提取得到目标特征;上述预设特征识别模型包括预设的卷积神经网络;
根据上述目标特征,确定上述目标在预设地图上前n个时间的所有轨迹点;
对上述目标的轨迹点进行位置时间关联,构建上述目标前n个时间的轨迹线Tn,上述n为自然数。
在一种可选的实现方式中,上述轨迹点预测单元用于通过如下方式获得上述预设地图:
获取地理信息系统GIS地图;
并根据预设方法将上述GIS地图的平面区域划分成互不相交的网格,得到上述预设地图。
在一种可选的实现方式中,上述轨迹点预测单元,用于根据上述目标的监控视频信息,确定上述目标在空间中的目标尺度;
根据上述目标尺度,确定在预设地图上搜索上述目标的搜索尺度;
利用搜索尺度在上述预设地图上搜索上述目标的目标图像;
将上述目标图像输入预设特征识别模型,对上述目标进行局部特征提取得到目标特征。
在一种可选的实现方式中,当上述目标为车辆时,上述目标特征包括如下任一或任多:车牌号码、车辆类型、车辆品牌。
在一种可选的实现方式中,上述轨迹点预测单元,用于确定用于构建目标轨迹预测模型的轨迹训练数据集、AR轨迹预测模型以及AR轨迹预测模型的模型参数;
确定触发模型训练时,用轨迹训练数据集训练上述AR轨迹预测模型,根据训练结果更新上述模型参数至满足预设训练结束条件时,将上述AR轨迹预测模型确定为上述目标轨迹预测模型。
在一种可选的实现方式中,上述轨迹点预测单元,用于将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入上述AR轨迹预测模型,得到上述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求时,确定当前的AR轨迹预测模型为上述目标轨迹预测模型。
在一种可选的实现方式中,上述轨迹点预测单元,还用于得到任一轨迹线第n+1时间的预测轨迹点ARn+1时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度不满足设定偏离要求时,且上述轨迹训练数据集中的所有轨迹线已经过当前的AR轨迹预测模型训练时,调整当前的AR轨迹预测模型的模型参数并触发模型训练,否则直接触发模型训练。
在一种可选的实现方式中,上述轨迹点预测单元,用于根据预设损失函数,确定当前得到的预测轨迹点ARn+1与上述轨迹线第n+1时间的真实轨迹点的损失函数值;
确定上述损失函数值小于或等于预设阈值时,确定ARn+1和上述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求。
在一种可选的实现方式中,上述AR轨迹预测模型为自回归模型。
实施例三:
本实施例提供一种计算机可读非易失性存储介质,包括程序代码,当上述程序代码在计算终端上运行时,上述程序代码用于使上述计算终端执行上述本发明实施例一的方法的步骤。
以上参照示出根据本申请实施例的方法、装置(系统)和/或计算机程序产品的框图和/或流程图描述本申请。应理解,可以通过计算机程序指令来实现框图和/或流程图示图的一个块以及框图和/或流程图示图的块的组合。可以将这些计算机程序指令提供给通用计算机、专用计算机的处理器和/或其它可编程数据处理装置,以产生机器,使得经由计算机处理器和/或其它可编程数据处理装置执行的指令创建用于实现框图和/或流程图块中所指定的功能/动作的方法。
相应地,还可以用硬件和/或软件(包括固件、驻留软件、微码等)来实施本申请。更进一步地,本申请可以采取计算机可使用或计算机可读存储介质上的计算机程序产品的形式,其具有在介质中实现的计算机可使用或计算机可读程序代码,以由指令执行系统来使用或结合指令执行系统而使用。在本申请上下文中,计算机可使用或计算机可读介质可以是任意介质,其可以包含、存储、通信、传输、或传送程序,以由指令执行系统、装置或设备使用,或结合指令执行系统、装置或设备使用。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种目标追踪的方法,其特征在于,该方法包括:
确定追踪的目标及所述目标当前时间对应的轨迹线;
根据所述目标当前时间对应的轨迹线,通过基于自回归AR模型构建的目标轨迹预测模型,获得所述目标下一时间的预测轨迹点;
根据所述目标当前时间对应的轨迹线及下一时间的预测轨迹点,刻画所述目标的预测轨迹线。
2.如权利要求1所述的方法,其特征在于,确定追踪的目标及所述目标当前时间对应的轨迹线,包括:
确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对所述目标进行局部特征提取得到目标特征;
根据所述目标特征,确定所述目标在预设地图上前n个时间的所有轨迹点;
对所述目标的轨迹点进行位置时间关联,构建所述目标前n个时间的轨迹线Tn,所述n为自然数。
3.如权利要求2所述的方法,其特征在于,通过如下方式获得所述预设地图:
获取地理信息系统GIS地图;
并根据预设方法将所述GIS地图的平面区域划分成互不相交的网格,得到所述预设地图。
4.如权利要求2所述的方法,其特征在于,确定追踪的目标,利用基于卷积神经网络构建的预设特征识别模型对所述目标进行局部特征提取得到目标特征,包括:
根据所述目标的监控视频信息,确定所述目标在空间中的目标尺度;
根据所述目标尺度,确定在预设地图上搜索所述目标的搜索尺度;
利用搜索尺度在所述预设地图上搜索所述目标的目标图像;
将所述目标图像输入预设特征识别模型,对所述目标进行局部特征提取得到目标特征。
5.如权利要求1所述的方法,其特征在于,基于自回归模型构建目标轨迹预测模型,包括:
确定用于构建目标轨迹预测模型的轨迹训练数据集、AR轨迹预测模型以及AR轨迹预测模型的模型参数;
确定触发模型训练时,用轨迹训练数据集训练所述AR轨迹预测模型,根据训练结果更新所述模型参数至满足预设训练结束条件时,将所述AR轨迹预测模型确定为所述目标轨迹预测模型。
6.如权利要求5所述的方法,其特征在于,用轨迹训练数据集训练所述AR轨迹预测模型,根据训练结果更新所述模型参数至满足预设训练结束条件时,将所述AR轨迹预测模型确定为所述目标轨迹预测模型,包括:
将轨迹训练数据集中未经模型训练的任一轨迹线上前n时间的所有轨迹点输入所述AR轨迹预测模型,得到所述轨迹线的第n+1时间的预测轨迹点ARn+1;其中,n为自然数;
确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求时,确定当前的AR轨迹预测模型为所述目标轨迹预测模型。
7.根据权利要求6所述的方法,其特征在于,还包括:
得到任一轨迹线第n+1时间的预测轨迹点ARn+1时,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度不满足设定偏离要求时,且所述轨迹训练数据集中的所有轨迹线已经过当前的AR轨迹预测模型训练时,调整当前的AR轨迹预测模型的模型参数并触发模型训练,否则直接触发模型训练。
8.如权利要求6所述的方法,其特征在于,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求,包括:
根据预设损失函数,确定当前得到的预测轨迹点ARn+1与所述轨迹线第n+1时间的真实轨迹点的损失函数值;
确定所述损失函数值小于或等于预设阈值时,确定ARn+1和所述轨迹线第n+1时间的真实轨迹点的偏离程度满足设定偏离要求。
9.一种目标追踪的设备,其特征在于,该设备包括处理器和存储器,其中,所述存储器存储有程序代码,当所述程序代码被执行时,使得所述处理器执行权利要求1-8任一所述的方法。
10.一种计算机可存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1~8任一所述方法的步骤。
CN201910084647.XA 2019-01-29 2019-01-29 一种目标追踪的方法及设备 Active CN109829936B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910084647.XA CN109829936B (zh) 2019-01-29 2019-01-29 一种目标追踪的方法及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910084647.XA CN109829936B (zh) 2019-01-29 2019-01-29 一种目标追踪的方法及设备

Publications (2)

Publication Number Publication Date
CN109829936A true CN109829936A (zh) 2019-05-31
CN109829936B CN109829936B (zh) 2021-12-24

Family

ID=66862793

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910084647.XA Active CN109829936B (zh) 2019-01-29 2019-01-29 一种目标追踪的方法及设备

Country Status (1)

Country Link
CN (1) CN109829936B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110736962A (zh) * 2019-09-10 2020-01-31 天津大学 一种无源rfid场景下的目标追踪方法
CN110866477A (zh) * 2019-11-06 2020-03-06 中国人民解放军战略支援部队信息工程大学 一种轨迹运动模式识别方法及装置
CN111027461A (zh) * 2019-12-06 2020-04-17 长安大学 基于多维单步lstm网络的车辆轨迹预测方法
CN113934808A (zh) * 2021-10-22 2022-01-14 广东汇天航空航天科技有限公司 地图数据获取方法、装置及飞行器
CN114584681A (zh) * 2020-11-30 2022-06-03 北京市商汤科技开发有限公司 目标对象的运动展示方法、装置、电子设备及存储介质

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820997A (zh) * 2015-05-14 2015-08-05 北京理工大学 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
CN105868691A (zh) * 2016-03-08 2016-08-17 中国石油大学(华东) 基于快速区域卷积神经网络的城市车辆追踪方法
CN106096577A (zh) * 2016-06-24 2016-11-09 安徽工业大学 一种摄像头分布地图中的目标追踪系统及追踪方法
CN107492113A (zh) * 2017-06-01 2017-12-19 南京行者易智能交通科技有限公司 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法
CN107527355A (zh) * 2017-07-20 2017-12-29 中国科学院自动化研究所 基于卷积神经网络回归模型的视觉跟踪方法、装置
CN107610464A (zh) * 2017-08-11 2018-01-19 河海大学 一种基于高斯混合时间序列模型的轨迹预测方法
CN107622507A (zh) * 2017-08-09 2018-01-23 中北大学 一种基于深度学习的空中目标跟踪方法
CN107944382A (zh) * 2017-11-20 2018-04-20 北京旷视科技有限公司 目标跟踪方法、装置及电子设备
CN108038435A (zh) * 2017-12-04 2018-05-15 中山大学 一种基于卷积神经网络的特征提取与目标跟踪方法
CN108460790A (zh) * 2018-03-29 2018-08-28 西南科技大学 一种基于一致性预测器模型的视觉跟踪方法
CN108734109A (zh) * 2018-04-24 2018-11-02 中南民族大学 一种面向图像序列的视觉目标跟踪方法及系统
CN108932509A (zh) * 2018-08-16 2018-12-04 新智数字科技有限公司 一种基于视频跟踪的跨场景目标检索方法及装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104820997A (zh) * 2015-05-14 2015-08-05 北京理工大学 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
CN105868691A (zh) * 2016-03-08 2016-08-17 中国石油大学(华东) 基于快速区域卷积神经网络的城市车辆追踪方法
CN106096577A (zh) * 2016-06-24 2016-11-09 安徽工业大学 一种摄像头分布地图中的目标追踪系统及追踪方法
CN107492113A (zh) * 2017-06-01 2017-12-19 南京行者易智能交通科技有限公司 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法
CN107527355A (zh) * 2017-07-20 2017-12-29 中国科学院自动化研究所 基于卷积神经网络回归模型的视觉跟踪方法、装置
CN107622507A (zh) * 2017-08-09 2018-01-23 中北大学 一种基于深度学习的空中目标跟踪方法
CN107610464A (zh) * 2017-08-11 2018-01-19 河海大学 一种基于高斯混合时间序列模型的轨迹预测方法
CN107944382A (zh) * 2017-11-20 2018-04-20 北京旷视科技有限公司 目标跟踪方法、装置及电子设备
CN108038435A (zh) * 2017-12-04 2018-05-15 中山大学 一种基于卷积神经网络的特征提取与目标跟踪方法
CN108460790A (zh) * 2018-03-29 2018-08-28 西南科技大学 一种基于一致性预测器模型的视觉跟踪方法
CN108734109A (zh) * 2018-04-24 2018-11-02 中南民族大学 一种面向图像序列的视觉目标跟踪方法及系统
CN108932509A (zh) * 2018-08-16 2018-12-04 新智数字科技有限公司 一种基于视频跟踪的跨场景目标检索方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
徐肖豪 等: "《中国交通研究与探索:第七届全国交通运输领域青年学术会议论文集 2007 上》", 30 September 2007, 中国民航出版社 *
朱鲤: "《上海市公共交通发展研究》", 30 June 2014, 中国财富出版社 *
李军伟 等: ""基于自适应卷积神经网络特征选择的视频目标跟踪方法"", 《计算机辅助设计与图形学学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110736962A (zh) * 2019-09-10 2020-01-31 天津大学 一种无源rfid场景下的目标追踪方法
CN110866477A (zh) * 2019-11-06 2020-03-06 中国人民解放军战略支援部队信息工程大学 一种轨迹运动模式识别方法及装置
CN111027461A (zh) * 2019-12-06 2020-04-17 长安大学 基于多维单步lstm网络的车辆轨迹预测方法
CN114584681A (zh) * 2020-11-30 2022-06-03 北京市商汤科技开发有限公司 目标对象的运动展示方法、装置、电子设备及存储介质
CN113934808A (zh) * 2021-10-22 2022-01-14 广东汇天航空航天科技有限公司 地图数据获取方法、装置及飞行器
CN113934808B (zh) * 2021-10-22 2024-05-28 广东汇天航空航天科技有限公司 地图数据获取方法、装置及飞行器

Also Published As

Publication number Publication date
CN109829936B (zh) 2021-12-24

Similar Documents

Publication Publication Date Title
CN109829936B (zh) 一种目标追踪的方法及设备
US10706285B2 (en) Automatic ship tracking method and system based on deep learning network and mean shift
CN103392187B (zh) 利用从物体轨迹数据获取的统计和语义特征的场景活动分析
CN110400332A (zh) 一种目标检测跟踪方法、装置及计算机设备
JP6455113B2 (ja) 物体追跡方法と装置
CN107943837A (zh) 一种前景目标关键帧化的视频摘要生成方法
Chen et al. Learning-based spatio-temporal vehicle tracking and indexing for transportation multimedia database systems
CN109163722B (zh) 一种仿人机器人路径规划方法及装置
CN111862145B (zh) 一种基于多尺度行人检测的目标跟踪方法
CN107689052A (zh) 基于多模型融合和结构化深度特征的视觉目标跟踪方法
CN108734109B (zh) 一种面向图像序列的视觉目标跟踪方法及系统
CN114428828A (zh) 基于行驶轨迹挖掘新增道路方法、装置及电子设备
CN114802303A (zh) 障碍物轨迹预测方法、装置、电子设备及存储介质
CN115311617A (zh) 城轨车站区域客流信息获取方法及系统
CN116166642A (zh) 基于引导信息的时空数据填补方法、系统、设备及介质
Wang et al. Deep tiered image segmentation for detecting internal ice layers in radar imagery
CN111832343A (zh) 目跟踪方法和装置、存储介质
CN117710403A (zh) 目标跟踪检测方法、装置、设备和存储介质
CN112613496A (zh) 一种行人重识别方法、装置、电子设备及存储介质
Lumban-Gaol et al. A comparative study of point clouds semantic segmentation using three different neural networks on the railway station dataset
CN114863292B (zh) 基于历史卫星影像指导的低分辨率卫星影像车辆计数方法
CN113920733B (zh) 一种基于深度网络的交通体量估计方法及系统
CN114694080A (zh) 一种监控暴力行为检测方法、系统、装置及可读存储介质
CN112418730A (zh) 一种运输系统的响应指标预估模型的构建方法
CN112183204A (zh) 一种停车事件的检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant