CN110706258B - 对象追踪方法及装置 - Google Patents

对象追踪方法及装置 Download PDF

Info

Publication number
CN110706258B
CN110706258B CN201910959616.4A CN201910959616A CN110706258B CN 110706258 B CN110706258 B CN 110706258B CN 201910959616 A CN201910959616 A CN 201910959616A CN 110706258 B CN110706258 B CN 110706258B
Authority
CN
China
Prior art keywords
images
vehicle
image
pair
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910959616.4A
Other languages
English (en)
Other versions
CN110706258A (zh
Inventor
杨喜鹏
谭啸
孙昊
文石磊
丁二锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910959616.4A priority Critical patent/CN110706258B/zh
Publication of CN110706258A publication Critical patent/CN110706258A/zh
Priority to US16/869,411 priority patent/US11288887B2/en
Application granted granted Critical
Publication of CN110706258B publication Critical patent/CN110706258B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例提供一种对象追踪方法及装置,该方法包括:获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;获取所述第一摄像装置和所述第二摄像装置之间的距离;根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象。本发明实施例提供的对象追踪方法及装置,能解决现有方案受图像拍摄的角度影响较大,导致方案鲁棒性较差的问题,追踪结果更加精确。

Description

对象追踪方法及装置
技术领域
本申请涉及图像处理技术领域,尤其涉及一种对象追踪方法及装置。
背景技术
随着城市规模的增大,对车辆的有效管理也显得更加紧迫。在实际生活中,经常需要对行驶状态的车辆进行追踪,而对车辆进行追踪的主要方式是通过城市路网中的多个摄像头来实现。在城市路网中会在不同区域设置摄像头,当车辆经过摄像头的监控区域时,就能够获知车辆的大体位置。
现有的对车辆进行追踪的方法,主要是通过获取一个摄像头的监控录像,根据摄像头的监控录像中拍摄到的目标车辆来分析目标车辆的行进轨迹,对目标进行追踪。由于车辆一般是处于行驶状态中,因此单一的摄像头很难实现对目标车辆的有效追踪,需要配合多个摄像头来实现。现有的方案在对不同摄像头下的车辆进行追踪时,采用的方案是通过不同摄像头下的一帧图像数据来判断不同摄像头拍摄的车辆是否为同一辆车,当两帧图像上的车辆的相似度到达一定程度时,认为两帧图像上的车辆为同一车辆,从而通过判断结果来实现对目标车辆的追踪。
现有方案的主要问题是,通过两帧图像来判断两辆车是否为同一辆车,受图像拍摄的角度影响较大,拍摄的车辆的姿态和大小对结果影响较大,同时仅通过图像特征来进行追踪结果不够准确。
发明内容
本发明实施例提供一种对象追踪方法及装置,以解决现有方案通过两帧图像来判断是否为同一辆车,受图像拍摄的角度影响较大,同时仅通过图像特征来进行追踪结果不够准确的问题。
第一方面,本发明实施例提供一种对象追踪方法,包括:
获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;
获取所述第一摄像装置和所述第二摄像装置之间的距离;
根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一拍摄时刻位于所述第二拍摄时刻之前;所述根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象,包括:
根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度;
根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度;
根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和所述第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率;
根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一相似度包括全局特征相似度和属性特征相似度;所述根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度,包括:
根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的;
根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度;
根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的;
根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
在一种可能的实现方式中,所述根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度,包括:
根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。
在一种可能的实现方式中,所述根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度,包括:
根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的属性特征相似度进行均值处理,得到所述属性特征相似度。
在一种可能的实现方式中,所述第一对象为第一车辆,所述第二对象为第二车辆,所述属性特征包括车辆颜色特征、车辆型号特征和车牌特征,所述根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,包括:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度;
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度;
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度。
在一种可能的实现方式中,所述根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象,包括:
获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重;
根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数;
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
第二方面,本发明实施例提供一种对象追踪装置,包括:
第一获取模块,用于获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
第二获取模块,用于获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;
第三获取模块,用于获取所述第一摄像装置和所述第二摄像装置之间的距离;
处理模块,用于根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一拍摄时刻位于所述第二拍摄时刻之前;所述处理模块具体用于:
根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度;
根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度;
根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和所述第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率;
根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一相似度包括全局特征相似度和属性特征相似度;所述处理模块具体用于:
根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的;
根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度;
根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的;
根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
在一种可能的实现方式中,所述处理模块具体用于:
根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。
在一种可能的实现方式中,所述处理模块具体用于:
根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的属性特征相似度进行均值处理,得到所述属性特征相似度。
在一种可能的实现方式中,所述第一对象为第一车辆,所述第二对象为第二车辆,所述属性特征包括车辆颜色特征、车辆型号特征和车牌特征,所述处理模块具体用于:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度;
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度;
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度。
在一种可能的实现方式中,所述处理模块具体用于:
获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重;
根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数;
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
第三方面,本发明实施例提供一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面中任一项所述的对象追踪方法。
第四方面,本发明实施例提供一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行第一方面中任一项所述的对象追踪方法。
本发明实施例提供的对象追踪方法及装置,首先获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,第一图像中包括第一对象;获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,第二图像中包括第二对象;然后获取第一摄像装置和第二摄像装置之间的距离;最后,根据多帧第一图像、每帧第一图像的第一拍摄时刻、多帧第二图像、每帧第二图像的第二拍摄时刻和距离,判断第一对象和第二对象是否为同一对象。本发明实施例提供的方案,通过两个方面来对对象进行追踪,其中一个方面是通过拍摄的多帧图像来进行匹配判断,另一个方面是根据两个摄像装置之间的距离来辅助进行判断,且第一摄像装置装置和第二摄像装置采集的图像均有多帧,因此本发明实施例提供的方案能够减小图片拍摄角度和对象姿态对追踪结果的影响,同时,通过多帧第一图像或多帧第二图像能够估算对象的移动速度,并进一步结合两个摄像装置之间的距离来辅助进行判断,提高判断的准确度,追踪方案的鲁棒性较好,追踪结果也更加精确。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的对象追踪方法的应用场景示意图;
图2为本发明实施例提供的对象追踪方法的流程示意图;
图3为本发明实施例提供的摄像装置的安装示意图;
图4为本发明实施例提供的判断第一对象和第二对象是否为同一对象的流程示意图;
图5为本发明实施例提供的确定第一相似度的流程示意图;
图6为本发明实施例提供的获取全局特征相似度的示意图;
图7为本发明实施例提供的获取第一对象的移动速度示意图;
图8为本发明实施例提供的获取第一对象移动至第二摄像装置处所需时间示意图;
图9为本发明实施例提供的对象追踪装置的结构示意图;
图10为本发明实施例提供的对象追踪方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1为本发明实施例提供的对象追踪方法的应用场景示意图,如图1所示,包括服务器10、第一摄像装置11和第二摄像装置12,服务器10和第一摄像装置11之间通过有线或无线网络连接,服务器10和第二摄像装置12之间也通过有线或无线网络连接。
第一摄像装置11用于向服务器10发送多帧第一图像,第二摄像装置12用于向服务器10发送多帧第二图像,其中,多帧第一图像可以是第一摄像装置11拍摄的多帧图像,也可以是第一摄像装置11拍摄的一段视频,然后服务器10将一段视频转换为多帧第一图像的方式。同样的,多帧第二图像可以是第二摄像装置12拍摄的多帧图像,也可以是第二摄像装置12拍摄的一段视频,然后服务器10将一段视频转换为多帧第二图像的方式。
由于实际场景中可能包括不止两个摄像装置,因此上述场景中的摄像装置不限制为两个,而仅仅是以两个为例来进行说明。根据第一摄像装置11拍摄得到的多帧第一图像和第二摄像装置12拍摄得到的多帧第二图像,可以判断第一图像中的第一对象和第二图像中的第二对象是否为同一对象。若是,则可以判断或者该对象在经过第一摄像装置11的监控区域后,也经过了第二摄像装置12的监控区域,从而实现了不同摄像装置下对象的追踪。其中,第一摄像装置11和第二摄像装置12可以为多个摄像装置中的任意两个。
第一摄像装置11的监控范围为如图1中的第一监控范围110,第二摄像装置12的监控范围为如图1中的第二监控范围120。以对象为如图1中的卡车为例,在第一监控范围110内检测到有第一卡车111,需要对第一卡车111进行追踪。在第二摄像装置12的第二监控范围120内检测到有第二卡车121,因此,需要根据第一摄像11拍摄的第一图像和第二摄像装置12拍摄的第二图像,来判断第一卡车111和第二卡车121是否为同一辆车。
若第一卡车111和第二卡车121不是同一辆车,则选取另一个摄像装置拍摄的图像,判断其中的车辆与第一卡车111是否为同一辆车,直至找到第一卡车111出现的下一摄像装置位置。若第一卡车111和第二卡车121为同一辆车,则实现了第一摄像装置11的监控范围到第二摄像装置12的监控范围的追踪,接下来,以第二摄像装置12为起点,继续实现下一摄像装置下的追踪,从而能够根据各个摄像装置下的图像来实现跨摄像头的对象追踪。进一步的,可以将多个摄像装置中车的轨迹进行连接,在地图上观察对象的移动轨迹。
下面以具体的实施例对本发明的技术方案以及本申请的技术方案如何解决上述技术问题进行详细说明。下面这几个具体的实施例可以相互结合,对于相同或相似的概念或过程可能在某些实施例中不再赘述。下面将结合附图,对本发明的实施例进行描述。
图2为本发明实施例提供的对象追踪方法的流程示意图,如图2所示,包括:
步骤21,获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
步骤22,获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象。
本发明实施例中要进行追踪的对象一般是可以移动的对象,例如可以包括移动的人,行驶的车辆等等,其中,行驶的车辆还可以包括小轿车、卡车、货车等不同类型的车辆。
在对象经过的区域,设置有摄像装置,不同的区域设置摄像装置的位置和密度也可以相应变化。由于对象是移动的,因此对象经过某一个摄像装置的监控区域后,可能进入另一个摄像装置的监控区域。因此,要实现对对象的追踪,必须要判断不同的摄像装置拍摄的图像中的对象是否为同一对象。
本发明实施例中,首先获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,其中,多帧第一图像可以是第一摄像装置直接拍摄图片得到的,也可以是第一摄像装置拍摄监控录像,然后将监控录像转换为多帧第一图像。
每帧第一图像都有对应的第一拍摄时刻,第一拍摄时刻可以直接显示在第一图像上,也可以作为第一图像的属性信息,由服务器来获取。进一步的,每帧第一图像中均包括第一对象,若第一摄像装置拍摄了多帧图像,则只选取包含第一对象的第一图像来进行处理,而不包含第一对象的图像可进行舍弃。
对于第二图像和每帧第二图像的第二拍摄时刻的获取方式,与上述第一图像和每帧第一图像的第一拍摄时刻的获取方式类似,此处不再赘述。
步骤23,获取所述第一摄像装置和所述第二摄像装置之间的距离。
第一摄像装置和第二摄像装置之间的距离的获取方法可以有多种,例如,可以在第一摄像装置和第二摄像装置上分别安装定位装置,由定位装置向服务器上报第一摄像装置和第二摄像装置的位置,从而根据第一摄像装置的位置和第二摄像装置的位置来计算第一摄像装置和第二摄像装置的距离;再例如,用户可以提前获知第一摄像装置和第二摄像装置的安装位置,然后在电子地图上标注第一摄像装置和第二摄像装置在地图上的位置,根据电子地图的比例尺和用户的标注,来得到第一摄像装置和第二摄像装置之间的距离,等等。上述方式仅仅是获取第一摄像装置和第二摄像装置之间的距离的几种示例,实际的获取方式不仅限于上述的方式,此处不作特别限定。
图3为本发明实施例提供的摄像装置的安装示意图,如图3所示,以第一对象和第二对象均为车辆为例,图3中包括多个摄像装置,分别安装于图3中的A、B、C、D点,A点的摄像装置的监控范围为第一范围31,B点的摄像装置的监控范围为第二范围32,C点的摄像装置的监控范围为第三范围33,D点的摄像装置的监控范围为第四范围34。
若以A点处的摄像装置为第一摄像装置,以B点处的摄像装置为第二摄像装置,则摄像装置A拍摄的图像310为第一图像,车辆A为第一对象,摄像装置B拍摄的图像320为第二图像,车辆B为第二对象,第一摄像装置和第二摄像装置之间的距离即为A点到B点的距离。类似的,若以C点处的摄像装置为第一摄像装置,以D点处的摄像装置为第二摄像装置,则摄像装置C拍摄的图像330为第一图像,车辆C为第一对象,摄像装置D拍摄的图像340为第二图像,车辆D为第二对象,第一摄像装置和第二摄像装置之间的距离即为C点到D点的距离,等等。
步骤24,根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象。
得到多帧第一图像和多帧第二图像后,可以从至少两个方面来判断第一对象和第二对象是否为同一对象。第一个方面,可以通过第一图像和第二图像,来获取第一对象的图像特征以及第二对象的图像特征,并将第一对象的图像特征和第二对象的图像特征进行匹配,来得到匹配相似度的方式,其中,图像特征可以包括一种或多种,例如可以包括对象的全局特征、局部特征以及属性特征等。如图3所示,可以通过提取不同车辆的图像特征来进行判断。
除了第一个方面,还包括第二个方面,即根据不同摄像装置之间的距离,以及第一拍摄时刻和第二拍摄时刻,来进行判断。由于对象是移动的,因此可以根据多帧第一图像和每帧第一图像的第一拍摄时刻,大致估算第一对象的移动速度,也可以根据多帧第二图像和每帧第二图像的第二拍摄时刻,大致估算第二对象的移动速度。然后根据对象的移动速度、第一摄像装置和第二摄像装置之间的距离,来判断对象从其中一个摄像装置移动到另一个摄像装置所需的时间,并获取第一拍摄时刻和第二拍摄时刻的差值,将所需的时间与两个拍摄时刻的差值进行匹配,得到第一对象和第二对象为同一对象的概率。最后,综合两个方面的信息,来综合判断第一对象和第二对象是否为同一对象。
本发明实施例提供的对象追踪方法,首先获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,第一图像中包括第一对象;获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,第二图像中包括第二对象;然后获取第一摄像装置和第二摄像装置之间的距离;最后,根据多帧第一图像、每帧第一图像的第一拍摄时刻、多帧第二图像、每帧第二图像的第二拍摄时刻和距离,判断第一对象和第二对象是否为同一对象。本发明实施例提供的方案,通过两个方面来对对象进行追踪,其中一个方面是通过拍摄的多帧图像来进行匹配判断,另一个方面是根据两个摄像装置之间的距离来辅助进行判断,且第一摄像装置装置和第二摄像装置采集的图像均有多帧,因此本发明实施例提供的方案能够减小图片拍摄角度和对象姿态对追踪结果的影响,同时,通过多帧第一图像或多帧第二图像能够估算对象的移动速度,并进一步结合两个摄像装置之间的距离来辅助进行判断,提高判断的准确度,追踪方案的鲁棒性较好。
下面结合图4,并采用具体的实施例,对本发明实施例的方案进行详细说明。图4为本发明实施例提供的判断第一对象和第二对象是否为同一对象的流程示意图,其中,第一拍摄时刻位于第二拍摄时刻之前,如图4所示,包括:
步骤41,根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度。
该步骤中,主要是通过多帧第一图像获取第一对象的特征,根据第二图像获取第二对象的特征,然后根据第一对象的特征和第二对象的特征来得到第一相似度。其中,第一对象和第二对象的特征可以包括对象的属性特征和全局特征等。例如,若对象为人,则对象的特征可以是人脸特征、人的身高、体型、衣服颜色、发型等等特征,若对象为车辆,则对象的特征可以是车辆的颜色、车辆的型号等等特征,若对象为其他类型,则对象的特征可以根据实际需要确定。
得到第一对象的特征和第二对象的特征后,可以得到第一对象和第二对象的第一相似度。例如,可以根据第一对象进行建模,得到第一模型,根据第二对象进行建模,得到第二模型,然后将第一模型和第二模型进行匹配,得到第一相似度等。
除上述方法外,还可以通过如下方法来确定第一相似度。下面将结合图5来说明第一相似度的获取过程。图5为本发明实施例提供的确定第一相似度的流程示意图,第一相似度包括全局特征相似度和属性特征相似度,如图5所示,包括:
步骤51,根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的。
在对第一对象进行全局特征提取之前,首先要对全局特征模型进行训练。训练时,需要获取多帧第一样本图像,每一帧第一样本图像中都包括一个对象。对于每个对象,会为其分配一个唯一的标识。例如,以对象为车辆举例进行说明,可以为每一辆车辆分配一个ID号,根据ID号能够唯一确定对应的车辆。
对于每一帧第一样本图像,将其中的背景部分去除,得到样本车辆图像。然后将样本车辆图像输入到全局特征模型中,得到全局特征模型提取的全局特征。对全局特征模型提取的全局特征进行相应的处理,得到对应的车辆ID,然后将对应的车辆ID与样本车辆的ID进行比对,根据比对结果来训练全局特征模型,得到训练好的全局特征模型。
然后,将多帧第一图像输入训练好的全局特征模型中,即可得到第一对象的全局特征。当第一对象为第一车辆时,则获取到的是第一车辆的全局特征。同样的,将多帧第二图像输入训练好的全局特征模型中,即可得到第二对象的全局特征。当第二对象为第二车辆时,则获取到的是第二车辆的全局特征。
步骤52,根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度。
由于第一图像有多帧,根据每一帧第一图像都能得到一个第一对象的全局特征,同样的,根据每一帧第二图像都能得到一个第二对象的全局特征。因此,本发明实施例会将第一对象的全局特征和第二对象的全局特征进行组合。
具体的,根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像。然后,对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。下面将结合图6进行说明。
图6为本发明实施例提供的获取全局特征相似度的示意图,如图6所示,包括多帧第一图像和多帧第二图像,其中第一图像包括图像A、图像B和图像C,第二图像包括图像D、图像E、图像F和图像G,则服务器会选取任意一张第一图像和任意一张第二图像,得到一对图像,将该对图像中对象的全局特征进行匹配,得到该对图像的全局特征相似度。
图6中的组合方式包括:A-D,A-E,A-F,A-G,B-D,B-E,B-F,B-G,C-D,C-E,C-F,C-G,一共12对图像,因此得到的每对图像的全局特征相似度共有12个,然后将12个全局特征相似度取平均值,得到全局特征相似度。
图6中第一图像的帧数和第二图像的帧数仅仅是一种举例,举例数量不仅限于此,例如,第一图像为10帧,第二图像为20帧时,则共有200个全局特征相似度,将其取平均值,即可得到全局特征相似度。
步骤53,根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的。
对象的属性特征可能有多个,例如颜色、形状等等,因此在提取属性特征时,需要针对不同的属性特征训练不同的属性特征模型。
以对象为车辆为例,当第一对象为第一车辆,第二对象为第二车辆时,车辆的属性特征包括多种,例如包括车辆颜色特征、车辆型号特征和车牌特征。本发明实施例通过深度神经网络模型对第一车辆和第二车辆的属性特征进行识别。对于每一个车辆属性,都需要训练对应的属性特征模型。例如,针对车辆颜色,首先获取多帧第二样本图像,每一帧第二样本图像中都包括一辆样本车辆,且多帧第二样本图像中的样本车辆的车辆颜色不完全相同。
对于每一辆车辆,会为其分配一个唯一的标识,例如,可以为每一辆车辆分配一个ID号,根据ID号能够唯一确定对应的车辆。进一步的,在训练车辆颜色对应的属性特征模型时,对于每一帧第二样本图像,将其中的背景部分去除,得到第二车辆图像。然后将第二车辆图像输入到车辆类型对应的属性特征模型中,得到车辆颜色对应的特征模型提取的车辆颜色特征。对车辆颜色对应的特征模型提取的车辆类型特征进行相应的处理,得到对应的车辆ID,然后将对应的车辆ID与样本车辆的ID进行比对,根据比对结果来训练车辆颜色对应的特征模型,得到训练好的车辆颜色对应的特征模型。
对于每一个车辆属性的属性特征模型的训练过程,与车辆颜色对应的属性特征模型的训练过程类似,此处不再赘述。可以理解的是第一样本图像和第二样本图像可以为同一样本图像,也可以为不同的样本图像,且用于训练不同属性特征的样本图像可以为同一样本图像或不同的样本图像。
步骤54,根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
首先,根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像。当第一对象为第一车辆,第二对象为第二车辆时,属性特征包括车辆颜色特征、车辆型号特征和车牌特征,获取属性特征相似度具体包括:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
对于车辆颜色特征,通过车辆颜色特征对应的属性特征模型获取每一帧第一图像中第一车辆的车辆颜色以及对应的置信度,并获取每一帧第二图像中第二车辆的车辆颜色以及对应的置信度。其中,置信度表示车辆颜色识别的可信度,是一个0-1之间的值,反映车辆颜色识别的准确度。然后,将置信度大于预设阈值的第一车辆的车辆颜色特征求取均值,作为多帧第一图像中第一车辆的车辆颜色。例如,第一图像共10帧,其中8帧为红色,且每一帧的置信度均为0.8,两帧为黑色,且每一帧的置信度均为0.2,此时,根据预定义的颜色种类组成一个向量,比如预定义了12种颜色,那么对应的颜色向量上红色位置为0.8,黑色位置为0.2,其他的位置为0。同样的方法得到多帧第二图像中第二车辆的车辆颜色,也可以构建相同的向量。
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度。
对于车辆型号,针对一个序列的图像,例如多帧第一图像,对每一帧第一图像采用车辆型号特征对应的属性特征模型提取第一车辆的车辆型号特征,同理对每一帧第二图像提取第二车辆的车辆型号特征,然后将多帧第一图像和多帧第二图像进行两两组合,得到多对图像,其中每对图像中包括一帧第一图像和一帧第二图像。
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度。
对于车牌特征,由于不是所有的第一图像或所有的第二图像均能捕捉到车辆的车牌特征,因此,对于每对图像,若至少其中一帧图像中无法提取到车牌特征,则该对图像之间的车牌相似度为0。当该对图像中两帧图像均能提取到车牌特征时,计算第一图像和第二图像中车牌特征的相似度。
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度,其中,每对图像的属性特征相似度包括每对图像的车辆颜色特征相似度、每对图像的车辆型号特征相似度和每对图像的车牌特征相似度。
最后,对多个每对图像的属性特征相似度进行均值处理,得到属性特征相似度。
具体的,计算第一车辆对应的颜色特征向量和第二车辆对应的车辆颜色特征向量之间的距离,得到车辆颜色特征相似度Pc。对于每对图像,计算其中第一车辆的车辆型号特征和第二车辆的车辆型号特征之间的车辆型号特征相似度,并对多对图像的车辆型号特征相似度求平均值,得到车辆型号特征的相似度,记为Pt。对于每对图像中车牌特征的相似度求取均值,得到车牌特征相似度,记为Pp。其中,属性特征相似度包括车辆颜色特征相似度Pc、车辆型号特征的相似度Pt和车牌特征相似度Pp。
步骤42,根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度。
上述步骤描述了全局特征和属性特征的提取,并计算了第一图像和第二图像中第一对象和第二对象的全局特征相似度和属性特征相似度。进一步的,本发明实施例中,除了全局特征和属性特征的考量,还包括时间维度的考量。
具体的,对象在移动过程中,会有一定的速度,因此可以获取第一对象的移动速度,然后结合第一摄像装置和第二摄像装置之间的距离,来估算第一对象到达第二摄像装置的大致时间。最后,判断第二摄像装置拍摄第二图像的第二拍摄时刻,看第一拍摄时刻和第二拍摄时刻的差值与第一对象到达第二摄像装置的大致时间是否比较接近,若是,则认为第一对象和第二对象为同一对象的概率较大,反之则较小。
下面将结合图7进行详细说明。图7为本发明实施例提供的获取第一对象的移动速度示意图,如图7所示,以第一对象为第一车辆为例,其中包括第一摄像装置71和第一车辆72,图中的虚线范围为第一摄像装置71的第一监控范围73,第一车辆72经过第一监控范围73。
当第一车辆72在马路上行驶,经过第一监控范围73时,第一摄像装置71拍摄第一图像,捕捉第一车辆72。其中,第一图像有多帧,例如图7中的第一帧图像701、第二帧图像702和第三帧图像703,其中拍摄第一帧图像701时,第一车辆72经过A点,拍摄第二帧图像702时,第一车辆72经过B点,拍摄第三帧图像703时,第一车辆72经过C点,A点和C点可以为第一监控范围73的边界点,也可以是第一监控范围73内的点,B点为第一监控范围73内的点,且三帧图像对应的第一拍摄时刻分别为t1、t2和t3。
根据第一摄像装置71的参数和安装位置,能够获取到A、B和C点的位置,从而能够获取到AB、BC和AC三个线段之间的距离。因此,根据上述参数,能够获取到第一车辆72的移动速度v,其中,计算方式有多种,现举例说明。
第一种,可以直接获取最开始拍摄到第一车辆72的第一帧图像701的拍摄时刻t1,以及最后拍摄到第一车辆72的第三帧图像703的拍摄时刻t3,同时获取AC之间的距离S1,得到第一车辆72在AC段之间的移动速度v:
Figure BDA0002228485030000171
第二种方式是,先获取第一车辆72在AB之间的移动速度v1,在BC之间的移动速度v2,然后求取平均值:
Figure BDA0002228485030000172
其中:
Figure BDA0002228485030000173
S2为AB之间的距离,S3为AC之间的距离。
可以理解的是,上述计算第一对象的移动速度的方式和图7中拍摄的三帧图像仅仅是一种举例,实际的计算方式和图像帧数不仅限于此。
步骤43,根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和所述第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率。
图8为本发明实施例提供的获取第一对象移动至第二摄像装置处所需时间示意图,如图8所示,包括第一摄像装置81和第二摄像装置82,第一摄像装置81处于M点,第二摄像装置82处于N点,MN之间的距离为SN,第一车辆83的行驶速度为V,则第一车辆83前往第二摄像装置82处所需的时间T为:
Figure BDA0002228485030000181
然后,获取第一摄像装置81拍摄的任意一张第一图像的第一拍摄时刻T1,获取第二摄像装置82拍摄的任意一张第二图像的第二拍摄时刻T2,可知,若第一车辆83与第二车辆84为同一车辆,则第一车辆83前往第二摄像装置82处的实际时间为:
T=T2-T1。
则第一车辆83和第二车辆84为同一辆车的概率Pv为:
Figure BDA0002228485030000182
其中,σ为实际时间和预计所需的实际的差值,可根据实际需要设定。
步骤44,根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
具体的,获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重。
然后根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数,融合参数的计算公式如下:
f=α*Pa+β*Pc+γ*Pt+μ*Pp+θ*Pv,
其中,f为融合参数,α为第一权重,Pa为全局特征相似度,β为车辆颜色对应权重,Pc为车辆颜色特征相似度,γ为车辆型号对应权重,Pt为车辆型号特征相似度,μ为车牌对应权重,Pp为车牌特征相似度,第二权重包括β、γ和μ,属性特征相似度包括Pc、Pt和Pp,θ为第三权重,Pv为第一对象和第二对象为同一对象的概率。
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
融合参数f越大,表明第一对象和第二对象越相似,当融合参数f超过预设阈值时,表明第一对象和第二对象为同一对象,否则不是同一对象。具体的,当融合参数f超过预设阈值时,表明第一车辆和第二车辆为同一车辆,否则不是同一车辆。
本发明实施例提供的对象追踪方法,首先获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,第一图像中包括第一对象;获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,第二图像中包括第二对象;然后获取第一摄像装置和第二摄像装置之间的距离;最后,根据多帧第一图像、每帧第一图像的第一拍摄时刻、多帧第二图像、每帧第二图像的第二拍摄时刻和距离,判断第一对象和第二对象是否为同一对象。本发明实施例提供的方案,通过两个方面来对对象进行追踪,其中一个方面是通过拍摄的多帧图像来进行匹配判断,另一个方面是根据两个摄像装置之间的距离来辅助进行判断,且第一摄像装置装置和第二摄像装置采集的图像均有多帧,因此本发明实施例提供的方案能够减小图片拍摄角度和对象姿态对追踪结果的影响,同时,通过多帧第一图像或多帧第二图像能够估算对象的移动速度,并进一步结合两个摄像装置之间的距离来辅助进行判断,提高判断的准确度,追踪方案的鲁棒性较好,追踪结果更加精确。
图9为本发明实施例提供的对象追踪装置的结构示意图,如图9所示,包括第一获取模块91、第二获取模块92、第三获取模块93和处理模块94,其中:
第一获取模块91用于获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
第二获取模块92用于获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;
第三获取模块93用于获取所述第一摄像装置和所述第二摄像装置之间的距离;
处理模块94用于根据多帧所述第一图像、每帧第一图像的第一拍摄时刻、多帧所述第二图像、每帧第二图像的第二拍摄时刻和所述距离,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一拍摄时刻位于所述第二拍摄时刻之前;所述处理模块94具体用于:
根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度;
根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度;
根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和所述第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率;
根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
在一种可能的实现方式中,所述第一相似度包括全局特征相似度和属性特征相似度;所述处理模块94具体用于:
根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的;
根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度;
根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的;
根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
在一种可能的实现方式中,所述处理模块94具体用于:
根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。
在一种可能的实现方式中,所述处理模块94具体用于:
根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的属性特征相似度进行均值处理,得到所述属性特征相似度。
在一种可能的实现方式中,所述第一对象为第一车辆,所述第二对象为第二车辆,所述属性特征包括车辆颜色特征、车辆型号特征和车牌特征,所述处理模块94具体用于:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度;
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度;
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度。
在一种可能的实现方式中,所述处理模块94具体用于:
获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重;
根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数;
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
本发明实施例提供的装置,可用于执行上述方法实施例的技术方案,其实现原理和技术效果类似,此处不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
图10为本发明实施例提供的对象追踪方法的电子设备的框图,如图10所示,电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图10所示,该电子设备包括:一个或多个处理器101、存储器102,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线105互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器101可以对在电子设备内执行的指令进行处理,包括存储在存储器102中或者存储器102上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器101和/或多条总线105与多个存储器102一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图10中以一个处理器101为例。
存储器102即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器102存储有可由至少一个处理器101执行的指令,以使所述至少一个处理器101执行本申请所提供的对象追踪方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的对象追踪方法。
存储器102作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的对象追踪方法对应的程序指令/模块(例如,附图9所示的第一获取模块91、第二获取模块92、第三获取模块93和处理模块94)。处理器101通过运行存储在存储器102中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的对象追踪方法。
存储器102可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据对象追踪方法的电子设备的使用所创建的数据等。此外,存储器102可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器102可选包括相对于处理器101远程设置的存储器,这些远程存储器可以通过网络连接至对象追踪方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
对象追踪方法的电子设备还可以包括:输入装置103和输出装置104。处理器101、存储器102、输入装置103和输出装置104可以通过总线105或者其他方式连接,图10中以通过总线105连接为例。
输入装置103可接收输入的数字或字符信息,以及产生与对象追踪方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置104可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。

Claims (14)

1.一种对象追踪方法,其特征在于,包括:
获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;
获取所述第一摄像装置和所述第二摄像装置之间的距离;
根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度;
根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度;
根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和每帧第二图像的第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率;所述第一拍摄时刻位于所述第二拍摄时刻之前;
根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
2.根据权利要求1所述的方法,其特征在于,所述第一相似度包括全局特征相似度和属性特征相似度;所述根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度,包括:
根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的;
根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度;
根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的;
根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
3.根据权利要求2所述的方法,其特征在于,所述根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度,包括:
根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。
4.根据权利要求2所述的方法,其特征在于,所述根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度,包括:
根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的属性特征相似度进行均值处理,得到所述属性特征相似度。
5.根据权利要求4所述的方法,其特征在于,所述第一对象为第一车辆,所述第二对象为第二车辆,所述属性特征包括车辆颜色特征、车辆型号特征和车牌特征,所述根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,包括:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度;
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度;
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度。
6.根据权利要求2所述的方法,其特征在于,所述根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象,包括:
获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重;
根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数;
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
7.一种对象追踪装置,其特征在于,包括:
第一获取模块,用于获取第一摄像装置拍摄得到的多帧第一图像和每帧第一图像的第一拍摄时刻,所述第一图像中包括第一对象;
第二获取模块,用于获取第二摄像装置拍摄得到的多帧第二图像和每帧第二图像的第二拍摄时刻,所述第二图像中包括第二对象;
第三获取模块,用于获取所述第一摄像装置和所述第二摄像装置之间的距离;
处理模块,用于根据多帧所述第一图像和多帧所述第二图像,确定所述第一对象和所述第二对象的第一相似度;
根据每帧第一图像的第一拍摄时刻,确定所述第一对象的移动速度;
根据所述第一对象的移动速度、所述距离、所述第一拍摄时刻和每帧第二图像的第二拍摄时刻,确定所述第一对象和所述第二对象为同一对象的概率;所述第一拍摄时刻位于所述第二拍摄时刻之前;
根据所述第一相似度和所述概率,判断所述第一对象和所述第二对象是否为同一对象。
8.根据权利要求7所述的装置,其特征在于,所述第一相似度包括全局特征相似度和属性特征相似度;所述处理模块具体用于:
根据全局特征模型获取多帧所述第一图像中所述第一对象的全局特征和多帧所述第二图像中所述第二对象的全局特征,其中所述全局特征模型是根据多帧第一样本图像进行训练得到的;
根据所述第一对象的全局特征和所述第二对象的全局特征得到所述全局特征相似度;
根据属性特征模型获取多帧所述第一图像中所述第一对象的属性特征和多帧所述第二图像中所述第二对象的属性特征,其中所述属性特征模型是根据多帧第二样本图像进行训练得到的;
根据所述第一对象的属性特征和所述第二对象的属性特征得到所述属性特征相似度。
9.根据权利要求8所述的装置,其特征在于,所述处理模块具体用于:
根据每对图像中第一对象的全局特征和第二对象的全局特征得到每对图像的全局特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的全局特征相似度进行均值处理,得到所述全局特征相似度。
10.根据权利要求8所述的装置,其特征在于,所述处理模块具体用于:
根据每对图像中第一对象的属性特征和第二对象的属性特征得到每对图像的属性特征相似度,其中,每对图像包括一帧所述第一图像和一帧所述第二图像;
对多个每对图像的属性特征相似度进行均值处理,得到所述属性特征相似度。
11.根据权利要求10所述的装置,其特征在于,所述第一对象为第一车辆,所述第二对象为第二车辆,所述属性特征包括车辆颜色特征、车辆型号特征和车牌特征,所述处理模块具体用于:
根据每对图像中所述第一车辆的车辆颜色特征和所述第二车辆的车辆颜色特征,得到每对图像的车辆颜色特征相似度;
根据每对图像中所述第一车辆的车辆型号特征和所述第二车辆的车辆型号特征,得到每对图像的车辆型号特征相似度;
根据每对图像中所述第一车辆的车牌特征和所述第二车辆的车牌特征,得到每对图像的车牌特征相似度;
根据所述每对图像的车辆颜色特征相似度、所述每对图像的车辆型号特征相似度和所述每对图像的车牌特征相似度,得到所述每对图像的属性特征相似度。
12.根据权利要求8所述的装置,其特征在于,所述处理模块具体用于:
获取所述全局特征相似度对应的第一权重、所述属性特征相似度对应的第二权重以及所述概率对应的第三权重;
根据所述第一权重、所述第二权重、所述第三权重,将所述全局特征相似度、所述属性特征相似度和所述概率进行融合,得到融合参数;
当所述融合参数超过预设值时,确定所述第一对象和所述第二对象为同一对象。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的对象追踪方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的对象追踪方法。
CN201910959616.4A 2019-10-10 2019-10-10 对象追踪方法及装置 Active CN110706258B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910959616.4A CN110706258B (zh) 2019-10-10 2019-10-10 对象追踪方法及装置
US16/869,411 US11288887B2 (en) 2019-10-10 2020-05-07 Object tracking method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910959616.4A CN110706258B (zh) 2019-10-10 2019-10-10 对象追踪方法及装置

Publications (2)

Publication Number Publication Date
CN110706258A CN110706258A (zh) 2020-01-17
CN110706258B true CN110706258B (zh) 2022-10-04

Family

ID=69200132

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910959616.4A Active CN110706258B (zh) 2019-10-10 2019-10-10 对象追踪方法及装置

Country Status (2)

Country Link
US (1) US11288887B2 (zh)
CN (1) CN110706258B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220010929A (ko) * 2020-07-20 2022-01-27 현대자동차주식회사 이종 센서 융합 장치 및 그의 이종 센서 융합 방법
CN112434596A (zh) * 2020-11-20 2021-03-02 中国建设银行股份有限公司 一种人员追踪方法、系统、电子设备及可读存储介质
CN112766038B (zh) * 2020-12-22 2021-12-17 深圳金证引擎科技有限公司 一种根据图像识别的车辆跟踪方法
CN114743135A (zh) * 2022-03-30 2022-07-12 阿里云计算有限公司 对象的匹配方法、计算机可读存储介质及计算机设备
CN114820700B (zh) * 2022-04-06 2023-05-16 北京百度网讯科技有限公司 对象跟踪方法及装置
US20240037761A1 (en) * 2022-07-29 2024-02-01 Getac Technology Corporation Multimedia object tracking and merging
CN116452595B (zh) * 2023-06-19 2023-08-18 烟台金丝猴食品科技有限公司 一种基于图像处理的控制方法及设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103259962A (zh) * 2013-04-17 2013-08-21 深圳市捷顺科技实业股份有限公司 一种目标追踪方法和相关装置
CN106537184A (zh) * 2014-05-21 2017-03-22 Dscg史罗轩公司 用于物体的实时跟踪的装置、系统及方法
CN106714112A (zh) * 2017-01-20 2017-05-24 西北工业大学 一种基于群智感知的移动车辆跟踪方法及系统
CN109522814A (zh) * 2018-10-25 2019-03-26 清华大学 一种基于视频数据的目标追踪方法及装置
CN110084157A (zh) * 2019-04-12 2019-08-02 北京旷视科技有限公司 图像重识别的数据处理方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7450735B1 (en) * 2003-10-16 2008-11-11 University Of Central Florida Research Foundation, Inc. Tracking across multiple cameras with disjoint views
JP2013174568A (ja) * 2012-02-27 2013-09-05 Fujitsu Ltd 移動体追跡装置、移動体追跡方法、及びプログラム
TWI459332B (zh) * 2012-05-15 2014-11-01 Ind Tech Res Inst 整合多攝影機影像的車輛追蹤方法及系統
US9280833B2 (en) * 2013-03-05 2016-03-08 International Business Machines Corporation Topology determination for non-overlapping camera network
AU2014240213B2 (en) * 2014-09-30 2016-12-08 Canon Kabushiki Kaisha System and Method for object re-identification
KR101897505B1 (ko) * 2017-01-23 2018-09-12 광주과학기술원 다중 카메라 환경에서의 관심 객체를 실시간으로 추적하기 위한 방법 및 시스템
US11055538B2 (en) * 2017-03-31 2021-07-06 Disney Enterprises, Inc. Object re-identification with temporal context
US10579880B2 (en) * 2017-08-31 2020-03-03 Konica Minolta Laboratory U.S.A., Inc. Real-time object re-identification in a multi-camera system using edge computing
US10176405B1 (en) * 2018-06-18 2019-01-08 Inception Institute Of Artificial Intelligence Vehicle re-identification techniques using neural networks for image analysis, viewpoint-aware pattern recognition, and generation of multi- view vehicle representations
US10922581B2 (en) * 2018-12-10 2021-02-16 Canon Kabushiki Kaisha Method, system and apparatus for performing re-identification in images captured by at least two camera pairs operating with different environmental factors
EP3667557B1 (en) * 2018-12-13 2021-06-16 Axis AB Method and device for tracking an object

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103259962A (zh) * 2013-04-17 2013-08-21 深圳市捷顺科技实业股份有限公司 一种目标追踪方法和相关装置
CN106537184A (zh) * 2014-05-21 2017-03-22 Dscg史罗轩公司 用于物体的实时跟踪的装置、系统及方法
CN106714112A (zh) * 2017-01-20 2017-05-24 西北工业大学 一种基于群智感知的移动车辆跟踪方法及系统
CN109522814A (zh) * 2018-10-25 2019-03-26 清华大学 一种基于视频数据的目标追踪方法及装置
CN110084157A (zh) * 2019-04-12 2019-08-02 北京旷视科技有限公司 图像重识别的数据处理方法及装置

Also Published As

Publication number Publication date
US20210110168A1 (en) 2021-04-15
CN110706258A (zh) 2020-01-17
US11288887B2 (en) 2022-03-29

Similar Documents

Publication Publication Date Title
CN110706258B (zh) 对象追踪方法及装置
WO2017096949A1 (zh) 一种对目标进行跟踪拍摄的方法、控制装置及系统
EP2858008B1 (en) Target detecting method and system
EP2710554B1 (en) Head pose estimation using rgbd camera
KR101500711B1 (ko) 컬러 히스토그램을 이용한 사람 추적 방법
CN109829933B (zh) 影像目标追踪方法及装置
CN109472828B (zh) 一种定位方法、装置、电子设备及计算机可读存储介质
CN110929669B (zh) 数据标注方法及装置
CN112528786B (zh) 车辆跟踪方法、装置及电子设备
JP6806188B2 (ja) 情報処理システム、情報処理方法及びプログラム
CN111382613B (zh) 图像处理方法、装置、设备和介质
CN111815675A (zh) 目标对象的跟踪方法及装置、电子设备和存储介质
CN111723768A (zh) 车辆重识别的方法、装置、设备和存储介质
CN111783650A (zh) 模型训练方法、动作识别方法、装置、设备以及存储介质
CN111028272B (zh) 对象追踪方法及装置
CN103955494A (zh) 目标对象的搜索方法、装置及终端
US9947106B2 (en) Method and electronic device for object tracking in a light-field capture
WO2023015938A1 (zh) 三维点检测的方法、装置、电子设备及存储介质
JP6659095B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR20140141239A (ko) 평균이동 알고리즘을 적용한 실시간 객체 추적방법 및 시스템
JPWO2018179119A1 (ja) 映像解析装置、映像解析方法およびプログラム
JP5539565B2 (ja) 撮像装置及び被写体追跡方法
CN114399532A (zh) 一种相机位姿确定方法和装置
CN111476063A (zh) 目标跟踪方法、装置、存储介质和电子设备
CN115984318B (zh) 一种基于特征最大关联概率的跨摄像头行人跟踪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant