CN112446241A - 用于获得目标对象的特征信息的方法、装置及电子设备 - Google Patents
用于获得目标对象的特征信息的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112446241A CN112446241A CN201910809627.4A CN201910809627A CN112446241A CN 112446241 A CN112446241 A CN 112446241A CN 201910809627 A CN201910809627 A CN 201910809627A CN 112446241 A CN112446241 A CN 112446241A
- Authority
- CN
- China
- Prior art keywords
- information
- template
- target
- frame image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 82
- 238000012545 processing Methods 0.000 claims abstract description 87
- 238000003860 storage Methods 0.000 claims abstract description 52
- 238000005070 sampling Methods 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 3
- 238000003672 processing method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 12
- 230000000875 corresponding effect Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 35
- 238000001514 detection method Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 10
- 230000004044 response Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000013139 quantization Methods 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 241000195940 Bryophyta Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002904 solvent Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例公开了用于获得目标对象的特征信息的方法、装置及电子设备。所述方法包括:客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。如此方案,在尽量小的影响算法跟踪效果的同时,降低算法的时间复杂度。
Description
技术领域
本申请涉及图像处理技术领域,特别是涉及用于获得目标对象的特征信息的方法、装置及电子设备。
背景技术
目标跟踪技术是计算机视觉领域的一个研究热点,广泛应用于安防(例如,道路交通场景)、监控(例如,人脸识别场景)、巡检(例如,无人机追踪场景)等领域,可以对视频序列中特定的目标对象进行跟踪,将目标对象在时空域上关联起来,获得目标对象的运动轨迹。也就是说,在视频序列的初始帧图像中确定出待跟踪的目标对象的位置信息后,通过目标跟踪技术便可在后续帧图像中对目标对象进行自动定位,预测目标对象在后续帧图像中的位置信息。
目前,常用的用于进行目标跟踪的算法主要是基于相关性滤波(correlationfilter)的目标跟踪算法。在该算法下,可以先根据目标对象在当前帧图像中的位置信息确定出目标对象所在的搜索区域,并对搜索区域的图像进行缩放处理生成模板图像(patch),再从模板图像中提取与目标对象相关的特征信息,以便在下一帧图像中进行特征匹配,获得目标对象在下一帧图像中的位置信息,实现目标跟踪的目的。
相关性滤波系列的算法发展很快,从MOSSE(Minimum Output Sum of SquaredError Filter)到CSK(Circulant Structure of Tracking-bydetection with Kernels)、CN(Color Name)、KCF(Kernelized Correlation Filters)、DCF(DiscriminativeCorrelation Filters)等算法的发展过程来看,提取的特征信息越来越丰富,定位效果越来越好,但是算法的时间复杂度却在逐渐增大,响应速度越来越慢。
如何兼顾目标跟踪算法的跟踪效果以及算法的时间复杂度,成为需要本领域技术人员解决的技术问题。
发明内容
本申请提供了一种用于获得目标对象的特征信息的方法、装置及电子设备,在尽量小的影响算法跟踪效果的同时,有效降低算法的时间复杂度。
本申请提供了如下方案:
一种用于获得目标对象的特征信息的方法,包括:
客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
从所述可用模板中确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
一种目标跟踪处理方法,包括:
客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象;
从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
一种用于获得目标对象的特征信息的装置,应用于客户端,包括:
尺寸信息获得单元,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
搜索区域获得单元,用于获得待跟踪的目标对象在当前帧图像中对应的搜索区域;
图像信息保存单元,用于为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
目标模板确定单元,用于从所述可用模板中确定目标模板;
模板图像生成单元,用于根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
特征信息提取单元,用于从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
一种目标跟踪处理装置,应用于客户端,包括:
尺寸信息获得单元,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
目标对象确定单元,用于在获得与道路上行驶的车辆相关的视频序列时,从所述视频序列中确定待跟踪的目标对象;
跟踪处理单元,用于从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象;
从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
根据本申请提供的具体实施例,本申请公开了以下技术效果:
本申请实施例中,客户端获得的可用模板的尺寸信息可以包括可用模板的宽度信息以及高度信息,这样,获得目标对象在当前帧图像中对应的搜索区域后,可以利用从可用模板中确定的目标模板,对搜索区域进行缩放处理,生成固定大小的模板图像,再从中进行特征信息提取。也就是说,通过目标模板的尺寸信息可以限定生成的模板图像的大小,有助于降低特征信息过程消耗的时长,进而降低目标跟踪算法的时间复杂度。特别是在搜索区域呈细长形状时,采用本申请实施例提供的目标模板,可以避免因为搜索区域长边的尺寸过大导致生成的模板图像中划分出大量cell,致使特征信息提取耗时长。此外,针对不同尺寸的搜索区域来说,通过相同的目标模板可以生成相同尺寸的模板图像,还有助于提高算法时间复杂度的可控性。
当然,实施本申请的任一产品并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种方法的流程图;
图2是本申请实施例提供的双线性差值的示意图;
图3是本申请实施例提供的提取FHOG特征信息的示意图;
图4是本申请实施例与现有技术的时间复杂度的对比图;
图5是本申请实施例提供的另一种方法的流程图;
图6是本申请实施例提供的一种装置的示意图;
图7是本申请实施例提供的另一种装置的示意图;
图8是本申请实施例提供电子设备的架构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解本申请实施例提供的具体实现方案,下面先对本方案的具体场景进行简单介绍。
通过目标跟踪技术,可以针对上一帧图像中的目标对象,在当前帧图像中进行自动定位,进而将前后帧图像中的目标对象关联起来。
具体地,获得待处理目标视频序列后,可以先从目标视频序列的初始帧图像中确定出目标对象的位置信息,再通过目标跟踪算法(例如,基于相关性滤波的目标跟踪算法)在后续帧图像中对目标对象进行定位跟踪。以目标视频序列为道路交通视频为例,目标对象可以是目标视频序列中出现的车辆、行人等特定物体。
作为一种示例,可以通过目标框在初始帧图像中确定目标对象的位置信息,即目标框圈定的区域即为目标对象所在的位置。例如,可以通过手动选择的方式,由客户端关联的用户从初始帧图像中圈定出目标对象的位置信息。
或者,可以通过深度学习的方式,在初始帧图像中自动检测目标对象的位置信息。以预先通过深度学习的方式训练获得车辆检测模型为例,如果将初始帧图像作为输入,经由车辆检测模型处理后输出唯一的检测结果,则可将该唯一的检测结果表示的车辆确定为目标对象,该唯一的检测结果确定的位置作为目标对象的位置信息,进行跟踪处理;如果经由车辆检测模型处理后输出至少两个检测结果,则可通过客户端对两个检测结果表示的车辆信息进行展示,以便用户从中确定待跟踪的目标对象。
可以理解地,初始帧图像可以是目标视频序列中的任一帧图像,例如,将目标视频序列的第一帧图像确定为初始帧图像。按照上文介绍的实现方式从初始帧图像中确定出目标对象的位置信息后,可以根据位置信息获得目标对象所在的搜索区域,进而对搜索区域的图像进行缩放处理生成模板图像,再从模板图像中提取与目标对象相关的特征信息,以便通过特征匹配的方式在后续帧图像中对目标对象进行定位跟踪。
目前,现有技术在生成模板图像时,通常会预先设置模板图像短边的尺寸信息,然后再比较搜索区域的高度信息以及宽度信息,从二者中确定出较短的一边,进而以该短边为基础进行缩放处理。
以模板的尺寸信息为64为例,即缩放处理生成的模板图像的短边的尺寸为64个像素点。如果搜索区域的尺寸信息为500x100,其中,高度为较短一边,故可以高度为基础进行缩放处理。具体地,可以先对搜索区域高度方向上的图像信息进行下采样处理,将搜索区域的高度缩小到64,再按照搜索区域的高宽比(aspect ratio)对搜索区域宽度方向上的图像信息进行下采样处理,将搜索区域的宽度等比例缩小到320,如此缩放处理生成的模版图像的尺寸信息为320x64。如果搜索区域的尺寸信息为128×200,则可先对宽度方向上的图像信息进行下采样到64,再将高度方向上的图像信息等比例缩小到100,如此缩放处理生成的模版图像的尺寸信息为64x100。
从模板图像中提取与目标对象相关的特征信息时,可以先将模板图像划分成若干个固定大小的局部区域块cell,再基于cell进行特征信息提取。其中,cell的大小可以为4×4、8×8等,本申请实施例对此可不做具体限定。
以cell的大小为4×4为例,上文进行缩放处理生成的两个模板图像中,320x64大小的模板图像可以划分出80×16个cell,其中包括78×14个可提取特征信息的有效cell(具体可参见下文所做介绍,此处暂不详述),即每个特征维度包含的特征信息量为78×14;64x100大小的模板图像可以划分出16×25个cell,其中包括14×23个可提取特征信息的有效cell,即每个特征维度包含的特征信息量为14×23。也就是说,模板图像的尺寸信息以及cell的尺寸信息决定了模板图像包括的cell的数量,且在cell大小固定不变的情况下,模板图像的尺寸越大划分出的cell数量就越多,每个特征维度包含的特征信息量就越大,算法的响应时间就越长。
综上,现有技术通过预设模板图像的短边尺寸信息,以及对搜索区域的图像进行等比例缩放生成模板图像的方案,可能会增加算法的时间复杂度,消耗大量的计算力,特别是在搜索区域呈细长形状时,对算法复杂度的影响非常明显。此外,针对不同尺寸的搜索区域来说,可能会生成不同尺寸的模板图像,对不同尺寸的模板图像进行特征信息提取消耗的时长势必也会有所不同,导致算法的时间复杂度不可控。
为了缩短算法的响应时间,降低算法的时间复杂度,本申请实施例提供一种用于获得目标对象的特征信息的工具,可以包括部署在用户关联的终端设备上的客户端。客户端可以获得至少一个可用模板的尺寸信息,且各可用模板的尺寸信息可以包括该可用模板的宽度信息以及高度信息,这样,客户端获得目标对象对应的搜索区域时,可以从可用模板中确定目标模板,并根据目标模板的尺寸信息对搜索区域进行缩放处理,生成固定大小的模板图像,再从中进行特征信息提取。也就是说,通过目标模板的尺寸信息可以限定生成的模板图像的大小,避免在搜索区域呈细长形状时,因为长边的尺寸过大导致模板图像中划分出大量cell,致使特征信息提取耗时长、计算力消耗大等问题。
以目标模板的尺寸信息为64×64为例,针对上文500x100大小的搜索区域以及128×200大小的搜索区域来说,进行缩放处理生成的模版图像的尺寸信息均为64x64。如果cell的大小为4×4,则本申请实施例的模板图像中可以划分出16×16个cell,其中包括14×14个可提取特征信息的有效cell。与现有技术相比,cell数量大幅下降,可有效降低算法的响应时间。此外,针对不同尺寸的搜索区域来说,通过相同的目标模板可以生成相同尺寸的模板图像,还有助于提高算法时间复杂度的可控性。
下面结合图1所示流程图,对本申请实施例的实现过程进行解释说明。
实施例1
S101:客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息。
获得目标对象对应的搜索区域后,通常需要将搜索区域的图像进行缩放处理生成模版图像,这主要是为了降低每个特征维度包含的特征信息量的大小,提高算法的处理效率。由上文介绍可知,在一些情况下,例如,搜索区域呈细长形状时,如果保持搜索区域的aspect ratio不变进行缩放处理,可能无法最大化降低每个特征维度包含的特征信息量。例如,针对上文320x64大小的模版图像来说,可提取的特征信息为78x14xd,其中,d为特征维度的数量,每个特征维度包含的特征信息量为78×14。通过该示例可知,模板图像较长的一边,即在宽度方向上包含的特征信息量依旧很大,存在进一步优化的可能性。
为了最大化的降低每个特征维度包含的特征信息量,本申请实施例可以预先配置可用模板在宽度方向以及高度方向上的尺寸信息,避免对搜索区域的图像进行等比例缩放导致模板图像某一边的尺寸过大的情况。
在一种实现方式下,可用模板的形状可以是正方形。例如,可用模板的尺寸信息为N×N,即,可用模板在宽度方向以及高度方向上均包括N个像素点。可以根据实际应用需求设置N的取值,避免N的取值过大导致每个特征维度包含的特征信息量过多,以及避免N的取值过小导致产生大部分参数退化为零的余弦窗。作为一种示例,N的取值范围可以体现为64~128个像素点,本申请实施例对此可不做具体限定。其中,余弦窗主要用于对提取到的特征信息进行平滑处理,具体实现过程可参照相关技术,此处不做详述。
或者,在另一种实现方式下,可用模板的形状可以是矩形。例如,可用模板的尺寸信息为n×M或者M×n,其中,M<n,并且M的取值是保证余弦窗函数有效的最小值。作为一种示例,M的取值可以为16或者32,本申请实施例对此可不做具体限定。
针对上文所举示例,客户端获得的可用模板的信息可以如下表1所示。
表1
可用模板的编号信息 | 可用模板的尺寸信息 |
1 | N×N |
2 | n×M |
3 | M×n |
本申请实施例中,客户端可以通过多种方式获得可用模板的尺寸信息。例如,可以将可用模板的尺寸信息保存在部署在云端服务器上的服务端,客户端可以访问服务端,从服务端获得至少一个可用模板的尺寸信息。或者,可以将可用模板的尺寸信息预先打包在客户端的实现代码中,客户端可以运行该实现代码通过本地读取的方式获得至少一个可用模板的尺寸信息。
此外,为了提高本申请实施例进行特征信息提取的灵活性,用户可以根据实际应用需求自定义可用模板的尺寸信息。具体地,客户端可以提供用于获得新增可用模板的尺寸信息的操作选项,并在通过操作选项获得新增可用模板的尺寸信息后进行本地保存,或者,可以将用户自定义的新增可用模板的尺寸信息提交到服务端进行保存,本申请实施例对此可不做具体限定。
S102:获得待跟踪的目标对象在当前帧图像中对应的搜索区域。
客户端在当前帧图像中进行特征信息提取时,可以先确定出目标对象在当前帧图像中的位置信息,再根据位置信息获得目标对象对应的搜索区域。
其中,如果当前帧图像为初始帧图像,客户端可以如上文介绍,通过手动选择或者深度学习的方式确定目标对象在当前帧图像中的位置信息。如果当前帧图像为后续帧图像,考虑到目标对象在相邻的前后两帧图像中的位移通常不会太大,客户端可以将目标对象在上一帧图像中定位得到的位置信息确定为目标对象在当前帧图像中的位置信息。
作为一种示例,如果通过目标框确定目标对象的位置信息,可以以目标框的中心为中心,将大于目标框尺寸的一块区域确定为目标对象对应的搜索区域,该搜索区域也可以称为ROI(region of interest,感兴趣区域)。例如,目标框的尺寸信息为60×60,如果将目标框大小的2.5倍的一块区域确定为目标对象对应的搜索区域,则搜索区域的尺寸信息为150×150。
在实际应用过程中,如果搜索区域超出当前帧图像的边界,导致搜索区域中包括部分空白区域,还可以利用当前帧图像中与空白区域相邻的图像信息,对搜索区域的图像进行边界填充,避免因为从空白区域中提取不到有效的特征信息,影响对目标对象进行定位的准确性。
可以理解地,对于相同的填充行数或者填充列数来说,搜索区域的尺寸越大,进行边界填充的耗时就越长。针对于此,本申请实施例可以提供如下优选方案:在搜索区域超出当前帧图像的边界时,可以先对当前帧图像进行下采样处理,获得尺寸相对较小的处理后当前帧图像,这样,处理后当前帧图像中的新的搜索区域的尺寸也会随之变小,对尺寸较小的新的搜索区域进行边界填充,有助于降低算法的时间复杂度。
具体地,确定搜索区域超出当前帧图像的边界时,即可对当前帧图像进行下采样处理;或者,确定搜索区域超出当前帧图像的边界时,可以获得对搜索区域进行边界填充的行数信息(可以记为dx)以及列数信息(可以记为dy),并在行数信息以及列数信息满足第一预设条件时,再对当前帧图像进行下采样处理。
下面对第一预设条件进行举例说明。
在一种实现方式下,第一预设条件可以为行数信息以及列数信息中的最大值超过第一阈值T1,即max(dx,dy)>T1。作为一种示例,第一阈值T1可以由当前帧图像的宽度信息W以及高度信息H中的最小值、以及第一系数k1确定,例如,T1=k1×min(W,H),其中,k1的取值范围可以体现为0.1~0.5。本实现方式下,可以根据行数信息以及列数信息中的最大值、以及第一阈值,确定对当前帧图像进行下采样处理的第一下采样倍数S1,例如,S1=max(dx,dy)/T1。
或者,在另一种实现方式下,第一预设条件可以为行数信息以及列数信息中的最小值超过第二阈值T2,即min(dx,dy)>T2。作为一种示例,第二阈值T2可以由当前帧图像的宽度信息以及高度信息中的最小值、以及第二系数k2确定,例如,T2=k2×min(W,H),其中,k2的取值范围可以体现为0.1~0.2。本实现方式下,可以根据行数信息以及列数信息中的最大值、以及第二阈值,确定对当前帧图像进行下采样处理的第二下采样倍数S2,例如,S2=max(dx,dy)/T2。
下面对本优选方案的实现过程进行举例说明。
如果当前帧图像的尺寸信息为1280×720;目标框的位置信息为(x1,y1),具体可体现为目标框左上角的坐标信息,目标框的尺寸信息为(w1,h1);根据目标框确定的搜索区域的位置信息为(x2,y2),可以体现为搜索区域左上角的坐标,搜索区域的尺寸信息为(w2,h2)。
处理过程可以体现为:
首先,根据搜索区域的位置信息以及尺寸信息获得需要填充的行数信息以及列数信息。具体地,
需要填充的列数信息dy=max(-x2,0)+max(x2+w2-W,0)
需要填充的行数信息dx=max(-y2,0)+max(y2+h2-H,0)
本示例中,可以将当前帧图像的左侧边界在x轴上的坐标x0设置为0,通过max(-x2,0)的取值可以确定搜索区域的左侧是否超出当前帧图像的左侧边界,如果max(-x2,0)=0,则说明未超出左侧边界,左侧需要填充的列数dy1=0,反之则说明超出左侧边界,且dy1=x2;通过max(x2+w2-W,0)的取值可以确定搜索区域的右侧是否超出当前帧图像的右侧边界,如果max(x2+w2-W,0)=0,则说明未超出右侧边界,右侧需要填充的列数dy2=0,反之则说明超出右侧边界,且dy2=x2+w2-W。
此外,还可以将当前帧图像的上方边界在y轴上的坐标y0设置为0(其中,向下为y轴的正方向),通过max(-y2,0)可以确定搜索区域的上方是否超出当前帧图像的上方边界,以及需要填充的行数dx1;通过max(y2+h2-H,0)可以确定搜索区域的下方是否超出当前帧图像的下方边界,以及需要填充的行数dx2。
接着,根据当前帧图像的尺寸信息确定第一阈值T1,如果max(dx,dy)>T1,则可确定可以先对当前帧图像进行下采样处理,且第一下采样倍数S1=max(dx,dy)/T1。需要说明的是,本示例中当前帧图像的高度信息小于宽度信息,故可以根据当前帧图像的高度信息确定T1,如果k1=0.1,则T1=0.1*720=72。
最后,根据S1对当前帧图像进行下采样处理,获得处理后当前帧图像。同时,还可以根据S1对搜索区域的尺寸信息以及位置信息进行调整,获得新的搜索区域的尺寸信息(w2/S1,h2/S1),新的搜索区域的位置信息(x2/S1,y2/S1)。在后续处理过程中,可以对新的搜索区域中的空白区域进行边界填充,相对于直接对(w2,h2)大小的搜索区域进行边界填充,如此处理有助于降低边界填充过程的耗时,进而降低算法的时间复杂度。
在实际应用过程中,客户端可以如上文所举示例,通过一种实现方式获得唯一下采样倍数对当前帧图像进行下采样处理;或者,客户端可以通过以上介绍的两种实现方式分别获得下采样倍数S1以及S2,并从中选取最大的下采样倍数max(S1,S2)对当前帧图像进行下采样处理,本申请实施例对此可不做具体限定。
S103:为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区。
本申请实施例中,可以为搜索区域创建对应的存储区,并将搜索区域关联的图像信息拷贝到存储区后再进行缩放处理,防止直接在当前帧图像中对搜索区的图像进行缩放处理,对当前帧图像造成影响。
作为一种示例,客户端创建的存储区以及搜索区域所属的图像帧之间的关联关系可以如下表2所示。
表2
图像帧的标识信息 | 存储区的标识信息 |
图像帧1 | 存储区1 |
图像帧2 | 存储区2 |
…… | ...… |
可以理解地,搜索区域的尺寸越大,需要拷贝到存储区的图像信息就越多,拷贝过程耗时就越长,同样会增加算法的时间复杂度。针对于此,本申请实施例可以提供如下优选方案:在搜索区域的尺寸信息满足第二预设条件时,即搜索区域的尺寸过大时,可以先对当前帧图像进行下采样处理,获得尺寸相对较小的处理后当前帧图像,这样,处理后当前帧图像中的新的搜索区域的尺寸也会随之变小,对尺寸较小的新的搜索区域关联的图像信息进行拷贝处理,有助于降低算法的时间复杂度。
下面对第二预设条件进行举例说明。
在一种实现方式下,第二预设条件可以为搜索区域的高度信息h2以及宽度信息w2中的最大值超过第三阈值T3,即max(w2,h2)>T3。作为一种示例,第三阈值可以由当前帧图像的宽度信息以及高度信息中的最小值、以及第三系数k3确定,例如,T3=k3×min(W,H),其中,k3的取值范围可以体现为0.5~1.0。本实现方式下,可以根据第三系数确定对当前帧图像进行下采样处理的第三下采样倍数S3,例如,S3=1/k3。
或者,在另一种实现方式下,第二预设条件可以为搜索区域的边界与当前帧图像的对应边界之间距离的最小值小于第四阈值T4。本实现方式下,对当前帧图像进行下采样处理的第四下采样倍数S4可以体现为S4=min(h2,w2)/TW,其中,TW是下采样处理后当前帧图像中新的搜索区域的预设边长,TW不大于目标模板最短边的长度,例如,目标模板的大小为64×64,则TW的取值可以为64。
其中,搜索区域的边界与当前帧图像的对应边界之间的距离(可以体现为距离的绝对值)可以包括:搜索区域左侧边界到当前帧图像左侧边界的距离值△x1,搜索区域右侧边界到当前帧图像右侧边界的距离值△x2,搜索区域上方边界到当前帧图像上方边界的距离值△y1,以及搜索区域下方边界到当前帧图像下方边界的距离值△y2,如果min(△x1,△x2,△y1,△y2)<T4,则可按照本优选方案先对当前帧图像进行下采样处理。
对于第四阈值T4来说,如果当前帧图像的尺寸信息与目标对象的尺寸信息之间的比例值固定不变,则可根据当前帧图像的尺寸信息确定T4。例如,当前帧图像的尺寸信息为200×200,作为目标对象的车辆的尺寸信息为10×10,若两个尺寸信息之间的比例值固定不变,则可将当前帧图像大小的10%确定为第四阈值,即T4=20。此外,如果当前帧图像的尺寸信息与目标对象的尺寸信息之间的比例值发生变化,则可根据当前帧图像的尺寸信息获得的第四阈值T4。具体地,可以获得当前帧图像的高度信息与搜索区域的高度信息之间的比值以及当前帧图像的宽度信息与搜索区域的宽度信息之间的比值将最大比值对应的当前帧图像的边长确定为基础边长,例如,如果则可将当前帧图像的宽度确定为基础边长;如果则可将当前帧图像的高度确定为基础边长。最后,根据基础边长的长度信息S以及第四系数k4获得第四阈值,例如,T4=k4×S,其中,k4的取值范围可以体现为0.05~0.1。
下面对本优选方案的实现过程进行举例说明。
如果当前帧图像的尺寸信息为1280×720,因为当前帧图像的高度信息小于宽度信息,故可以根据高度信息H确定T3,如果k3=0.5,则T3=0.5*720=360。获得搜索区域的尺寸信息,如果max(w2,h2)>T3,则可先对当前帧图像进行下采样处理,且第三下采样倍数S3=1/k3=2。
同时,客户端还可以根据S3对搜索区域的尺寸信息以及位置信息进行调整,获得新的搜索区域的尺寸信息(w2/S3,h2/S3),新的搜索区域的位置信息(x2/S3,y2/S3)。后续处理过程中,可以将新的搜索区域关联的图像信息拷贝到存储区,相对于直接拷贝(w2,h2)大小的图像信息来说,如此处理有助于降低拷贝过程的耗时,进而降低算法的时间复杂度。
在实际应用过程中,客户端可以如上文所举示例,通过一种实现方式获得唯一下采样倍数对当前帧图像进行下采样处理;或者,客户端可以通过以上介绍的两种实现方式分别获得下采样倍数S3以及S4,并从中选取最大的下采样倍数max(S3,S4)对当前帧图像进行下采样处理,本申请实施例对此可不做具体限定。
S104:确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像。
在一种实现方式下,可以对目标模板进行默认设置,例如,将N×N的可用模板默认设置为目标模板。作为一种示例,客户端的实现代码中可以包括对目标模板进行默认配置的代码行,这样,在客户端进行目标跟踪时,通过运行该代码行便可确定出目标模板。或者,作为另一种示例,用户可以根据实际的应用需求从可用模板中选择目标模板进行默认设置。具体地,客户端可以对可用模板的尺寸信息进行展示,并在目标模板被选中的情况下,对目标模板进行默认设置。这样,在客户端进行目标跟踪时,便可将默认设置的模板确定为目标模板进行模板图像生成。
或者,在另一种实现方式下,可以根据初始帧图像中搜索区域的高宽比,从可用模板中确定目标模板。具体地,可以获得初始帧图像中确定的目标对象对应的搜索区域的目标高宽比,将与目标高宽比接近的可用模板确定为目标模板。例如,客户端获得3个可用模板:N×N(即高度信息以及宽度信息相同)、n×M(即宽度信息大于高度信息)、以及M×n(即宽度信息小于高度信息),如果搜索区域的尺寸信息为500×100,即宽度信息大于高度信息,则可将n×M确定为目标模板;如果搜索区域的尺寸信息为128×200,则可将M×n确定为目标模板;如果搜索区域的尺寸信息为128×128,则可将N×N确定为目标模板。
此外,如果针对同一形状获得至少两个不同高宽比的可用模板,例如,可用模板1的尺寸信息为64×16,可用模板2的尺寸信息为32×16,二者均属于n×M形状的可用模板,只是高宽比不同。如果搜索区域的尺寸信息为500×100,即目标高宽比为5:1,结合可用模板1的高宽比4:1,以及可用模板2的高宽比2:1,可以将高宽比与目标高宽比最接近的可用模板1确定为目标模板,如此既有助于降低算法的时间复杂度,又可尽量减小目标对象的形变。
可以理解地,通过初始帧图像中的搜索区域确定出目标模板后,在对后续帧图像进行目标跟踪处理时,可以直接利用确定好的目标模板进行模板图像生成即可。
以搜索区域的尺寸信息为500×100为例,如果目标模板的尺寸信息为64×64,则可对搜索区域在宽度方向上的图像信息进行下采样到64,以及对搜索区域在高度方向上的图像信息进行下采样到64。具体过程可以体现为:
首先,根据搜索区域的尺寸信息以及目标模板的尺寸信息,分别计算宽度方向上的缩放比例scaleX=w0/w2=500/64,以及高度方向上的缩放比例scaleY=h0/h2=100/64。其中,w0为目标模板的宽度信息,h0为目标模板的高度信息,w2为搜索区域的宽度信息,h2为搜索区域的高度信息。
可以理解地,如果按照S102以及S103处介绍的优选方案获得新的搜索区域,则可根据新的搜索区域的尺寸信息以及目标模板的尺寸信息,分别计算宽度方向以及高度方向上的缩放比例,具体实现过程可参照上文所做介绍,此处不再举例说明。
其次,根据scaleX对搜索区域宽度方向上的图像信息进行缩放处理,以及根据scaleY对搜索区域高度方向上的图像信息进行缩放处理,获得模版图像。
作为一种示例,可以通过双线性插值的方式对图像信息进行缩放处理。下面结合图2所示示意图对双线性插值的实现过程进行解释说明。
1.根据缩放比例scaleX以及scaleY计算模版图像中的像素点pt(xt,yt)对应在搜索区域中的位置pr(xr,yr),具体可体现为以下公式1:
2.在搜索区域的图像中确定pr相邻的四个像素点(Q12、Q22、Q11、Q21),并根据四个像素点的像素值计算得到pr的像素值,也即模版图像中pt的像素值,具体可体现为以下公式2以及公式3:
按照以上过程,可以计算得到模版图像中每个像素点的像素值,至此便可完成对搜索区域的图像进行缩放处理生成模板图像的过程。
以上缩放处理过程中,如果搜索区域的尺寸小于目标模板的尺寸,则可通过对搜索区域的图像进行上采样的方式,生成模板图像;如果搜索区域的尺寸大于目标模板的尺寸,则可通过对搜索区域的图像进行下采样的方式,生成模板图像。具体可结合实际应用需求对搜索区域的图像进行缩放处理。
需要说明的是,本申请实施例中的目标模板保持预设的尺寸信息不变,生成的模板图像中的目标对象可能会有形变,考虑到在前后帧图像中进行目标跟踪时,目标模板的尺寸信息固定不变,且搜索区域的尺寸信息固定不变,导致每次形变的比例都是相同的,因此形变对特征信息提取的影响不大。此外,如果目标对象为刚体,例如目标对象为车辆,则形变导致特性信息减弱的可能性也很低。因此,即使本申请实施例的处理过程可能会导致目标对象发生形变,但对目标跟踪算法的定位效果的影响较小。
S105:从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
下面以KCF算法为例,对从模板图像中提取特征信息的实现过程进解释说明。
KCF算法实现时,可以从模板图像中提取以下两种类型的特征信息:
1.基于HOG(Histogram of Oriented Gradient,方向梯度直方图)得到的进阶HOG[4],可以记为FHOG。
本申请实施例中,可以通过计算和统计cell梯度方向直方图的方式,获得HOG特征。提取HOG特征信息时,可以将0度~360度(可以对应提取到有符号HOG特征信息)或者0度~180度(可以对应提取到无符号HOG特征信息)均分为若干个区间,每个区间可以称为一个bin。例如,每20度划分为一个bin,则有符号HOG特征信息可以对应有18个bin,即具有18个特征维度,无符号HOG特征信息可以对应有9个bin,即具有9个特征维度。
进行特征信息提取时,可以统计每个cell中梯度方向角度值对应到不同bin的数量,得到该cell的有符号HOG特征信息;还可以统计每个cell中梯度方向角度值的绝对值对应到不同bin的数量,得到该cell的无符号HOG特征信息。
下面结合图3所示示意图,对提取FHOG特征信息的实现过程进行解释说明。
首先,每个cell可以与周围的8个cell组成一个block,即一个block可以包括9个cell。对于block中心的cell0来说,可以与cell8、cell1以及cell2组成一个包括4个cell的small block1,与cell2、cell3以及cell4组成一个包括4个cell的small block2,与cell4、cell5以及cell6组成一个包含4个cell的small block3,与cell6、cell7以及cell8组成一个包含4个cell的small block4,也就是说,一个blcok可以确定出四个small block。
其次,针对每个small block来说,可以获得其包括的每个cell的有符号HOG特征信息以及无符号HOG特征信息,组合得到各cell的HOG特征信息,再将该small block中的4个cell的HOG特征进行归一化,并按照预设的阈值进行截断处理,获得每个small block的HOG特征信息。其中,截断处理指的是如果HOG特征信息中某个bin对应的统计结果占比超过阈值,例如,阈值为0.2,则可将该bin对应的统计结果占比确定为0.2。
图3所举示例中,每个small block可以得到18维的有符号HOG特征信息以及9维的无符号HOG特征信息,对4个small block的有符号HOG特征信息以及无符号HOG特征信息分别求均值,便可得到FHOG特征信息中前27个维度的特征信息。
最后,对每个small block对应的27维的HOG特征信息求均值,可以得到FHOG特征信息中后4个维度的特征信息。也就是说,可以从模板图像中提取到31个维度的FHOG特征信息。
2.对模板图像在Lab颜色空间进行量化,获得Lab特征信息。
Lab色彩模型是一种基于生理特征的颜色系统,由亮度(L)和有关色彩的a、b三个要素组成。其中,L分量表示亮度(Luminosity),a分量表示从红色到绿色的范围,b分量表示从黄色到蓝色的范围。L的值域可以从0到100,当L=50时,相当于50%的黑;a和b的值域可以从+127到-128,其中,a=+127时表示红色,a的取值渐渐过渡到-128时就变成绿色;b=+127时表示黄色,b的取值逐渐过渡到-128时就变成蓝色。所有的颜色均可由这三个分量交互变化所组成。
下面对提取Lab特征信息的过程进行解释说明。
首先,将自然图像在Lab颜色空间进行聚类,获得15个质心,每个质心分别对应一组(L,a,b)值。
其次,对每个cell中的像素点进行量化处理。例如,可以分别计算cell中每个像素点到15个质心的距离,将像素点划分到距离最近的一个质心对应的分组,以此获得cell中所有像素点对应到15个质心的量化结果,作为该cell的15维的Lab特征信息。
最后,对所有cell的Lab特征信息进行拼接处理,获得模板图像的Lab特征信息。
由上文介绍可知,cell的数量可以由模板图像的尺寸信息以及cell的尺寸信息确定。例如,模板图像的尺寸信息为64x64,cell的尺寸信息为4x4,则模板图像可划分出16x16个cell。根据FHOG特征提取的实现方式可知,模板图像最边缘一圈的cell无法进行特征信息提取,因此,模板图像可划分出14x14个有效的cell。也就是说,从模板图像中提取的FHOG特征信息为14x14x31,Lab特征信息为14x14x15。如果将FHOG特征信息以及Lab特征信息直接按照通道级连,则上文所举模板图像的示例中,可以获得14x14x46的特征信息,其中,特征维度的数量为46,每个特征维度包括的特征信息量为14x14。
综上,便可提取到与目标对象相关的特征信息,进而通过特征匹配的方式在下一帧图像中对目标对象进行自动定位。具体地,可以先在下一帧图像中获得一个检测基础样本,再基于该检测基础样本获得多个偏移样本,然后利用预先训练的分类器对检测基础样本以及偏移样本进行特征匹配,并将置信度最大的样本确定为目标样本,再通过目标样本相对于检测基础样本的偏移量,获得目标对象在下一帧图像中的位置信息。具体匹配过程可参加相关技术,此处不做详述。
利用当前帧图像中的特征信息以及下一帧图像中样本的特征信息进行特征匹配时,需要分别获得二者在各个特征维度上的相关响应,且将d个特征维度的相关响应结果进行累加作为特征匹配的响应结果。其中,每个特征维度包括的特征信息量的大小决定了相关响应运算的复杂度,特征维度的数量决定了需要运行多少次相关响应的运算。也就是说,特征维度的数量,以及每个特征维度包括的特征信息量会影响算法的时间复杂度。
以上通过目标模板的尺寸信息限定模板图像的大小、先对当前帧图像进行下采样处理再对搜索区域进行边界填充、先对当前帧图像进行下采样处理再对搜索区域关联的图像信息进行拷贝处理等方案,均有助于降低每个特征维度包括的特征信息量,进而降低算法的时间复杂度。
此外,本申请实施例还可以提供如下两种优选方案,有助于减少特征维度的数量,进而降低算法的时间复杂度。
优选方案一,可以降低FHOG特征信息的维度数量。
由上文介绍可知,FHOG特征信息可以包括有符号HOG特征信息以及无符号HOG特征信息,其中,有符号HOG特征信息可以在一定程度上表征无符号HOG特征信息,即FHOG特征信息中可能存在冗余。故本优选方案可以在提取FHOG特征的实现代码中删除用于提取无符号HOG特征信息的代码行,如此,便可在提取FHOG特征信息时去掉无符号HOG特征信息(即去掉图3中虚线框部分的特征信息)。也就是说,FHOG特征信息可以包括:18维的有符号HOG特征信息,以及对18维的有符号HOG特征信息求均值获得的4个维度的特征信息,即,提取的FHOG特征信息可以包括22个特征维度。
优选方案二,可以降低Lab特征信息的维度数量。
由上文介绍可知,基于几个质心进行量化处理便可获得几个维度的Lab特征信息,故本优选方案可以通过减少质心数量的方式,降低Lab特征信息的维度数量。
如果对15个质心进行聚类处理,获得A个新的质心,则可根据新的质心重新对模板图像中的像素点进行量化处理,获得A维的Lab特征信息。其中,A<15,可以根据实际应用需求确定A的取值,避免A的取值过大导致特征维度数量过多,以及避免A的取值过小导致图像特征中Lab特征信息影响微弱。作为一种示例,A的取值可以为5,也就是说,Lab特征信息的维度数量可以降低至5个维度。
如果按照以上两个优选方案进行特征信息提取,则针对上文64×64大小的模板图像来说,可以提取的FHOG特征信息为14x14x22,Lab特征信息为14x14x5,进行通道级连后可以获得14x14x27的特征信息。与上文14x14x46大小的特征信息相比,可以有效降低算法的时间复杂度。
此外,考虑到Lab颜色特征易受光照变化等因素的影响,适当降低Lab特征信息的维数,还有助于保持整体特征信息的稳定性。
下面结合具体示例,对本申请实施例的有益效果进行举例说明。
获得206个实验用视频序列,包括在多个不同地点拍摄到的真实的道路交通场景,且覆盖了晴天、雨天、白天、夜晚等多种场景,每个视频序列的长度在50~150帧之间。分别按照现有技术以及本申请实施例提供的方案提取目标对象的特征信息,目标跟踪效果如下:
按照现有技术的方案进行特征提取时,如果模板尺寸为64,保持aspect ratio不变对搜索区域进行缩放处理生成模版图像,则模版图像的较短边为64,从模版图像中提取的特征信息由31维的FHOG特征以及15维的Lab特征组成。
按照本申请实施例的方案进行特征提取时,如果模板尺寸为64x64,可以对搜索区域进行缩放处理生成64x64大小的模版图像,且从模版图像中提取的特征信息由22维的FHOG特征以及5维的Lab特征组成。
按照以上示例进行实验时,可以获得下表3所示实验测试结果。
表3
精度 | 失败率 | 时间复杂度(ms) | |
现有技术 | 91.97% | 11.63% | 2.85 |
本申请实施例 | 91.18% | 10.68% | 1.82 |
由表3可知,本申请实施例提供的方案相较于现有技术的方案,跟踪算法的时间复杂度下降了36.14%,跟踪算法的精度下降了0.79%,跟踪算法的失败率提高了0.95%。虽然算法的跟踪效果有所降低,但降低的程度均属于可接受范围内,且与时间复杂度降低的程度相比,本申请实施例的整体效果很优,很好的兼顾了跟踪效果与时间复杂度两方面。
此外,为了更直观的体现本申请实施例对时间复杂度的优化效果,可以参见图4所示折线图,展示了206个视频序列中每个视频序列的跟踪耗时对比情况。其中,1表示现有技术提供的方案,2表示本申请实施例提供的方案。
可以理解地,客户端获得视频序列后,可以直接根据本申请实施例提供的用于获得目标对象特征信息的方案,对视频序列中的目标对象进行跟踪处理。或者,作为一种优选方案,客户端可以根据实际应用需求,确定需要降低特征信息提取过程消耗的计算力时,再利用本申请实施例提供的方案对视频序列中的目标对象进行跟踪处理。
一种方式下,可以获得客户端关联的终端设备的可用处理资源,例如,终端设备的CPU的可用资源,据此确定当前是否需要节省设备的计算力。具体地,可以根据使用需要确定第一阈值,如果终端设备的可用处理资源小于第一阈值,则可确定终端设备的处理资源紧张,需要通过本申请实施例提供的方案降低特征信息提取过程消耗的计算力,以此缓解目标跟踪对设备处理资源的消耗。如果根据第一阈值确定设备的处理资源相对空闲,则可利用其他方案(例如,现有技术提供的利用仅设置短边尺寸信息的模板获得目标对象的特征信息的方案)提取目标对象的特征信息。
或者,另一种方式下,可以获得需要跟踪的目标对象的数量信息,以及根据使用需求确定的第二阈值,如果目标对象的数量大于第二阈值,则可确定需要降低各目标对象的特征信息提取过程消耗的计算力。以视频序列为道路交通视频为例,对于较为拥堵的路段A来说,确定需要节省设备的计算力时,可以利用本申请实施例提供的特征信息提取方案实现目标跟踪;对于车辆较少的路段B来说,则可利用其他方案提取目标对象的特征信息实现目标跟踪。或者,客户端还可以根据道路交通在不同时段的繁忙程度,确定是否启用本申请实施例提供的方案,以此节省设备的计算力。例如,对于路段C来说,在上下班高峰时段的车流量较大,可以利用本申请实施例提供的特征信息提取方案实现目标跟踪;在车流量相对较小的空闲时段,则可利用其他方案提取目标对象的特征信息实现目标跟踪。
可以理解地,本申请实施例提供的方案可以提取不同场景下拍摄的视频序列中的目标对象的特征信息,实现目标跟踪。下面以道路交通场景为例,结合图5所示流程图,对该场景下的目标跟踪过程进行解释说明。
实施例2
S201:客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息。
S201的实现过程可参见上文S101处所做介绍,此处不再详述。
S202:如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象。
客户端获得与道路上行驶的车辆相关的视频序列(即,道路交通视频)后,可以从视频序列中确定当前帧图像,进而从当前帧图像中确定待跟踪的目标对象,对目标对象进行跟踪处理。
一种方式下,目标对象可以是当前帧图像中的车辆。通过对车辆进行目标跟踪可以确定车辆行驶过程中是否存在违规行为,例如,通过目标跟踪确定车辆在禁止掉头的路口进行掉头行驶,据此可以确定车辆出现违规行为。
另一种方式下,目标对象可以是车辆周围的障碍物,例如,其他车辆、行人、路面建筑设施等。对车辆周围的障碍物进行目标跟踪,有助于提高驾驶安全性。例如,可以根据障碍物的跟踪结果,向驾驶员推送与障碍物相关的信息,在需要时提醒驾驶员进行避障处理;对于自动驾驶车辆来说,可以根据障碍物的跟踪结果调整车辆的行驶路线,自动进行避障处理。
可以理解地,在确定目标对象时,可以将当前帧图像包括的所有对象均确定为目标对象,进行跟踪处理。或者,客户端可以基于不同的跟踪目的,分别为当前帧图像包括的每个对象确定各自对应的跟踪模式,并根据跟踪模式信息,从当前帧图像包括的对象中确定目标对象,进行跟踪处理。作为一种示例,跟踪模式可以包括:需要进行跟踪处理的对象、不需要进行跟踪处理的对象。
以自动驾驶场景为例,为了获得自动驾驶车辆周围的障碍物的分布情况,客户端可以将当前帧图像包括的所有对象,均确定为需要进行跟踪处理的目标对象,利用本申请实施例提供的方案提取目标对象的特征信息,进行目标跟踪。
或者,为了进行避障处理,客户端可以将与自动驾驶车辆相距较近、可能会影响自动驾驶车辆正常行驶的对象,确定为需要跟踪处理的目标对象;或者,可以根据自动驾驶车辆与障碍物之间的相对运行方向,将逐渐靠近自动驾驶车辆的对象确定为需要跟踪处理的目标对象,利用本申请实施例提供的方案提取目标对象的特征信息,进行目标跟踪。
由上文介绍可知,以上两种方式均是以当前帧图像包括的对象为基本粒度,从中确定目标对象。作为一种示例,还可以进一步进行粒度细分,将车辆的特定区域确定为待跟踪的目标对象。
其中,车辆的特定区域可以是载客区域。例如,载客区域可以包括驾驶员所在位置和/或乘客所在位置。可以根据车辆与载客区域之间的相对位置关系,在当前帧图像中确定出载客区域,进而以载客区域为目标对象进行跟踪处理,确定在车辆行驶过程中是否存在接打电话(主要指驾驶员)、未系安全带、人员超载等违规行为。
或者,车辆的特定区域可以是载货区域。同样可以根据车辆与载货区域之间的相对位置关系,在当前帧图像中确定出载货区域,再以载货区域为目标对象进行跟踪处理,确定在车辆行驶过程中是否存在超高超宽等违规行为。
需要说明的是,本实施例中与道路上行驶的车辆相关的视频序列,可以是车辆上安装的车载摄像头采集后提交到客户端,对应于此,客户端可以据此对车辆周围的障碍物进行跟踪处理,确保车辆行驶的安全性。或者,视频序列可以是道路上布设的路侧设备采集后提交到客户端,例如,智能车路协同系统中的感知基站、道路监控系统中用于拍摄违章的摄像头等,均可采集与道路上行驶的车辆相关的视频序列提交到客户端。同样地,客户端可以据此对车辆周围的障碍物进行跟踪处理,确保车辆行驶的安全性;此外,在客户端获得合法授权后,还可以对车辆以及车辆的特定区域进行目标跟踪,确定车辆行驶过程中是否存在违规行为。
优选地,确定车辆存在违规行为时,客户端可以将车辆的标识信息以及违规行为信息提交到服务端,以便服务端据此实现交通管理的安全性以及智能化处理。例如,服务端接收到客户端提交的信息后,可以提示相关人员对违规行为进行核查,并在需要时开具罚单。
S203:从所述至少一个可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
S203的实现过程可参见上文S102~S105处所做介绍,此处不再详述。
此外,本申请实施例还提供了一种用于获得目标对象的特征信息的装置,参见图6,该装置应用于客户端,包括:
尺寸信息获得单元301,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
搜索区域获得单元302,用于获得待跟踪的目标对象在当前帧图像中对应的搜索区域;
图像信息保存单元303,用于为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
目标模板确定单元304,用于从所述可用模板中确定目标模板;
模板图像生成单元305,用于根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
特征信息提取单元306,用于从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
其中,如果需要降低特征信息提取消耗的计算力,则利用从所述可用模板中确定的所述目标模板,获得所述目标对象的特征信息。
其中,如果所述客户端关联的终端设备的可用处理资源小于第一阈值,则确定需要降低特征信息提取消耗的计算力。
其中,根据待跟踪的目标对象的数量大于第二阈值,则确定需要降低特征信息提取消耗的计算力。
其中,所述特征信息提取单元具体用于:
如果所述特征信息为FHOG特征信息,则在提取所述FHOG特征的实现代码中删除用于提取无符号HOG特征信息的代码行,以减少所述FHOG特征信息包括的特征维度的数量。
其中,所述特征信息提取单元具体用于:
如果所述特征信息为Lab特征信息,则对原有质心进行聚类处理获得新的质心,所述新的质心的数量少于所述原有质心的数量;
根据所述新的质心从所述模板图像中提取所述Lab特征信息,以减少所述Lab特征信息包括的特征维度的数量。
其中,所述装置还包括:
第一下采样处理单元,用于在所述搜索区域超出所述当前帧图像的边界时,对所述当前帧图像进行下采样处理,生成处理后当前帧图像;
边界填充单元,用于对所述处理后当前帧图像中的新的搜索区域进行边界填充;
所述图像信息保存单元具体用于:将填充后的新的搜索区域关联的图像信息保存到所述存储区。
其中,所述装置还包括:
填充信息获得单元,用于在确定所述搜索区域超出所述当前帧图像的边界时,获得对所述搜索区域进行边界填充的行数信息以及列数信息;
所述第一下采样处理单元具体用于:如果所述行数信息以及所述列数信息满足第一预设条件,则对所述当前帧图像进行下采样处理。
其中,所述第一预设条件为所述行数信息以及所述列数信息中的最大值超过第一阈值,所述第一阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第一系数确定;
则根据所述行数信息以及所述列数信息中的最大值、以及所述第一阈值,确定对所述当前帧图像进行下采样处理的下采样倍数。
其中,所述第一预设条件为所述行数信息以及所述列数信息中的最小值超过第二阈值,所述第二阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第二系数确定;
则根据所述行数信息以及所述列数信息中的最大值、以及所述第二阈值,确定对所述当前帧图像进行下采样处理的下采样倍数。
其中,所述装置还包括:
第二下采样处理单元,用于在所述搜索区域的尺寸信息满足第二预设条件时,对所述当前帧图像进行下采样处理,生成处理后当前帧图像;
所述图像信息保存单元具体用于:
将所述处理后当前帧图像中的新的搜索区域关联的图像信息保存到所述存储区。
其中,所述第二预设条件为所述搜索区域的高度信息以及宽度信息中的最大值超过第三阈值,所述第三阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第三系数确定;
则根据所述第三系数确定对所述当前帧图像进行下采样处理的下采样倍数。
其中,所述第二预设条件为所述搜索区域的边界与所述当前帧图像的对应边界之间距离的最小值小于第四阈值,所述第四阈值由所述当前帧图像的尺寸信息确定;
则获得下采样处理后所述新的搜索区域的预设边长,并根据所述搜索区域的宽度信息以及高度信息中的最小值、以及所述预设边长,确定对所述当前帧图像进行下采样处理的下采样倍数,所述预设边长不大于所述目标模板最短边的长度。
其中,所述装置还包括:
第四阈值获得单元,具体用于:
获得所述当前帧图像的高度信息与所述搜索区域的高度信息之间的比值,以及所述当前帧图像的宽度信息与所述搜索区域的宽度信息之间的比值;
将最大比值对应的所述当前帧图像的边长确定为基础边长;
根据所述基础边长的长度信息以及第四系数获得所述第四阈值。
其中,所述可用模板的形状为正方形,且所述可用模板边长的长度范围为64~128个像素点。
其中,所述可用模板的形状为矩形,且所述可用模板短边的长度为保证余弦窗函数有效的最小值,所述余弦窗函数用于对提取的所述特征信息进行平滑处理。
其中,所述尺寸信息获得单元具体用于:
如果所述可用模板的尺寸信息保存在服务端,则访问所述服务端从中获得所述至少一个可用模板的尺寸信息。
其中,所述尺寸信息获得单元具体用于:
如果所述可用模板的尺寸信息预先打包在所述客户端的实现代码中,则运行所述实现代码获得所述至少一个可用模板的尺寸信息。
其中,所述装置还包括:
新增尺寸信息获得单元,用于提供用于获得新增可用模板的尺寸信息的操作选项,并在通过所述操作选项获得所述新增可用模板的尺寸信息后进行保存。
其中,如果所述当前帧图像为初始帧图像,则所述目标模板确定单元具体用于:
获得所述初始帧图像中的搜索区域的目标高宽比;
获得各可用模板的高宽比,将其中与所述目标高宽比接近的可用模板确定为所述目标模板。
此外,本申请实施例还提供了一种目标跟踪处理装置,参见图7,该装置应用于客户端,包括:
尺寸信息获得单元401,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
目标对象确定单元402,用于在获得与道路上行驶的车辆相关的视频序列时,从所述视频序列中确定待跟踪的目标对象;
跟踪处理单元403,用于从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
其中,如果从所述视频序列中确定出至少两个对象,
所述组织还包括:
跟踪模式确定单元,用于确定各对象对应的跟踪模式信息;
所述目标对象确定单元,具体用于将所述跟踪模式信息表示需要提取特征信息的对象确定为所述待跟踪的目标对象。
另外本申请实施例还提供了一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
以及一种电子设备,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象;
从所述至少一个可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
其中,图8示例性的展示出了电子设备的架构,例如,设备500可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理,飞行器等。
参照图8,设备500可以包括以下一个或多个组件:处理组件502,存储器504,电源组件506,多媒体组件503,音频组件510,输入/输出(I/O)的接口512,传感器组件514,以及通信组件516。
处理组件502通常控制设备500的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件502可以包括一个或多个处理器520来执行指令,以完成本公开技术方案提供的方法的全部或部分步骤。此外,处理组件502可以包括一个或多个模块,便于处理组件502和其他组件之间的交互。例如,处理部件502可以包括多媒体模块,以方便多媒体组件503和处理组件502之间的交互。
存储器504被配置为存储各种类型的数据以支持在设备500的操作。这些数据的示例包括用于在设备500上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器504可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件506为设备500的各种组件提供电力。电源组件506可以包括电源管理系统,一个或多个电源,及其他与为设备500生成、管理和分配电力相关联的组件。
多媒体组件503包括在设备500和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件503包括一个前置摄像头和/或后置摄像头。当设备500处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件510被配置为输出和/或输入音频信号。例如,音频组件510包括一个麦克风(MIC),当设备500处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器504或经由通信组件516发送。在一些实施例中,音频组件510还包括一个扬声器,用于输出音频信号。
I/O接口512为处理组件502和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件514包括一个或多个传感器,用于为设备500提供各个方面的状态评估。例如,传感器组件514可以检测到设备500的打开/关闭状态,组件的相对定位,例如所述组件为设备500的显示器和小键盘,传感器组件514还可以检测设备500或设备500一个组件的位置改变,用户与设备500接触的存在或不存在,设备500方位或加速/减速和设备500的温度变化。传感器组件514可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件514还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件514还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件516被配置为便于设备500和其他设备之间有线或无线方式的通信。设备500可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件516经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件516还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备500可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器504,上述指令可由设备500的处理器520执行以完成本公开技术方案提供的方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到本申请可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例或者实施例的某些部分所述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统或系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的系统及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上对本申请所提供的用于获得目标对象的特征信息的方法、装置及电子设备,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本申请的限制。
Claims (28)
1.一种用于获得目标对象的特征信息的方法,其特征在于,包括:
客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
从所述可用模板中确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
2.根据权利要求1所述的方法,其特征在于,
如果需要降低特征信息提取消耗的计算力,则利用从所述可用模板中确定的所述目标模板,获得所述目标对象的特征信息。
3.根据权利要求2所述的方法,其特征在于,
如果所述客户端关联的终端设备的可用处理资源小于第一阈值,则确定需要降低特征信息提取消耗的计算力。
4.根据权利要求2所述的方法,其特征在于,
根据待跟踪的目标对象的数量大于第二阈值,则确定需要降低特征信息提取消耗的计算力。
5.根据权利要求1所述的方法,其特征在于,
所述从所述模板图像中提取与所述目标对象相关的特征信息,包括:
如果所述特征信息为FHOG特征信息,则在提取所述FHOG特征的实现代码中删除用于提取无符号HOG特征信息的代码行,以减少所述FHOG特征信息包括的特征维度的数量。
6.根据权利要求1所述的方法,其特征在于,
所述从所述模板图像中提取与所述目标对象相关的特征信息,包括:
如果所述特征信息为Lab特征信息,则对原有质心进行聚类处理获得新的质心,所述新的质心的数量少于所述原有质心的数量;
根据所述新的质心从所述模板图像中提取所述Lab特征信息,以减少所述Lab特征信息包括的特征维度的数量。
7.根据权利要求1所述的方法,其特征在于,还包括:
如果所述搜索区域超出所述当前帧图像的边界,则对所述当前帧图像进行下采样处理,生成处理后当前帧图像;
对所述处理后当前帧图像中的新的搜索区域进行边界填充;
将所述搜索区域关联的图像信息保存到所述存储区,包括:将填充后的新的搜索区域关联的图像信息保存到所述存储区。
8.根据权利要求7所述的方法,其特征在于,
确定所述搜索区域超出所述当前帧图像的边界后,所述方法还包括:
获得对所述搜索区域进行边界填充的行数信息以及列数信息;
所述对所述当前帧图像进行下采样处理,包括:如果所述行数信息以及所述列数信息满足第一预设条件,则对所述当前帧图像进行下采样处理。
9.根据权利要求8所述的方法,其特征在于,
所述第一预设条件为所述行数信息以及所述列数信息中的最大值超过第一阈值,所述第一阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第一系数确定;
则根据所述行数信息以及所述列数信息中的最大值、以及所述第一阈值,确定对所述当前帧图像进行下采样处理的下采样倍数。
10.根据权利要求8所述的方法,其特征在于,
所述第一预设条件为所述行数信息以及所述列数信息中的最小值超过第二阈值,所述第二阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第二系数确定;
则根据所述行数信息以及所述列数信息中的最大值、以及所述第二阈值,确定对所述当前帧图像进行下采样处理的下采样倍数。
11.根据权利要求1所述的方法,其特征在于,还包括:
如果所述搜索区域的尺寸信息满足第二预设条件,则对所述当前帧图像进行下采样处理,生成处理后当前帧图像;
将所述搜索区域关联的图像信息保存到所述存储区,包括:
将所述处理后当前帧图像中的新的搜索区域关联的图像信息保存到所述存储区。
12.根据权利要求11所述的方法,其特征在于,
所述第二预设条件为所述搜索区域的高度信息以及宽度信息中的最大值超过第三阈值,所述第三阈值由所述当前帧图像的宽度信息以及高度信息中的最小值、以及第三系数确定;
则根据所述第三系数确定对所述当前帧图像进行下采样处理的下采样倍数。
13.根据权利要求11所述的方法,其特征在于,
所述第二预设条件为所述搜索区域的边界与所述当前帧图像的对应边界之间距离的最小值小于第四阈值,所述第四阈值由所述当前帧图像的尺寸信息确定;
则获得下采样处理后所述新的搜索区域的预设边长,并根据所述搜索区域的宽度信息以及高度信息中的最小值、以及所述预设边长,确定对所述当前帧图像进行下采样处理的下采样倍数,所述预设边长不大于所述目标模板最短边的长度。
14.根据权利要求13所述的方法,其特征在于,
根据所述当前帧图像的尺寸信息获得的所述第四阈值的方式为:
获得所述当前帧图像的高度信息与所述搜索区域的高度信息之间的比值,以及所述当前帧图像的宽度信息与所述搜索区域的宽度信息之间的比值;
将最大比值对应的所述当前帧图像的边长确定为基础边长;
根据所述基础边长的长度信息以及第四系数获得所述第四阈值。
15.根据权利要求1所述的方法,其特征在于,
所述可用模板的形状为正方形,且所述可用模板边长的长度范围为64~128个像素点。
16.根据权利要求1所述的方法,其特征在于,
所述可用模板的形状为矩形,且所述可用模板短边的长度为保证余弦窗函数有效的最小值,所述余弦窗函数用于对提取的所述特征信息进行平滑处理。
17.根据权利要求1所述的方法,其特征在于,
所述获得至少一个可用模板的尺寸信息,包括:
如果所述可用模板的尺寸信息保存在服务端,则访问所述服务端从中获得所述至少一个可用模板的尺寸信息。
18.根据权利要求1所述的方法,其特征在于,
所述获得至少一个可用模板的尺寸信息,包括:
如果所述可用模板的尺寸信息预先打包在所述客户端的实现代码中,则运行所述实现代码获得所述至少一个可用模板的尺寸信息。
19.根据权利要求17或18所述的方法,其特征在于,还包括:
提供用于获得新增可用模板的尺寸信息的操作选项,并在通过所述操作选项获得所述新增可用模板的尺寸信息后进行保存。
20.根据权利要求1所述的方法,其特征在于,
如果所述当前帧图像为初始帧图像,则所述确定目标模板,包括:
获得所述初始帧图像中的搜索区域的目标高宽比;
获得各可用模板的高宽比,将其中与所述目标高宽比接近的可用模板确定为所述目标模板。
21.一种目标跟踪处理方法,其特征在于,包括:
客户端获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象;
从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
22.根据权利要求21所述的方法,其特征在于,
所述目标对象为所述车辆周围的障碍物。
23.根据权利要求21所述的方法,其特征在于,
所述目标对象为所述车辆的特定区域。
24.根据权利要求21所述的方法,其特征在于,如果从所述视频序列中确定出至少两个对象,
所述方法还包括:
确定各对象对应的跟踪模式信息;
将所述跟踪模式信息表示需要提取特征信息的对象确定为所述待跟踪的目标对象。
25.一种用于获得目标对象的特征信息的装置,其特征在于,应用于客户端,包括:
尺寸信息获得单元,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
搜索区域获得单元,用于获得待跟踪的目标对象在当前帧图像中对应的搜索区域;
图像信息保存单元,用于为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
目标模板确定单元,用于从所述可用模板中确定目标模板;
模板图像生成单元,用于根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
特征信息提取单元,用于从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
26.一种目标跟踪处理装置,其特征在于,应用于客户端,包括:
尺寸信息获得单元,用于获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
目标对象确定单元,用于在获得与道路上行驶的车辆相关的视频序列时,从所述视频序列中确定待跟踪的目标对象;
跟踪处理单元,用于从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
27.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
获得待跟踪的目标对象在当前帧图像中对应的搜索区域,为所述搜索区域创建对应的存储区,并将所述搜索区域关联的图像信息保存到所述存储区;
确定目标模板,根据所述目标模板的尺寸信息对所述存储区中的图像信息进行缩放处理生成模板图像;
从所述模板图像中提取与所述目标对象相关的特征信息,以便根据所述特征信息在下一帧图像中对所述目标对象进行目标跟踪。
28.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
与所述一个或多个处理器关联的存储器,所述存储器用于存储程序指令,所述程序指令在被所述一个或多个处理器读取执行时,执行如下操作:
获得至少一个可用模板的尺寸信息,所述尺寸信息包括可用模板的宽度信息以及可用模板的高度信息;
如果获得与道路上行驶的车辆相关的视频序列,则从所述视频序列中确定待跟踪的目标对象;
从所述可用模板中确定目标模板,利用所述目标模板获得所述目标对象的特征信息,对所述目标对象进行跟踪处理。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910809627.4A CN112446241A (zh) | 2019-08-29 | 2019-08-29 | 用于获得目标对象的特征信息的方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910809627.4A CN112446241A (zh) | 2019-08-29 | 2019-08-29 | 用于获得目标对象的特征信息的方法、装置及电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112446241A true CN112446241A (zh) | 2021-03-05 |
Family
ID=74741547
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910809627.4A Pending CN112446241A (zh) | 2019-08-29 | 2019-08-29 | 用于获得目标对象的特征信息的方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112446241A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192136A (zh) * | 2021-04-22 | 2021-07-30 | 杭州晟冠科技有限公司 | 一种基于图像识别的轮船定位跟踪方法 |
CN114091630A (zh) * | 2022-01-24 | 2022-02-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 获取目标对象移动轨迹信息的方法、装置及系统 |
CN117292306A (zh) * | 2023-11-27 | 2023-12-26 | 四川迪晟新达类脑智能技术有限公司 | 一种面向边缘设备的车辆目标检测优化方法及装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1945580A (zh) * | 2005-10-06 | 2007-04-11 | 索尼株式会社 | 图像处理装置 |
US20100067741A1 (en) * | 2007-12-28 | 2010-03-18 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
CN103093654A (zh) * | 2013-01-28 | 2013-05-08 | 北京航空航天大学 | 一种双摄像机交互式智能跟踪教学系统 |
CN107066990A (zh) * | 2017-05-04 | 2017-08-18 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN108898573A (zh) * | 2018-04-23 | 2018-11-27 | 西安电子科技大学 | 基于多方向环形梯度法的红外小目标快速提取方法 |
CN109102523A (zh) * | 2018-07-13 | 2018-12-28 | 南京理工大学 | 一种运动目标检测和跟踪方法 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN110009665A (zh) * | 2019-03-12 | 2019-07-12 | 华中科技大学 | 一种遮挡环境下的目标检测跟踪方法 |
CN110033478A (zh) * | 2019-04-12 | 2019-07-19 | 北京影谱科技股份有限公司 | 基于深度对抗训练的视觉目标跟踪方法和装置 |
-
2019
- 2019-08-29 CN CN201910809627.4A patent/CN112446241A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1945580A (zh) * | 2005-10-06 | 2007-04-11 | 索尼株式会社 | 图像处理装置 |
US20100067741A1 (en) * | 2007-12-28 | 2010-03-18 | Rustam Stolkin | Real-time tracking of non-rigid objects in image sequences for which the background may be changing |
CN103093654A (zh) * | 2013-01-28 | 2013-05-08 | 北京航空航天大学 | 一种双摄像机交互式智能跟踪教学系统 |
CN107066990A (zh) * | 2017-05-04 | 2017-08-18 | 厦门美图之家科技有限公司 | 一种目标跟踪方法及移动设备 |
CN108898573A (zh) * | 2018-04-23 | 2018-11-27 | 西安电子科技大学 | 基于多方向环形梯度法的红外小目标快速提取方法 |
CN109102523A (zh) * | 2018-07-13 | 2018-12-28 | 南京理工大学 | 一种运动目标检测和跟踪方法 |
CN109949340A (zh) * | 2019-03-04 | 2019-06-28 | 湖北三江航天万峰科技发展有限公司 | 基于OpenCV的目标尺度自适应跟踪方法 |
CN110009665A (zh) * | 2019-03-12 | 2019-07-12 | 华中科技大学 | 一种遮挡环境下的目标检测跟踪方法 |
CN110033478A (zh) * | 2019-04-12 | 2019-07-19 | 北京影谱科技股份有限公司 | 基于深度对抗训练的视觉目标跟踪方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192136A (zh) * | 2021-04-22 | 2021-07-30 | 杭州晟冠科技有限公司 | 一种基于图像识别的轮船定位跟踪方法 |
CN114091630A (zh) * | 2022-01-24 | 2022-02-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 获取目标对象移动轨迹信息的方法、装置及系统 |
CN117292306A (zh) * | 2023-11-27 | 2023-12-26 | 四川迪晟新达类脑智能技术有限公司 | 一种面向边缘设备的车辆目标检测优化方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108460395B (zh) | 目标检测方法和装置以及模糊处理方法和装置 | |
CN111797657A (zh) | 车辆周边障碍检测方法、装置、存储介质及电子设备 | |
CN106971185B (zh) | 一种基于全卷积网络的车牌定位方法及装置 | |
CN109218695A (zh) | 视频图像增强方法、装置、分析系统及存储介质 | |
CN112446241A (zh) | 用于获得目标对象的特征信息的方法、装置及电子设备 | |
CN109034136B (zh) | 图像处理方法、装置、摄像设备及存储介质 | |
JP2022507077A (ja) | 区画線属性検出方法、装置、電子機器及び可読記憶媒体 | |
CN109040596B (zh) | 一种调整摄像头的方法、移动终端及存储介质 | |
WO2020154990A1 (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
CN110490066B (zh) | 基于图片分析的目标检测方法、装置及计算机设备 | |
CN111837158A (zh) | 图像处理方法、装置、拍摄装置和可移动平台 | |
CN107748882B (zh) | 一种车道线检测方法及装置 | |
WO2023072093A1 (zh) | 虚拟车位确定方法、显示方法、装置、设备、介质及程序 | |
CN113409342A (zh) | 图像风格迁移模型的训练方法、装置及电子设备 | |
CN115103120B (zh) | 拍摄场景检测方法、装置、电子设备和存储介质 | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
CN115965531A (zh) | 模型训练方法及图像生成方法、装置、设备和存储介质 | |
CN106372663B (zh) | 构建分类模型的方法及装置 | |
CN113379705B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
CN115965935B (zh) | 目标检测方法、装置、电子设备、存储介质和程序产品 | |
CN116363628A (zh) | 标志检测方法、装置、非易失性存储介质及计算机设备 | |
CN108810407B (zh) | 一种图像处理方法、移动终端及计算机可读存储介质 | |
CN110992283A (zh) | 图像处理方法、图像处理装置、电子设备和可读存储介质 | |
CN114723715B (zh) | 车辆目标检测方法、装置、设备、车辆及介质 | |
CN112818743B (zh) | 图像识别的方法、装置、电子设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230718 Address after: Room 437, Floor 4, Building 3, No. 969, Wenyi West Road, Wuchang Subdistrict, Yuhang District, Hangzhou City, Zhejiang Province Applicant after: Wuzhou Online E-Commerce (Beijing) Co.,Ltd. Address before: Box 847, four, Grand Cayman capital, Cayman Islands, UK Applicant before: ALIBABA GROUP HOLDING Ltd. |