CN116703979A - 目标跟踪方法、装置、终端及存储介质 - Google Patents
目标跟踪方法、装置、终端及存储介质 Download PDFInfo
- Publication number
- CN116703979A CN116703979A CN202310737454.6A CN202310737454A CN116703979A CN 116703979 A CN116703979 A CN 116703979A CN 202310737454 A CN202310737454 A CN 202310737454A CN 116703979 A CN116703979 A CN 116703979A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- image
- foreground
- target frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 58
- 230000011218 segmentation Effects 0.000 claims abstract description 74
- 238000001514 detection method Methods 0.000 claims abstract description 51
- 238000011156 evaluation Methods 0.000 claims description 29
- 238000001914 filtration Methods 0.000 claims description 25
- 230000008859 change Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 20
- 230000008569 process Effects 0.000 description 20
- 238000013519 translation Methods 0.000 description 10
- 238000004422 calculation algorithm Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 239000013598 vector Substances 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/269—Analysis of motion using gradient-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种目标跟踪方法、装置、终端及存储介质,该方法包括:对图像进行目标检测,得到目标检测结果,目标检测结果中包括目标框,目标框中包含跟踪目标;对图像进行语义分割,得到图像的语义分割结果;根据图像的语义分割结果,去除目标框内的背景,保留目标框内的前景,目标框内的前景用于表示跟踪目标;根据当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新跟踪目标的运动轨迹。本发明能够提高目标匹配精度,进而提高目标跟踪精度。
Description
技术领域
本发明涉及智能驾驶技术领域,尤其涉及一种目标跟踪方法、装置、终端及存储介质。
背景技术
随着汽车保有量的日益提高,道路交通安全问题也随之逐渐突出。智能驾驶系统能够在驾驶过程中减轻驾驶者的操作负荷,为驾驶者提供支持和帮助,提高出行效率,提示并修正驾驶者在驾驶过程中的不当操作,减少交通事故的发生
对目标对象的匹配与跟踪是智能驾驶领域的一个重要研究方向。对同一个物体在不同的拍摄条件下得到的两幅甚至更多的图像进行对准的过程就是目标的匹配,目标匹配是实现目标跟踪的前提,也即,通过目标匹配实现目标跟踪。在现有技术中,由于车辆车速过快、背景复杂等因素,导致目标匹配精度较低,进而导致目标跟踪精度低。
发明内容
有鉴于此,本发明提供了一种目标跟踪方法、装置、终端及存储介质,能够解决现有技术在目标跟踪过程中目标匹配精度低的问题。
第一方面,本发明实施例提供了一种目标跟踪方法,包括:
对图像进行目标检测,得到目标检测结果,所述目标检测结果中包括目标框,所述目标框中包含跟踪目标;
对所述图像进行语义分割,得到所述图像的语义分割结果;
根据所述图像的语义分割结果,去除所述目标框内的背景,保留所述目标框内的前景,所述目标框内的前景用于表示所述跟踪目标;
将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新所述跟踪目标的运动轨迹。
在一种可能的实现方式中,所述将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配包括:
计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度;
若所述相似度大于预设阈值,则将当前帧图像中目标框内的前景与上一帧图像中目标框内的前景进行匹配;
若所述相似度小于等于所述预设阈值,则将当前帧图像中目标框尺寸放缩至与上一帧图像中目标框尺寸,并根据上一帧图像中目标框内的前景,对当前帧图像中目标框内的前景进行更新,将当前帧图像中目标框内更新后的前景与上一帧图像中目标框内的前景进行匹配。
在一种可能的实现方式中,所述计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度包括:
根据当前帧图像中目标框与该目标框内前景所对应的分割框的交并比,以及该目标框内的前景像素与背景像素的比例,确定当前帧图像中目标框的评价分数,其中,所述分割框用于表示所述语义分割结果中包含属于所述跟踪目标所有像素点的外框线;
根据当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度。
在一种可能的实现方式中,在更新所述跟踪目标的运动轨迹之后,该方法还包括:
基于所述跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整;
根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框。
在一种可能的实现方式中,所述基于所述跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整包括:
基于所述跟踪目标在像素坐标系中的坐标值以及在世界坐标系中的高度,反推算所述跟踪目标在图像中的目标框;
根据当前帧图像中目标框的高度和上一帧图像中目标框的高度,确定当前帧图像中目标框与上一帧图像中目标框的变化比例;
根据所述变化比例对上一帧图像中目标框进行调整。
在一种可能的实现方式中,所述根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框包括:
对当前帧图像中的目标框和上一帧图像中调整后的目标框进行前景对齐;
对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波;
根据上一帧图像中目标框、前景对齐结果、滤波结果和所述变化比例,重新确定当前帧图像中的目标框。
在一种可能的实现方式中,所述对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波包括:
根据当前帧图像中目标框内前景像素的占比,以及上一帧图像中目标框内前景像素的占比,确定当前帧图像中目标框的权重和上一帧图像中目标框的权重;
根据当前帧图像中目标框的权重、上一帧图像中目标框的权重以及当前帧图像中目标框与上一帧图像中目标框的位置相对关系,对所述跟踪目标的中心点进行滤波;
根据所述跟踪目标在世界坐标系中的高度以及在当前帧图像中的中心点,对当前帧目标框的底边进行滤波。
第二方面,本发明实施例提供了一种目标跟踪装置,包括:检测模块、分割模块、前景获取模块和跟踪模块;
所述检测模块,用于对图像进行目标检测,得到目标检测结果,所述目标检测结果中包括目标框,所述目标框中包含跟踪目标;
所述分割模块,用于对所述图像进行语义分割,得到所述图像的语义分割结果;
所述前景获取模块,用于根据所述图像的语义分割结果,去除所述目标框内的背景,保留所述目标框内的前景,所述目标框内的前景用于表示所述跟踪目标;
所述跟踪模块,用于将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新所述跟踪目标的运动轨迹。
第三方面,本发明实施例提供了一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
第四方面,本发明实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上第一方面或第一方面的任一种可能的实现方式所述方法的步骤。
本发明实施例与现有技术相比存在的有益效果是:
本发明通过对图像进行目标检测和语义分割,基于语义分割结果去除目标检测结果中目标内的背景,只通过目标框内的前景进行目标匹配,避免了背景变化对目标匹配的干扰,提高了目标匹配的精度。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种目标跟踪方法的实现流程图;
图2是本发明实施例提供的一种目标检测结果的示意图;
图3是本发明实施例提供的另一种目标跟踪方法的实现流程图;
图4是本发明实施例提供的一种目标匹配装置的结构示意图;
图5是本发明实施例提供的终端的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图通过具体实施例来进行说明。
本发明实施例所提供的方法,既可以应用于商用车,也可以应用于乘用车。参见图1,其示出了本发明实施例提供的目标跟踪方法的实现流程图,详述如下:
在步骤101中、对图像进行目标检测,得到目标检测结果,目标检测结果中包括目标框,目标框中包含跟踪目标。
本发明实施例所提供的方法应用于任何基于车载摄像头采集的到图像进行目标匹配的场景,本发明实施例不对车载摄像头的安装位置以及车载摄像头的类型进行限定。
由于根据车载镜头采集到的图像进行目标检测的过程中,检测到的目标可以为车辆,还可以是除车辆以外的其他目标,如步行或使用其他交通工具的人。
安装于车辆上的摄像头连续的采集图像,对于每一帧图像,对该图像进行目标检测,得到目标检测结果,目标检测结果包括至少一个目标框,每个目标框内包括检测得到的一个目标。本发明实施例所提供的方法,适用于单个目标跟踪,也适用于多目标跟踪。
为便于说明,在本发明实施例中,对某一个目标的跟踪过程进行说明,也即本步骤中的跟踪目标。在本发明实施例的所有步骤中,都是针对该跟踪目标进行跟踪,在多目标跟踪场景中,其他目标的跟踪过程与这一个目标的跟踪过程相同。
可选的,基于深度学习预先训练好一个目标检测模型,得到一帧图像后,将该帧图像输入目标检测模型,得到目标检测结果。还可以通过其他目标检测算法对图像进行目标检测,本发明实施例对此不作限定。
图2是本发明实施例提供的一种目标检测结果的示意图,如图2所示,ABCD为图像,图中的车辆为目标,EFGH为目标框。
在步骤102中、对图像进行语义分割,得到图像的语义分割结果。
在本发明实施例中,对于同一帧图像,通过步骤101进行目标检测,并通过本步骤进行语义分割。
语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。
可选的,基于深度学习预先训练一个语义分割模型,得到一帧图像后,可以将该帧图像输入语义分割模型中,得到该帧图像的语义分割结果。还可以通过其他语义分割算法进行语义分割,本发明实施例对此不作限定。
需要说明的是,步骤101和步骤102没有先后顺序,对于同一帧图像,可以先进行目标检测,再进行语义分割,也可以先进行语义分割,再进行目标检测,还可以同时进行。
在步骤103中、根据图像的语义分割结果,去除目标框内的背景,保留目标框内的前景,目标框内的前景用于表示跟踪目标。
在本发明实施例中,以应用场景为道路行驶,目标为车辆为例,背景通常为道路、草坪,天空等。通过本步骤,去除目标框的背景后,目标框的有效像素点只包括所保留前景的像素点,即车辆所对应的像素点。由于本步骤去除了背景,在后续目标匹配过程中,避免了背景对目标匹配过程中的干扰,提高了目标碰匹配的精度。
举例来说,跟踪目标为骑电动车的骑手和电动车,也即,将骑手和电动车作为一个整体进行跟踪。在语义分割过程中,将骑手,也就是人所对应的分割结果标记为黄色,将电动车所对应的分割结果标记为紫色,将背景所对应的分割结果标记为绿色,在本步骤中,将目标框内的绿色部分去除,只保留黄色和紫色部分,即为目标框内的前景。
在步骤104中、将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新跟踪目标的运动轨迹。
由于当前帧图像中目标框与上一帧图像中目标框减少了背景的干扰,只需要考虑前景像素的特征,可以通过光流算法、直方图算法、梯度算法等对跟踪目标进行像素级的匹配,匹配精度更高。
由于匹配过程是基于前后两帧不同语义分割结果所到的目标框内的前景进行的,为防止分割不完全的情况,进一步提高匹配精度,在一种可选的实现方式中,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度;若相似度大于预设阈值,则根据当前帧图像中目标框内的前景与上一帧图像中目标框内的前景进行匹配;若相似度小于等于预设阈值,则将当前帧图像中目标框尺寸放缩至与上一帧图像中目标框尺寸,并根据上一帧图像中目标框内的前景,对当前帧图像中目标框内的前景进行更新,根据当前帧图像中目标框内更新后的前景与上一帧图像中目标框内的前景进行匹配。
结合步骤103中的实例,图像中该骑手和电动车所对应的轮廓,即为分割框。需要说明的是,分割框可能完全位于目标框内,也可能只与目标框存在一定的交集,例如,目标框没有包含分割框内代表骑手手臂的部分。
分割不完全的情况指的是跟踪目标所对应的前景没有被完全分割,例如,分割结果只有骑手和电动车的一部分,即为分割不完全的情况。
当前帧图像中包含跟踪目标的目标框,与上一帧图像中包含跟踪目标的目标框,是进行匹配的两个目标框。若进行匹配的两个目标框内的前景的相似度较小,则可以根据上一帧图像中目标框内的前景像素,提取当前帧图像中目标内的前景像素,作为当前帧图像目标框内的前景,与上一帧图像中目标框内的前景进行匹配。举例来说,上一帧图像中目标框内的前景像素的像素点有100个,且每个像素点与目标框的相对位置确定,当前帧图像目标框的尺寸放缩至与上一帧图像中目标框的尺寸一致,则根据上一帧图像中100个前景像素的位置,确定当前帧图像中放缩后的目标框内的100个像素,作为当前帧图像中目标框的前景像素。
在本发明实施例中,对当前帧和上一帧的概念进行说明:若采用逐帧分析的方式,当前帧图像的上一帧图像,是图像采集过程中与当前帧图像相邻的上一帧图像。若采用间隔帧分析的方式,即每间隔预设帧数选取一帧图像进行分析的方式,则当前帧图像的上一帧图像为被选中的上一帧图像。举例来说,每间隔2帧进行一次分析,被选中的图像分别为第1帧图像、第4帧图像、第7帧图像……,当第7帧图像作为当前帧图像时,本发明实施例中的上一帧图像指的是被选中的上一帧图像,即第4帧图像。
在一种可选的实现方式中,可以从如下几个评价维度中的至少一个评价维度,确定两个目标框内的前景的相似度:
第一个评价维度:目标框与分割框的外接轮廓差异性;
第二个评价维度:分割框与目标框的交并比;
第三个评价维度:目标框内前景像素与背景像素的比例。
举例来说,以第二个评价维度判断两个目标框的前景相似度,分别计算两个目标框所对应的第二个评价维度的值,计算得到的两个值求取差值的绝对值,用于表示两个目标框的前景相似度,差值的绝对值越小,相似度越大。
在一种可选的实现方式中,根据当前帧图像中目标框与该目标框内前景所对应的分割框的交并比,以及该目标框内的前景像素与背景像素的比例,确定当前帧图像中目标框的评价分数,其中,分割框用于表示语义分割结果中包含属于跟踪目标所有像素点的外框线;根据当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度。
可选的,对于每一帧图像的目标框:根据语义分割结果,获取目标框内的前景所对应的分割框;计算分割框与目标框的交并比,得到目标框的第一参数;计算目标框内前景像素与背景像素的比例,得到目标框的第二参数;第一参数与第一参数所对应的第一预设权重相乘后,得到第一评价值;第二参数与第二参数所对应的第二预设权重相乘后,得到第二评价值;第一评价值与第二评价值相加,得到目标框的评价分数;根据当前帧图像中目标框的评价分数和上一帧图像中目标框的评价分数,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度。
可选的,计算当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数的差值绝对值,若差值绝对值大于第一预设值,则确定相似度小于等于预设阈值,否则相似度大于预设阈值;或者,计算当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数的比值,若比值大于第二预设值,则确定相似度小于等于预设阈值,否则相似度大于预设阈值。
本发明通过对图像进行目标检测和语义分割,基于语义分割结果去除目标检测结果中目标内的背景,只通过目标框内的前景进行目标匹配,避免了背景变化对目标匹配的干扰,提高了目标匹配的精度。
图3示出了本发明实施例提供的一种目标跟踪方法的实现流程图,详述如下:
在步骤301中、对图像进行目标检测,得到目标检测结果,目标检测结果中包括目标框,目标框中包含跟踪目标。
在步骤302中、对图像进行语义分割,得到图像的语义分割结果。
在步骤303中、根据图像的语义分割结果,去除目标框内的背景,保留目标框内的前景,目标框内的前景用于表示跟踪目标。
在步骤304中、将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新跟踪目标的运动轨迹。
本发明实施例步骤301至步骤304的具体实现方式可参见图1所对应实施例的步骤101至步骤104,本发明实施例在此不再赘述。
在步骤305中、基于跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整。
可选的,基于跟踪目标在像素坐标系中的坐标值以及在世界坐标系中的高度,反推算跟踪目标在图像中的目标框;根据当前帧图像中目标框的高度和上一帧图像中目标框的高度,确定当前帧图像中目标框与上一帧图像中目标框的变化比例;根据变化比例对上一帧图像中目标框进行调整。
像素坐标系和世界坐标系是预先设置的,像素坐标系和世界坐标系存在唯一映射关系。
可选的,预先设置世界坐标系和像素坐标系,在本发明实施例中,用于采集图像的设备为车载相机或摄像头,当车载相机或者摄像头确定、且在车辆上的安装位置固定,基于车载相机或摄像头的内部参数和外部参数,可以确定像素坐标系和世界坐标系的唯一映射关系。
设置世界坐标系是为了统一描述真实三维世界中物体的位置,在一种可选的实现方式中,为使计算简单,世界坐标系的设定规则可以为:获取经过相机的安装点且垂直于地面的垂线,将垂线与地面的交点作为世界坐标系的原点Ow,将垂线作为世界坐标系的Zw轴,Zw轴正方向向上,世界坐标系的XwOwYw平面与Zw轴垂直。
可选的,在具体应用场景下,例如自动驾驶时,把目标框底边中点和顶边中点作为测距点进行测距,作为碰撞预警或自动刹车的判别依据。此时,提高目标框的稳定性,有利于提高测距精度,进而提高自动驾驶的安全性。
由于跟踪目标在世界坐标系中的实际高度不会发生变化,但是车载设备的跟踪过程中会存在目标大小不一致的问题,导致目标框不稳定,测距精度差,基于此,根据匹配成功的跟踪目标,重新确定该跟踪目标的目标框,提高目标框的稳定性,以及提高测距精度。
在一种可选的实现方式中,根据跟踪目标在像素坐标系中的底点坐标、顶点坐标以及像素坐标系与世界坐标系的映射关系,确定跟踪目标在世界坐标系中的底点坐标和顶点坐标;根据跟踪目标在世界坐标系中的底点坐标和顶点坐标,确定跟踪目标的高度;根据跟踪目标在世界坐标系的顶点坐标、高度、目标框高度与跟踪目标高度的线性比例关系,确定目标框的顶边中心点在世界坐标系中的坐标;根据目标框的顶边中心点在世界坐标系中的坐标以及像素坐标系与世界坐标系的映射关系,确定目标框的顶边中心点在像素坐标系中的坐标;根据目标框的底边中心点在像素坐标系中的坐标,以及目标框的顶边中心点在像素坐标系中的坐标,得到跟踪目标在图像中的目标框。
其中,底点坐标为跟踪目标在目标框内最低点像素所对应的坐标,顶点坐标为跟踪目标在目标框内最高点像素所对应的坐标。
举例来说,跟踪目标在像素坐标系中的底点坐标和顶点坐标已知,可以计算对应的世界坐标系中的底点坐标A和顶点坐标B,由于A和B只有高度值不同,则根据A和B,可以计算出跟踪目标的高度,由于跟踪目标的高度与目标框的高度呈线性关系,例如目标框的高度是跟踪目标高度的1.1倍,在上述世界坐标系的设置规则下,假设目标框的顶边中心点在世界坐标系中的坐标为C,则A点、B点和C点的坐标x轴的值和y轴的值相同,z轴的值不同,根据跟踪目标高度和目标框的线性关系,可通过线性差值的方法求得c点的z轴坐标值,由此得到C点在世界坐标系中的完整坐标。
已知C点在世界坐标系中的坐标,根据世界坐标系和像素坐标系的映射关系,可以得到目标框的顶边中心点在像素坐标系中的坐标。
目标框底边中心点的像素坐标可以与跟踪目标的底点坐标相同。
由此可以计算得到反推目标框的高度。根据预设置的长宽比,可以得到每一帧新的目标框。
根据当前帧图像中目标框的高度和上一帧图像中目标框的高度,确定当前帧图像中目标框与上一帧图像中目标框的变化比例。
在获取每一帧图像跟踪目标的新的目标框后,可以计算每个目标框的高度。
举例来说,当前帧目标框的高度为H1,上一帧目标框的高度为H2,则当前帧图像中目标框与上一帧图像中目标框的变化比例为H1与H2的比值。
根据变化比例,将上一帧图像中的目标框进行与变化比例相同比例的放缩,使得当前帧目标和上一帧目标进行对比运算,是基于相同的尺寸。
在步骤306中、根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框。
可选的,对当前帧图像中的目标框和上一帧图像中调整后的目标框进行前景对齐;对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波;根据上一帧图像中目标框、前景对齐结果、滤波结果和变化比例,重新确定当前帧图像中的目标框。
可选的,可用meanshift算法或粒子滤波、光流算法等进行前景对齐,本发明实施例对此不做限定。由于前景对齐过程中,对当前帧图像中的目标框和上一帧图像中调整后的目标框进行前景对齐,是基于相同尺寸的对齐,提高了前景对齐的精度。
在滤波过程中,在一种可选的实现方式中,根据当前帧图像中目标框内前景像素的占比,以及上一帧图像中目标框内前景像素的占比,确定当前帧图像中目标框的权重和上一帧图像中目标框的权重;根据当前帧图像中目标框的权重、上一帧图像中目标框的权重以及当前帧图像中目标框与上一帧图像中目标框的位置相对关系,跟踪目标的中心点进行滤波;根据跟踪目标在世界坐标系中的高度以及在当前帧图像中的中心点,对当前帧目标框的底边进行滤波。
为提高跟踪的稳定性,需要保证中心点的稳定,以及为提高测距精度,需要保证目标框的底边不发生跳变。基于此,由于前景对齐后跟踪目标的中心会发生偏差,由于当前帧图像中跟踪目标和上一帧图像中跟踪目标的中心都可能发生偏差,因此,在本发明实施例中,基于标框内前景像素的占比确定目标框的权重,前景像素占比越大,该目标框的权重越大。依据每个目标框的权重,前景对齐后,根据当前帧图像中目标框的权重、上一帧图像中目标框的权重以及两个目标框的相对位置关系,对中心点进行滤波,保证了中心点的稳定性。
中心点的稳定性增强,可使得目标框的稳定性增强。
进一步的,为了提高测距精度,在中心点的稳定性增强的基础上,还需要固化目标框底边的扰动范围,需要对目标框的底边进行滤波。基于跟踪目标真实高度不变的特性,可基于目标的中心点,确定目标的底边,实现对目标框底边的滤波,保证了测距精度、稳定性和鲁棒性。
根据上一帧图像中目标框、前景对齐结果、滤波结果和变化比例,对跟踪目标重新画框。
在一种可选的实现方式中,根据前景对齐结果,获取当前帧图像中目标框与上一帧图像中目标框的平移向量;根据上一帧图像中目标框和平移向量,得到当前帧图像中的平移框;根据跟踪目标的中心点、当前帧图像中目标框的底边以及变化比例,对平移框进行调整,得到当前帧图像中包括跟踪目标的目标框。
可选的,采用迭代的方法通过固定步长不断平移前一帧图像中目标框的跟踪目标,使得当前帧图像中目标框的跟踪目标与上一帧图像中目标的跟踪目标的匹配度最大,当目标框迭代误差小于预设像素值,如小于0.5像素值时,跳出迭代,完成匹配,得到前后两帧图像中目标框的平移向量。在有平移向量的基础上,可将上一帧目标框按照平移向量进行平移,得到当前帧图像中的平移框。通过当前帧跟踪目标的中心点、当前帧图像中目标框的底边以及前后两帧图像中目标框的变化比例,对平移框进行调整,得当前帧图像中包括跟踪目标的目标框,也即重新画框的结果。
本发明通过基于前后两帧图像的目标匹配结果,将历史帧图像的跟踪目标放缩至与当前帧相同的尺寸进行对比运算,通过前景对齐、中心点滤波和底边滤波,对当前帧图像的跟踪目标重新画框,不但提高了目标跟踪过程中目标框的稳定性,还提高了测距精度。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
以下为本发明的装置实施例,对于其中未详尽描述的细节,可以参考上述对应的方法实施例。
图4示出了本发明实施例提供的目标跟踪装置的结构示意图,为了便于说明,仅示出了与本发明实施例相关的部分,详述如下:
如图4所示,目标匹配装置4包括:检测模块41、分割模块42、前景获取模块43和跟踪模块44;
检测模块,用于对图像进行目标检测,得到目标检测结果,目标检测结果中包括目标框,目标框中包含跟踪目标;
分割模块,用于对图像进行语义分割,得到图像的语义分割结果;
前景获取模块,用于根据图像的语义分割结果,去除目标框内的背景,保留目标框内的前景,目标框内的前景用于表示跟踪目标;
跟踪模块,用于将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新跟踪目标的运动轨迹。
本发明通过对图像进行目标检测和语义分割,基于语义分割结果去除目标检测结果中目标内的背景,只通过目标框内的前景进行目标匹配,避免了背景变化对目标匹配的干扰,提高了目标匹配的精度。
在一种可能的实现方式中,所述跟踪模块44用于:计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度;
若所述相似度大于预设阈值,则将当前帧图像中目标框内的前景与上一帧图像中目标框内的前景进行匹配;
若所述相似度小于等于所述预设阈值,则将当前帧图像中目标框尺寸放缩至与上一帧图像中目标框尺寸,并根据上一帧图像中目标框内的前景,对当前帧图像中目标框内的前景进行更新,将当前帧图像中目标框内更新后的前景与上一帧图像中目标框内的前景进行匹配。
在一种可能的实现方式中,所述跟踪模块44用于:
根据当前帧图像中目标框与该目标框内前景所对应的分割框的交并比,以及该目标框内的前景像素与背景像素的比例,确定当前帧图像中目标框的评价分数,其中,所述分割框用于表示所述语义分割结果中包含属于所述跟踪目标所有像素点的外框线;
根据当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度。
在一种可能的实现方式中,所述跟踪模块44用于:
基于所述跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整;
根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框。
在一种可能的实现方式中,所述跟踪模块44用于:
基于所述跟踪目标在像素坐标系中的坐标值以及在世界坐标系中的高度,反推算所述跟踪目标在图像中的目标框;
根据当前帧图像中目标框的高度和上一帧图像中目标框的高度,确定当前帧图像中目标框与上一帧图像中目标框的变化比例;
根据所述变化比例对上一帧图像中目标框进行调整。
在一种可能的实现方式中,所述跟踪模块44用于:
对当前帧图像中的目标框和上一帧图像中调整后的目标框进行前景对齐;
对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波;
根据上一帧图像中目标框、前景对齐结果、滤波结果和所述变化比例,重新确定当前帧图像中的目标框。
在一种可能的实现方式中,所述跟踪模块44用于:
根据当前帧图像中目标框内前景像素的占比,以及上一帧图像中目标框内前景像素的占比,确定当前帧图像中目标框的权重和上一帧图像中目标框的权重;
根据当前帧图像中目标框的权重、上一帧图像中目标框的权重以及当前帧图像中目标框与上一帧图像中目标框的位置相对关系,对所述跟踪目标的中心点进行滤波;
根据所述跟踪目标在世界坐标系中的高度以及在当前帧图像中的中心点,对当前帧目标框的底边进行滤波。
本实施例提供的目标匹配装置,可用于执行上述目标跟踪方法实施例,其实现原理和技术效果类似,本实施例此处不再赘述。
图5是本发明一实施例提供的终端的示意图。如图5所示,该实施例的终端5包括:处理器50、存储器51以及存储在所述存储器51中并可在所述处理器50上运行的计算机程序52。所述处理器50执行所述计算机程序52时实现上述各个目标跟踪方法实施例中的步骤,例如图1所示的步骤101至步骤104。或者,所述处理器50执行所述计算机程序52时实现上述各装置实施例中各模块/单元的功能,例如图4所示模块41至44的功能。
示例性的,所述计算机程序52可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器51中,并由所述处理器50执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序52在所述终端5中的执行过程。
所述终端5可以是车载终端,也可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述终端5可包括,但不仅限于,处理器50、存储器51。本领域技术人员可以理解,图5仅仅是终端5的示例,并不构成对终端5的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述终端还可以包括输入输出设备、网络接入设备、总线等。
所述处理器50可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器51可以是所述终端5的内部存储单元,例如终端5的硬盘或内存。所述存储器51也可以是所述终端5的外部存储设备,例如所述终端5上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器51还可以既包括所述终端5的内部存储单元也包括外部存储设备。所述存储器51用于存储所述计算机程序以及所述终端所需的其他程序和数据。所述存储器51还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置/终端和方法,可以通过其它的方式实现。例如,以上所描述的装置/终端实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个目标跟踪方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (10)
1.一种目标跟踪方法,其特征在于,包括:
对图像进行目标检测,得到目标检测结果,所述目标检测结果中包括目标框,所述目标框中包含跟踪目标;
对所述图像进行语义分割,得到所述图像的语义分割结果;
根据所述图像的语义分割结果,去除所述目标框内的背景,保留所述目标框内的前景,所述目标框内的前景用于表示所述跟踪目标;
将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新所述跟踪目标的运动轨迹。
2.根据权利要求1所述的方法,其特征在于,所述将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配包括:
计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度;
若所述相似度大于预设阈值,则将当前帧图像中目标框内的前景与上一帧图像中目标框内的前景进行匹配;
若所述相似度小于等于所述预设阈值,则将当前帧图像中目标框尺寸放缩至与上一帧图像中目标框尺寸,并根据上一帧图像中目标框内的前景,对当前帧图像中目标框内的前景进行更新,将当前帧图像中目标框内更新后的前景与上一帧图像中目标框内的前景进行匹配。
3.根据权利要求2所述的方法,其特征在于,所述计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度包括:
根据当前帧图像中目标框与该目标框内前景所对应的分割框的交并比,以及该目标框内的前景像素与背景像素的比例,确定当前帧图像中目标框的评价分数,其中,所述分割框用于表示所述语义分割结果中包含属于所述跟踪目标所有像素点的外框线;
根据当前帧图像中目标框的评价分数与上一帧图像中目标框的评价分数,计算当前帧图像中目标框内的前景与上一帧图像中目标框内的前景的相似度。
4.根据权利要求1至3任一项所述的方法,其特征在于,在更新所述跟踪目标的运动轨迹之后,该方法还包括:
基于所述跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整;
根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框。
5.根据权利要求4所述的方法,其特征在于,所述基于所述跟踪目标在世界坐标系中的高度不变,对上一帧图像中的目标框进行调整包括:
基于所述跟踪目标在像素坐标系中的坐标值以及在世界坐标系中的高度,反推算所述跟踪目标在图像中的目标框;
根据当前帧图像中目标框的高度和上一帧图像中目标框的高度,确定当前帧图像中目标框与上一帧图像中目标框的变化比例;
根据所述变化比例对上一帧图像中目标框进行调整。
6.根据权利要求5所述的方法,其特征在于,所述根据上一帧图像中调整后的目标框和当前帧图像的目标框,重新确定当前帧图像中的目标框包括:
对当前帧图像中的目标框和上一帧图像中调整后的目标框进行前景对齐;
对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波;
根据上一帧图像中目标框、前景对齐结果、滤波结果和所述变化比例,重新确定当前帧图像中的目标框。
7.根据权利要求6所述的方法,其特征在于,所述对当前帧跟踪目标的中心点以及当前帧图像中目标框的底边进行滤波包括:
根据当前帧图像中目标框内前景像素的占比,以及上一帧图像中目标框内前景像素的占比,确定当前帧图像中目标框的权重和上一帧图像中目标框的权重;
根据当前帧图像中目标框的权重、上一帧图像中目标框的权重以及当前帧图像中目标框与上一帧图像中目标框的位置相对关系,对所述跟踪目标的中心点进行滤波;
根据所述跟踪目标在世界坐标系中的高度以及在当前帧图像中的中心点,对当前帧目标框的底边进行滤波。
8.一种目标跟踪装置,其特征在于,包括:检测模块、分割模块、前景获取模块和跟踪模块;
所述检测模块,用于对图像进行目标检测,得到目标检测结果,所述目标检测结果中包括目标框,所述目标框中包含跟踪目标;
所述分割模块,用于对所述图像进行语义分割,得到所述图像的语义分割结果;
所述前景获取模块,用于根据所述图像的语义分割结果,去除所述目标框内的背景,保留所述目标框内的前景,所述目标框内的前景用于表示所述跟踪目标;
所述跟踪模块,用于将当前帧图像中目标框内的前景,与上一帧图像中目标框内的前景进行匹配,匹配成功后,更新所述跟踪目标的运动轨迹。
9.一种终端,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如上的权利要求1至7中任一项所述方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如上的权利要求1至7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310737454.6A CN116703979A (zh) | 2023-06-20 | 2023-06-20 | 目标跟踪方法、装置、终端及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310737454.6A CN116703979A (zh) | 2023-06-20 | 2023-06-20 | 目标跟踪方法、装置、终端及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116703979A true CN116703979A (zh) | 2023-09-05 |
Family
ID=87823729
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310737454.6A Pending CN116703979A (zh) | 2023-06-20 | 2023-06-20 | 目标跟踪方法、装置、终端及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116703979A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118015047A (zh) * | 2024-04-08 | 2024-05-10 | 天津所托瑞安汽车科技有限公司 | 多目标跟踪方法、装置、设备及存储介质 |
-
2023
- 2023-06-20 CN CN202310737454.6A patent/CN116703979A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118015047A (zh) * | 2024-04-08 | 2024-05-10 | 天津所托瑞安汽车科技有限公司 | 多目标跟踪方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112528878B (zh) | 检测车道线的方法、装置、终端设备及可读存储介质 | |
CN105718872B (zh) | 两侧车道快速定位及检测车辆偏转角度的辅助方法及系统 | |
WO2022134996A1 (en) | Lane line detection method based on deep learning, and apparatus | |
CN111582054B (zh) | 点云数据处理方法及装置、障碍物检测方法及装置 | |
US10878259B2 (en) | Vehicle detecting method, nighttime vehicle detecting method based on dynamic light intensity and system thereof | |
CN115049700A (zh) | 一种目标检测方法及装置 | |
Li et al. | Road markings extraction based on threshold segmentation | |
CN113917487A (zh) | 基于激光雷达的封闭道路路沿和可行驶区域检测方法 | |
CN112927309A (zh) | 一种车载相机标定方法、装置、车载相机及存储介质 | |
CN111627001A (zh) | 图像检测方法及装置 | |
CN116703979A (zh) | 目标跟踪方法、装置、终端及存储介质 | |
CN112683228A (zh) | 单目相机测距方法及装置 | |
US20220171975A1 (en) | Method for Determining a Semantic Free Space | |
CN114898321A (zh) | 道路可行驶区域检测方法、装置、设备、介质及系统 | |
CN110738668A (zh) | 一种智能控制远光灯的方法、系统及交通工具 | |
Barua et al. | An Efficient Method of Lane Detection and Tracking for Highway Safety | |
CN112733678A (zh) | 测距方法、装置、计算机设备和存储介质 | |
CN114724119B (zh) | 车道线提取方法、检测设备及存储介质 | |
CN114898306B (zh) | 一种检测目标朝向的方法、装置及电子设备 | |
CN116402903A (zh) | 一种相机外参标定方法、装置、设备、介质及程序产品 | |
CN116071713A (zh) | 斑马线确定方法、装置、电子设备和介质 | |
CN116168357A (zh) | 一种智能车的前景目标机器视觉提取系统及方法 | |
CN114359859A (zh) | 一种含遮挡的目标物处理方法、装置及存储介质 | |
Sang et al. | A Robust Lane Detection Algorithm Adaptable to Challenging Weather Conditions | |
CN114170267A (zh) | 目标跟踪方法、装置、设备及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |