CN112017213B - 一种目标对象的位置更新方法及系统 - Google Patents

一种目标对象的位置更新方法及系统 Download PDF

Info

Publication number
CN112017213B
CN112017213B CN202011100438.9A CN202011100438A CN112017213B CN 112017213 B CN112017213 B CN 112017213B CN 202011100438 A CN202011100438 A CN 202011100438A CN 112017213 B CN112017213 B CN 112017213B
Authority
CN
China
Prior art keywords
tracking
target object
image
frame
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011100438.9A
Other languages
English (en)
Other versions
CN112017213A (zh
Inventor
辛明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ruizhi Technology Group Co ltd
Original Assignee
Ruizhi Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ruizhi Technology Group Co ltd filed Critical Ruizhi Technology Group Co ltd
Priority to CN202011100438.9A priority Critical patent/CN112017213B/zh
Publication of CN112017213A publication Critical patent/CN112017213A/zh
Application granted granted Critical
Publication of CN112017213B publication Critical patent/CN112017213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请提供一种目标对象的位置更新方法及系统,其中目标对象的位置更新方法具体包括以下步骤:获取目标视频;从目标视频中获取目标对象;获取目标对象中的跟踪特征点;根据跟踪特征点在目标对象中确定跟踪区域;对多个跟踪区域进行判断处理,进行目标对象的位置更新。本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对以及位置更新的时间。

Description

一种目标对象的位置更新方法及系统
技术领域
本申请涉及大数据处理技术领域,尤其涉及一种目标对象的位置更新方法及系统。
背景技术
随着移动互联网的普及,能够实时查看路况,从而查看交通是否拥堵,传统的路况信息检测方法中对于目标对象的定位,就是在城市的主干道上安装地感线圈、地磁、测速雷达和视频监测的装置,用于获取目标对象的位置。但是这种得到路况信息的数据资源不太容易通过共享获取。还有另一种路况的信息监测方法,就是通过定位获取,但是该定位方法有时候会因为干扰因素导致自身定位不正确。
因此,如何提出目标对象的位置更新方法及系统以解决现有技术中目标对象的位置不准确的问题,是本领域人员目前急需解决的问题。
发明内容
本申请提供一种目标对象的位置更新方法,具体包括以下步骤:获取目标视频;从目标视频中获取目标对象;获取目标对象中的跟踪特征点;根据跟踪特征点在目标对象中确定跟踪区域;对多个跟踪区域进行判断处理,进行目标对象的位置更新。
如上的,其中,通过高斯模型将各帧图像与标准背景进行处理,获取目标对象。
如上的,其中,用多个高斯模型混合来表征标准背景中各个像素点的特征,以及各帧图像的像素点的特征,将各帧图像与对应的标准背景的像素点进行匹配,将各帧图像与对应的标准背景不匹配的像素点构成目标对象。
如上的,其中,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下子步骤:在各帧图像中确定跟踪模板;确定跟踪模板后对各帧图像进行图像区域划分;确定划分后的各图像区域,确定跟踪模板中各子跟踪模板尺寸;根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
如上的,其中,选取形状和纹理特征明显的图像区域作为跟踪模板。
如上的,其中,确定第二跟踪区域后,通过第二跟踪区域中的跟踪特征点进行目标对象的位置判定。
如上的,其中,根据第二跟踪区域中的跟踪特征点与下一帧图像中的第二跟踪区域中的跟踪特征点进行比对,判断第二跟踪区域是否需要进行更新。
如上的,其中,对第一帧图像中的某一跟踪特征点
Figure 40142DEST_PATH_IMAGE001
与第二帧图像中对应的跟踪特征点
Figure 222862DEST_PATH_IMAGE002
进行距离判断;当第一帧图像中指定数量的
Figure 330495DEST_PATH_IMAGE001
与第二帧图像中指定数量的
Figure 991284DEST_PATH_IMAGE002
的距离均小于指定距离阈值时,则认为目标对象没有发生位置变化,不进行第二跟踪区域的更新。
如上的,其中,当第一帧图像中指定数量的
Figure 274497DEST_PATH_IMAGE001
与第二帧图像中指定数量的
Figure 923391DEST_PATH_IMAGE002
的距离均大于指定距离阈值时,则将第一跟踪区域中的目标对象的位置进行存储,更新第二跟踪区域,将第二帧图像中的第二跟踪区域作为更新后的第二跟踪区域。
一种目标对象的位置更新系统,该系统包括:目标视频获取单元,用于获取目标视频;目标对象获取单元,用于从目标视频中获取目标对象;跟踪特征点获取单元,用于获取目标对象中的跟踪特征点;确定单元,用于根据跟踪特征点在目标对象中确定跟踪区域;更新单元,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新。
本申请实现的有益效果如下:
本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对的时间。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域技术人员来讲,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种目标对象的位置更新方法的流程图。
图2为本申请实施例提供的一种目标对象的位置更新系统示意图。
具体实施方式
下面结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
实施例一
如图1所示,本申请提供一种目标对象的位置更新方法及系统,该方法包括如下步骤:
步骤S110:获取目标视频。
具体地,目标视频为通过现有技术中智能交通系统中监控到的交通视频。
其中智能交通系统主要利用多种科技手段来监控车辆以及道路进行实现,多种科技手段包括通信、电子、计算机视觉等领域。智能交通系统能够对道路以及交通环境进行实时监测,得到准确的交通参数信息,例如速度、车流量等。当出现交通事故或异常状况时,能够发出实时的警告信息,交通部门可以选择适当的措施,以保证道路的有效和安全运行。因此智能交通系统能够有效减少交通事故、交通拥堵的发生。
步骤S120:从目标视频中获取目标对象。
其中,目标对象为需要进行跟踪的一个或多个车辆。
具体地,目标视频中包括若干序列的帧图像,在若干帧图像中查找首次出现的目标对象,出现目标对象的帧图像定义为第一帧图像,将第一帧图像后续出现的帧图像依次定义为第二帧图像,第三帧图像等。
其中,由于目标对象会在帧图像中产生运动位移,因此相邻帧图像之间存在一定的相关性,通过对相邻帧图像进行处理从而得到目标对象和目标对象的背景部分。
具体地,构成目标对象的像素
Figure 659266DEST_PATH_IMAGE003
具体表示为:
Figure 123745DEST_PATH_IMAGE004
(公式一)
其中,
Figure 120520DEST_PATH_IMAGE005
表示第K+1帧图像的像素点,
Figure 379463DEST_PATH_IMAGE006
表示第K帧图像的像素点,T表示设定的指定阈值,若第K+1帧图像的像素点与第K帧图像的像素点的像素差大于指定阈值,则作为目标对象的像素点,反之则作为背景图像的像素点。
进一步地,通过上述方法可在各帧图像中获取目标对象,将在各帧图像中出现的目标对象进行标记。
作为另一个实施例,可通过帧图像之间的背景获取目标对象。
其中,获取目标对象具体包括以下步骤:
步骤S1201:选取标准背景。
其中,标准背景为不包含目标对象或其他对象的背景,标准背景应与目标视频中的背景部分相同,若目标视频中的背景部分为空白区域,则标准背景也应为空白区域。
进一步地,若目标视频中的帧图像中出现不同的背景部分,则标准背景也相应的有多个,具体与每个帧图像中的背景部分对应。
步骤S1202:将各帧图像与标准背景进行处理,获取目标对象。
具体地,其中构成目标对象的像素
Figure 337055DEST_PATH_IMAGE007
具体表示为:
Figure 339646DEST_PATH_IMAGE008
(公式二)
其中,
Figure 190927DEST_PATH_IMAGE009
表示第K帧图像的像素点,
Figure 886351DEST_PATH_IMAGE010
表示与K帧图像的背景部分对应的标准背景的像素点,T表示设定的指定阈值,若第K帧图像的像素点与标准背景的像素点的像素差小于指定阈值,则作为目标对象的像素点,反之则作为背景图像的像素点。
依然作为另一个实施例,通过高斯模型将各帧图像与标准背景进行处理,获取目标对象。
具体地,用多个高斯模型混合来表征标准背景中各个像素点的特征,以及各帧图像的像素点的特征。以第一帧图像为例,在获取第一帧图像后,同样利用多个高斯模型表征第一帧图像中各个像素点的特征,用第一帧图像中的每个像素点与标准背景的高斯模型中的各个像素点进行匹配,将第一帧图像中与标准背景匹配成功的像素点作为第一帧图像中的背景部分,第一帧图像与标准背景不匹配的像素点构成目标对象。
其中对于标准背景以及第一帧图像中的像素点,高斯模型
Figure 596818DEST_PATH_IMAGE011
具体表示为:
Figure 199838DEST_PATH_IMAGE012
(公式三)
其中,D表示标准背景或第一帧图像中的像素点,
Figure 108888DEST_PATH_IMAGE013
表示第i个高斯分量的权值,
Figure 647317DEST_PATH_IMAGE014
表示第i个高斯分量的概率密度函数,其中
Figure 641817DEST_PATH_IMAGE015
表示第i个高斯分量的均值,
Figure 549993DEST_PATH_IMAGE016
表示i个高斯分量的协方差矩阵。
其中,将通过上述高斯模型得到的标准背景的像素点的特征与各帧图像中的像素点的特征进行匹配,得到各帧图像中的目标对象。
步骤S130:获取目标对象中的跟踪特征点。
其中,监控的目标对象为多个,因此监控任务量复杂,又由于天气环境等因素的影响,目标视频中的目标对象也可能存在较为模糊的情况,因此本实施例选取较为突出的像素点作为目标对象的代表像素点,即跟踪特征点。
具体地,在各帧图像中标记后的目标对象中选取像素点(x,y)作为检测点,在检测点(x,y)周围选取指定大小的检测窗口,沿各个方向进行微小平滑移动,分别计算通过该检测点(x,y)的各方向的跟踪值,通过跟踪值确定跟踪特征点。
具体地,各方向包括水平、垂直、正反对角线四个方向,各方向的跟踪值具体表示为:
Figure 516812DEST_PATH_IMAGE017
(公式四)
其中,V1表示水平方向的跟踪值,V2表示垂直方向的跟踪值,V3表示正对角线方向的跟踪值,V4表示反对角线的跟踪值,
Figure 554038DEST_PATH_IMAGE018
表示像素点
Figure 832573DEST_PATH_IMAGE019
的灰度值,i表示自然数,N表示目标对象中像素点的总数量。
进一步地,取各方向的跟踪值的最小值,作为跟踪特征点的测量值,测量值
Figure 980657DEST_PATH_IMAGE020
具体表示为:
Figure 536403DEST_PATH_IMAGE021
(公式五)
其中,V1、V2、V3、V4表示各方向的跟踪值,将测量值大于指定阈值所对应的像素点作为第一帧图像中出现的目标对象的跟踪特征点。
具体地,获取各帧图像中出现的目标对象的跟踪特征点,由于目标对象是相同的,因此以第一帧图像中获取的目标对象的跟踪特征点为准,将剩余各帧图像中的标记后的目标对象的跟踪特征点进行标记。各帧图像中的跟踪特征点为一一对应关系,其中对跟踪特征点标记的目的在于,明确各帧图像之间跟踪特征点的对应关系。
值得注意的是,可以将相同的跟踪特征点用同一种标记符号进行标记,标记符号在此不进行限定。
步骤S140:根据跟踪特征点在目标对象中确定跟踪区域。
其中,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下子步骤:
步骤S1401:在各帧图像中确定跟踪模板。
其中,跟踪模板应选取特征明显、信息量丰富、匹配性好的图像区域。例如选取形状和纹理特征明显的图像区域作为跟踪模板。若选取的模板较小,则包含的信息会减少,若模板太大,则会包含无用信息,增加计算时间。
具体地,在各帧图像中以某一指定的跟踪特征点为中心,指定距离为半径进行跟踪模板的确定。跟踪模板应包含该帧图像中的全部跟踪特征点在内。在确定跟踪模板后,还包括,确定跟踪模板的第一跟踪区域。
其中第一跟踪区域能够有效缩小跟踪模板,使跟踪模板中的无用信息尽量减少,其中第一跟踪区域为包括跟踪特征点在内的区域,将跟踪模板的尺寸定义为
Figure 744531DEST_PATH_IMAGE022
,将跟踪区域的尺寸定义为
Figure 775941DEST_PATH_IMAGE023
,其中
Figure 399820DEST_PATH_IMAGE023
的范围应小于跟踪模板的尺寸
Figure 137969DEST_PATH_IMAGE022
,可具体根据跟踪模板的实际尺寸进行确定。
步骤S1402:确定跟踪模板后对各帧图像进行图像区域划分。
其中,以第一帧图像为例,后续帧图像按照与第一帧图像同样的处理方法进行区域划分。具体地,将第一帧图像自上而下划分为若干层,将最底层的图像区域定义为第一图像区域,最底层的上一层区域定义为第二图像区域,以此类推。
步骤S1403:确定划分后的各图像区域,确定跟踪模板中各子跟踪模板尺寸。
其中完成各图像区域的划分后,各图像区域中的跟踪模板被划分为了多个子跟踪模板,将各图像区域中的跟踪模板的宽度定义为比例线,各层图像区域中的比例线是平行的。
由于现实场景中的道路的宽度是固定的,但是在目标视频中的发生了尺度变化,因此需要对各帧图像中的每个图像区域的比例进行处理。具体为对各图像区域中跟踪模板尺寸进行调整从而完成图像区域的比例处理。而由于跟踪模板因为区域的划分,被划分成了多个子跟踪模板,因此可对子跟踪模板的尺寸进行调整从而能完成图像区域的比例处理。
具体地,依然以第一帧图像为例,将第一帧图像中的第一图像区域中的子跟踪模板设置为固定的最大尺寸,自下而上的各层图像区域中的子跟踪模板尺寸按照一定比例缩小。
优选地,可按照远近视场中的道路宽度比例来作为缩小比例参数。即将比例线作为缩小比例参数,其中第一图像区域的子跟踪模板的尺寸大小
Figure 579315DEST_PATH_IMAGE024
具体表示为:
Figure 770124DEST_PATH_IMAGE025
(公式六)
其中,
Figure 197695DEST_PATH_IMAGE022
为第一帧图像中跟踪模板的尺寸,
Figure 524771DEST_PATH_IMAGE026
为第一图像区域的子跟踪模板的宽度,
Figure 658991DEST_PATH_IMAGE027
为第一帧图像中跟踪模板的比例线,j为常数,表示划分图像区域的层数。由于计算的是第一图像区域的子跟踪模板,此时j=1。若计算的是第二图像区域的子跟踪模板,则j=2。
同理,各图像区域的子跟踪模板的尺寸可参考上述公式进行计算。
步骤S1404:根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
其中,由于跟踪模板被划分成了多个子跟踪模板,因此跟踪模板中的跟踪区域同理被划分成了多个第二跟踪区域,第二跟踪区域包含在每个子跟踪模板中。第二跟踪区域为子跟踪模板中包含至少一个跟踪特征点在内的部分区域,以第一图像区域的子跟踪模板中的第二跟踪区域为例,第二跟踪区域
Figure 540359DEST_PATH_IMAGE028
的尺寸具体表示为:
Figure 833937DEST_PATH_IMAGE029
(公式七)
其中,
Figure 343416DEST_PATH_IMAGE030
表示第一跟踪区域的尺寸大小,
Figure 798668DEST_PATH_IMAGE031
为第一图像区域的子跟踪模板的宽度,
Figure 901753DEST_PATH_IMAGE032
为第一帧图像中跟踪模板的宽度,j为常数,表示划分图像区域的层数,由于计算的是第一图像区域中子跟踪模板的第二跟踪区域,此时j=1。
其中,将子跟踪模板的尺寸
Figure 733443DEST_PATH_IMAGE033
与第二跟踪区域
Figure 363007DEST_PATH_IMAGE034
的尺寸进行比对,以第一图像区域中子跟踪模板的第二跟踪区域为例,若第一图像区域中的第二跟踪区域
Figure 989161DEST_PATH_IMAGE035
小于第一图像区域中子跟踪模板的尺寸
Figure 579542DEST_PATH_IMAGE033
,则继续执行,否则重新确定第二跟踪区域
Figure 542819DEST_PATH_IMAGE034
的尺寸。
同理,根据上述公式完成第一图像区域中子跟踪模板的多个第二跟踪区域的尺寸计算。
通过上述方法,完成各帧图像中跟踪模板、第一跟踪区域、子跟踪模板以及第二跟踪区域的划分以及确定。
步骤S150:对多个跟踪区域进行判断处理,进行目标对象的位置更新。
其中,通过第二跟踪区域中的跟踪特征点进行目标对象的位置判定,对多个跟踪区域进行判断处理具体为对多个第二跟踪区域进行判断处理。具体地,根据第二跟踪区域中的跟踪特征点与下一帧图像中的第二跟踪区域中的跟踪特征点进行比对,判断第二跟踪区域是否需要进行更新。
其中,以第一帧图像与第二帧图像为例,判断第一帧图像中的第二跟踪区域是否需要更新。由于各帧图像中目标对象的跟踪特征点的位置已经标记,具体地,对第一帧图像中的某一跟踪特征点
Figure 698994DEST_PATH_IMAGE001
与第二帧图像中对应的跟踪特征点
Figure 699311DEST_PATH_IMAGE002
进行距离判断。
其中在距离判断之前,还包括,设置合适的距离阈值。当第一帧图像中指定数量的
Figure 573726DEST_PATH_IMAGE001
与第二帧图像中指定数量的
Figure 576579DEST_PATH_IMAGE002
的距离均小于指定距离阈值时,则认为目标对象没有发生位置变化,不进行第二跟踪区域的更新。
当第一帧图像中指定数量的
Figure 852840DEST_PATH_IMAGE001
与第二帧图像中指定数量的
Figure 24058DEST_PATH_IMAGE002
的距离均大于指定距离阈值时,则认为目标对象发生了较大的位置变化,此时将第一跟踪区域中的目标对象的位置进行存储,更新第二跟踪区域,将第二帧图像中的第二跟踪区域作为更新后的第二跟踪区域。
其中,通过存储的帧图像的第二跟踪区域与不断更新的第二跟踪区域,能够得到目标对象的位置更新。
实施例二
如图2所示,本申请还提供一种目标对象的位置更新系统,该系统包括:目标视频获取单元201、目标对象获取单元202、跟踪特征点获取单元203、确定单元204、更新单元205。
其中目标视频获取单元201用于获取目标视频。
目标对象获取单元202与目标视频获取单元201连接,用于从目标视频中获取目标对象。
跟踪特征点获取单元203与目标对象获取单元202连接,用于获取目标对象中的跟踪特征点。
确定单元204与跟踪特征点获取单元203连接,用于根据跟踪特征点在目标对象中确定跟踪区域。
更新单元205与确定单元204连接,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新。
本申请实现的有益效果如下:
本申请提供的目标对象的位置更新方法及系统,跟踪区域中的跟踪特征点能够反映目标对象的位置,因此可通过跟踪区域的不断更新,完成目标对象的位置更新。同时,本申请不需要将每帧图像都各自进行比对从而确定目标对象的位置,能够加快对目标对象位置的获取,节省了比对以及位置更新的时间。
虽然当前申请参考的示例被描述,其只是为了解释的目的而不是对本申请的限制,对实施方式的改变,增加和/或删除可以被做出而不脱离本申请的范围。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (10)

1.一种目标对象的位置更新方法,其特征在于,具体包括以下步骤:
获取目标视频;
从目标视频中获取目标对象;
获取目标对象中的跟踪特征点;
根据跟踪特征点在目标对象中确定跟踪区域;
对多个跟踪区域进行判断处理,进行目标对象的位置更新;
其中,跟踪特征点为目标对象的代表像素点;
其中,在各帧图像中标记后的目标对象中选取指定像素点作为检测点,计算所述检测点的各方向的跟踪值,通过跟踪值确定跟踪特征点;
各方向的跟踪值具体表示为:
Figure 69500DEST_PATH_IMAGE001
其中,V1表示水平方向的跟踪值,V2表示垂直方向的跟踪值,V3表示正对角线方向的跟踪值,V4表示反对角线的跟踪值,
Figure 464578DEST_PATH_IMAGE002
表示像素点
Figure 168092DEST_PATH_IMAGE003
的灰度值,i表示自然数,N表示目标对象中像素点的总数量。
2.根据权利要求1所述的目标对象的位置更新方法,其特征在于,通过高斯模型将各帧图像与标准背景进行处理,获取目标对象。
3.根据权利要求2所述的目标对象的位置更新方法,其特征在于,用多个高斯模型混合来表征标准背景中各个像素点的特征,以及各帧图像的像素点的特征,将各帧图像与对应的标准背景的像素点进行匹配,将各帧图像与对应的标准背景不匹配的像素点构成目标对象。
4.根据权利要求1所述的目标对象的位置更新方法,其特征在于,根据跟踪特征点在目标对象中确定跟踪区域,具体包括以下子步骤:
在各帧图像中确定跟踪模板;
确定跟踪模板后对各帧图像进行图像区域划分;
确定划分后的各图像区域,确定跟踪模板中各子跟踪模板尺寸;
根据各子跟踪模板的尺寸确定各子跟踪模板中的第二跟踪区域。
5.根据权利要求4所述的目标对象的位置更新方法,其特征在于,选取形状和纹理特征明显的图像区域作为跟踪模板。
6.根据权利要求5所述的目标对象的位置更新方法,其特征在于,确定第二跟踪区域后,通过第二跟踪区域中的跟踪特征点进行目标对象的位置判定。
7.根据权利要求6所述的目标对象的位置更新方法,其特征在于,根据第二跟踪区域中的跟踪特征点与下一帧图像中的第二跟踪区域中的跟踪特征点进行比对,判断第二跟踪区域是否需要进行更新。
8.根据权利要求7所述的目标对象的位置更新方法,其特征在于,对第一帧图像中的某一跟踪特征点
Figure 791971DEST_PATH_IMAGE004
与第二帧图像中对应的跟踪特征点
Figure 530120DEST_PATH_IMAGE005
进行距离判断;
当第一帧图像中指定数量的
Figure 846832DEST_PATH_IMAGE004
与第二帧图像中指定数量的
Figure 37642DEST_PATH_IMAGE005
的距离均小于指定距离阈值时,则认为目标对象没有发生位置变化,不进行第二跟踪区域的更新。
9.根据权利要求8所述的目标对象的位置更新方法,其特征在于,当第一帧图像中指定数量的
Figure 465212DEST_PATH_IMAGE004
与第二帧图像中指定数量的
Figure 792288DEST_PATH_IMAGE005
的距离均大于指定距离阈值时,则将第一跟踪区域中的目标对象的位置进行存储,更新第二跟踪区域,将第二帧图像中的第二跟踪区域作为更新后的第二跟踪区域。
10.一种目标对象的位置更新系统,其特征在于,该系统包括:
目标视频获取单元,用于获取目标视频;
目标对象获取单元,用于从目标视频中获取目标对象;
跟踪特征点获取单元,用于获取目标对象中的跟踪特征点;
确定单元,用于根据跟踪特征点在目标对象中确定跟踪区域;
更新单元,用于对多个跟踪区域进行判断处理,进行目标对象的位置更新;
其中,跟踪特征点为目标对象的代表像素点;
其中,在各帧图像中标记后的目标对象中选取指定像素点作为检测点,计算所述检测点的各方向的跟踪值,通过跟踪值确定跟踪特征点;
各方向的跟踪值具体表示为:
Figure 794748DEST_PATH_IMAGE006
其中,V1表示水平方向的跟踪值,V2表示垂直方向的跟踪值,V3表示正对角线方向的跟踪值,V4表示反对角线的跟踪值,
Figure 410537DEST_PATH_IMAGE007
表示像素点
Figure 704115DEST_PATH_IMAGE008
的灰度值,i表示自然数,N表示目标对象中像素点的总数量。
CN202011100438.9A 2020-10-15 2020-10-15 一种目标对象的位置更新方法及系统 Active CN112017213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011100438.9A CN112017213B (zh) 2020-10-15 2020-10-15 一种目标对象的位置更新方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011100438.9A CN112017213B (zh) 2020-10-15 2020-10-15 一种目标对象的位置更新方法及系统

Publications (2)

Publication Number Publication Date
CN112017213A CN112017213A (zh) 2020-12-01
CN112017213B true CN112017213B (zh) 2021-05-07

Family

ID=73527619

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011100438.9A Active CN112017213B (zh) 2020-10-15 2020-10-15 一种目标对象的位置更新方法及系统

Country Status (1)

Country Link
CN (1) CN112017213B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112348844A (zh) * 2020-11-04 2021-02-09 北京伟杰东博信息科技有限公司 一种目标对象的位置更新方法及系统
CN112348852A (zh) * 2020-11-04 2021-02-09 北京伟杰东博信息科技有限公司 一种目标对象的位置更新方法及系统

Also Published As

Publication number Publication date
CN112017213A (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
CN106919915B (zh) 基于adas系统的地图道路标记及道路质量采集装置及方法
CN109284674B (zh) 一种确定车道线的方法及装置
CN109087510B (zh) 交通监测方法及装置
CN102208013B (zh) 风景匹配参考数据生成系统和位置测量系统
CN112380317B (zh) 高精地图更新方法、装置、电子设备和存储介质
CN112069944B (zh) 一种道路拥堵等级确定方法
CN112017213B (zh) 一种目标对象的位置更新方法及系统
CN110826412B (zh) 高速公路能见度检测系统和方法
CN111288890A (zh) 基于双目摄影测量技术的道路标志尺寸及高度自动测量方法
CN115240471B (zh) 一种基于图像采集的智慧厂区避撞预警方法和系统
CN115049948B (zh) 基于神经网络模型的无人机巡检方法、装置及相关设备
CN116109986A (zh) 一种基于激光雷达和视频技术互补的车辆轨迹提取方法
CN111160132B (zh) 障碍物所在车道的确定方法、装置、电子设备和存储介质
CN111582270A (zh) 基于高精度的桥梁区域视觉靶标特征点的识别追踪方法
CN112699748B (zh) 基于yolo及rgb图像的人车距离估计方法
CN113435350A (zh) 一种交通标线检测方法、装置、设备和介质
CN116110006B (zh) 一种用于智慧旅游系统的景区游客异常行为识别方法
CN115995075A (zh) 一种车辆自适应导航方法、装置、电子设备及存储介质
CN112348844A (zh) 一种目标对象的位置更新方法及系统
CN112348852A (zh) 一种目标对象的位置更新方法及系统
CN115440071A (zh) 一种自动驾驶违规停车检测方法
CN114820931A (zh) 基于虚拟现实的智慧城市cim可视化实时成像方法
CN113901903A (zh) 道路识别方法和装置
CN109389643A (zh) 车位主方向判断方法、系统以及存储介质
US20230025579A1 (en) High-definition mapping

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant