CN108830884B - 一种多视觉传感器协同目标跟踪方法 - Google Patents
一种多视觉传感器协同目标跟踪方法 Download PDFInfo
- Publication number
- CN108830884B CN108830884B CN201810297331.4A CN201810297331A CN108830884B CN 108830884 B CN108830884 B CN 108830884B CN 201810297331 A CN201810297331 A CN 201810297331A CN 108830884 B CN108830884 B CN 108830884B
- Authority
- CN
- China
- Prior art keywords
- camera
- target
- particle
- particles
- cameras
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种多视觉传感器协同目标跟踪方法,具体包括如下步骤:在每个相机中分别选出目标模板,然后对每个相机中的粒子进行状态初始化;对经初始化的粒子进行状态转移,并计算每个相机中粒子所对应目标模板的颜色直方图特征,求出每个相机中的粒子的权值;设相机的个数为M个,对每个相机中的空间粒子权值进行估计计算;计算M个相机中的第v个相机与其它M‑1个相机偏离度;分别对每个相机中的目标位置进行估计,并计算估计的目标位置与目标模板的相似度;根据所得偏离度和所得相似度对每个相机中的目标进行协同跟踪。解决了现有技术中存在的未充分利用相机间及图像采集数据集内的各个图像之间的关联联系使得目标长时跟踪效率低的问题。
Description
技术领域
本发明属于机器视觉技术领域,涉及一种多视觉传感器协同目标跟踪方法。
背景技术
目标跟踪是机器视觉领域的经典问题之一。多视觉传感跟踪可利用观测信息的互补性有效避免单一视角严重遮挡造成的目标丢失,提高目标跟踪鲁棒性,另一方面,多视觉传感协同跟踪也是解决大范围、复杂空间目标持续、准确跟踪的有效手段,对于跟踪技术的实际应用具有重要意义。
综上所述,目前多视觉跟踪相关研究仍存在以下问题:基于单应性空间约束的协同跟踪局限性较大,其只能在地平面目标“脚点”建立空间对应关系,而在复杂多场景下“脚点”位置很难获取,从而大大制约了多视觉跟踪应用范围;分布式协同跟踪机制依然是以单一视觉传感跟踪为基础的,没有充分利用多个视觉传感的信息融合提高跟踪的鲁棒性。
发明内容
本发明的目的是提供一种多视觉传感器协同目标跟踪方法,解决了现有技术中存在的未充分利用相机间及图像采集数据集内的各个图像之间的关联联系使得目标长时跟踪效率低的问题。
本发明所采用的技术方案是,一种多视觉传感器协同目标跟踪方法,具体包括如下步骤:
步骤1,在每个相机中分别选出目标模板,然后对每个相机中的粒子进行状态初始化;
步骤2,对经步骤1初始化的粒子进行状态转移,并计算每个相机中粒子所对应目标模板的颜色直方图特征,求出每个相机中的粒子的权值;
步骤3,设相机的个数为M个,对每个相机中的空间粒子权值进行估计计算;
步骤4,计算M个相机中的第v个相机与其它M-1个相机偏离度;
步骤5,分别对每个相机中的目标位置进行估计,并计算估计的目标位置与目标模板的相似度;
步骤6,根据步骤4所得偏离度和步骤5所得相似度对每个相机中的目标进行协同跟踪。
本发明的特点还在于,
步骤2的具体过程如下:
其中,目标区域中心的颜色分布为x,目标区域半径为h,目标区域内的第ipix个像素处的颜色分布为n为目标区域内像素的总和,δ(·)为Delta函数;b(xi)是位于xi处的像素在直方图上颜色等级索引的映像;u为直方图中颜色等级索引;k(·)为Epanechnikov核函数,k(·)的定义如下公式(2)所示:
步骤3的具体过程如下:
步骤3.1,推导粒子空间权值计算公式,具体为:
根据序贯重要性采样方法,遵循如下两个假设条件:(a)视觉传感之间的观测具有独立性;(b)不同时间的观测值相互独立,观测值只与当前状态相关;
具体为:假设两个相机,分别记作A和B,设在相机A成像平面中的粒子Pa为空间粒子PA在相机A中的映射,空间粒子PA在相机A中的观测条件概率记作根据对极几何原理,粒子Pa在相机B的成像平面中必对应一条对极极线记作l,记相机B对于空间粒子PA的观测条件概率为由公式(17)推得如下公式(18):
其中,Npix表示落在对极带内的粒子个数;
由公式(19)推得空间粒子PA在相机A中的投影粒子Pa权值递推关系为:
由公式(20)推得相机B中的粒子权值的近似递推关系为
将公式(21)所得结论推广至M个相机的情况,则M个相机的空间粒子权值的近似计算如下:
步骤4的具体过程如下:
根据相机B的对极线lB和相机B中的粒子位置关系判断相机B相对于相机A的偏离度,相机B中的每个粒子{xB,1,xB,2,…,xB,N}与对极线lB的最短距离可以表示为:
dB=min||xB-lB|| (23)
其中,xB,N表示相机B中第N个粒子;
将位于对极线两侧的粒子相对于对极线的上下位置关系分别赋予正负符号,可以定义相机A在相机B的目标观测偏离度为:
ηAB=|dB++dB-| (24);
M个相机中,其中第v个相机与其它M-1个相机偏离度定义如下:
步骤5的具体过程如下:
其中,v=1,2,3…,M,表示第v个相机中估计的目标的位置信息,设任意一个相机中估计的目标模板的颜色直方图特征为hX,所述步骤1中对应相机中的目标模板的颜色直方图特征则估计的目标模板和对应的目标模板的相似度的计算方法为:
步骤6的具体过程如下:
设步骤4中的偏离度阈值为T1、步骤5中的相似度阈值为T2;
在M个相机中,对于任意一个相机中的目标,若步骤4中所得的偏离度大于T1、步骤5中所得的相似度小于T2,且其他M-1个相机中的目标都不满足偏离度大于T1和相似小于T2的条件,此时开始进行如下跟踪过程:
首先通过对极几何分别计算出其他相机中的目标框中心在该相机中的对极线,然后计算出对极线的交点,以该交点为中心,得到与上一帧目标框同大小的目标框,分别计算出该目标框与上一帧目标框模板的相似度及偏离度,如果偏离度大于T1且相似度小于T2,则以该交点作为估计的目标的位置;反之,则以该交点为中心,进行撒粒子,然后进行振荡重采样,然后计算振荡后的每个粒子与遮挡前目标模板的相似度,取相似度最大的粒子作为估计的目标位置;若所有粒子的相似度都小于T2,则以对极线交点作为估计的目标位置,利用估计的目标位置对目标模板的直方图特征进行更新,从而实现多个相机的协同目标跟踪。
本发明有如下有益效果:
(1)空间粒子滤波算法融合了多个相机的目标信息,目标在每个相机中的成像都是一个二维投影,单独使用一个相机的信息势必会造成目标信息的丢死,通过对极几何关系,将目标在每个相机中投影信息进行融合,一定程度弥补了单相机目标描述的不足,提高了短时遮挡目标跟踪的鲁棒性。
(2)当目标被长时遮挡时候,本文通过对极几何关系,提出了利用其他没有被遮挡相机中的目标的位置信息共同定位遮挡目标的位置,然后通过判断确定的位置与遮挡前的目标模板的相似度来重拾目标。
附图说明
图1是本发明一种多视觉传感器协同目标跟踪方法中采用的对极几何原理示意图;
图2(a)、2(b)、2(c)是本发明一种多视觉传感器协同目标跟踪方法中用于计算粒子空间权值的状态示意图;
图3是本发明一种多视觉传感器协同目标跟踪方法用于计算粒子偏离度的状态示意图;
图4是采用本发明一种多视觉传感器协同目标跟踪方法在307、433、478相机帧数下的测试结果图;
图5是采用本发明一种多视觉传感器协同目标跟踪方法在1059、1432、468、1539相机帧数下的测试结果图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种多视觉传感器协同目标跟踪方法,首先利用对极几何关系,提出了空间粒子滤波的方法,来融合多相机的目标信息对单相机中的目标进行表示;当目标被长时遮挡时候,通过对极几何关系,利用没有遮挡相机的目标的位置信息来定位遮挡相机中目标,然后通过判断确定的目标位置与遮挡前的目标模板的相似度重拾目标,
具体按照以下步骤实施:
步骤1,在每个相机中分别选出目标(必须是相同的目标)模板,然后对每个相机中的粒子进行状态初始化;
步骤2,对经步骤1初始化的粒子进行状态转移,并计算每个相机中粒子所对应目标模板的颜色直方图特征,求出每个相机中的粒子的权值;
具体过程如下:
其中,目标区域中心的颜色分布为x,目标区域半径为h,目标区域内的第ipix个像素处的颜色分布为n为目标区域内像素的总和,δ(·)为Delta函数;b(xi)是位于xi处的像素在直方图上颜色等级索引的映像;u为直方图中颜色等级索引;k(·)为Epanechnikov核函数:
定义如下公式(2)所示:
步骤3,对每个相机中的空间粒子权值进行估计计算;
每个相机中的粒子的空间权值估算方法相同。以相机1的计算方法为例,在步骤1中相机1中每个粒子的状态的基础上,分别计算其他相机中的所有粒子落在,以相机1中目标的目标框的高度为宽,以相机1中每个粒子的对极线为中心的对极带内的所有粒子的个数,并计算这些例子的权值均值,然后得到相机1中每个粒子的空间权值。其他相机的粒子的空间权值估算方法类似;
步骤3的具体过程为:
步骤3.1,推导粒子空间权值计算公式,具体为:
根据序贯重要性采样方法,当前粒子权值与上一时刻粒子权值呈现递推关系,步骤3.1中分析将从两个视觉传感的后验概率分析出发推导该递推关系,并从两个视觉传感的后验概率分析推广到N个视觉传感的情况;推导将遵循以下假设条件:(a)视觉传感之间的观测具有独立性;(b)不同时间的观测值相互独立,观测值只与当前状态相关,假设视觉目标的状态为x0:t,两个独立观测的视觉传感观测值分别为和(表示相机1在1到t时刻的观测值;表示相机2在1到t时刻的观测值)则两个视觉传感后验概率p(XT|ZT)可表示为其递推求解推导如下:
根据假设条件(a)和(b),在推导步骤作了如下简化:
具体为:假设两个相机(视觉传感),分别记作A和B,设在相机A成像平面中的粒子Pa为空间粒子PA在相机A中的映射,如图2所示(图2(a)表示相机A中的粒子;图2(b)表示相机A中的三角形粒子在相机B中的对极线;图2(c)表示对极带示意图),空间粒子PA在相机A中的观测条件概率记作根据对极几何原理(对极几何原理如图1所示),粒子Pa在相机B的成像平面中必对应一条对极极线记作l,如图1所示,记相机B对于空间粒子PA的观测条件概率为由公式(17)推得如下公式(18):
其中,Npix表示落在对极带内的粒子个数;
由公式(19)推得空间粒子PA在相机A中的投影粒子Pa权值递推关系为:
由公式(20)推得相机B中的粒子权值的近似递推关系为
将公式(21)所得结论推广至M个相机(视觉传感)的情况,则M个相机的空间粒子权值的近似计算如下:
步骤4:设相机的个数为M个,计算M个相机中的第v个相机与其它M-1个相机偏离度;
如图3所示,根据相机B的对极线lB和相机B中的粒子位置关系判断相机B相对于相机A的偏离度,图3中相机B中的每个粒子{xB,1,xB,2,…,xB,N}用圆圈表示,相机B中的所有粒子与对极线lB的最短距离可以表示为:
dB=min||xB-lB|| (23);
其中,xB,N表示相机B中第N个粒子;
将位于对极线两侧的粒子相对于对极线的上下位置关系分别赋予正负符号,可以定义相机A在相机B的目标观测偏离度为:
ηAB=|dB++dB-| (24);
M个相机中,其中第v个相机与其它M-1个相机偏离度定义如下:
其中:式(23)中的dB表示相机B中粒子距离对极线的距离,lB表示相机B的对极线的方程,xB表示相机B中的粒子,式(24)中的dB+表示粒子与对极线的距离,且粒子在对极线的上方,dB-表示粒子与对极线的距离,且粒子在对极线的下方,式(25)中的ηvh表示第v个相机在第h个相机中的偏离度。
步骤5:分别对每个相机中的目标位置进行估计,并计算估计的目标位置与目标模板的相似度;
其中,v=1,2,3…,M,表示视觉传感的个数,表示第v个相机中估计的目标的位置信息;根据公式(1),设任意一个相机中估计的目标模板的颜色直方图特征为hX,步骤1中对应相机中的目标模板的颜色直方图特征(hX和为向量),则估计的目标模板和对应的目标模板的相似度的计算方法为:
步骤6,对每个相机中的目标进行协同跟踪;
具体处理过程如下:对于任意一个相机中的目标,若步骤4中的偏离度大于T1(T1一般根据待处理视频序列的分辨率大小进行调整),步骤5中的相似度小于T2(T2一般取值大于等于0.6),且其他M-1个相机中的目标都不满足上述偏离度和相似度的条件,具体的跟踪过程如下:
首先通过对极几何分别计算出其他相机中的目标框中心在该相机中的对极线,然后计算出对极线的交点,以该交点为中心,得到与上一帧目标框同大小的目标框,分别计算出该目标框与上一帧目标框模板的相似度及偏离度,如果偏离度大于T1且相似度小于T2,则以该交点作为估计的目标的位置;若不满足偏离度大于T1且相似度小于T2的情况,则以该交点为中心,进行撒粒子,然后进行振荡重采样,一般振荡7-9次,然后计算振荡后的每个粒子与遮挡前目标模板的相似度,取相似度最大的粒子作为估计的目标位置;若所有粒子的相似度都小于T2,则以对极线交点作为估计的目标位置,利用估计的目标位置对目标模板的直方图特征进行更新,从而实现多个相机的协同目标跟踪。
将步骤6中重新估计的每个相机的目标位置和更新后的目标模板的颜色直方图特征作为当前时刻的状态信息,并返回至步骤2,循环对各个相机中的目标进行协同跟踪,直至各相机中的视频序列的图像全部跟踪完毕,从而实现多个相机之间的运动目标的协同跟踪。
本发明一种多视觉传感器协同目标跟踪方法的实施结果:
图4和图5均为目标被长时遮挡又重新出现的情况下采用本发明一种多视觉传感器协同目标跟踪方法进行跟踪的跟踪结果,可以看出本发明提出的跟踪方法准确跟踪了目标。图4中从左至右依次为相机1、2、3,从上至下为帧数,依次为307、433、478帧。图5中从左至右依次为相机1、2、3,从上至下依次为第1059,1432,468,1539帧。
Claims (5)
1.一种多视觉传感器协同目标跟踪方法,其特征在于:具体包括如下步骤:
步骤1,在每个相机中分别选出目标模板,然后对每个相机中的粒子进行状态初始化;
步骤2,对经步骤1初始化的粒子进行状态转移,并计算每个相机中粒子所对应目标模板的颜色直方图特征,求出每个相机中的粒子的权值;
步骤3,设相机的个数为M个,对每个相机中的空间粒子权值进行估计计算;
步骤4:计算M个相机中的第v个相机与其它M-1个相机偏离度;所述步骤4的具体过程如下:
根据相机B的对极线lB和相机B中的粒子位置关系判断相机B相对于相机A的偏离度,相机B中的每个粒子{xB,1,xB,2,…,xB,N}与对极线lB的最短距离可以表示为:
dB=min||xB-lB|| (1);
其中,xB,N表示相机B中第N个粒子;
将位于对极线两侧的粒子相对于对极线的上下位置关系分别赋予正负符号,可以定义相机A在相机B的目标观测偏离度为:
ηAB=|dB++dB-| (2);
M个相机中,其中第v个相机与其它M-1个相机偏离度定义如下:
步骤5,分别对每个相机中的目标位置进行估计,并计算估计的目标位置与目标模板的相似度;
步骤6,根据步骤4所得偏离度和步骤5所得相似度对每个相机中的目标进行协同跟踪。
2.根据权利要求1所述的一种多视觉传感器协同目标跟踪方法,其特征在于:所述步骤2的具体过程如下:
其中,目标区域中心的颜色分布为x,目标区域半径为h,目标区域内的第ipix个像素处的颜色分布为n为目标区域内像素的总和,d(·)为Delta函数;是位于处的像素在直方图上颜色等级索引的映像;u为直方图中颜色等级索引;k(·)为Epanechnikov核函数,k(·)的定义如下公式(5)所示:
3.根据权利要求2所述的一种多视觉传感器协同目标跟踪方法,其特征在于:所述步骤3的具体过程如下:
步骤3.1,推导粒子空间权值计算公式,具体为:
根据序贯重要性采样方法,遵循如下两个假设条件:(a)视觉传感之间的观测具有独立性;(b)不同时间的观测值相互独立,观测值只与当前状态相关;
具体为:假设两个相机,分别记作A和B,设在相机A成像平面中的粒子Pa为空间粒子PA在相机A中的映射,空间粒子PA在相机A中的观测条件概率记作根据对极几何原理,粒子Pa在相机B的成像平面中必对应一条对极极线记作l,记相机B对于空间粒子PA的观测条件概率为由公式(20)推得如下公式(21):
其中,Npix表示落在对极带内的粒子个数;
由公式(22)推得空间粒子PA在相机A中的投影粒子Pa权值递推关系为:
由公式(23)推得相机B中的粒子权值的近似递推关系为
将公式(24)所得结论推广至M个相机的情况,则M个相机的空间粒子权值的近似计算如下:
5.根据权利要求4所述的一种多视觉传感器协同目标跟踪方法,其特征在于:所述步骤6的具体过程如下:
设步骤4中的偏离度阈值为T1、步骤5中的相似度阈值为T2;
在M个相机中,对于任意一个相机中的目标,若步骤4中所得的偏离度大于T1、步骤5中所得的相似度小于T2,且其他M-1个相机中的目标都不满足偏离度大于T1和相似小于T2的条件,此时开始进行如下跟踪过程:
首先通过对极几何分别计算出其他相机中的目标框中心在该相机中的对极线,然后计算出对极线的交点,以该交点为中心,得到与上一帧目标框同大小的目标框,分别计算出该目标框与上一帧目标框模板的相似度及偏离度,如果偏离度大于T1且相似度小于T2,则以该交点作为估计的目标的位置;反之,则以该交点为中心,进行撒粒子,然后进行振荡重采样,然后计算振荡后的每个粒子与遮挡前目标模板的相似度,取相似度最大的粒子作为估计的目标位置;若所有粒子的相似度都小于T2,则以对极线交点作为估计的目标位置,利用估计的目标位置对目标模板的直方图特征进行更新,从而实现多个相机的协同目标跟踪。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810297331.4A CN108830884B (zh) | 2018-04-04 | 2018-04-04 | 一种多视觉传感器协同目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810297331.4A CN108830884B (zh) | 2018-04-04 | 2018-04-04 | 一种多视觉传感器协同目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108830884A CN108830884A (zh) | 2018-11-16 |
CN108830884B true CN108830884B (zh) | 2021-12-17 |
Family
ID=64154452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810297331.4A Expired - Fee Related CN108830884B (zh) | 2018-04-04 | 2018-04-04 | 一种多视觉传感器协同目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108830884B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113194259B (zh) * | 2021-05-07 | 2023-05-23 | 中山大学 | 一种基于多相机阵列的协同指向控制方法、系统及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739690A (zh) * | 2009-11-26 | 2010-06-16 | 西北工业大学 | 多相机协同运动目标检测方法 |
CN104899894A (zh) * | 2014-03-05 | 2015-09-09 | 南京理工大学 | 一种采用多台摄像机进行运动目标跟踪的方法 |
WO2017047688A1 (ja) * | 2015-09-17 | 2017-03-23 | 株式会社日立国際電気 | 落下物検知追跡システム |
CN107038714A (zh) * | 2017-04-17 | 2017-08-11 | 西安理工大学 | 多型视觉传感协同目标跟踪方法 |
-
2018
- 2018-04-04 CN CN201810297331.4A patent/CN108830884B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101739690A (zh) * | 2009-11-26 | 2010-06-16 | 西北工业大学 | 多相机协同运动目标检测方法 |
CN104899894A (zh) * | 2014-03-05 | 2015-09-09 | 南京理工大学 | 一种采用多台摄像机进行运动目标跟踪的方法 |
WO2017047688A1 (ja) * | 2015-09-17 | 2017-03-23 | 株式会社日立国際電気 | 落下物検知追跡システム |
CN107038714A (zh) * | 2017-04-17 | 2017-08-11 | 西安理工大学 | 多型视觉传感协同目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
《大视场双目主动视觉传感器的协同跟踪方法》;崔智高 等;《光电子激光》;20140430;第25卷(第4期);全文 * |
《面向运动目标检测的粒子滤波视觉注意力模型》;刘龙 等;《电子学报》;20160930;第44卷(第9期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN108830884A (zh) | 2018-11-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11288818B2 (en) | Methods, systems, and computer readable media for estimation of optical flow, depth, and egomotion using neural network trained using event-based learning | |
Loo et al. | CNN-SVO: Improving the mapping in semi-direct visual odometry using single-image depth prediction | |
CN108986037B (zh) | 基于半直接法的单目视觉里程计定位方法及定位系统 | |
JP6095018B2 (ja) | 移動オブジェクトの検出及び追跡 | |
EP2858008B1 (en) | Target detecting method and system | |
EP1879149B1 (en) | method and apparatus for tracking a number of objects or object parts in image sequences | |
CN110796010B (zh) | 一种结合光流法和卡尔曼滤波的视频稳像方法 | |
CN104820996B (zh) | 一种基于视频的自适应分块的目标跟踪方法 | |
CN106846359A (zh) | 基于视频序列的运动目标快速检测方法 | |
JP2018522348A (ja) | センサーの3次元姿勢を推定する方法及びシステム | |
US9767568B2 (en) | Image processor, image processing method, and computer program | |
US8615107B2 (en) | Method and apparatus for multiple object tracking with K-shortest paths | |
US10896495B2 (en) | Method for detecting and tracking target object, target object tracking apparatus, and computer-program product | |
JP7272024B2 (ja) | 物体追跡装置、監視システムおよび物体追跡方法 | |
WO2008020598A1 (fr) | Dispositif et procédé de détection d'un nombre d'objets | |
CN110827321B (zh) | 一种基于三维信息的多相机协同的主动目标跟踪方法 | |
CN111144213A (zh) | 一种对象检测方法和相关设备 | |
CN110827320B (zh) | 基于时序预测的目标跟踪方法和装置 | |
CN104331907B (zh) | 一种基于orb特征检测测量载体速度的方法 | |
WO2020120782A1 (en) | Method of tracking objects in a scene | |
CN112541938A (zh) | 一种行人速度测量方法、系统、介质及计算设备 | |
Hayakawa et al. | Ego-motion and surrounding vehicle state estimation using a monocular camera | |
CN113221739B (zh) | 基于单目视觉的车距测量方法 | |
KR101690050B1 (ko) | 지능형 영상보안 시스템 및 객체 추적 방법 | |
CN108830884B (zh) | 一种多视觉传感器协同目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20211217 |