CN102722886B - 一种基于三维标定和特征点匹配的视频测速方法 - Google Patents

一种基于三维标定和特征点匹配的视频测速方法 Download PDF

Info

Publication number
CN102722886B
CN102722886B CN201210162324.6A CN201210162324A CN102722886B CN 102722886 B CN102722886 B CN 102722886B CN 201210162324 A CN201210162324 A CN 201210162324A CN 102722886 B CN102722886 B CN 102722886B
Authority
CN
China
Prior art keywords
point
dimensional
video
vehicle
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210162324.6A
Other languages
English (en)
Other versions
CN102722886A (zh
Inventor
尚凌辉
杨永明
杜雅慧
高勇
刘嘉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Original Assignee
ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd filed Critical ZHEJIANG ICARE VISION TECHNOLOGY Co Ltd
Priority to CN201210162324.6A priority Critical patent/CN102722886B/zh
Publication of CN102722886A publication Critical patent/CN102722886A/zh
Application granted granted Critical
Publication of CN102722886B publication Critical patent/CN102722886B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种基于三维标定和特征点匹配的视频测速方法。现有的视频测速方法计算出的车速往往有着较大的误差,不能很好的反应事故时的真实状况。本发明是按照如下方法进行测速,首先在测量场景建立三维坐标系,选择至少6个空间中的点,并记录每个点的三维坐标,同时在二维场景图像中,对记录了三维坐标的点进行手动标注,并录入每个对应点的三维坐标,通过算法得到摄像机的三维透视模型,再对交互模式进行选择,交互模式包括两种:a.在视频的任意两帧中手动选择同一车辆的同一个点,进行速度测量;b.选择视频中某一帧运动车辆上的某一个点,进行车辆的运动速度测量。本发明可以直接测量,无须额外的硬件设备,只需要在现场进行场景的标注,即可完成场景中车辆的测速,还可重复测量以得到更加精确的测量速度。<!--1-->

Description

一种基于三维标定和特征点匹配的视频测速方法
技术领域
本发明属于视频监控技术领域,尤其是一种基于三维标定和特征点匹配的视频测速方法。
背景技术
车辆的运行速度测量是视频监控领域和智能交通领域的应用热点之一,它不仅涉及道路交通的管理、统计,还牵扯到事故后的责任认定问题。在即时测速方面,目前的测速方法主要采用硬件装置,如地感线圈测速,在间隔一定距离的路面下埋设地感线圈,利用已知距离和车辆经过的时间计算车速;又如激光雷达测速,利用激光反射的时间差计算目标距离,再通过距离差来计算其运动速度。无论是雷达还是地感线圈,由于其测速原理的限制,监控的往往只是一个相对固定且范围较小的区域。又由于硬件设施的价格较高,实际中这些设施也往往只安装在主要路口、高速卡口等重点位置。然而,对于绵延广阔的交通网络来讲,这显然是不够的。
另外,在以责任认定为目的的事后测速方面,目前主要利用车辆的质量、被撞击物体的质量和撞击后被抛出的距离,根据物理学公式来计算车辆的速度,再利用刹车痕迹的距离计算出车辆刹车前的初始速度。这种方法受到诸如撞击角度、刹车力度、路面状况等因素的干扰,计算出的车速往往有着较大的误差,不能很好的反应事故时的真实状况。
由于现有上述方案的不足,“视频测速”的概念被提出。所谓视频测速是指以监控视频为信息源进行视频中运行车辆的速度测量。相比于上述方案,视频测速具有很大的优势,如监控范围广、无需另外配置硬件、维护简单、结果精度高等。例如基于图像透视投影变换的车辆道路交通视频测速方法(申请号:201110087473.6,申请人:上海交通大学)需要对非线性畸变的视频进行预先校正,并且在同一个点的精确匹配问题上中采用检测视频中的角点方法,使得测速的精度非常依赖于角点检测的质量。
发明内容
本发明针对现有技术存在的缺陷,提供一种基于三维标定和特征点匹配的视频测速方法,无须校正输入视频,可以直接测量,无须额外的硬件设备,只需要在现场进行场景的标注,即可完成场景中车辆的测速,还可重复测量以得到更加精确的测量速度。
为此,本发明采取如下技术方案:一种基于三维标定和特征点匹配的视频测速方法,其特征在于是按照如下方法进行测速,首先在测量场景建立三维坐标系,选择至少6个空间中的点,并记录每个点的三维坐标,同时在二维场景图像中,对记录了三维坐标的点进行手动标注,并录入每个对应点的三维坐标,通过算法得到摄像机的三维透视模型,再对交互模式进行选择,交互模式包括两种:a.在视频的任意两帧中手动选择同一车辆的同一个点,进行速度测量;b.选择视频中某一帧运动车辆上的某一个点,进行车辆的运动速度测量。
本发明采用对场景三维坐标测量和二维图像对应点标注的方法,得到摄像机的三维透视模型,无须对测量视频进行校正。交互模式a是根据运动车辆的同一个点在视频中不同帧(对应不同时刻)的三维场景坐标,可以计算运动车辆的位移;再根据视频的固有帧率,得到运动的时间,就可以得到汽车运动的速度,速度v=车辆的位移d÷位移的时间差t。交互模式b根据每帧测出的瞬时速度进行平均,有效地克服了测量误差,得到更加精确的测量速度。
所述的摄像机三维透视模型是通过以下算法得出,图像上的某个像素与其三维关系符合如下公式: z i u i v i 1 = m 11 m 12 m 13 m 14 m 21 m 22 m 23 m 24 m 31 m 32 m 33 m 34 X i Y i Z i 1
(1)
其中,(Xi,Yi,Zi)为空间第i个点的坐标,(ui,vi)为第i个点的图像坐标,mij为投影矩阵M的第i行j列元素,在式(1)中又包含三个方程:
ziui=m11Xi+m12Yi+m13Zi+m14(2)
zivi=m21Xi+m22Yi+m23Zi+m24(3)
zi=m31Xi+m32Yi+m33Zi+m34(4)
式(2)除以式(4),式(3)除以式(4),即可消去zi,可得到如下两个关于mij的线性方程:
Xim11+Yim12+Zim13+m14-uiXim31-uiYim32-uiZim33=uim34(5)
Xim21+Yim22+Zim23+m24-viXim31-viYim32-viZim33=vim34(6)
已知n个点的空间坐标(Xi,Yi,Zi)以及其相对应的图像点坐标(ui,vi),(i=1,2,……n),则有2n个关于M矩阵元素的线性方程,用矩阵形式表示如下:
X 1 Y 1 Z 1 1 0 0 0 0 - u 1 X 1 - u 1 Y 1 - u 1 Z 1 0 0 0 0 X 1 Y 1 Z 1 1 - v 1 X 1 - v 1 Y 1 - v 1 Z 1 ... ... ... ... X n Y n Z n 1 0 0 0 0 - u n X n - u n Y n - u n Z n 0 0 0 0 X n Y n Z n 1 - v n X n - v n Y n - v n Z n m 11 m 12 m 13 m 14 m 21 m 22 m 23 m 24 m 31 m 32 m 33 = u 1 m 34 v 1 m 34 ... ... u n m 34 v n m 34 - - - ( 7 )
由式(1)可知,M矩阵乘以任意不为零的常数并不影响(X,Y,Z)与(u,v)的关系,因此,在式(7)中可指定m34=1,从而得到关于M矩阵中其他元素的2n个线性方程,可将式(7)简写为:
Km=U(8)
其中,K为式(7)中左端的2n×11矩阵,m为未知的11维向量,U为式(7)右端的2n维向量,且K为已知矩阵,U为已知向量。
当2n>11时,用最小二乘法可求出上述线性方程的解为:
m=(KTK)-1KTU(9)
根据式(5)、(6)整理可得如下矩阵方程:
m 11 - m 31 u m 12 - m 32 u m 21 - m 31 v m 22 - m 32 v X Y = m 34 u - m 14 + ( m 33 u - m 13 ) Z m 34 v - m 24 + ( m 33 v - m 23 ) Z - - - ( 10 )
m 11 - m 31 u m 13 - m 33 u m 21 - m 31 v m 23 - m 33 v X Z = m 34 u - m 14 + ( m 32 u - m 12 ) Y m 34 v - m 24 + ( m 32 v - m 22 ) Y - - - ( 11 )
m 12 - m 32 u m 13 - m 33 u m 22 - m 32 v m 23 - m 33 v Y Z = m 34 u - m 14 + ( m 31 u - m 11 ) X m 34 v - m 24 + ( m 31 v - m 21 ) X - - - ( 12 )
以上方程均可写成AX=b的矩阵方程形式,根据线性代数知识,可求得
X=A-1b(13)
在已知目标物体的图像位置条件下即能求解出目标物体在实际场景中的位置。
在交互模式a中,根据视频中某一帧的运动车辆上的某一个点,在另一帧中搜索同一车辆的同一个点,并可对改点进行修正,修正的步骤:a)生成目标点的sift特征向量vb)根据上一帧的搜索结果得到当前搜索帧的预测点;c)在以预测点为中心的搜索域中多尺度的计算搜索图像每个点sift特征向量其中m为生成的搜索邻域的sift特征向量的总数;d)计算每一个的欧式距离,寻找距离最小的sift向量 所对应的图像上的点就是与目标点最匹配的搜索点。采用改进的sift特征向量,进行目标点与待选点之间的匹配,寻找目标点的最优匹配点。k=1,2,…m
本发明具有如下优点:
1.采用多点标注的方法获得测量场景摄像机的参数模型该方法具有可重复标注,可以自检标注精度,及重复性强的优点,对于以事故认定为目的的事后速度测量具有非常好的应用价值;
2.基于多尺度sift特征向量的目标点匹配,该方法在原有的sift算法上改进而来,并放弃了特征点检测的思想。采用直接计算目标点的sift特征向量,同时在搜索图像上多尺度的检测预测点邻域的sift特征向量,并于目标点进行匹配,准确得到目标点的匹配点,并以该点作为下一帧视频目标点的预测点。其优点是计算速度快(不用检测所有的sift特征点),匹配精度高。
3.多种的测速交互方式,用户可以选择标注同一段视频中两帧图像上同一车辆同一个点的方式得到该车辆在这个视频段中的平均速度;也可以选择标注一帧图像上运动车辆某一个(几个)点的方式,得到之后车辆的平均运动速度。前者的优点是根据用户标注的精度可以比较精确的测量车辆的速度,同时可以根据用户选择是否自动校正标注点;后者的优点在于根据每帧测出的瞬时速度进行平均,有效地克服了测量误差,得到更加精确的测量速度。
附图说明
图1为本发明的流程示意图。
具体实施方式
下面通过实施例,对本发明的技术方案作进一步具体的说明。
1.场景中多点三维坐标测量:
在图1中场景中建立三维坐标系,图2中选择了场景中的10个点,并在此坐标系下,对场景中的已选10个点的三维坐标进行测量。得到如下数据(单位:米)。
10个点的三维坐标={0,0,0.055,
0,0,1.440,
0,0.752,1.440,
4.868,0.752,0.055,
4.868,0.752,1.428,
4.868,0,1.428,
0,0,0.750,
0,0.752,0.750,
4.868,0,0.750,
4.868,0.752,0.750};
2.通过算法获得场景中标注点的二维图像坐标:
通过对图2中选择的10个点进行标注,获得这些点在图像中的二维坐标如下(单位:像素):
10个点的二维图像坐标={507.33333333333331,229.33333333333334,
486.00000000000000,172.00000000000000,
500.66666666666669,167.33333333333334,
394.66666666666669,364.66666666666669,
368.00000000000000,304.00000000000000,
355.33333333333331,304.00000000000000,
496.66666666666669,201.33333333333334,
512.00000000000000,197.33333333333334,
369.33333333333331,334.66666666666669,
381.33333333333331,334.66666666666669};
3.计算摄像机的三维透视模型:
根据选择的标注点的(上例的10个点)三维世界坐标和二维图像坐标,可以得到摄像机的三维透视模型,为个3x4的矩阵表示,如下:
3*4的透视模型矩阵={-717.528,6.620,-521.9941112616.250,
454.872,-270.490,-973.578507454.094,
-0.408,-0.830,-0.3812189.600}
4.在选择手动指定运动车辆同一个点的模式下,测量上述场景中车辆的运动速度:如图3和图4所示,用户可以在待测视频中手动指定时间连续两帧的车辆上同一个点,并指定该点在三维坐标中某一维的坐标,来进行运动速度的测量。
图3中根据用户标记的车前窗点的二维图像坐标(x=240,y=296),在指定其三维坐标中z坐标z=1.33的前提下,可以得到当前点的三维坐标为(x=3.81,y=-14.25,z=1.33)。
同样,在图4的中,根据用户标记的车前窗对应点的二维图像坐标(x=413,y=268),在指定其三维坐标中z坐标z=1.33的前提下,可以得到当前点的三维坐标为(x=3.54,y=1.05,z=1.33)。注意:上述图像坐标单位为像素,三维坐标单位为米。
根据两个标记点的三维坐标距离之差可以算出车辆的运动距离distance=15.30米。再根据帧率fps=25,及两图的帧差diff=36,可以计算出两帧的时间差time=1.4399秒。由此可以计算出车辆在标记两帧中的平均速度为v=38.27公里/小时。
5.在手动选择运动车辆一个点的模式下,测量上述场景中车辆的运动速度:
如图5所示,用户可以在待测视频中手动指定其中一帧的车辆上的某一个点,并指定该点在三维坐标中某一维的坐标,来进行运动速度的测量。
根据用户标记的车前窗点的二维图像坐标(x=235,y=298),在指定其三维坐标中z坐标z=1.33的前提下,可以得到当前点的三维坐标为(x=3.91,y=-1.47,z=1.33)。
在后续的帧中,算法依次跟踪每一帧中的对应点,并计算其三维坐标,从而得到视频中车辆在后续帧中的平均速度如下:37.884公里/小时,36.683公里/小时,36.688公里/小时,37.320公里/小时,38.962公里/小时,等等。最终计算得到的平均速度为:37.43公里/小时。
如图6所示,本发明的测速流程简化来说即首先在测量场景建立三维坐标系,选择至少6个空间中的点,并记录每个点的三维坐标,同时在二维场景图像中,对记录了三维坐标的点进行手动标注,并录入每个对应点的三维坐标,通过算法得到摄像机的三维透视模型;再对交互模式进行选择,交互模式包括两种:a.在视频的任意两帧中手动选择同一车辆的同一个点,进行速度测量;b.选择视频中某一帧运动车辆上的某一个点,进行车辆的运动速度测量。
选择a模式后并选定标注点后还可根据需求选择是否对标注点进行校正,最后根据运动车辆的同一个点在视频中不同帧的三维场景坐标,可以计算运动车辆的位移,再根据视频的固有帧率,得到运动的时间,速度v=车辆的位移d÷位移的时间差t。
b模式下,直接选择视频中某一帧运动车辆上的某一个点,在后续的帧中,利用算法依次跟踪每一帧中的对应点,并计算其三维坐标,从而得到视频中车辆在后续帧中的平均速度。
需要特别指出的是,上述实施例的方式仅限于描述实施例,但本发明不止局限于上述方式,且本领域的技术人员据此可在不脱离本发明的范围内方便的进行修饰,因此本发明的范围应当包括本发明所揭示的原理和新特征的最大范围。

Claims (2)

1.一种基于三维标定和特征点匹配的视频测速方法,其特征在于是按照如下方法进行测速,首先在测量场景建立三维坐标系,选择至少6个空间中的点,并记录每个点的三维坐标,同时在二维场景图像中,对记录了三维坐标的点进行手动标注,并录入每个对应点的三维坐标,通过建立三维透视模型的算法得到摄像机的三维透视模型;
再对交互模式进行选择,交互模式包括两种:a.在视频的任意两帧中手动选择同一车辆的同一个点,进行速度测量;b.选择视频中某一帧运动车辆上的某一个点,进行车辆的运动速度测量;其中a定义为手动交互模式,b定义为自动交互模式;
采用手动交互模式,则在视频的任意两帧中手动选择同一车辆的同一个点,根据运动车辆的同一个点在视频中不同帧的三维场景坐标,计算运动车辆的位移,再根据视频的固有帧率,得到运动的时间,速度v=车辆的位移d÷位移的时间差t;则根据视频中某一帧的运动车辆上的某一个点,在另一帧中搜索同一车辆的同一个点,并可对该点进行修正,修正的步骤:(1)生成目标点的sift特征向量(2)根据上一帧的搜索结果得到当前搜索帧的预测点;(3)在以预测点为中心的搜索域中多尺度的计算搜索图像每个点sift特征向量其中m为生成的搜索邻域的sift特征向量的总数;(4)计算每一个的欧式距离,寻找距离最小的sift向量所对应的图像上的点就是与目标点最匹配的搜索点;步骤(3)和步骤(4)中
建立三维透视模型后,通过自动交互模式进行速度测量,直接选择视频中某一帧运动车辆上的某一个点,在后续的帧中,通过目标点的跟踪算法依次跟踪每一帧中的对应点,并计算其三维坐标,从而得到视频中车辆在后续帧中的平均速度。
2.根据权利要求1所述的一种基于三维标定和特征点匹配的视频测速方法,其特征在于所述的摄像机三维透视模型是通过以下算法得出,图像上的某个像素与其三维关系符合如下公式: z i u i v i 1 = m 11 m 12 m 13 m 14 m 21 m 22 m 23 m 24 m 31 m 32 m 33 m 34 X i Y i Z i 1 ( 1 )
其中,(Xi,Yi,Zi)为空间第i个点的坐标,(ui,vi)为第i个点的图像坐标,mpq为投影矩阵M的第p行q列元素,在式(1)中又包含三个方程:
ziui=m11Xi+m12Yi+m13Zi+m14(2)
zivi=m21Xi+m22Yi+m23Zi+m24(3)
zi=m31Xi+m32Yi+m33Zi+m34(4)
式(2)除以式(4),式(3)除以式(4),消去zi,得到如下两个关于mij的线性方程:
Xim11+Yim12+Zim13+m14-uiXim31-uiYim32-uiZim33=uim34(5)
Xim21+Yim22+Zim23+m24-viXim31-viYim32-viZim33=vim34(6)
已知n个点的空间坐标(Xi,Yi,Zi)以及其相对应的图像点坐标(ui,vi),i=1,2,……n,则有2n个关于M矩阵元素的线性方程,用矩阵形式表示如下:
X 1 Y 1 Z 1 1 0 0 0 0 - u 1 X 1 - u 1 Y 1 - u 1 Z 1 0 0 0 0 X 1 Y 1 Z 1 1 - v 1 X 1 - u 1 Y 1 - v 1 Z 1 ... ... ... ... X n Y n Z n 1 0 0 0 0 - u n X n - u n Y n - u n Z n 0 0 0 0 X n Y n Z n 1 - v n X n - v n Y n - u n Z n m 11 m 1 2 m 1 3 m 1 4 m 21 m 22 m 23 m 24 m 31 m 32 m 33 = u 1 m 34 v 1 m 34 ... ... u n m 34 v n m 34 - - - ( 7 )
由式(1)可知,M矩阵乘以任意不为零的常数并不影响(X,Y,Z)与(u,v)的关系,因此,在式(7)中可指定m34=1,从而得到关于M矩阵中其他元素的2n个线性方程,将式(7)简写为:
Km=U(8)
其中,K为式(7)中左端的2n×11矩阵,m为未知的11维向量,U为式(7)右端的2n维向量,且K为已知矩阵,U为已知向量;
当2n>11时,用最小二乘法求出上述线性方程(7)的解为:
m=(KTK)-1KTU(9)
根据式(5)、(6)整理可得如下矩阵方程:
m 11 - m 31 u m 12 - m 32 u m 21 - m 31 v m 22 - m 32 v X Y = m 34 u - m 14 + ( m 33 u - m 13 ) Z m 34 v - m 24 + ( m 33 v - m 23 ) Z - - - ( 10 )
m 11 - m 31 u m 13 - m 33 u m 21 - m 31 v m 23 - m 33 v X Y = m 34 u - m 14 + ( m 32 u - m 12 ) Y m 34 v - m 24 + ( m 32 v - m 22 ) Y - - - ( 11 )
m 12 - m 32 u m 13 - m 33 u m 22 - m 32 v m 23 - m 33 v X Z = m 34 u - m 14 + ( m 31 u - m 11 ) X m 34 v - m 24 + ( m 31 v - m 21 ) X - - - ( 12 )
以上方程均可写成AX=b的矩阵方程形式,根据线性代数知识,可求得
X=A-1b(13)
在已知目标物体的图像位置条件下求解出目标物体在实际场景中的位置。
CN201210162324.6A 2012-05-21 2012-05-21 一种基于三维标定和特征点匹配的视频测速方法 Expired - Fee Related CN102722886B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210162324.6A CN102722886B (zh) 2012-05-21 2012-05-21 一种基于三维标定和特征点匹配的视频测速方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210162324.6A CN102722886B (zh) 2012-05-21 2012-05-21 一种基于三维标定和特征点匹配的视频测速方法

Publications (2)

Publication Number Publication Date
CN102722886A CN102722886A (zh) 2012-10-10
CN102722886B true CN102722886B (zh) 2015-12-09

Family

ID=46948632

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210162324.6A Expired - Fee Related CN102722886B (zh) 2012-05-21 2012-05-21 一种基于三维标定和特征点匹配的视频测速方法

Country Status (1)

Country Link
CN (1) CN102722886B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105163065B (zh) * 2015-08-04 2019-04-16 深圳市哈工大交通电子技术有限公司 一种基于摄像机前端处理的交通测速方法
US10139833B1 (en) * 2017-05-17 2018-11-27 GM Global Technology Operations LLC Six-dimensional point cloud system for a vehicle
CN107705563B (zh) * 2017-11-28 2020-01-31 苏州大学 基于激光雷达的连续车辆速度检测方法
CN110197104B (zh) * 2018-02-27 2022-03-29 杭州海康威视数字技术股份有限公司 基于车辆的测距方法及装置
CN108491762A (zh) * 2018-02-27 2018-09-04 浙江大华技术股份有限公司 一种人体跌倒的检测方法及装置
CN108986134B (zh) * 2018-08-17 2021-06-18 浙江捷尚视觉科技股份有限公司 一种基于相关滤波跟踪的视频目标半自动标注方法
CN109598946B (zh) * 2018-11-19 2022-01-07 南京理工大学 一种基于雷达体制的多车道测速方法
WO2020133080A1 (zh) * 2018-12-27 2020-07-02 深圳市优必选科技有限公司 物体定位方法、装置、计算机设备及存储介质
CN109579798A (zh) * 2018-12-29 2019-04-05 中国汽车技术研究中心有限公司 一种应用于自动泊车系统的视频量测方法及量测装置
CN109900345A (zh) * 2019-04-02 2019-06-18 常州工学院 用于地秤和托盘量方场景的体积测量和三维定位装置
CN109946483A (zh) * 2019-04-15 2019-06-28 北京市计量检测科学研究院 一种现场测速标准装置
CN110334576B (zh) * 2019-04-30 2021-09-24 北京旷视科技有限公司 一种手部追踪方法及装置
CN112686204B (zh) * 2021-01-12 2022-09-02 昆明理工大学 一种基于稀疏像素点跟踪的视频测流方法及装置
CN116707145B (zh) * 2023-08-08 2023-10-20 山东尊品佳茗网络科技发展有限公司 基于物联网的智能电能监测系统及方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046377B2 (en) * 2001-11-21 2006-05-16 Mapvision Oy Ltd. Method for determining corresponding points in three-dimensional measurement
CN101616310A (zh) * 2009-07-17 2009-12-30 清华大学 可变视角及分辨率的双目视觉系统目标图像稳定化方法
CN102254318A (zh) * 2011-04-08 2011-11-23 上海交通大学 基于图像透视投影变换的车辆道路交通视频测速方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7046377B2 (en) * 2001-11-21 2006-05-16 Mapvision Oy Ltd. Method for determining corresponding points in three-dimensional measurement
CN101616310A (zh) * 2009-07-17 2009-12-30 清华大学 可变视角及分辨率的双目视觉系统目标图像稳定化方法
CN102254318A (zh) * 2011-04-08 2011-11-23 上海交通大学 基于图像透视投影变换的车辆道路交通视频测速方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于图像序列分析的车速检测技术研究;任晓映;《中国优秀硕士学位论文全文数据库》;20120415(第04期);21-31,51 *

Also Published As

Publication number Publication date
CN102722886A (zh) 2012-10-10

Similar Documents

Publication Publication Date Title
CN102722886B (zh) 一种基于三维标定和特征点匹配的视频测速方法
CN104021676B (zh) 基于车辆动态视频特征的车辆定位及车速测量方法
CN102254318B (zh) 基于图像透视投影变换的车辆道路交通视频测速方法
CN102033314B (zh) 影像采集装置和影像显示方法
CN103814306B (zh) 深度测量质量增强
CN104575003B (zh) 一种基于道路监控视频的车辆速度检测方法
CN106991389A (zh) 确定道路边沿的装置和方法
CN102592456B (zh) 一种基于视频的车辆测速方法
Wieneke Improvements for volume self-calibration
CN105043350A (zh) 一种双目视觉测量方法
KR102016636B1 (ko) 카메라와 레이더의 캘리브레이션 장치 및 방법
CN107784038B (zh) 一种传感器数据的标注方法
CN108020827A (zh) 移动成像平台校准
CN103782232A (zh) 投影仪及其控制方法
CN103091249A (zh) 气体可视化布局,设备以及方法
CN103822614B (zh) 倒车影像的三维测量方法
CN104299244A (zh) 基于单目相机的障碍物检测方法及装置
CA2653385A1 (en) Method and apparatus for obtaining photogrammetric data to estimate impact severity
CN101681519A (zh) 测量装置、测量方法、程序以及计算机可读介质
JP2008051688A (ja) 車両自動計測装置、車両自動計測システム及び車両自動計測方法
WO2021033249A1 (ja) 線状構造物の検出装置、検出方法及び検出プログラム
Fawzy Study the accuracy of digital close range photogrammetry technique software as a measuring tool
CN1963390A (zh) 一种便捷高效的三维测量方法
CN102368810A (zh) 一种半自动化对齐的视频融合系统和方法
Sochor et al. Brnocompspeed: Review of traffic camera calibration and comprehensive dataset for monocular speed measurement

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Hangzhou City, Zhejiang province Yuhang District 310013 West Street Wuchang No. 998 building 7 East

Applicant after: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

Address before: 310013, Zhejiang, Xihu District, Hangzhou, Tian Shan Road, No. 398, Kun building, 4 floor, South Block

Applicant before: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

C53 Correction of patent of invention or patent application
CB02 Change of applicant information

Address after: Hangzhou City, Zhejiang province Yuhang District 310013 West Street Wuchang No. 998 building 7 East

Applicant after: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

Address before: Hangzhou City, Zhejiang province Yuhang District 310013 West Street Wuchang No. 998 building 7 East

Applicant before: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

COR Change of bibliographic data

Free format text: CORRECT: APPLICANT; FROM: HANGZHOU ICARE VISION TECHNOLOGY CO., LTD. TO: ZHEJIANG ICARE VISION TECHNOLOGY CO., LTD.

C14 Grant of patent or utility model
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Video speed measurement method based on three-dimensional calibration and feature point matching

Effective date of registration: 20190820

Granted publication date: 20151209

Pledgee: Hangzhou Yuhang Financial Holding Co.,Ltd.

Pledgor: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

Registration number: Y2019330000016

PC01 Cancellation of the registration of the contract for pledge of patent right
PC01 Cancellation of the registration of the contract for pledge of patent right

Date of cancellation: 20200917

Granted publication date: 20151209

Pledgee: Hangzhou Yuhang Financial Holding Co.,Ltd.

Pledgor: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

Registration number: Y2019330000016

PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: A video velocity measurement method based on 3D calibration and feature point matching

Effective date of registration: 20200921

Granted publication date: 20151209

Pledgee: Hangzhou Yuhang Financial Holding Co.,Ltd.

Pledgor: ZHEJIANG ICARE VISION TECHNOLOGY Co.,Ltd.

Registration number: Y2020330000737

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20151209