CN102692213A - 基于主动式全景视觉传感器的交通事故现场测绘仪 - Google Patents

基于主动式全景视觉传感器的交通事故现场测绘仪 Download PDF

Info

Publication number
CN102692213A
CN102692213A CN2012101459966A CN201210145996A CN102692213A CN 102692213 A CN102692213 A CN 102692213A CN 2012101459966 A CN2012101459966 A CN 2012101459966A CN 201210145996 A CN201210145996 A CN 201210145996A CN 102692213 A CN102692213 A CN 102692213A
Authority
CN
China
Prior art keywords
point
prime
scene
traffic accident
vision sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101459966A
Other languages
English (en)
Other versions
CN102692213B (zh
Inventor
汤一平
林璐璐
夏少杰
周静恺
徐海涛
刘康
王鼎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201210145996.6A priority Critical patent/CN102692213B/zh
Publication of CN102692213A publication Critical patent/CN102692213A/zh
Application granted granted Critical
Publication of CN102692213B publication Critical patent/CN102692213B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

一种基于主动式全景视觉传感器的交通事故现场测绘仪,包括全方位视觉传感器、全方位面激光光源、用于定位交通事故现场以及为自动生成道路平面图的GPS传感器、用于确定测量方位的指南针以及用于对全方位视觉传感器的全景图像进行三维立体摄像测量、事故现场形象化恢复和数字立体再现的微处理器,系统应用软件自动拍摄交通事故现场全景图像,自动测量现场车辆、物体、痕迹等空间几何数据,自动输出现场记录图、现场比例图、现场断面图、现场立面图和现场分析图,以及提供一种交通事故现场测绘方法。本发明提供的交通事故现场测绘仪环境适用性强,测量快速准确,自动化程度高、能进行事故现场形象化恢复和数字立体再现。

Description

基于主动式全景视觉传感器的交通事故现场测绘仪
技术领域
本发明属于光学技术、激光半导体技术、全景摄影测量技术、数字图像处理技术在交通事故处理现场测绘上的应用。
背景技术
当今,国内外大部分交通警察在交通事故现场勘测中仍大量使用手工作业方式,手工作业方式对交通事故现场测量主要是靠人眼判断、手摸、皮尺量、手工绘图等传统方法,该方法主要存在以下几个方面的缺陷:1)测量数据方面,漏测、错测、漏画、错画等现象时有发生;2)测量过程中的各种限制,交通事故发生在雨雪、浓雾天气以及夜晚等都将给现场勘察带来很大的困难,在高速公路、高架公路及桥梁上处理交通事故有更高的要求,要求在最短的时间内采集最多的事故现场信息,同时必须以最快的速度恢复交通畅通;3)测量数据的加工以及现场重构方面,无法对事故现场信息进行二次提取,测量结束后,现场即被撤除,如果收集证据不全,或数据间发生矛盾时,则无法进行二次取证,使事故处理陷入困境;4)在绘制交通事故现场图方面,近年来出现了不少绘制软件,但是由于测量仍然需要手工的方式进行,自动化程度不高,给现场执法警员带来了很大的精神和体力负担;5)事故现场资料存储、建档和检索方面,该方法极不方便,对于重大、疑难交通事故的处理缺乏系统、完整、形象化的依据,事故现场形象化恢复和数字立体再现等新概念就更难以实现。随着科技的进步,目前交警在处理交通事故现场也采用了数码相机的设备进行事故现场的拍摄,但仍然局限于对事故现场照片进行简单的定性分析。
中国发明专利公开号为CN101033966中提出了一种交通事故现场的摄影测量方法,摄影测量步骤如下:①采用标定物进行摄影测量的标定,组装拆散了的标定物;②将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统,实现对交通事故现场进行摄影测量的标定。③采用相机按照顺时针移动方向和拍摄角度对安置了标定系统的交通事故现场拍摄一组二维照片。④将拍摄到的像片导入计算机,选取需要测量的点,得到其像空间坐标值,求得待测量点的物方空间坐标,将得到的实际空间坐标值,通过几何计算得到绘制交通事故现场图所需的信息。这种摄影测量方法比较繁琐,在标定、匹配和计算物点空间坐标中仍然存在着很多“病态计算”问题。
双目立体视觉测量方法的一个局限性是焦距固定,由于一个固定的焦距只能在一定景深范围内清晰拍摄图像,因而限制了测试区域;标定技术还没有很好解决,立体视觉测量系统在各种运动中变化参数是不可避免的,比如警员赴交通事故现场过程中的对双目立体测量装置的震动、工作冲击等的影响,即使如发明专利公开号为CN101033966提出了一种交通事故现场的摄影测量方法中采用将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统来进行标定成功的话,对快速恢复交通畅通也是一个极大的限制;双目立体视觉测量系统还没有实现小型化、微型化,使得在交通事故处理现场的应用受到限制;此外在复杂环境下双目视觉的对应点匹配歧异性大,造成了匹配的误差,影响了匹配精度,最终产生了测量误差。
中国发明专利公开号为200810121671.8中提出了一种基于双目立体全方位视觉的交通事故现场测绘仪,这种方案的优点是测量范围大、无须标定、双目视觉的对应点匹配歧异性小;但是有时也会出现匹配误差,在光线不足的地方难以进行测绘,环境适应性差,这些问题主要是由于被动式双目视觉测量方式所决定的。中国发明专利公开号为200910102318.X中提出了一种主动立体全方位视觉的交通事故现场测绘仪,该方案属于主动三维全景立体测量,具有较高的测绘精度,但是各测量点空间位置信息计算和现场事故图生成仍然需要人工干预,还没有实现真正意义上的全自动化;另一方面,生成的现场事故图由于依赖于人工加工,不可避免地存在着与现场真实事故情况会有所出入之处。
一种理想的交通事故现场测绘仪,不但要解决好全天候测量问题,同时也需要融合当时道路的真实情况,包括天气情况;因此,为了能形象、准确地表现事故形态和现场车辆、物体、痕迹,希望所生成的现场事故图上不但需要有几何信息同时也需要有纹理和颜色信息;这就涉及到交通事故现场的三维全景重构问题。
发明内容
为了克服现有的交通事故现场测绘仪的计算复杂、适用性差、测量误差大、自动化程度不高等的不足,本发明提供一种简化计算的复杂性、省略摄像机标定工作、环境适用性强、测量快速准确的、能进行事故现场形象化恢复和数字立体再现的基于主动式全景视觉传感器的交通事故现场测绘仪。
本发明解决其技术问题所采用的技术方案是:
一种基于主动式全景视觉传感器的交通事故现场测绘仪,所述交通事故现场测绘仪包括全方位视觉传感器、全方位面激光光源、用于定位交通事故现场以及为自动生成道路平面图的GPS传感器、用于确定测量方位的指南针以及用于对全方位视觉传感器的全景图像进行三维立体摄像测量、事故现场形象化恢复和数字立体再现的微处理器,所述的全方位视觉传感器的中心与所述关键面激光光源的中心配置在同一根轴心线上;
所述全方位视觉传感器包括双曲面镜面、上盖、透明半圆形外罩、下固定座、摄像单元固定座、摄像单元、连接单元、上罩;所述的双曲面镜面固定在所述的上盖上,所述的连接单元将所述的下固定座和透明半圆形外罩连接成一体,所述的透明半圆形外罩与所述的上盖以及所述的上罩固定在一起,所述的摄像单元固定在所述的摄像单元固定座上,所述的摄像单元固定座固定在所述的下固定座上,所述全方位视觉传感器中的所述的摄像单元的输出与所述微处理器连接;
所述全方位面激光光源包括红光线激光发生单元、线激光发生组合单元、导向支撑杆和底盘;所述的红色线激光发生单元固定在所述的线激光发生组合单元的孔中,经过这样组合后的线激光能形成一个发出红光的全方位面激光光源单元;所述的导向支撑杆垂直固定在所述的底盘上,所述的发出红光的全方位面激光光源单元固定在所述的导向支撑杆的底端;
所述的全方位视觉传感器通过连接板安装在所述的导向支撑杆;指南针安置在所述的全方位视觉传感器的上盖上,GPS传感器和水平指示器安置在所述的导向支撑杆的中部,所述的全方位视觉传感器的电源线、视频数据线、所述的GPS传感器的数据线以及所述全方位面激光光源的电源线均从连接杆的中孔内穿出,连接到供电电源以及微处理器的相应接口上;
所述的微处理器中包括:
视频图像读取模块,用于读取全方位视觉传感器的视频图像,并保存在存储单元中,其输出与全方位视觉传感器标定模块和Bird-View变换模块连接;
所述的全方位视觉传感器标定模块,用于确定三维空间点和摄像机成像平面上的二维图像点之间映射关系的参数;
所述的Bird-View变换模块,用于修正全方位视觉成像后严重扭曲变形,将全方位图像变换为Bird-View视图;
摄像点位置信息获取模块,用于获得基于主动式全景视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置,将该位置信息保存在存储单元中;
全方位面激光信息解析模块,用于在全景图像上解析出激光投影信息;
特征点计算模块,用于解析出在全景图上红色全方位面激光投射所产生的特征点数据;
事故现场形象化恢复模块,用于将事故现场场景真实地重构到各种现场事故图上。
进一步,所述的Bird-View变换模块中,所述Bird-View视图为鸟类俯瞰着这个地面上所形成的图像,通过这种变换将全景图像还原成水平面方向上无形变全景图像,经过Bird-View变换得到的全景图像中成像的物体在水平方向上保持不变,通过所述的全方位视觉传感器标定模块建立了一张成像平面任一像素点与入射角之间的对应关系表,将所述的全方位视觉传感器的视点Om离地面的高度设置为一个定值hom,就可以建立一张全景成像平面任一像素点到成像中心点距离||u″‖与地面上的物点到全方位视觉传感器的中心轴线距离R之间的关系,‖u″‖与R存在着以下关系,
R = f 1 ( | | u ′ ′ | | ) = h om tan α - - - ( 7 )
= h om × a 0 + a 1 | | u ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N | | u ′ ′ | |
式中,hom为全方位视觉传感器的视点Om离地面的距离,‖u″‖全景成像平面像素点到成像中心点距离‖u″‖,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数;
通过全方位面激光扫描以及Bird-View变换得到接近地面的交通事故现场场景二维地图和在设定高度的场景二维地图。
再进一步,所述的全方位面激光信息解析模块中,解析在全景图上红色激光投射点的方法是根据红色激光投射点的像素的亮度要大于成像平面上的平均亮度,首先是将全景图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮度的1.2倍作为提取红色激光投射点的阈值,根据HIS颜色空间中的色调值H进行判断,如果色调值H在(0,30)之间就判断为红色激光投射点,其余像素点就判断为干扰;采用高斯近似方法来抽取出激光投射线的中心位置,具体实现过程如下:
Step1:设置初始方位角β=0;
Step2:在全景图像上以方位角β从全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,其分布如附图5,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算方法由公式(8)给出,
d = ln ( f ( i - 1 ) ) - ln ( f ( i + 1 ) ) 2 × [ ln ( f ( i - 1 ) ) - 2 ln ( f ( i ) ) + ln ( f ( i + 1 ) ) ] - - - ( 8 )
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的红色激光投射线的中心位置为(i+d),该值对应于公式(6)和公式(7)中的‖u″‖,即||u″‖(β)=i+d;得到||u″‖(β);
Step3:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step4:判断方位角β=360,如果成立,检索结束;反之转到Step2。
所述的特征点计算模块中,采用计算步长为Δβ=0.36来遍历整个360°的方位角,在全景图上红色长虚线为红色全方位面激光投射所产生的特征点数据
Figure BDA00001629802600052
遍历过程如下:
Step Ⅰ:设置初始方位角β=0;
StepⅡ:采用所述的全方位面激光信息解析模块,沿射线方向检索特征点
Figure BDA00001629802600053
得到在传感器平面上与特征点数据相对应的||u″‖(β)点,用公式(9)计算特征点
Figure BDA00001629802600054
的距离值Ra和入射角αa,将上述的计算数据保存在内存单元中;
R a = h redlazer tan α a = h redlazer × ( a 0 + a 2 | | u ′ ′ | | ( β ) 2 | | u ′ ′ | | ( β ) ) - - - ( 9 )
式中,||u″||(β)为特征点
Figure BDA00001629802600056
点对应于成像平面上的点到该平面中心点的距离,hrealazer为特征点
Figure BDA00001629802600057
到全方位视觉传感器的单视点Om之间在Z轴的投影距离,a0、a2为标定所得到的全方位视觉传感器的内外参数;
StepⅢ:β←β+Δβ,Δβ=0.36,判断β=360是否成立,如果成立结束计算,否则转到StepⅡ。
所述的事故现场形象化恢复模块中,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
所述的现场记录图、现场比例图和现场分析图均采用正投影俯视图形式表示,需要对现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系所作的图形记录;生成交通事故现场图时,基准点就是现场测绘仪放置的几何坐标x,y,处于图纸的中间,图纸的上方为正北方向;为了保证自动生成的现场记录图的方向一致性,在拍摄全景图像时要求拍摄人员首先将基于主动式全景视觉传感器的交通事故现场测绘仪上的指南针对准朝北方向;生成的Bird-View视图保证了现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系真实图像记录,只要按比例关系叠加到模板图纸上就能自动完成现场记录图;对于图像的输出设备采用Acrobat PDFwriter,其最大分辩率为600dpi,即每英寸可产生的点数,用户选择的输出分辨率为k1(dot/inch);生成的Bird-View视图分辨率为1280×1280pixel,根据Bird-View视图上的标定结果得到k2(mm/pixel),根据用户选择的输出分辨率和实际生成的图纸比例为k3(mm/mm)(1:200),1(mm)=1/25.4(inch),从公式(11)计算实际输出图纸上图像的点数:
k = k 1 × k 2 × K 3 × 1280 25.4 - - - ( 11 )
式中,k为实际输出图纸上图像的点数,k1(dot/inch)为用户选择的输出分辨率,k2(mm/pixel)为Bird-View视图上的每像素之间的距离,k3(mm/mm)为实际生成的图纸比例。
所述的现场断面图和现场立面图,用于表示交通事故现场某一横断面或纵断面某一位置上有关车辆、物体、痕迹相互关系的剖面视图,用局部透视图形式表示;关于局部透视图采用了一种对全景图像进行透视展开方式来实现,关于透视展开算法实现如下:
首先,建立全景图像上的任意一点p(x,y)与空间坐标系中一点P(X,Y,Z)的对应关系,空间中的一点P(X,Y,Z),经过双曲镜面反射后,在全方位视觉传感器成像平面上形成对应的像点p(x,y),根据光学原理,可以得出像点p(x,y)与空间物点P(X,Y,Z)的一一对应关系:
x = Xf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2 - - - ( 12 )
y = Yf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2
式中,b,c是双曲面镜的长轴和焦距,f为摄像机的焦距;
其次,建立空间坐标系中的物点P(X,Y,Z)与透视平面上的点p(i,j)的对应关系;根据空间几何关系,得到公式(13);
X=R*cosβ-i*sinβ
Y=R*sinβ+i*cosβ
Z=D*sinγ-j*cosγ(13)
R=D*cosγ+j*sinγ
式中,D为透视投影平面到双曲面焦点O的距离,角度β是入射光线在XY平面上的投影与X轴正方向的夹角,角度γ为入射光线与XY平面的夹角;
参数D的大小是根据输出图像的大小来确定;
将公式(13)代入公式(12)就能得到全景像素点与透视平面上像素点之间的一一对应关系;通过遍历透视图上的所有坐标点,求取其对应再全景图像上像点的坐标并将全景下像素点的颜色信息赋值给透视图像素点,即可得到以全景图像上某一点为中心展开的局部透视图像。
所述的全方位视觉传感器标定模块中,用于确定空间物点和摄像机成像平面上的二维图像点之间映射关系的参数,建立一个成像平面的像点与入射光线之间的联系,即与入射角之间的对应关系,用公式(6)表示;
tan α = | | u ′ ′ | | f ( | | u ′ ′ | | ) = | | u ′ ′ | | a 0 + a 1 | | u ′ ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N - - - ( 6 )
式中,α表示空间物点的入射角,‖u″‖为传感器平面点到该平面中心点的距离,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数,通过公式(6)建立一张成像平面任一像素点与入射角之间的对应关系表,表1为本发明使用的一种单视点全方位视觉传感器的标定结果,
Figure BDA00001629802600072
表1ODVS的标定结果
对于本发明中所采用的全方位视觉传感器进行标定后,成像平面上的点‖u″‖与空间物点的入射角α关系可以用下面等式来表示;
tan α = | | u ′ ′ | | - 75.12 + 0.0027 | | u ′ ′ | | 2
一种基于主动式全景视觉传感器的交通事故现场测绘仪实现的测绘方法,所述的测绘方法放入过程为:首先,交警携带交通事故现场测绘仪到交通事故现场,将交通事故现场测绘仪垂直放置在交通事故现场的中间区域,并将交通事故现场测绘仪上的指南针对准正北方向;接着,将交通事故现场测绘仪中的全方位视觉传感器与微处理进行连接,启动微处理器中的应用程序,做好道路上痕迹的标示,接通激光光源的供电电源;然后,系统应用软件自动拍摄交通事故现场全景图像,自动检测现场车辆、物体、痕迹等空间几何数据,自动输出现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;最后,交警确认生成结果,如果满足要求就完成交通事故现场勘查,否则继续拍摄交通事故现场全景图像、直至量测精度能满足事故现场勘查任务的要求。
本发明的有益效果主要表现在:利用基于主动式全景视觉的交通事故现场测绘仪进行交通事故现场勘查可以快速疏通现场、便于事后保存和恢复现场资料,进行所需要的量测及绘制,进而为事故责任认定提供一种有效的途径;较好地解决好全天候测量问题;实现了事故现场形象化恢复和数字立体再现;基于主动式全景视觉的交通事故现场测绘仪的量测精度能满足事故现场勘查任务的要求,具有自动化程度高、携带方便、不需任何标定、操作简单、处理速度快等优点。
附图说明
图1为全方位视觉传感器的结构图;
图2为全方位激光面发生器的结构图;
图3为基于主动式全景视觉传感器的交通事故现场测绘仪的结构图;
图4为基于主动式全景视觉传感器的交通事故现场测绘仪用于现场测绘的说明图;
图5为求激光中心点的说明示意图;
图6为全方位视觉传感器的成像原理图;
图7为全方位激光发生器部件的结构图,图7(a)为全方位激光发生器部件正视图,图7(b)为全方位激光发生器部件俯视图;
图8为基于主动式全景视觉传感器的交通事故现场测绘仪的交通事故点的测量原理图;
图9为单视点的全方位视觉传感器标定结果三维立体图;
图10为单视点折反射全方位视觉传感器成像模型,图10(a)透视成像过程,图10(b)传感器平面,图10(c)图像平面;
图11为全景图像转换为Bird-View图像时进行标定的说明图,图11(a)为空间物点在折反射镜面上的成像过程说明,图11(b)为空间物点在全景图像的成像结果;
图12为空间物点的距离值与空间物点对应于成像平面上的点到该平面中心点的距离的关系曲线;
图13为全景图像的透视展开说明图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1~图13,一种基于主动式全景视觉传感器的交通事故现场测绘仪,包括全方位视觉传感器、全方位面激光光源、用于定位交通事故现场以及为自动生成道路平面图的GPS传感器、用于确定测量方位的指南针以及用于对全方位视觉传感器的全景图像进行三维立体摄像测量、事故现场形象化恢复和数字立体再现的微处理器,所述的全方位视觉传感器的中心与所述关键面激光光源的中心配置在同一根轴心线上;所述全方位视觉传感器包括双曲面镜面2、上盖1、透明半圆形外罩3、下固定座4、摄像单元固定座5、摄像单元6、连接单元7、上罩8,如附图1所示;所述的双曲面镜面2固定在所述的上盖1上,所述的连接单元7将所述的下固定座4和透明半圆形外罩3连接成一体,所述的透明半圆形外罩3与所述的上盖1以及所述的上罩8通过螺钉固定在一起,所述的摄像单元6用螺钉固定在所述的摄像单元固定座5上,所述的摄像单元固定座5用螺钉固定在所述的下固定座4上,所述全方位视觉传感器中的所述的摄像单元6的输出与所述微处理器连接;所述的摄像单元6采用高清成像芯片,具有4096×2160分辨率;
所述全方位面激光光源包括,红光线激光发生单元2-2、线激光发生组合单元2-1、支撑杆2-3、底盘2-4;所述的红色线激光发生单元2-2固定在所述的线激光发生组合单元2-1的孔中,如附图7所示,经过这样组合后的线激光能形成一个发出红光的全方位面激光光源单元;所述的支撑杆2-3垂直固定在所述的底盘2-4上,所述的发出红光的全方位面激光光源单元分别固定在所述的支撑杆2-3的底端,如附图2所示;
所述的全方位视觉传感器通过连接板安装在所述的导向支撑杆2-3,如附图3所示;所述的全方位视觉传感器通过USB接口与所述的微处理器相连接;指南针安置在所述的全方位视觉传感器的上盖上,GPS传感器和水平指示器安置在所述的导向支撑杆的中部,所述的全方位视觉传感器的电源线、视频数据线、所述的GPS传感器的数据线以及所述全方位面激光光源的电源线均从连接杆的中孔内穿出,连接到供电电源以及微处理器的相应接口上;
所述的微处理器中包括:视频图像读取模块、全方位视觉传感器标定模块、Bird-View变换模块、摄像点位置信息获取模块、全方位面激光信息读取模块、特征点计算模块、事故现场形象化恢复模块和存储单元;
所述的视频图像读取模块,用于读取全方位视觉传感器的视频图像,并保存在所述的存储单元中,其输出与所述的全方位视觉传感器标定模块和Bird-View变换模块连接;
所述的全方位视觉传感器标定模块,用于确定三维空间点和摄像机成像平面上的二维图像点之间映射关系的参数,本发明中采用了单视点的全方位视觉传感器,由双曲面折反射镜面成像原理构成的全方位视觉传感器具有单视点成像特性;其成像原理如图6所示;为了建立三维空间点与成像平面图像点上的映射关系,这里采用Micusík的透视投影成像模型,如图10所示,在该成像模型中,考虑两个不同的参考平面,图像平面(u',v')和传感器平面(u″,v″),图像平面和摄像机的CCD相关,用像素坐标系来表示。传感器平面是一个假设的和镜面光轴正交的平面,其中心原点是光轴和该平面的交点;以双曲面镜面的焦点,即单视点Om为原点建立坐标系,z″轴和镜面光轴对齐;设X=[X,Y,Z]T为空间中一点,u″=[u″,v″]T是X在传感器平面的投影,u'=[u',v']T是其对应的图像平面的像素点;空间坐标点X先通过射影变换矩阵投射到镜面上A点处,A点由镜面反射聚焦于摄像机光学中心点C,并交传感器平面上u″=[u″,v″]T点,u″点通过仿射变换到图像平面上点u'=[u′,v′]T;整个单视点折反射摄像机成像模型描述的是由空间点到折反射镜面点,折反射镜面点到传感器平面点,传感器平面点再到图像平面点形成图像中的像素点的过程;
折反射镜面到传感器平面之间的转换用公式(1)表示;
λ p ′ ′ = λ x ′ ′ T z ′ ′ = λ h ( | | u ′ ′ | | ) u ′ ′ g | | u ′ ′ | | = P · X , λ > 0 - - - ( 1 )
式中,X∈R4表示空间点X的次坐标,P=[R|T]∈R3×4为射影变换矩阵,R∈R3×3为空间点到折反射镜面点的旋转矩阵,T∈R3×1为空间点到折反射镜面点的平移矩阵;
由传感器平面到图像平面之间的转换用公式(2)表示:
u″=Au′+t    (2)
式中,A∈R2×2,t∈R2×1
Scaramuzza在Micusik透视投影模型的基础上,用一个函数f=g/h来代替公式(1)中的函数g,h,即用函数f来表征三维空间点和二维平面点之间的关系,得到公式(3),
λ p ′ ′ = λ u ′ ′ f ( | | u ′ ′ | | ) = λ A u ′ + t f ( | | Au ′ + t | | ) = P · X , λ > 0 - - - ( 3 )
由于双曲面的旋转对称性,Scaramuzza用Taylor展开多项式来描述函数f,用公式(4)表示:
f(||u″‖)=a0+a1||u″‖+a||u″||2+…+an||u″||N    (4)
式中,‖u″‖为传感器平面点到该平面中心点的距离;
Scaramuzza和Micusik的模型的前提都是理想折反射摄像机模型,由于在实际加工组装全方位视觉传感器时会引入一些误差;这里假设标定的全方位视觉传感器满足理想模型,将存在一定的误差的非理想模型代入Scaramuzza提出的简化模型转换公式,得到公式(5);
λ p ′ ′ = λ u ′ ′ f ( | | u ′ ′ | | ) = λ Au ′ + t f ( | | Au ′ + t | | ) = P · R · X , λ > 0 - - - ( 5 )
具体标定过程是将标定板绕全方位视觉传感器一周,拍摄若干组全景图像,建立空间点和成像平面中像素点的若干等式,使用最优化算法求出最优解,计算结果如表1所示,即为本发明中使用的全方位视觉传感器的标定参数;
表2ODVS的标定结果
Figure BDA00001629802600113
标定出全方位视觉传感器的内外参数后,就能建立一个成像平面的像点与入射光线,即入射角之间的对应关系,如公式(6)表示;
tan α = | | u ′ ′ | | f ( | | u ′ ′ | | ) = | | u ′ ′ | | a 0 + a 1 | | u ′ ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N - - - ( 6 )
式中,α表示空间物点的入射角,‖u″‖为传感器平面点到该平面中心点的距离,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数,通过公式(6)建立一张成像平面任一像素点与入射角之间的对应关系表;关于标定公式的具体推导和实现方法见参考文献,Yi-ping Tang,QingWang,Ming-li Zong,Jun Jiang,andYi-hua Zhu,Design of Vertically Aligned Binocular Omnistereo Vision Sensor,EURASIP Journal on Image and Video Processing,2010,P1~24;标定后的结果可以建立图像坐标和地面位置之间的映射关系,如图9所示;
所述的Bird-View变换模块,用于修正全方位视觉成像后严重扭曲变形,将全方位图像变换为Bird-View视图,Bird-View视图类似于鸟类俯瞰着这个地面上所形成的图像,通过这种变换将全景图像还原成水平面方向上无形变全景图像,经过Bird-View变换得到的全景图像中成像的物体在水平方向上保持不变,通过所述的全方位视觉传感器标定模块建立了一张成像平面任一像素点与入射角之间的对应关系表,本发明中将所述的全方位视觉传感器的视点Om离地面的高度设置为一个定值hom,那么就可以建立一张全景成像平面任一像素点到成像中心点距离‖u″‖与地面上的物点到全方位视觉传感器的中心轴线距离R之间的关系,如图8和图11所示,‖u″‖与R存在着以下关系,
R = f 1 ( | | u ′ ′ | | ) = h om tan α - - - ( 7 )
= h om × a 0 + a 1 | | u ′ ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N | | u ′ ′ | |
式中,hom为全方位视觉传感器的视点Om离地面的距离,‖u″‖全景成像平面像素点到成像中心点距离‖u″‖,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数;
通过全方位面激光扫描以及Bird-View变换可以得到接近地面的交通事故现场场景二维地图和在一定高度的场景二维地图;
所述的摄像点位置信息获取模块,用于获得基于主动式全景视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置,将该位置信息保存在存储单元中;
所述的全方位面激光信息解析模块,用于在全景图像上解析出激光投影信息;解析在全景图上红色激光投射点的方法是根据红色激光投射点的像素的亮度要大于成像平面上的平均亮度,首先是将全景图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮度的1.2倍作为提取红色激光投射点的阈值,本发明中根据HIS颜色空间中的色调值H进行判断,如果色调值H在(0,30)之间就判断为红色激光投射点,其余像素点就判断为干扰;为了得到激光投射线的准确位置,本发明采用高斯近似方法来抽取出激光投射线的中心位置,具体实现算法是:
Step1:设置初始方位角β=0;
Step2:在全景图像上以方位角β从全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,其分布如附图4,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算方法由公式(8)给出,
d = ln ( f ( i - 1 ) ) - ln ( f ( i + 1 ) ) 2 × [ ln ( f ( i - 1 ) ) - 2 ln ( f ( i ) ) + ln ( f ( i + 1 ) ) ] - - - ( 8 )
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的红色激光投射线的中心位置为(i+d),该值对应于公式(6)和公式(7)中的‖u″‖,即||u″‖(β)=i+d;得到||u″‖(β);
Step3:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step4:判断方位角β=360,如果成立,检索结束;反之转到Step2;
所述的特征点计算模块,由于本发明中采用高清成像芯片,这里采用计算步长为Δβ=0.36来遍历整个360°的方位角,在全景图上红色长虚线为红色全方位面激光投射所产生的特征点数据
Figure BDA00001629802600132
下面具体说明遍历方法,
Step Ⅰ:设置初始方位角β=0;
StepⅡ:采用所述的全方位面激光信息解析模块,沿射线方向检索特征点
Figure BDA00001629802600133
得到在传感器平面上与特征点数据相对应的‖u″‖(β)点,用公式(9)计算特征点
Figure BDA00001629802600134
的距离值Ra和入射角αa,将上述的计算数据保存在内存单元中;
R a = h redlazer tan α a = h redlazer × ( a 0 + a 2 | | u ′ ′ | | ( β ) 2 | | u ′ ′ | | ( β ) ) - - - ( 9 )
式中,||u″||(β)为特征点
Figure BDA00001629802600136
点对应于成像平面上的点到该平面中心点的距离,hredlazer为特征点
Figure BDA00001629802600137
到全方位视觉传感器的单视点Om之间在Z轴的投影距离,本发明中为1800mm;a0、a2为标定所得到的全方位视觉传感器的内外参数;
StepⅢ:β←β+Δβ,Δβ=0.36,判断β=360是否成立,如果成立结束计算,否则转到Step Ⅱ;
公安部对交通事故现场勘查中的测量精度10m范围的摄影测量误差小于1.5%和50m范围的摄影测量误差小于2%的精度要求;对公式(9)距离值Ra求导,得到公式(10),
dR a = h redlazer × ( 1 - a 0 a 2 × | | u ′ ′ | | ( β ) 2 ) d | | u ′ ′ ( β ) | | - - - ( 10 )
根据公式(9)通过计算可以得到如图12所示的特征点
Figure BDA00001629802600139
的距离值Ra与特征点
Figure BDA00001629802600141
点对应于成像平面上的点到该平面中心点的距离‖u″||(β)的关系曲线;根据公式(10)通过计算可以估算出摄像距离范围内的摄影测量误差;
国际上对激光有统一的分类和统一的安全警示标志,根据激光对人体的危险度分类,在光树内观察对眼睛的MPE(maximal possible effect最大可能的影响)做基准,激光器分为四类(Class1~Class4),一类激光器对人是安全的,二类激光器对人有较轻的伤害,三类以上的激光器对人有严重伤害,使用时需特别注意,避免对人眼直射。本发明中为了测量较远的距离采用二类激光器,即Class II级:低输出的可视激光(功率0.4mW-1mW),人闭合眼睛的反应时间为0.25秒,用这段时间算出的曝光量不可以超过MPE值。通常1mW以下的激光,正常暴露在这种激光器的光束下不会对眼睛的视网膜造成永久性的伤害,但是会导致晕眩,本发明中采用仅仅在拍摄全景图像时的照射,每次照射时间都为一秒以下,且激光照射区域是仅仅限于靠近地面部分,因此该装置对人眼来说是安全的。
所述的事故现场形象化恢复模块,用于将事故现场场景真实地重构到各种现场事故图上;根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;生成的图纸比例为1:200;
现场记录图:用正投影俯视图形式表示,对现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系所作的图形记录;生成交通事故现场图时,基准点就是现场测绘仪的几何坐标x,y,在图纸的中间,图纸的上方为正北方向;为了保证自动生成的现场记录图的方向一致性,本发明中在拍摄全景图像时要求拍摄人员首先将基于主动式全景视觉传感器的交通事故现场测绘仪上的指南针对准朝北方向;生成的Bird-View视图保证了现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系真实图像记录,只要按比例关系叠加到模板图纸上就能自动完成现场记录图;对于图像的输出设备本发明中采用了Acrobat PDFwriter,其最大分辩率为600dpi,即每英寸可产生的点数,用户选择的输出分辨率为k1(dot/inch);生成的Bird-View视图分辨率为1280×1280pixel,根据Bird-View视图上的标定结果得到k2(mm/pixel),根据用户选择的输出分辨率和实际生成的图纸比例为k3(mm/mm)(1:200),1(mm)=1/25.4(inch),从公式(11)计算实际输出图纸上图像的点数:
k = k 1 × k 2 × K 3 × 1280 25.4 - - - ( 11 )
式中,k为实际输出图纸上图像的点数,k1(dot/inch)为用户选择的输出分辨率,k2(mm/pixel)为Bird-View视图上的每像素之间的距离,k3(mm/mm)为实际生成的图纸比例;
现场比例图:用正投影俯视图形式表示,为了更形象、准确地表现事故形态和现场车辆、物体、痕迹,根据现场记录图和其他勘查记录材料,按规范图形符号和一定比例重新绘制的交通事故现场全部或局部的平面图形;自动生成方式与现场记录图生成方式雷同;
现场断面图:表示交通事故现场某一横断面或纵断面某一位置上有关车辆、物体、痕迹相互关系的剖面视图,用局部透视图形式表示;关于局部透视图本发明中采用了一种对全景图像进行透视展开方式,如附图13所示,关于透视展开算法实现如下:
首先,建立全景图像上的任意一点p(x,y)与空间坐标系中一点P(X,Y,Z)的对应关系。如图13所示,空间中的一点P(X,Y,Z),经过双曲镜面反射后,在全方位视觉传感器成像平面上形成对应的像点p(x,y),根据光学原理,可以得出像点p(x,y)与空间物点P(X,Y,Z)的一一对应关系:
x = Xf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2 - - - ( 12 )
y = Yf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2
式中,b,c是双曲面镜的长轴和焦距,f为摄像机的焦距;
其次,建立空间坐标系中的物点P(X,Y,Z)与透视平面上的点p(i,j)的对应关系;根据空间几何关系,得到公式(13);
X=R*cosβ-i*sinβ
Y=R*sinβ+i*cosβ(13)
Z=D*sinγ-j*cosγ
R=D*cosγ+j*sinγ
式中,D为透视投影平面到双曲面焦点O的距离,角度β是入射光线在XY平面上的投影与X轴正方向的夹角,角度γ为入射光线与XY平面的夹角;
参数D的大小是根据输出图像的大小来确定;
进一步,将公式(13)代入公式(12)就能得到全景像素点与透视平面上像素点之间的一一对应关系;通过遍历透视图上的所有坐标点,求取其对应再全景图像上像点的坐标并将全景下像素点的颜色信息赋值给透视图像素点,即可得到以全景图像上某一点为中心展开的局部透视图像;
现场立面图:表示交通事故现场某一物体侧面有关痕迹、证据所在位置的局部视图,用局部透视图形式表示;
现场分析图:用正投影俯视图形式表示,表示交通事故发生时,车辆、行人不同的运行轨迹和时序及冲突点位置的平面视图;自动生成方式与现场记录图生成方式雷同;
基于主动式全景视觉传感器的交通事故现场测绘仪的使用方法是:首先,交警携带交通事故现场测绘仪到交通事故现场,将交通事故现场测绘仪垂直放置在交通事故现场的中间区域,并将交通事故现场测绘仪上的指南针对准正北方向;接着,将交通事故现场测绘仪中的全方位视觉传感器与微处理进行连接,启动微处理器中的应用程序,做好道路上痕迹的标示,接通激光光源的供电电源;进一步,系统应用软件自动拍摄交通事故现场全景图像,自动检测现场车辆、物体、痕迹等空间几何数据,自动输出现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;最后,交警确认生成结果,如果满足要求就完成交通事故现场勘查,否则继续拍摄交通事故现场全景图像、直至量测精度能满足事故现场勘查任务的要求;上述过程能在数分钟内由一位交警就能顺利完成交通事故现场勘查,对快速疏通现场、便于事后保存和恢复现场资料,进而为事故责任认定提供一种有效、系统、完整、形象化的依据,在任何地方都能直接进行事故现场形象化恢复和数字立体再现。

Claims (9)

1.一种基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述交通事故现场测绘仪包括全方位视觉传感器、全方位面激光光源、用于定位交通事故现场以及为自动生成道路平面图的GPS传感器、用于确定测量方位的指南针以及用于对全方位视觉传感器的全景图像进行三维立体摄像测量、事故现场形象化恢复和数字立体再现的微处理器,所述的全方位视觉传感器的中心与所述关键面激光光源的中心配置在同一根轴心线上;
所述全方位视觉传感器包括双曲面镜面、上盖、透明半圆形外罩、下固定座、摄像单元固定座、摄像单元、连接单元、上罩;所述的双曲面镜面固定在所述的上盖上,所述的连接单元将所述的下固定座和透明半圆形外罩连接成一体,所述的透明半圆形外罩与所述的上盖以及所述的上罩固定在一起,所述的摄像单元固定在所述的摄像单元固定座上,所述的摄像单元固定座固定在所述的下固定座上,所述全方位视觉传感器中的所述的摄像单元的输出与所述微处理器连接;
所述全方位面激光光源包括红光线激光发生单元、线激光发生组合单元、导向支撑杆和底盘;所述的红色线激光发生单元固定在所述的线激光发生组合单元的孔中,经过这样组合后的线激光能形成一个发出红光的全方位面激光光源单元;所述的导向支撑杆垂直固定在所述的底盘上,所述的发出红光的全方位面激光光源单元固定在所述的导向支撑杆的底端;
所述的全方位视觉传感器通过连接板安装在所述的导向支撑杆;指南针安置在所述的全方位视觉传感器的上盖上,GPS传感器和水平指示器安置在所述的导向支撑杆的中部,所述的全方位视觉传感器的电源线、视频数据线、所述的GPS传感器的数据线以及所述全方位面激光光源的电源线均从连接杆的中孔内穿出,连接到供电电源以及微处理器的相应接口上;
所述的微处理器中包括:
视频图像读取模块,用于读取全方位视觉传感器的视频图像,并保存在存储单元中,其输出与全方位视觉传感器标定模块和Bird-View变换模块连接;
所述的全方位视觉传感器标定模块,用于确定三维空间点和摄像机成像平面上的二维图像点之间映射关系的参数;
所述的Bird-View变换模块,用于修正全方位视觉成像后严重扭曲变形,将全方位图像变换为Bird-View视图;
摄像点位置信息获取模块,用于获得基于主动式全景视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置,将该位置信息保存在存储单元中;
全方位面激光信息解析模块,用于在全景图像上解析出激光投影信息;
特征点计算模块,用于解析出在全景图上红色全方位面激光投射所产生的特征点数据;
事故现场形象化恢复模块,用于将事故现场场景真实地重构到各种现场事故图上。
2.如权利要求1所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的Bird-View变换模块中,所述Bird-View视图为鸟类俯瞰着这个地面上所形成的图像,通过这种变换将全景图像还原成水平面方向上无形变全景图像,经过Bird-View变换得到的全景图像中成像的物体在水平方向上保持不变,通过所述的全方位视觉传感器标定模块建立了一张成像平面任一像素点与入射角之间的对应关系表,将所述的全方位视觉传感器的视点Om离地面的高度设置为一个定值hom,就可以建立一张全景成像平面任一像素点到成像中心点距离‖u″‖与地面上的物点到全方位视觉传感器的中心轴线距离R之间的关系,‖u″‖与R存在着以下关系,
R = f 1 ( | | u ′ ′ | | ) = h om tan α - - - ( 7 )
= h om × a 0 + a 1 | | u ′ ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N | | u ′ ′ | |
式中,hom为全方位视觉传感器的视点Om离地面的距离,‖u″‖全景成像平面像素点到成像中心点距离‖u″‖,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数;
通过全方位面激光扫描以及Bird-View变换得到接近地面的交通事故现场场景二维地图和在设定高度的场景二维地图。
3.如权利要求1或2所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的全方位面激光信息解析模块中,解析在全景图上红色激光投射点的方法是根据红色激光投射点的像素的亮度要大于成像平面上的平均亮度,首先是将全景图的RGB颜色空间转化成HIS颜色空间,然后将成像平面上的平均亮度的1.2倍作为提取红色激光投射点的阈值,根据HIS颜色空间中的色调值H进行判断,如果色调值H在(0,30)之间就判断为红色激光投射点,其余像素点就判断为干扰;采用高斯近似方法来抽取出激光投射线的中心位置,具体实现过程如下:
Step1:设置初始方位角β=0;
Step2:在全景图像上以方位角β从全景图像的中心点开始检索红色激光投射点,对于方位角β上存在着若干个连续的红色激光投射的像素,其分布如附图5,这里选择HIS颜色空间中的I分量,即亮度值接近最高值的三个连续像素通过高斯近似方法来估算激光投射线的中心位置;具体计算方法由公式(8)给出,
d = ln ( f ( i - 1 ) ) - ln ( f ( i + 1 ) ) 2 × [ ln ( f ( i - 1 ) ) - 2 ln ( f ( i ) ) + ln ( f ( i + 1 ) ) ] - - - ( 8 )
式中,f(i-1)、f(i)和f(i+1)分别为三个相邻像素接近最高亮度值的亮度值,d为修正值,i表示从图像中心点开始的第i个像素点;因此估算得到的红色激光投射线的中心位置为(i+d),该值对应于公式(6)和公式(7)中的‖u″‖,即||u″‖(β)=i+d;得到||u″‖(β);
Step3:改变方位角继续检索激光投射点,即β=β+Δβ,Δβ=0.36;
Step4:判断方位角β=360,如果成立,检索结束;反之转到Step2。
4.如权利要求3所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的特征点计算模块中,采用计算步长为Δβ=0.36来遍历整个360°的方位角,在全景图上红色长虚线为红色全方位面激光投射所产生的特征点数据
Figure FDA00001629802500032
遍历过程如下:
Step Ⅰ:设置初始方位角β=0;
StepⅡ:采用所述的全方位面激光信息解析模块,沿射线方向检索特征点
Figure FDA00001629802500033
得到在传感器平面上与特征点数据相对应的||u″‖(β)点,用公式(9)计算特征点的距离值Ra和入射角αa,将上述的计算数据保存在内存单元中;
R a = h redlazer tan α a = h redlazer × ( a 0 + a 2 | | u ′ ′ | | ( β ) 2 | | u ′ ′ | | ( β ) ) - - - ( 9 )
式中,||u″‖(β)为特征点
Figure FDA00001629802500036
点对应于成像平面上的点到该平面中心点的距离,hredlazer为特征点
Figure FDA00001629802500037
到全方位视觉传感器的单视点Om之间在Z轴的投影距离,a0、a2为标定所得到的全方位视觉传感器的内外参数;
StepⅢ:β←β+Δβ,Δβ=0.36,判断β=360是否成立,如果成立结束计算,否则转到Step Ⅱ。
5.如权利要求1或2所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的事故现场形象化恢复模块中,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
6.如权利要求5所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的现场记录图、现场比例图和现场分析图均采用正投影俯视图形式表示,需要对现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系所作的图形记录;生成交通事故现场图时,基准点就是现场测绘仪放置的几何坐标x,y,处于图纸的中间,图纸的上方为正北方向;为了保证自动生成的现场记录图的方向一致性,在拍摄全景图像时要求拍摄人员首先将基于主动式全景视觉传感器的交通事故现场测绘仪上的指南针对准朝北方向;生成的Bird-View视图保证了现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系真实图像记录,只要按比例关系叠加到模板图纸上就能自动完成现场记录图;对于图像的输出设备采用Acrobat PDFwriter,其最大分辩率为600dpi,即每英寸可产生的点数,用户选择的输出分辨率为k1(dot/inch);生成的Bird-View视图分辨率为1280×1280pixel,根据Bird-View视图上的标定结果得到k2(mm/pixel),根据用户选择的输出分辨率和实际生成的图纸比例为k3(mm/mm)(1:200),1(mm)=1/25.4(inch),从公式(11)计算实际输出图纸上图像的点数:
k = k 1 × k 2 × K 3 × 1280 25.4 - - - ( 11 )
式中,k为实际输出图纸上图像的点数,k1(dot/inch)为用户选择的输出分辨率,k2(mm/pixel)为Bird-View视图上的每像素之间的距离,k3(mm/mm)为实际生成的图纸比例。
7.如权利要求5所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的现场断面图和现场立面图,用于表示交通事故现场某一横断面或纵断面某一位置上有关车辆、物体、痕迹相互关系的剖面视图,用局部透视图形式表示;关于局部透视图采用了一种对全景图像进行透视展开方式来实现,关于透视展开算法实现如下:
首先,建立全景图像上的任意一点p(x,y)与空间坐标系中一点P(X,Y,Z)的对应关系,空间中的一点P(X,Y,Z),经过双曲镜面反射后,在全方位视觉传感器成像平面上形成对应的像点p(x,y),根据光学原理,可以得出像点p(x,y)与空间物点P(X,Y,Z)的一一对应关系:
x = Xf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2 - - - ( 12 )
y = Yf ( b 2 - c 2 ) ( b 2 - c 2 ) Z - 2 bc X 2 + Y 2 + Z 2
式中,b,c是双曲面镜的长轴和焦距,f为摄像机的焦距;
其次,建立空间坐标系中的物点P(X,Y,Z)与透视平面上的点p(i,j)的对应关系;根据空间几何关系,得到公式(13);
X=R*cosβ-i*sinβ
Y=R*sinβ+i*cosβ(13)
Z=D*sinγ-j*cosγ
R=D*cosγ+j*sinγ
式中,D为透视投影平面到双曲面焦点O的距离,角度β是入射光线在XY平面上的投影与X轴正方向的夹角,角度γ为入射光线与XY平面的夹角;
参数D的大小是根据输出图像的大小来确定;
将公式(13)代入公式(12)就能得到全景像素点与透视平面上像素点之间的一一对应关系;通过遍历透视图上的所有坐标点,求取其对应再全景图像上像点的坐标并将全景下像素点的颜色信息赋值给透视图像素点,即可得到以全景图像上某一点为中心展开的局部透视图像。
8.如权利要求1或2所述的基于主动式全景视觉传感器的交通事故现场测绘仪,其特征在于:所述的全方位视觉传感器标定模块中,用于确定空间物点和摄像机成像平面上的二维图像点之间映射关系的参数,建立一个成像平面的像点与入射光线之间的联系,即与入射角之间的对应关系,用公式(6)表示;
tan α = | | u ′ ′ | | f ( | | u ′ ′ | | ) = | | u ′ ′ | | a 0 + a 1 | | u ′ ′ | | + a 2 | | u ′ ′ | | 2 + . . . + a N | | u ′ ′ | | N - - - ( 6 )
式中,α表示空间物点的入射角,‖u″‖为传感器平面点到该平面中心点的距离,a0、a1、a2、aN为标定的全方位视觉传感器的内外参数,通过公式(6)建立一张成像平面任一像素点与入射角之间的对应关系表,表1为本发明使用的一种单视点全方位视觉传感器的标定结果,
Figure FDA00001629802500061
表1ODVS的标定结果
对于本发明中所采用的全方位视觉传感器进行标定后,成像平面上的点‖u″‖与空间物点的入射角α关系可以用下面等式来表示;
tan α = | | u ′ ′ | | - 75.12 + 0.0027 | | u ′ ′ | | 2 .
9.一种如权利要求1所述的基于主动式全景视觉传感器的交通事故现场测绘仪实现的测绘方法,其特征在于:所述的测绘方法的测绘过程为:首先,交警携带交通事故现场测绘仪到交通事故现场,将交通事故现场测绘仪垂直放置在交通事故现场的中间区域,并将交通事故现场测绘仪上的指南针对准正北方向;接着,将交通事故现场测绘仪中的全方位视觉传感器与微处理进行连接,启动微处理器中的应用程序,做好道路上痕迹的标示,接通激光光源的供电电源;然后,系统应用软件自动拍摄交通事故现场全景图像,自动检测现场车辆、物体、痕迹等空间几何数据,自动输出现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;最后,交警确认生成结果,如果满足要求就完成交通事故现场勘查,否则继续拍摄交通事故现场全景图像、直至量测精度能满足事故现场勘查任务的要求。
CN201210145996.6A 2012-05-11 2012-05-11 基于主动式全景视觉传感器的交通事故现场测绘仪 Active CN102692213B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210145996.6A CN102692213B (zh) 2012-05-11 2012-05-11 基于主动式全景视觉传感器的交通事故现场测绘仪

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210145996.6A CN102692213B (zh) 2012-05-11 2012-05-11 基于主动式全景视觉传感器的交通事故现场测绘仪

Publications (2)

Publication Number Publication Date
CN102692213A true CN102692213A (zh) 2012-09-26
CN102692213B CN102692213B (zh) 2014-12-03

Family

ID=46857826

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210145996.6A Active CN102692213B (zh) 2012-05-11 2012-05-11 基于主动式全景视觉传感器的交通事故现场测绘仪

Country Status (1)

Country Link
CN (1) CN102692213B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103322911A (zh) * 2013-05-27 2013-09-25 吴晓军 一种基于图像的特色建筑立面图测绘方法
CN103400498A (zh) * 2013-08-14 2013-11-20 中国人民解放军第三军医大学第三附属医院 基于电子地图及数据采集系统的事故现场图生成方法
CN103400362A (zh) * 2013-07-30 2013-11-20 中国人民解放军第三军医大学第三附属医院 事故近景图与航拍图像相融合获取清晰场景图的方法
CN103398705A (zh) * 2013-08-14 2013-11-20 中国人民解放军第三军医大学第三附属医院 交通事故现场信息采集装置
CN105550669A (zh) * 2016-01-27 2016-05-04 大连楼兰科技股份有限公司 一种基于图像识别的智能事故勘测方法
CN104567818B (zh) * 2014-12-31 2016-09-28 浙江工业大学 一种便携式全天候主动全景视觉传感器
CN109978753A (zh) * 2017-12-28 2019-07-05 北京京东尚科信息技术有限公司 绘制全景热力图的方法和装置
US20210033467A1 (en) * 2018-04-17 2021-02-04 Autel Inteligent Technology Corp., Ltd. Calibration apparatus, system and method for in-vehicle camera
CN113124821A (zh) * 2021-06-17 2021-07-16 中国空气动力研究与发展中心低速空气动力研究所 一种基于曲面镜和平面镜的结构测量方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1261199A2 (en) * 2001-05-10 2002-11-27 Sharp Kabushiki Kaisha System and method for perspective projection image creation
JP3951786B2 (ja) * 2002-04-23 2007-08-01 株式会社デンソー 画像アップロード装置
CN101650176A (zh) * 2009-08-28 2010-02-17 浙江工业大学 基于主动立体全方位视觉的交通事故现场测绘仪

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1261199A2 (en) * 2001-05-10 2002-11-27 Sharp Kabushiki Kaisha System and method for perspective projection image creation
JP3951786B2 (ja) * 2002-04-23 2007-08-01 株式会社デンソー 画像アップロード装置
CN101650176A (zh) * 2009-08-28 2010-02-17 浙江工业大学 基于主动立体全方位视觉的交通事故现场测绘仪

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
汤一平;叶永杰;朱艺华;顾校凯: "智能全方位视觉传感器及其应用研究", 《传感技术学报》 *

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103322911B (zh) * 2013-05-27 2016-01-13 吴晓军 一种基于图像的特色建筑立面图测绘方法
CN103322911A (zh) * 2013-05-27 2013-09-25 吴晓军 一种基于图像的特色建筑立面图测绘方法
CN103400362A (zh) * 2013-07-30 2013-11-20 中国人民解放军第三军医大学第三附属医院 事故近景图与航拍图像相融合获取清晰场景图的方法
CN103400362B (zh) * 2013-07-30 2015-11-25 中国人民解放军第三军医大学第三附属医院 事故近景图与航拍图像相融合获取清晰场景图的方法
CN103400498A (zh) * 2013-08-14 2013-11-20 中国人民解放军第三军医大学第三附属医院 基于电子地图及数据采集系统的事故现场图生成方法
CN103398705A (zh) * 2013-08-14 2013-11-20 中国人民解放军第三军医大学第三附属医院 交通事故现场信息采集装置
CN103398705B (zh) * 2013-08-14 2015-09-30 中国人民解放军第三军医大学第三附属医院 交通事故现场信息采集装置
CN103400498B (zh) * 2013-08-14 2015-12-09 中国人民解放军第三军医大学第三附属医院 基于电子地图及数据采集系统的事故现场图生成方法和生成系统
CN104567818B (zh) * 2014-12-31 2016-09-28 浙江工业大学 一种便携式全天候主动全景视觉传感器
CN105550669A (zh) * 2016-01-27 2016-05-04 大连楼兰科技股份有限公司 一种基于图像识别的智能事故勘测方法
CN109978753A (zh) * 2017-12-28 2019-07-05 北京京东尚科信息技术有限公司 绘制全景热力图的方法和装置
CN109978753B (zh) * 2017-12-28 2023-09-26 北京京东尚科信息技术有限公司 绘制全景热力图的方法和装置
US20210033467A1 (en) * 2018-04-17 2021-02-04 Autel Inteligent Technology Corp., Ltd. Calibration apparatus, system and method for in-vehicle camera
US12061118B2 (en) * 2018-04-17 2024-08-13 Autel Intelligent Technology Corp., Ltd. Calibration apparatus, system and method for in-vehicle camera
CN113124821A (zh) * 2021-06-17 2021-07-16 中国空气动力研究与发展中心低速空气动力研究所 一种基于曲面镜和平面镜的结构测量方法
CN113124821B (zh) * 2021-06-17 2021-09-10 中国空气动力研究与发展中心低速空气动力研究所 一种基于曲面镜和平面镜的结构测量方法

Also Published As

Publication number Publication date
CN102692213B (zh) 2014-12-03

Similar Documents

Publication Publication Date Title
CN102692213B (zh) 基于主动式全景视觉传感器的交通事故现场测绘仪
KR102121974B1 (ko) 드론을 이용한 재난피해 조사·분석시스템 및 이를 이용한 재난피해 조사·분석방법
KR100912715B1 (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
CN101408422B (zh) 基于双目立体全方位视觉的交通事故现场测绘仪
Verhoeven et al. Computer vision‐based orthophoto mapping of complex archaeological sites: The ancient quarry of Pitaranha (Portugal–Spain)
US7417717B2 (en) System and method for improving lidar data fidelity using pixel-aligned lidar/electro-optic data
US10715724B2 (en) Vehicle-mounted sensor system that includes cameras and laser measurement systems
CN102538763B (zh) 一种河工模型试验三维地形的量测方法
CN102679959B (zh) 基于主动全景视觉传感器的全方位三维建模系统
DK2588882T3 (en) A method of producing a digital photo, wherein at least some of the pixels comprise position information and such a digital photo
CN101650176B (zh) 基于主动立体全方位视觉的交通事故现场测绘仪
CN106327573A (zh) 一种针对城市建筑的实景三维建模方法
CN104330074A (zh) 一种智能测绘平台及其实现方法
US20090008554A1 (en) Method for infrared imaging of living or non-living objects including terrains that are either natural or manmade
CN105953777B (zh) 一种基于深度图的大比例尺倾斜影像测图方法
CN109146958A (zh) 一种基于二维图像的交通标志空间位置测量方法
CN110986888A (zh) 一种航空摄影一体化方法
Brush et al. Evaluation of field methods for 3-D mapping and 3-D visualization of complex metamorphic structure using multiview stereo terrain models from ground-based photography
CN100498246C (zh) 机载推帚式多维成像装置
CN116957360A (zh) 一种基于无人机的空间观测与重建方法及系统
Lonneville et al. Accurate and cost-efficient 3D modelling using motorized hexacopter, helium balloons and photo modelling: A case study
CN105737803B (zh) 航空双面阵立体测绘系统
Carter et al. An Optimization of Small Unmanned Aerial System (sUAS) Image Based Scanning Techniques for Mapping Accident Sites
Naletto et al. Innovative optical setup for testing a stereo camera for space applications
Ulziisaikhan et al. UAV and terrestrial laser scanner data processing for large scale topographic mapping

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant