CN101650176B - 基于主动立体全方位视觉的交通事故现场测绘仪 - Google Patents
基于主动立体全方位视觉的交通事故现场测绘仪 Download PDFInfo
- Publication number
- CN101650176B CN101650176B CN200910102318XA CN200910102318A CN101650176B CN 101650176 B CN101650176 B CN 101650176B CN 200910102318X A CN200910102318X A CN 200910102318XA CN 200910102318 A CN200910102318 A CN 200910102318A CN 101650176 B CN101650176 B CN 101650176B
- Authority
- CN
- China
- Prior art keywords
- accident
- point
- omnibearing vision
- scene
- laser
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 206010039203 Road traffic accident Diseases 0.000 title claims abstract description 78
- 238000005259 measurement Methods 0.000 claims abstract description 31
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000003287 optical effect Effects 0.000 claims description 97
- 238000003384 imaging method Methods 0.000 claims description 45
- 238000010586 diagram Methods 0.000 claims description 20
- 238000000034 method Methods 0.000 claims description 15
- 238000004458 analytical method Methods 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 8
- 230000008569 process Effects 0.000 claims description 6
- 230000014759 maintenance of location Effects 0.000 claims description 5
- 230000011514 reflex Effects 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 238000000605 extraction Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 238000010304 firing Methods 0.000 claims description 3
- 239000007787 solid Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 9
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 239000004065 semiconductor Substances 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 9
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000006378 damage Effects 0.000 description 4
- 208000014674 injury Diseases 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000000691 measurement method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 210000004556 brain Anatomy 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000011065 in-situ storage Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 101100339482 Colletotrichum orbiculare (strain 104-T / ATCC 96160 / CBS 514.97 / LARS 414 / MAFF 240422) HOG1 gene Proteins 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 208000002173 dizziness Diseases 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000002969 morbid Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000005693 optoelectronics Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 230000035484 reaction time Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000009711 regulatory function Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 229920006395 saturated elastomer Polymers 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
一种基于主动立体全方位视觉的交通事故现场测绘仪,包括具有固定视点的全方位视觉传感器、具有固定发光中心点的激光全景体结构光发生器、连接支架、用于定位交通事故现场及自动生成道路平面图的GPS传感器和用于对全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,全方位视觉传感器的固定视点与激光全景体结构光发生器的固定发光中心点在同一轴线上;微处理器包括LD光源控制单元、视频图像读取模块、摄像点位置信息获取模块、预置道路平面地图生成模块、方位信息解析模块、现场视频图像加工模块、各测量点空间位置信息计算模块和现场事故图生成模块。本发明简化计算的复杂性、省略摄像机标定工作、环境适用性强、测量快速准确。
Description
技术领域
本发明属于光学技术、激光半导体技术、摄影测量技术、计算机视觉技术在交通事故处理现场测绘上的应用。
背景技术
当今,国内外大部分交通警察在交通事故现场勘测中仍大量使用手工作业方式,手工作业方式对交通事故现场测量主要是靠人眼判断、手摸、皮尺量、手工绘图等传统方法,该方法主要存在以下几个方面的缺陷:1)测量数据方面,漏测、错测、漏画、错画等现象时有发生;2)测量过程中的各种限制,交通事故发生在雨雪、浓雾天气以及夜晚等都将给现场勘察带来很大的困难,在高速公路、高架公路及桥梁上处理交通事故有更高的要求,要求在最短的时间内采集最多的事故现场信息,同时必须以最快的速度恢复交通畅通;3)测量数据的加工以及现场重构方面,无法对事故现场信息进行二次提取,测量结束后,现场即被撤除,如果收集证据不全,或数据间发生矛盾时,则无法进行二次取证,使事故处理陷入困境;4)在绘制交通事故现场图方面,近年来出现了不少绘制软件,但是由于测量仍然需要手工的方式进行,自动化程度不高,给现场执法警员带来了很大的精神和体力负担;5)事故现场资料存储、建档和检索方面,该方法极不方便,对于重大、疑难交通事故的处理缺乏系统、完整、形象化的依据,事故现场形象化恢复和数字立体再现等新概念就更难以实现。随着科技的进步,目前交警在处理交通事故现场也采用了数码相机的设备进行事故现场的拍摄,但仍然局限于对事故现场照片进行简单的定性分析。
中国发明专利公开号为CN101033966中提出了一种交通事故现场的摄影测量方法,摄影测量步骤如下:①采用标定物进行摄影测量的标定,组装拆散了的标定物;②将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统,实现对交通事故现场进行摄影测量的标定。③采用相机按照顺时针移动方向和拍摄角度对安置了标定系统的交通事故现场拍摄一组二维照片。④将拍摄到的像片导入计算机,选取需要测量的点,得到其像空间坐标值,求得待测量点的物方空间坐标,将得到的实际空间坐标值,通过几何计算得到绘制交通事故现场图所需的信息。这种摄影测量方法比较繁琐,在标定、匹配和计算物点空间坐标中仍然存在着很多“病态计算”问题。
双目立体视觉测量方法的一个局限性是焦距固定,由于一个固定的焦距只能在一定景深范围内清晰拍摄图像,因而限制了测试区域;标定技术还没有很好解决,立体视觉测量系统在各种运动中变化参数是不可避免的,比如警员赴交通事故现场过程中的对双目立体测量装置的震动、工作冲击等的影响,即使如发明专利公开号为CN101033966提出了一种交通事故现场的摄影测量方法中采用将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统来进行标定成功的话,对快速恢复交通畅通也是一个极大的限制;双目立体视觉测量系统还没有实现小型化、微型化,使得在交通事故处理现场的应用受到限制;此外在复杂环境下双目视觉的对应点匹配歧异性大,造成了匹配的误差,影响了匹配精度,最终产生了测量误差。
中国发明专利公开号为200810121671.8中提出了一种基于基于主动立体全方位视觉的交通事故现场测绘仪,这种方案的优点是测量范围大、无须标定、双目视觉的对应点匹配歧异性小;但是有时也会出现匹配误差,在光线不足的地方难以进行测绘,环境适应性差,这些问题主要是由于被动式双目视觉测量方式所决定的。
GPS(全球定位系统)是继子午卫星导航系统之后,美国政府推出的第二代卫星定位系统。运用GPS进行高精度动态测量已成为国内外的一个重要研究方向。为了提高GPS测量的精度,动态差分定位愈来愈引起人们的重视。动态差分要比坐标差分严密且效果更好。GPS差分的高精度潜能还在于载波相位的应用,相位与伪距相结合的差分方法能够达到0.5-1m的精度。这样的定位精度已经基本上满足了交通事故现场测量点的定位要求。GPS定位采用徕卡S530,并配置相应的数字地图GIS,只要将基于主动立体全方位视觉的交通事故现场测绘仪放置在事故现场,系统就能自动生成一张道路平面图。
发明内容
为了克服现有的交通事故现场测绘仪的计算复杂、适用性差、测量误差大的不足,本发明提供一种简化计算的复杂性、省略摄像机标定工作、环境适用性强、测量快速准确的基于主动立体全方位视觉的交通事故现场测绘仪。
本发明解决其技术问题所采用的技术方案是:
一种基于主动立体全方位视觉的交通事故现场测绘仪,包括一台具有固定视点的全方位视觉传感器、一台具有固定发光中心点的激光全景体结构光发生器、连接支架、一台用于定位交通事故现场以及为自动生成道路平面图的GPS传感器和用于对全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,所述的全方位视觉传感器与所述的激光全景体结构光发生器之间通过所述的连接支架进行连接,所述的全方位视觉传感器的固定视点与所述的激光全景体结构光发生器的固定发光中心点在同一轴线上;
所述全方位视觉传感器包括双曲面镜面、上盖、透明半圆形外罩、下固定座、摄像单元固定座、摄像单元、连接单元、上罩和指南针;所述的双曲面镜面固定在所述的上盖上,所述的下固定座和透明半圆形外罩通过连接单元连接成一体,所述的透明半圆形外罩与所述的上盖以及所述的上罩固定在一起,所述的摄像单元固定在所述的摄像单元固定座上,所述的摄像单元固定座固定在所述的下固定座上,所述的摄像单元的输出与所述微处理器连接;所述的摄像单元是宽动态CMOS成像器件;全方位视觉传感器的视点在所述的双曲面镜面的实焦点上;所述指南针固定在所述的双曲面镜面的中间,指南针处在摄像单元的视觉范围内;
所述的激光全景体结构光发生器包括圆球面体基板、72组具有不同发光中心波长的激光二极管LD;所述的激光二极管LD固定在所述的圆球面体基板上,所述的圆球面体基板为内部圆型中空、上下圆柱形中空的圆球面体,所述的圆球面体基板的外球面上从零纬度开始在均匀等分排列着与激光二极管LD的外直径相等的小孔;在同一纬度线上同时配置了72颗具有相同发光中心波长的激光二极管;所述的72组具有不同发光中心波长的激光二极管LD依次从在所述的圆形面体基板上的零纬度值到最大俯角按顺序插入到相应的小孔内,每个激光二极管的发射光方向与所插入相应小孔的法线方向重合;
所述的微处理器包括LD光源控制单元,用于控制激光全景体结构光发生器发出全彩色全景结构光,在LD光源控制单元使激光全景体结构光发生器的供电电源处于ON状态时,在全方位视觉传感器的成像单元中直接获得交通事故现场所有相关物点的距离值R、纬度值Φ和经度值β信息;
视频图像读取模块,用于读取全方位视觉传感器的全景视频图像,其输出与所述的方位信息解析模块和现场视频图像加工模块连接;
摄像点位置信息获取模块,用于获得基于主动立体全方位视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置;
预制道路平面地图生成模块,用于自动生成交通事故出事点周围的道路平面地图,根据现场测绘仪的几何坐标x,y,z检索GIS数字地图,并以1∶200比例自动生成以现场测绘仪为中心的道路平面地图草图,平面地图的上方为正北方向,其输出发送给现场事故图生成模块;
现场视频图像加工模块,用于保存现场的原始数据,以便对事故现场信息进行二次提取,将从所述的摄像点位置信息获取模块所获取的几何坐标x,y,z和当前时间信息t写入在所述的视频图像读取模块中所获取的全景图像上,在该全景图上包含有交通事故测量点的几何坐标信息、测量时间信息以及现场全景图像,加工后的全景图像数据保存在存储单元内;
方位信息解析模块,用于确定全景图像上的各事故相关点的方位,即确定观察点坐标系的方位角坐标;
各测量点空间信息计算模块;用于计算每个事故相关点的距离值R、纬度值Φ信息;
现场事故图生成模块,用于将事故相关点的空间位置数据绘制在自动生成的道路平面地图上,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
进一步,通过连接杆将所述的激光全景体结构光发生器和所述的全方位视觉传感器连接起来,GPS传感器固定在连接杆的中部,连接杆的上部的法兰通过螺钉固定全方位视觉传感器,激光全景体结构光发生器套在连接杆中并用螺钉进行固定,这种连接方式保证了所述的激光全景体结构光发生器的发射中心Op和所述的全方位视觉传感器的视点Ov在同一轴心线上,全方位视觉传感器的电源线、视频数据线、GPS传感器的数据线以及激光全景体结构光发生器的电源线均从连接杆的中孔内穿出,连接到供电电源以及微处理器的相应接口上;当供电电源给激光全景体结构光发生器供电时,所述的激光全景体结构光发生器将发出一圈圈的全景彩色体结构光,所有光的发光中心点在激光全景体结构光发生器的圆球面体的中心点上。
再进一步,所述的全方位视觉传感器具有单一视点,单一视点是双曲面镜面的实焦点;进入双曲面镜的中心的光,根据双曲面的镜面特性向着其虚焦点折射。实物图像经双曲面镜反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z);
双曲面镜构成的光学系统可以由下面5个等式表示;
((X2+Y2)/a2)-((Z-c)2/b2)=-1当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ (4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY投影平面上与X轴的夹角,即方位角,方位角是经度值的一个别名,α表示入射光线在XZ投影平面上与X轴的夹角,这里将α称为入射角,α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折反射光线与Z轴的夹角;x,y表示在成像平面上的一个点。
所述的激光全景体结构光发生器具有单一的发光中心点,所述的激光全景体结构光发生器上的所有激光二极管的发射角与所述的激光全景体结构光发生器的圆球面体的法线方向重合。
更进一步,在所述的方位信息解析模块中,首先从全景图像的中心圆上获取指南针的方向,然后以正北方向作为方位角的坐标并约定逆时针方向为正,接着在用户界面所提供的全景图像上确定各事故相关点;接着根据事故相关点的个数N,生成N个事故相关点的三维数组,并将各事故相关点的方位角β设置在N个事故相关点的三维数组内的方位角数据维度上。
在所述的各测量点空间信息计算模块中,首先根据所述的方位信息解析模块所提供的事故相关点带有方位角β的数据,然后依次根据方位角β所确定的极平面,根据双曲面镜的成像原理通过公式(6)、(7)计算成像平面上的P(i,j)的入射角αo,通过投射角αp、入射角αo以及激光全景体结构光发生器的中心点和全方位视觉传感器的实焦点Om之间的距离得到空间物点的距离值R、纬度值Φ信息;
αo=tan-1[(b2+c2)sinγo-2bc]/(b2+c2)cosγo(7)
式中:f是摄像装置的焦距,x1、y1是物点在成像平面上的坐标,γ0是折反射角,b表示双曲面镜的虚轴的长度,2c表示双曲面镜的两个焦点之间的距离,αo是入射角;
投射角αp是根据物点的像素P(i,j)中读取的颜色来确定的,事故相关点到激光全景体结构光发生器的中心点的距离R就可以通过公式(8)来求得,
式中,B为全方位视觉传感器的实焦点Ov到激光全景体结构光发生器的发光中心点Op之间的距离,αo为空间物点的入射角,αp为空间物点的投射角;在带有方位角β的数据中设置所对应事故相关点的距离值R和纬度值Φ。
在所述的现场事故图生成模块中,根据GIS所生成的道路平面地图草图上确定基准点,基准点就是现场测绘仪的几何坐标x,y,在图纸的中间,图纸的上方为正北方向,然后将事故相关点绘制在交通事故现场图上,由于在所述的各测量点空间信息计算模块中所得到的事故相关点坐标为高斯坐标,需要进行坐标系的转换,转换公式如式(9)所示,
x=R×cos(φ)×sin(β) (9)
y=R×cos(φ)×cos(β)
式中:R为事故相关点与基准点之间的距离值,Φ为事故相关点的纬度值,β为事故相关点的经度值,x为事故相关点的X坐标值,y为事故相关点的Y坐标值;在绘制过程中需要将计算所获得的x,y值按比例进行缩小。
所述的宽动态CMOS成像器件的感光器件采用了以宽动态CMOS感光芯片技术,所述芯片技术中,对明亮部分进行最合适的快门速度曝光,再对暗的部分用最合适的快门速度曝光,最后将多个图像进行DSP处理重新组合。
所述的圆球面体基板的外球面上从零纬度开始在经度线上以每隔2°角度、在纬度线上每隔5°角度均匀等分排列着与激光二极管LD的外直径相等的小孔,所述激光二极管的投射角设计在纬度0°~南纬16°范围内,同一纬度线上安置同一发光波长的激光二极管,同一经度线上从纬度0°~南纬16°安置有不同发光波长的激光二极管,其发光波长是递增或者是递减排列的。
本发明的技术构思为:目前已开发出并投放市场的半导体激光器的波段有370nm、390nm、405nm、430nm、473nm、532nm、593nm、635nm、650nm、670nm、780nm、808nm、850nm、980nm、1310nm、1550nm等,其中1310nm、1550nm主要用于光纤通讯领域。390nm-370nm为紫外光波段,405nm-670nm为可见光波段,780nm-1550nm为红外光波段。本发明中将采用可见光波段的半导体激光器,其中心波长在405nm、430nm、473nm、532nm、593nm、635nm、650nm、670nm,每个半导体激光器LD的光线发射方向与圆球面体的法线方向重合,这样产生的所有彩色光均是从圆球面体9-1的中心向外发射,所形成的彩色结构光与所述激光全景体结构光发生器上某个半导体激光器LD所处的纬度值αp之间具有一定的函数关系,因此只要得到某一个光的波长就可以估算出激光全景体结构光发生器的纬度值αp,即激光全景体结构光发生器中某一激光半导体发光体的俯角;
在交通事故现场图绘制过程中使用预制道路可以在很大程度上节省交通事故现场图绘制时间;目前需要交警在事故现场用手动方式从数据库中检索出这些预制道路数据,为了最大限度地提高现场图绘制速度,本发明中采用GPS传感器来定位基于主动立体全方位视觉的交通事故现场测绘仪的中心点位置,然后根据该中心点的位置信息自动检索GIS(地理信息系统)中的数字地图,自动生成一张事故地点的预制道路平面地图草图,为了使摄像测量数据与所生成的预制道路平面地图上的位置信息进行融合,本发明中数字地图采用正北方向为基准;
由于激光全景体结构光发生器的轴心和全方位视觉传感器的轴心相重叠,激光全景体结构光发生器的主动投影的经度必定是与全方位视觉传感器的方位角相一致的,从计算机视觉的角度来说,必定处在同一极平面上,如附图9所示;为了与数字地图相匹配,全方位视觉传感器的起始方位角采用正北方向,为了在全方位视觉传感器的成像平面上获得方位信息,由于在全方位视觉传感器的双曲面镜面中间配置了指南针,可以通过视频图像来确认成像平面上的正北方向;
根据上述的设计,当激光全景体结构光发生器处于供电状态时,激光全景体结构光发生器在纬度方向上形成了一圈圈的呈按照角度函数关系变化的峰值波长的圆环形投射光,投射光从激光全景体结构光发生器的中心发出并外球面法线方向照射;如附图6所示,当空间上的一个点A(X,Y,Z),比如出事车辆轮胎轴心的投影点接受到一定波长的光,按照附图6的配置方式,投射到出事车辆轮胎轴心的投影点A(X,Y,Z)的光是蓝色光,波长为473nm,该光点A(X,Y,Z)继续向全方位视觉传感器的双曲面镜2反射,光线朝向全方位视觉传感器的双曲面镜2的实焦点,根据双曲面的镜面特性向着全方位视觉传感器的虚焦点14折反射,图5所示;反映实物图像的各具有一定波长的光点经全方位视觉传感器的双曲面镜2反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z),成像光路图如图6中的粗实线所示;同样原理,通过上述摄像测量方法来获得事故现场环境、事故点、形态、有关车辆、人员、物体、痕迹的位置数据,然后将这些数据标注在所获得的预制道路平面地图上,这样这些信息的相互关系都能确定;其相对位置关系可以从每个点的坐标进行计算;
通过上述的设计,激光全景体结构光发生器和全方位视觉传感器分别具有一个固定的发射中心点和一个固定的视点,并且这两个点处在同一对称中心轴的这两个特点;所谓的发射中心点对于激光全景体结构光发生器来说是指激光全景体结构光发生器的发射中心点,即圆球面体的圆心,如附图6中的Op;对于全方位视觉传感器来讲是指全方位视觉传感器的折反射镜面的实焦点,如附图6中的Ov;通过激光全景体结构光发生器和全方位视觉传感器的共同作用确定了河道边缘点A(X,Y,Z)在成像平面上点P(x,y)的投射角αp和入射角αo,即在成像平面上点P(x,y)上可以确定点A(X,Y,Z)的距离信息,即可以估算出事故现场各种测量点到基于主动立体全方位视觉的交通事故现场测绘仪的距离,如附图6(a)所示;
关于方位角,即经度,由于激光全景体结构光发生器9的轴心和全方位视觉传感器的轴心相重叠,激光全景体结构光发生器9的主动投影的经度必定是与全方位视觉传感器的方位角相一致,因此将激光全景体结构光发生器9的主动投影的经度值作为全方位视觉传感器的方位角数据;通过全景视频图像中间部分显示的指南针指向来确认成像平面上的正北方向。
所述的现场事故图生成模块,用于将事故相关点的空间位置数据绘制在自动生成的道路平面地图上,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;现场记录图:勘查交通事故现场时,对现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系所作的图形记录。现场比例图:为了更形象、准确地表现事故形态和现场车辆、物体、痕迹,根据现场记录图和其他勘查记录材料,按规范图形符号和一定比例重新绘制的交通事故现场全部或局部的平面图形。现场断面图:表示交通事故现场某一横断面或纵断面某一位置上有关车辆、物体、痕迹相互关系的剖面视图。现场立面图:表示交通事故现场某一物体侧面有关痕迹、证据所在位置的局部视图。现场分析图:表示交通事故发生时,车辆、行人不同的运行轨迹和时序及冲突点位置的平面视图。现场记录图、现场比例图、现场分析以正投影俯视图形式表示;绘制交通事故现场图时,首先根据GIS所生成的道路平面地图草图(比例1∶200)上确定基准点,基准点就是现场测绘仪的几何坐标x,y,在图纸的中间,图纸的上方为正北方向,如附图16所示;
再进一步,我们可以设计一张投射角αp与颜色波长λ值的关系表,如表1所示,表1投射角αp与相应颜色波长λ值对应表;
投射角αp | 零纬0° | 南纬2° | 南纬4° | 南纬6° | 南纬8° | 南纬10° | 南纬12° | 南纬14° |
颜色 | 紫色 | 蓝紫色 | 蓝色 | 绿色 | 浅绿黄色 | 黄色 | 红色 | 橙色 |
中心波长λ(nm) | 405 | 430 | 473 | 532 | 593 | 635 | 650 | 670 |
表1
如果在成像平面的某个像素点上获得的色彩波长为540nm,根据查表,可以得到该颜色波长在绿色532nm和浅绿黄色593nm之间,可以通过插值计算得到在色彩波长为540nm时的投射角αp为南纬6.26°;插值计算如公式(10)所示,
式中,λn-1、λn分别为已知某颜色波长λp的相邻的颜色中心波长,αn-1、αn分别为已知某颜色波长λp的相邻的投射角。
所述的现场事故图生成模块,用于自动或者半自动地绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;现场记录图等各种图的绘制交由AutoCAD或者PhotoModeler等图像处理软件去完成,道路平面地图草图由GIS自动生成,根据国家公安部相关标准在现场记录图中必须标明各种对象的符号,这些符号包括各种类型的道路、汽车、自行车、行人等。
本发明的有益效果主要表现在:利用基于主动立体全方位视觉的交通事故现场测绘仪进行交通事故现场勘查可以快速疏通现场、便于事后保存和恢复现场资料,进行所需要的量测及绘制,进而为事故责任认定提供一种有效的途径。基于主动立体全方位视觉的交通事故现场测绘仪的量测精度能满足事故现场勘查任务的要求,具有自动化程度高、携带方便、不需任何标定、操作简单、处理速度快等优点。
附图说明
图1为全方位视觉传感器的结构图;
图2为激光全景体结构光发生器的结构图;
图3为基于主动立体全方位视觉的交通事故现场测绘仪的结构图;
图4为基于主动立体全方位视觉的交通事故现场测绘仪用于现场测绘的说明图;
图5为全方位视觉传感器的成像原理图;
图6为基于主动立体全方位视觉的交通事故现场测绘仪的交通事故点的测量原理图;
图7为基于主动立体全方位视觉的交通事故现场测绘仪所测量的交通事故点在同一极平面上的示意图;
图8为激光半导体控制电路图;
图9为宽动态范围场景成像原理图;
图10为基于主动立体全方位视觉的交通事故现场测绘仪的处理框图;
图11为双目视觉中的中央眼的概念图;
图12为基于主动立体全方位视觉的交通事故现场测绘仪中计算事故相关点的距离值R和纬度值Φ说明图;
图13为生成的交通事故现场一个例图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1-图13,本实施例基于主动立体全方位视觉的交通事故现场测绘仪包括一台具有固定视点的全方位视觉传感器、一台具有固定发光中心点的激光全景体结构光发生器、连接支架、一台用于定位交通事故现场以及为自动生成道路平面图GPS传感器和用于对全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,所述的全方位视觉传感器与所述的激光全景体结构光发生器之间通过所述的连接支架进行连接,所述的全方位视觉传感器的固定视点与所述的激光全景体结构光发生器的固定发光中心点在同一轴线上;
所述全方位视觉传感器包括双曲面镜面2、上盖1、透明半圆形外罩3、下固定座4、摄像单元固定座5、摄像单元6、连接单元7、上罩8,指南针2-1,如附图1所示;所述的双曲面镜面2固定在所述的上盖1上,所述的连接单元7将所述的下固定座4和透明半圆形外罩3连接成一体,所述的透明半圆形外罩3与所述的上盖1以及所述的上罩8通过螺钉固定在一起,所述的摄像单元6用螺钉固定在所述的摄像单元固定座5上,所述的摄像单元固定座5用螺钉固定在所述的下固定座4上,所述全方位视觉传感器中的所述的摄像单元6的输出与所述微处理器连接;所述的摄像单元6是宽动态CMOS成像器件;全方位视觉传感器的视点在所述的双曲面镜面2的实焦点上;所述指南针2-1固定在所述的双曲面镜面2的中间,指南针处在摄像单元6的视觉范围内;
宽动态CMOS成像器件与CCD成像器件不同,这主要是一个DPS平台,通过在一个优化系统内,将图像捕捉和处理结合起来,概括地说,DPS技术的核心发明是在每个像素点在捕捉图像时将光信号转换数字信号——由模拟到数字转换ADC(analog-to-digital converter),这样使信号衰减和色度亮度串扰降到最小,使传感器为每个像素提供最佳、独立的曝光次数,一旦数据以数字形式被捕获,多种多样的数字信号处理技术被用于再现最好的图像。即使在极端照明的条件下的高动态范围场景,都能拍出还原准确低噪波的图像;在一个单独的捕获视频图像内,宽动态CMOS成像器件中的每个像素独立地无破坏性地多次取样;成像系统决定最佳取样时间和存储像素信息在像素饱和前,并不再保留额外的电荷。宽动态CMOS成像器件是由数字成像传应器和数字图像处理器两个部分组成,数字成像传应器和数字图像处理器很像人的眼睛和大脑,双向实时交互捕获可能的最高质量的图像。就像人走进了黑暗的房子,大脑指挥人的眼睛瞳孔去寻找光亮,数字图像处理器载入新的编码进入传感器不仅改变曝光时间而且改变实际图像捕捉计算方法。结果是在特别的图像特性和光亮条件下,获得最佳图像;
在宽动态CMOS成像器件中每个像素和一个数模转换相配套,因此强光像素降低了曝光量,低光像素相反增加曝光量。这个特点对于要获取全景视频图像的全方位视觉传感器来说具有十分重要的意义;这是因为一个CCD传感器可以调节亮景和暗景,但是不能同时对两个亮度进行调节。在原先的全方位视觉传感器中由于采用的是CCD传感器,当我们将原先的全方位视觉传感器安装在室内时,得到的曝光效果是不错的,可以比较清晰地获得室内的全景视频图像;而当我们将全方位视觉传感器移动到室内外的交界区域,全方位视觉传感器就不能很好的工作,室外的场景出现了过度曝光,不能捕捉到室外面的任何东西。在道路上使用中也会出现类似的问题,比如太阳光的照射是在不断变化的,在阳光斜射到全方位视觉传感器上时全方位视觉传感器就不能很好的工作,被阳光照射的一侧出现了过度曝光,成像时表现为白茫茫的一片;
人类的眼睛在不同的光照条件下具有自动调节功能,适用连续变化的光线,能看到最理想图像。当眼睛看到一幅包含亮光和暗光的场景时,能够减少对强光区域的敏感度,增加对黑暗物体和阴影部分的细节的敏感度。宽动态全方位视觉传感器采用一种新的CMOS传感器技术,保证了尽管前景是强光的条件下,阴影部分物体仍然清晰可见;强光区域的物体也不会消失,同时也能很好的抽取出激光照射的色彩信息,其原理图如附图9所示;采用宽动态CMOS成像器件后能保证在暗光的场景时正常工作;
所述的激光全景体结构光发生器包括圆球面体基板9-1、72组具有不同发光中心波长的激光二极管LD9-2,如附图2所示;所述的激光二极管LD9-2固定在所述的圆球面体基板9-1上,所述的圆球面体基板为内部圆型中空、上下圆柱形中空的圆球面体,所述的圆球面体基板的外球面上从零纬度开始在经度线上以每隔2°角度、在纬度线上每隔5°角度均匀等分排列着与激光二极管LD9-2的外直径相等的小孔;为了能保证激光全景体结构光发生器所发出的激光基本上都在出事事故地面附近以提高投射角的分辨率,在设计中将所有激光二极管的投射角设计为0°~16°范围内,如果激光全景体结构光发生器的激光发射中心点与地面的高度为1米的话,那么在距离基于主动立体全方位视觉的交通事故现场测绘仪3.5米以外区域都是激光全景体结构光发生器的照射范围;在同一纬度线上同时配置了72颗具有相同发光中心波长的激光二极管;所述的72组具有不同发光中心波长的激光二极管LD9-2依次从在所述的圆形面体基板上的零纬度值(0°)到最大俯角(16°)按顺序插入到相应的小孔内,每个激光二极管的发射光方向与所插入相应小孔的法线方向重合;
所述的基于主动立体全方位视觉的交通事故现场测绘仪,通过连接杆10将所述的激光全景体结构光发生器和所述的全方位视觉传感器连接起来,GPS传感器固定在连接杆10的中部,如附图3所示,连接杆10的上部的法兰通过螺钉固定全方位视觉传感器,激光全景体结构光发生器套在连接杆10中并用螺钉进行固定,这种连接方式保证了所述的激光全景体结构光发生器的发射中心Op和所述的全方位视觉传感器的视点Ov在同一轴心线上,全方位视觉传感器的电源线、视频数据线、GPS传感器的数据线以及激光全景体结构光发生器的电源线均从连接杆10的中孔内穿出,连接到供电电源以及微处理器的相应接口上;当供电电源给激光全景体结构光发生器供电时,所述的激光全景体结构光发生器将发出一圈圈的全景彩色体结构光,所有光的发光中心点在激光全景体结构光发生器的圆球面体的中心点上;
本发明中将采用可见光波段的半导体激光器,其中心波长在405nm、430nm、473nm、532nm、593nm、635nm、650nm、670nm,每个半导体激光器LD9-2的光线发射方向与圆球面体9-1的法线方向重合,这样产生的所有彩色光均是从圆球面体9-1的中心向外发射,所形成的彩色结构光与所述激光全景体结构光发生器上某个半导体激光器LD所处的纬度值αp之间具有一定的函数关系,因此只要得到某一个光的波长就可以估算出激光全景体结构光发生器的纬度值αp,即激光全景体结构光发生器中某一激光半导体发光体的俯角;
本发明中采用GPS传感器来定位基于主动立体全方位视觉的交通事故现场测绘仪的中心点位置,然后根据该中心点的位置信息自动检索GIS(地理信息系统)中的数字地图,自动生成一张事故地点的预制道路平面地图,为了使摄像测量数据与所生成的预制道路平面地图上的位置信息进行融合,本发明中数字地图采用正北方向为基准;
由于激光全景体结构光发生器9的轴心和全方位视觉传感器的轴心相重叠,激光全景体结构光发生器9的主动投影的经度必定是与全方位视觉传感器的方位角相一致的,从计算机视觉的角度来说,必定处在同一极平面上,如附图9所示;为了与数字地图相匹配,全方位视觉传感器的起始方位角采用正北方向,为了在全方位视觉传感器的成像平面上获得方位信息,由于在全方位视觉传感器的双曲面镜面中间配置了指南针,可以通过视频图像来确认成像平面上的正北方向;
根据上述的设计,当激光全景体结构光发生器处于供电状态时,激光全景体结构光发生器在纬度方向上形成了一圈圈的呈按照角度函数关系变化的峰值波长的圆环形投射光,投射光从激光全景体结构光发生器的中心发出并外球面法线方向照射;如附图6所示,当空间上的一个点A(X,Y,Z),比如出事车辆轮胎轴心的投影点接受到一定波长的光,按照附图6的配置方式,投射到出事车辆轮胎轴心的投影点A(X,Y,Z)的光是蓝色光,波长为473nm,该光点A(X,Y,Z)继续向全方位视觉传感器的双曲面镜2反射,光线朝向全方位视觉传感器的双曲面镜2的实焦点,根据双曲面的镜面特性向着全方位视觉传感器的虚焦点14折反射,图5所示;反映实物图像的各具有一定波长的光点经全方位视觉传感器的双曲面镜2反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z),成像光路图如图6中的粗实线所示;同样原理,通过上述摄像测量方法来获得事故现场环境、事故点、形态、有关车辆、人员、物体、痕迹的位置数据,然后将这些数据标注在所获得的预制道路平面地图上,这样这些信息的相互关系都能确定;其相对位置关系可以从每个点的坐标进行计算;
通过上述的设计,激光全景体结构光发生器和全方位视觉传感器分别具有一个固定的发射中心点和一个固定的视点,并且这两个点处在同一对称中心轴的这两个特点;所谓的发射中心点对于激光全景体结构光发生器来说是指激光全景体结构光发生器的发射中心点,即圆球面体9-1的圆心,如附图6中的Op;对于全方位视觉传感器来讲是指全方位视觉传感器的折反射镜面的实焦点,如附图6中的Ov;通过激光全景体结构光发生器和全方位视觉传感器的共同作用确定了河道边缘点A(X,Y,Z)在成像平面上点P(x,y)的投射角αp和入射角αo,即在成像平面上点P(x,y)上可以确定点A(X,Y,Z)的距离信息,即可以估算出事故现场各种测量点到基于主动立体全方位视觉的交通事故现场测绘仪的距离,如附图6(a)所示;
关于方位角,即经度值,由于激光全景体结构光发生器9的轴心和全方位视觉传感器的轴心相重叠,激光全景体结构光发生器9的主动投影的经度值必定是与全方位视觉传感器的方位角相一致,因此将激光全景体结构光发生器9的主动投影的经度值作为全方位视觉传感器的方位角数据;通过全景视频图像中间部分显示的指南针指向来确认成像平面上的正北方向;
进一步,介绍全方位视觉传感器的工作原理:进入双曲面镜的中心的光,根据双曲面的镜面特性向着其虚焦点折射。实物图像经双曲面镜反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z);
图5中的2--双曲线面镜,12-入射光线,13-双曲面镜的实焦点Om(0,0,c),14-双曲面镜的虚焦点,即摄像单元6的中心Oc(0,0,-c),15-反射光线,16-成像平面,17-实物图像的空间坐标A(X,Y,Z),18-入射到双曲面镜面上的图像的空间坐标,19-反射在成像平面上的点P(x,y);
图5中所示的双曲面镜构成的光学系统可以由下面5个等式表示;
((X2+Y2)/a2)-((Z-c)2/b2)=-1当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ (4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY投影平面上与X轴的夹角,即方位角,α表示入射光线在XZ投影平面上与X轴的夹角,这里将α称为入射角,α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折反射光线与Z轴的夹角;x,y表示在成像平面上的一个点;
根据附图4所示交通事故现场的主动立体视觉测量方案中,关于交通事故场景的所有视频信息都处于全方位视觉传感器的实焦点Ov之下;实焦点Ov的为了使得全方位视觉传感器在关注的事故现场内具有较高的成像分辨率,在所述的双曲面镜面2设计时需要尽可能将垂直方向的可视范围限制在俯角100°到20°范围内,如附图5所示;本发明中通过加大双曲面镜的实轴a和虚轴b的比来提高河道场景内成像分辨率;
具有某一特定波长的点将在全方位视觉传感器的成像平面上有一个对应点,即P(x1,y1),根据双曲面镜的折反射成像原理可通过公式(6)计算出该点的折反射光线与Z轴的夹角γo;有了折反射角γo,就可以通过公式(7)计算得到具有某一特定波长的点的入射角αo,
αo=tan-1[(b2+c2)sinγo-2bc]/(b2+c2)cosγo(7)
由于某一波长光的波长的投射角αp与入射角αo均在同一极平面上,如附图7所示,有了这两个数据就能方便地得到相关事故测量点与观察点的位置深度和角度信息,即在全方位视觉传感器成像平面上的某一个像素点的位置代表入射角αo的信息,该像素点的色彩代表投射角αp的信息;
所述的微处理器中包括:LD光源控制单元、视频图像读取模块、摄像点位置信息获取模块、预置道路平面地图生成模块、方位信息解析模块、现场视频图像加工模块、各测量点空间位置信息计算模块、现场事故图自动生成模块和存储设备;如附图12所示;
所述的LD光源控制单元,用于控制激光全景体结构光发生器发出全彩色全景结构光,在LD光源控制单元使激光全景体结构光发生器的供电电源处于ON状态时,在全方位视觉传感器的成像单元中直接获得交通事故现场所有相关物点的距离值R、纬度值Φ和经度值β信息;实际LD光源的供电电源开关控制采用如附图8所示的激光二极管控制电子回路来实现,当用软件接通电子开关K1~K8中的任何一个开关,激光二极管就会发光;反之将电子开关断开,激光二极管就不发光;
图8中BA5104是发射器芯片,K1~K8是控制输入端,内接上拉电阻。当接通其中任一控制输入端时,OSC1和OSC2脚所内接的时钟电路及外接455kHz晶体、电容C1、C2组成的振荡电路起振,经内部电路分频产生38kHz载频,经达林顿管D1581放大后驱动半导体激光管LD送出调制载波脉冲激光信号。电位器W用以调节激光管的工作电流,以使其处于额定工作电流之内。LED端是发射状态显示输出端,有高电平输出时,LED发亮。图8中的LD半导体激光二极管,是光电开关发射器的关键元件。
激光二极管与普通LED的原理相同,但能产生几倍的光能,并能达到更远的检测距离,检测距离可长达数百米至数公里,半导体激光光源是一种相干性强的光源,因而方向性很强,用光学系统准直后,可很容易的把发散角限制在0.2mrad以内。激光照射的光斑大小可按下式近似计算:
d=L×θ (11)
式中,d为光斑直径(mm);L为检测距离(m);θ为发散角(mrad)。
若一束激光投射到500m远处,可近似得光斑直径为100mm,可见光斑并不大,在此范围内仍有较大的能量分布。因此,有时需要从检测距离来确定激光二极管的发散角,一般测量距离远需要采用小的发散角激光二极管,对于测量距离近则可以采用大的发散角激光二极管。
进一步,采用激光激光对人体,特别是人眼有严重伤害,使用时需特别小心。国际上对激光有统一的分类和统一的安全警示标志,根据激光对人体的危险度分类,在光树内观察对眼睛的MPE(maximal possible effect最大可能的影响)做基准,激光器分为四类(Class1~Class4),一类激光器对人是安全的,二类激光器对人有较轻的伤害,三类以上的激光器对人有严重伤害,使用时需特别注意,避免对人眼直射。本发明中为了测量较远的距离采用二类激光器,即Class II级:低输出的可视激光(功率0.4mW-1mW),人闭合眼睛的反应时间为0.25秒,用这段时间算出的曝光量不可以超过MPE值。通常1mW以下的激光,正常暴露在这种激光器的光束下不会对眼睛的视网膜造成永久性的伤害,但是会导致晕眩,本发明中采用仅仅在拍摄全景图像时的照射,每次照射时间都为一秒以下,因此该装置对人眼来说是安全的。
所述的视频图像读取模块,用于读取全方位视觉传感器的全景视频图像,其输出与所述的方位信息解析模块和现场视频图像加工模块连接;在所述的视频图像读取模块中有一个控制信号输出,用于控制附图8所示的K1~K8开关中的任何一个开关接通,一旦K1~K8中任何一个开关接通激光二极管就发光,由于激光二极管的响应速度快,接通开关后到发光的时间在ms级,所以在读取全景图像开始时先输出一个接通激光二极管的控制信息,然后再读取全景视频图像,当视频图像读入计算机后再发送一个关闭控制信号,使得激光二极管不发光;
所述的摄像点位置信息获取模块,用于获得基于主动立体全方位视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置;GPS传感器是用于接收全球定位系统(GPS)信号的传感器,GPS指利用在大约20183公里高度绕地球轨道运行的24颗人造卫星来跟踪全球位置的系统。即,GPS是一种卫星导航系统,其中安装在现场测绘仪上的GPS传感器接收从卫星发送的无线电波,由于已知卫星的精确位置,所以能够计算出接收无线电波所需的时间,从而获取现场测绘仪的位置;安置在现场测绘仪的GPS传感器接收GPS信号,并且使用现场测绘仪的几何坐标x,y,z和当前时间信息t向微处理器中的摄像点位置信息获取模块发送位置信息;所述的摄像点位置信息获取模块再将现场测绘仪的几何坐标x,y,z和当前时间信息t分别发送给预制道路平面地图生成模块和现场视频图像加工模块;
所述的预制道路平面地图生成模块,用于自动生成交通事故出事点周围的道路平面地图,根据现场测绘仪的几何坐标x,y,z检索GIS数字地图,并以1∶200比例自动生成以现场测绘仪为中心的道路平面地图,平面地图的上方为正北方向,其输出发送给现场事故图生成模块;
所述的现场视频图像加工模块,用于保存现场的原始数据,以便对事故现场信息进行二次提取,将从所述的摄像点位置信息获取模块所获取的几何坐标x,y,z和当前时间信息t写入在所述的视频图像读取模块中所获取的全景图像上,在该全景图上包含有交通事故测量点的几何坐标信息、测量时间信息以及现场全景图像,加工后的全景图像数据保存在存储单元内;
所述的方位信息解析模块,用于确定全景图像上的各事故相关点的方位,即确定观察点坐标系的方位角坐标;本发明中,首先从全景图像的中心圆上获取指南针的方向,然后以正北方向作为方位角的坐标并约定逆时针方向为正,接着在用户界面所提供的全景图像上确定各事故相关点;比如在一张现场事故图确定和标注了10个事故相关点(A1、A2、A3、A4、A5、A6、A7、A8、A9、A10),这里首先生成10组3维数据,这3维数据包含每个事故相关点的距离值R、纬度值Φ和经度值β信息,由于在全景图像上确定好正北方向后就能方便地获得各事故相关点的方位角β,这时将相关方位角置入10组3维数据内,得到包含有方位角信息的10个事故相关点数据(A1[0,0,β1]、A2[0,0,β2]、A3[0,0,β3]、A4[0,0,β4]、A5[0,0,β5]、A6[0,0,β6]、A7[0,0,β7]、A8[0,0,β8]、A9[0,0,β9]、A10[0,0,β10]),最后将包含有方位角信息的10个事故相关点数据发送给所述的各测量点空间信息计算模块;
所述的各测量点空间信息计算模块;用于计算每个事故相关点的距离值R、入射角Φ信息;首先根据所述的方位信息解析模块所提供的事故相关点数据,如(A1[0,0,β1]、A2[0,0,β2]、A3[0,0,β3]、A4[0,0,β4]、A5[0,0,β5]、A6[0,0,β6]、A7[0,0,β7]、A8[0,0,β8]、A9[0,0,β9]、A10[0,0,β10]),然后依次根据方位角β所确定的极平面,根据双曲面镜的成像原理通过公式(6)、(7)计算成像平面上的P(i,j)的入射角αo,通过投射角αp、入射角αo以及激光全景体结构光发生器的中心点和全方位视觉传感器的实焦点Om之间的距离得到空间物点的距离值R、纬度值Φ信息;比如事故相关点A1[0,0,β1],我们首先找到β1所处的极平面,在激光全景体结构光发生器的供电电源处于ON状态时所读取的全景视频图像中的各像素色彩带有事故相关点的如附图6所示;比如在附图6(a)中某物点的像素P(i,j)中读取的颜色为蓝色,该颜色表示激光全景体结构光发生器的投射角αp为南纬6°,本发明中将激光全景体结构光发生器的中心点作为坐标的原点,那么如附图15所示的事故相关点A1到激光全景体结构光发生器的中心点的距离R就可以通过公式(8)来求得,
式中,B为全方位视觉传感器的实焦点Ov到激光全景体结构光发生器的发光中心点Op之间的距离,αo为空间物点的入射角,αp为空间物点的投射角;
由于本发明中将激光全景体结构光发生器的中心点作为坐标的原点,那么投射角αp就是纬度值Φ;
进一步,根据事故相关点的个数,分别计算得到各事故相关点的距离值R和纬度值Φ,然后将各计算值分别设置在事故相关点数组内;如上面所述的10组例子,得到事故相关点数组(A1[R1,Φ1,β1]、A2[R2,Φ2,β2]、A3[R3,Φ3,β3]、A4[R4,Φ4,β4]、A5[R5,Φ5,β5]、A6[R6,Φ6,β6]、A7[R7,Φ7,β7]、A8[R8,Φ8,β8]、A9[R9,Φ9,β9]、A10[R10,Φ10,β10]);
所述的现场事故图生成模块,用于将事故相关点的空间位置数据绘制在自动生成的道路平面地图上,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;现场记录图:勘查交通事故现场时,对现场环境、事故、形态、有关车辆、人员、物体、痕迹的位置及其相互关系所作的图形记录。现场比例图:为了更形象、准确地表现事故形态和现场车辆、物体、痕迹,根据现场记录图和其他勘查记录材料,按规范图形符号和一定比例重新绘制的交通事故现场全部或局部的平面图形。现场断面图:表示交通事故现场某一横断面或纵断面某一位置上有关车辆、物体、痕迹相互关系的剖面视图。现场立面图:表示交通事故现场某一物体侧面有关痕迹、证据所在位置的局部视图。现场分析图:表示交通事故发生时,车辆、行人不同的运行轨迹和时序及冲突点位置的平面视图。现场记录图、现场比例图、现场分析以正投影俯视图形式表示;绘制交通事故现场图时,首先根据GIS所生成的道路平面地图草图(比例1∶200)上确定基准点,基准点就是现场测绘仪的几何坐标x,y,在图纸的中间,图纸的上方为正北方向,如附图16所示;然后将事故相关点绘制在交通事故现场图上,由于在所述的各测量点空间信息计算模块中所得到的事故相关点坐标为高斯坐标,需要进行坐标系的转换,转换公式如式(9)所示,
x=R×cos(φ)×sin(β) (9)
y=R×cos(φ)×cos(β)
式中:R为事故相关点与基准点之间的距离值,Φ为事故相关点的纬度值,β为事故相关点的经度值,x为事故相关点的X坐标值,y为事故相关点的Y坐标值;在绘制过程中需要将计算所获得的x,y值按比例1∶200进行缩小。
再进一步,我们可以设计一张投射角αp与颜色波长λ值的关系表,如表1所示;
表1投射角αp与相应颜色波长λ值对应表
投射角αp | 零纬0° | 南纬2° | 南纬4° | 南纬6° | 南纬8° | 南纬10° | 南纬12° | 南纬14° |
颜色 | 紫色 | 蓝紫色 | 蓝色 | 绿色 | 浅绿黄色 | 黄色 | 红色 | 橙色 |
中心波长λ(nm) | 405 | 430 | 473 | 532 | 593 | 635 | 650 | 670 |
如果在成像平面的某个像素点上获得的色彩波长为540nm,根据查表,可以得到该颜色波长在绿色532nm和浅绿黄色593nm之间,可以通过插值计算得到在色彩波长为540nm时的投射角αp为南纬6.26°;插值计算如公式(10)所示,
式中,λn-1、λn分别为已知某颜色波长λp的相邻的颜色中心波长,αn-1、αn分别为已知某颜色波长λp的相邻的投射角。
所述的现场事故图生成模块,用于自动或者半自动地绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;现场记录图等各种图的绘制交由AutoCAD或者PhotoModeler等图像处理软件去完成,道路平面地图草图由GIS自动生成,根据国家公安部相关标准在现场记录图中必须标明各种对象的符号,这些符号包括各种类型的道路、汽车、自行车、行人等。
利用基于主动立体全方位视觉的交通事故现场测绘仪进行交通事故现场勘查可以快速疏通现场、便于事后保存和恢复现场资料,进行所需要的量测及绘制,进而为事故责任认定提供一种有效的途径。基于主动立体全方位视觉的交通事故现场测绘仪的量测精度能满足事故现场勘查任务的要求,具有自动化程度高、携带方便、不需任何标定、操作简单、处理速度快等优点。通过该技术的使用能实现交通事故快速紧急救援、能缓解道路交通堵塞、能确保道路交通安全、能改善交通警察的形象和与人民群众的关系。
Claims (6)
1.一种基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:所述交通事故现场测绘仪包括一台具有固定视点的全方位视觉传感器、一台具有固定发光中心点的激光全景体结构光发生器、连接支架、一台用于定位交通事故现场以及为自动生成道路平面图的GPS传感器和用于对全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,所述的全方位视觉传感器与所述的激光全景体结构光发生器之间通过所述的连接支架进行连接,所述的全方位视觉传感器的视点与所述的激光全景体结构光发生器的固定发光中心点在同一轴线上;
所述全方位视觉传感器包括双曲面镜面、上盖、透明半圆形外罩、下固定座、摄像单元固定座、摄像单元、连接单元、上罩和指南针;所述的双曲面镜面固定在所述的上盖上,所述的下固定座和透明半圆形外罩通过连接单元连接成一体,所述的透明半圆形外罩与所述的上盖以及所述的上罩固定在一起,所述的摄像单元固定在所述的摄像单元固定座上,所述的摄像单元固定座固定在所述的下固定座上,所述的摄像单元的输出与所述微处理器连接;所述的摄像单元是宽动态CMOS成像器件;全方位视觉传感器的视点在所述的双曲面镜面的实焦点上;所述指南针固定在所述的双曲面镜面的中间,指南针处在摄像单元的视觉范围内;
所述的激光全景体结构光发生器包括圆球面体基板、72组具有不同发光中心波长的激光二极管;所述的激光二极管固定在所述的圆球面体基板上,所述的圆球面体基板为内部圆型中空、上下圆柱形中空的圆球面体,所述的圆球面体基板的外球面上从零纬度开始在经度上以每隔2°角度、在纬度线上每隔5°角度均匀等分排列着与激光二极管LD的外直径相等的小孔;所述的72组具有不同发光中心波长的激光二极管依次从在所述的圆形面体基板上的零纬度值到最大俯角按顺序插入到相应的小孔内,每个激光二极管的发射光方向与所插入相应小孔的法线方向重合;
所述的微处理器包括:
LD光源控制单元,用于控制激光全景体结构光发生器发出全彩色全景结构光,在LD光源控制单元使激光全景体结构光发生器的供电电源处于ON状态时,在全方位视觉传感器的成像单元中直接获得包含有交通事故现场所有相关物点与激光全景体结构光发生器的中心点间的距离值R、纬度值φ和经度值β信息的全景视频图像;
视频图像读取模块,用于读取全方位视觉传感器的全景视频图像,其输出与所述 的方位信息解析模块和现场视频图像加工模块连接;
摄像点位置信息获取模块,用于获得基于主动立体全方位视觉的交通事故现场测绘仪所处的位置信息,通过GPS传感器获取现场测绘仪的位置;
预制道路平面地图生成模块,用于自动生成交通事故出事点周围的道路平面地图,根据现场测绘仪的几何坐标x,y,z检索GIS数字地图,并以1∶200比例自动生成以现场测绘仪为中心的道路平面地图草图,平面地图的上方为正北方向,其输出发送给现场事故图生成模块;
现场视频图像加工模块,用于保存现场的原始数据,以便对事故现场信息进行二次提取,将从所述的摄像点位置信息获取模块所获取的几何坐标x,y,z和当前时间信息t写入在所述的视频图像读取模块中所获取的全景图像上,在该全景图上包含有交通事故测量点的几何坐标信息、测量时间信息以及现场全景图像,加工后的全景图像数据保存在存储单元内;
方位信息解析模块,用于确定全景图像上的各事故相关点的方位,即确定观察点坐标系的方位角坐标;
各测量点空间信息计算模块,用于计算每个事故相关点与激光全景体结构光发生器的中心点之间的距离值R、纬度值φ和经度值β信息;
现场事故图生成模块,用于将事故相关点的空间位置数据绘制在自动生成的道路平面地图上,根据公安部绘制现场事故图的标准,需要绘制现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
2.如权利要求1所述的基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:GPS传感器固定在连接支架的中部,连接支架的上部的法兰通过螺钉固定全方位视觉传感器,激光全景体结构光发生器套在连接支架中并用螺钉进行固定,这种连接方式保证了所述的激光全景体结构光发生器的固定发光中心点Op和所述的全方位视觉传感器的固定视点Ov在同一轴心线上,全方位视觉传感器的电源线、视频数据线、GPS传感器的数据线以及激光全景体结构光发生器的电源线均从连接杆的中孔内穿出,连接到供电电源以及微处理器的相应接口上;当供电电源给激光全景体结构光发生器供电时,所述的激光全景体结构光发生器将发出一圈圈的全景彩色体结构光,所有光的发光中心点在激光全景体结构光发生器的圆球面体的中心点上。
3.如权利要求1或2所述的基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:所述的全方位视觉传感器具有单一视点,单一视点是双曲面镜面的实 焦点;进入双曲面镜的中心的光,根据双曲面的镜面特性向着其虚焦点折射,实物图像经双曲面镜反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z);
双曲面镜构成的光学系统可以由下面5个等式表示;
((X2+Y2)/a2)-((Z-c)2/b2)=-1 当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ (4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β为经度值,即表示入射光线在XY投影平面上与X轴的夹角,即方位角,α表示入射光线在XZ投影平面上与X轴的夹角,这里将α称为入射角,α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折反射光线与Z轴的夹角;x,y表示在成像平面上的一个点。
4.如权利要求1或2所述的基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的方位信息解析模块中,首先从全景图像的中心圆上获取指南针的方向,然后以正北方向作为方位角的坐标并约定逆时针方向为正,接着在用户界面所提供的全景图像上确定各事故相关点;接着根据事故相关点的个数N,生成N个事故相关点的三维数组,并将各事故相关点的经度值β设置在N个事故相关点的三维数组内的方位角数据维度上。
5.如权利要求1或2所述的基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的各测量点空间信息计算模块中,首先根据所述的方位信息解析模块所提供的事故相关点带有经度值β的数据,然后依次根据经度值β所确定的极平面,根据双曲面镜的成像原理通过公式(6)、(7)计算成像平面上的P(i,j)的入射角αo,通过投射角αp、入射角αo以及激光全景体结构光发生器的中心点和全方位视觉传感器的实焦点Om之间的距离得到空间物点的距离值R、纬度值φ信息;
αo=tan-1[(b2+c2)sinγo-2bc]/(b2+c2)cosγo (7)
式中:f是摄像装置的焦距,x1、y1是物点在成像平面上的坐标,γ0是折反射角,b表示双曲面镜的虚轴的长度,2c表示双曲面镜的两个焦点之间的距离,αo是入射角;
投射角αP是根据物点的像素P(i,j)中读取的颜色来确定的,事故相关点到激光全景体结构光发生器的固定发光中心点的距离R就可以通过公式(8)来求得,
式中,B为全方位视觉传感器的实焦点Ov到激光全景体结构光发生器的固定发光中心点Op之间的距离,αo为空间物点的入射角,αP为空间物点的投射角;在带有经度值β的数据中设置所对应事故相关点的距离值R和纬度值φ。
6.如权利要求1或2所述的基于主动立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述现场事故图生成模块中,根据GIS所生成的道路平面地图草图上确定基准点,基准点就是现场测绘仪的几何坐标x,y,在GIS所生成的道路平面地图草图的中间,GIS所生成的道路平面地图草图的上方为正北方向,然后将事故相关点绘制在交通事故现场图上,由于在所述的各测量点空间信息计算模块中所得到的事故相关点坐标为高斯坐标,需要进行坐标系的转换,转换公式如式(9)所示,
x=R×cos(φ)×sin(β) (9)
y=R×cos(φ)×cos(β)
式中:R为事故相关点与基准点之间的距离值,φ为事故相关点的纬度值,β为事故相关点的经度值,x为事故相关点的X坐标值,y为事故相关点的Y坐标值;在绘制过程中需要将计算所获得的x,y值按比例进行缩小。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910102318XA CN101650176B (zh) | 2009-08-28 | 2009-08-28 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200910102318XA CN101650176B (zh) | 2009-08-28 | 2009-08-28 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101650176A CN101650176A (zh) | 2010-02-17 |
CN101650176B true CN101650176B (zh) | 2011-12-21 |
Family
ID=41672463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200910102318XA Expired - Fee Related CN101650176B (zh) | 2009-08-28 | 2009-08-28 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101650176B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102316251A (zh) * | 2010-06-29 | 2012-01-11 | 甘肃省治沙研究所 | 植物物候器官自动拍摄记录仪 |
US9749594B2 (en) | 2011-12-22 | 2017-08-29 | Pelco, Inc. | Transformation between image and map coordinates |
CN102692213B (zh) * | 2012-05-11 | 2014-12-03 | 浙江工业大学 | 基于主动式全景视觉传感器的交通事故现场测绘仪 |
US9019415B2 (en) * | 2012-07-26 | 2015-04-28 | Qualcomm Incorporated | Method and apparatus for dual camera shutter |
CN103400498B (zh) * | 2013-08-14 | 2015-12-09 | 中国人民解放军第三军医大学第三附属医院 | 基于电子地图及数据采集系统的事故现场图生成方法和生成系统 |
CN104567818B (zh) * | 2014-12-31 | 2016-09-28 | 浙江工业大学 | 一种便携式全天候主动全景视觉传感器 |
DE102015216908A1 (de) * | 2015-09-03 | 2017-03-09 | Robert Bosch Gmbh | Verfahren zum Erkennen von Objekten auf einer Abstellfläche |
CN105933655A (zh) * | 2016-05-13 | 2016-09-07 | 深圳先进技术研究院 | 一种视频与wifi混合定位方法及系统 |
CN106027959A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 基于位置线状拟合的视频识别追踪定位系统 |
CN106027957A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 一种视频定位发布系统 |
CN113124821B (zh) * | 2021-06-17 | 2021-09-10 | 中国空气动力研究与发展中心低速空气动力研究所 | 一种基于曲面镜和平面镜的结构测量方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1910626A (zh) * | 2003-11-11 | 2007-02-07 | 特希尼库斯股份公司 | 用于记录车辆行驶和/或交通状况的装置以及用于评估这些记录的方法 |
CN101319895A (zh) * | 2008-07-17 | 2008-12-10 | 上海交通大学 | 手持式交通事故现场快速测绘仪 |
CN101408422A (zh) * | 2008-10-16 | 2009-04-15 | 浙江工业大学 | 基于双目立体全方位视觉的交通事故现场测绘仪 |
-
2009
- 2009-08-28 CN CN200910102318XA patent/CN101650176B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1910626A (zh) * | 2003-11-11 | 2007-02-07 | 特希尼库斯股份公司 | 用于记录车辆行驶和/或交通状况的装置以及用于评估这些记录的方法 |
CN101319895A (zh) * | 2008-07-17 | 2008-12-10 | 上海交通大学 | 手持式交通事故现场快速测绘仪 |
CN101408422A (zh) * | 2008-10-16 | 2009-04-15 | 浙江工业大学 | 基于双目立体全方位视觉的交通事故现场测绘仪 |
Also Published As
Publication number | Publication date |
---|---|
CN101650176A (zh) | 2010-02-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101650176B (zh) | 基于主动立体全方位视觉的交通事故现场测绘仪 | |
CN101655347B (zh) | 基于激光二极管光源的主动三维立体全方位视觉传感器 | |
CN109375237B (zh) | 一种全固态面阵三维成像激光雷达系统 | |
CN102692213B (zh) | 基于主动式全景视觉传感器的交通事故现场测绘仪 | |
Mikhail et al. | Introduction to modern photogrammetry | |
Konecny | Geoinformation: remote sensing, photogrammetry and geographic information systems | |
CN103471715B (zh) | 一种共光路组合式光场光谱成像方法及装置 | |
US9109947B2 (en) | Apparatus and method for navigation | |
CN102175221B (zh) | 基于鱼眼镜头的车载移动摄影测量系统 | |
KR101800905B1 (ko) | 복수의 검출기 어레이를 구비한 다해상도 디지털 대형 카메라 | |
CN101201403A (zh) | 三维偏振成像激光雷达遥感器 | |
CN101776452A (zh) | 基于主动立体全景视觉的河道宽度测量装置 | |
CN102927982A (zh) | 双光谱的自主导航敏感器及其设计方法 | |
CN105869340A (zh) | 一种基于无人机的异常火点监测系统及监测方法 | |
CN105371827A (zh) | Gnss立体摄像全功能测绘仪 | |
CN108051088A (zh) | 用于水下探测的高光谱高空间分辨积分视场光谱成像系统 | |
RU2571300C2 (ru) | Способ дистанционного определения абсолютного азимута целевой точки | |
CN103148839B (zh) | 一种镜间分光焦平面拼接超大面阵航测相机 | |
CN107607905B (zh) | 一种传感器的机械结构及该传感器 | |
CN103206963A (zh) | 大口径消杂光星模拟器系统 | |
CN207636184U (zh) | 一种用于海洋水下探测的快照型高空间分辨光谱成像系统 | |
CN110018493A (zh) | 双波段交会式主动距离选通成像系统的激光功率选择方法 | |
CN117751306A (zh) | 一种激光雷达及终端设备 | |
CN101221089A (zh) | 一种空间反射型光学遥感器主镜面形畸变探测方法及系统 | |
CN208833911U (zh) | 一种快速测量架空线路垂直高度的手持激光测距仪 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20111221 Termination date: 20210828 |
|
CF01 | Termination of patent right due to non-payment of annual fee |