CN101408422A - 基于双目立体全方位视觉的交通事故现场测绘仪 - Google Patents
基于双目立体全方位视觉的交通事故现场测绘仪 Download PDFInfo
- Publication number
- CN101408422A CN101408422A CNA2008101216718A CN200810121671A CN101408422A CN 101408422 A CN101408422 A CN 101408422A CN A2008101216718 A CNA2008101216718 A CN A2008101216718A CN 200810121671 A CN200810121671 A CN 200810121671A CN 101408422 A CN101408422 A CN 101408422A
- Authority
- CN
- China
- Prior art keywords
- point
- vision
- phi
- odvs
- angle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004438 eyesight Effects 0.000 title claims abstract description 168
- 206010039203 Road traffic accident Diseases 0.000 title claims abstract description 57
- 238000003384 imaging method Methods 0.000 claims abstract description 63
- 239000011521 glass Substances 0.000 claims abstract description 20
- 238000004458 analytical method Methods 0.000 claims abstract description 6
- 238000005259 measurement Methods 0.000 claims description 29
- 238000000034 method Methods 0.000 claims description 23
- 230000000007 visual effect Effects 0.000 claims description 22
- 238000010586 diagram Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000035807 sensation Effects 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000004040 coloring Methods 0.000 claims description 3
- 230000000295 complement effect Effects 0.000 claims description 3
- 230000003993 interaction Effects 0.000 claims description 3
- 230000000149 penetrating effect Effects 0.000 claims description 3
- 230000014759 maintenance of location Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 11
- 239000007787 solid Substances 0.000 abstract description 7
- 230000008878 coupling Effects 0.000 description 10
- 238000010168 coupling process Methods 0.000 description 10
- 238000005859 coupling reaction Methods 0.000 description 10
- 238000013461 design Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 210000001525 retina Anatomy 0.000 description 8
- 239000004744 fabric Substances 0.000 description 7
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 6
- 230000008447 perception Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000011065 in-situ storage Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000000691 measurement method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000033001 locomotion Effects 0.000 description 1
- 238000004451 qualitative analysis Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
一种基于双目立体全方位视觉的交通事故现场测绘仪,包括两台具有相同成像参数的全方位视觉传感器、连接单元和于对两台全方位视觉传感器所获取的全景图像进行数据处理及道路交通事故现场图绘制的微处理器,全方位视觉传感器包括双曲面镜面、支撑杆、透明玻璃面和摄像单元,支撑杆呈上粗下细的圆台,支撑杆上端通过螺帽固定在双曲面镜面底部中央的小孔内,支撑杆下端通过螺钉固定在透明玻璃面中央的安装孔内的透明玻璃面嵌入在的附加镜头框上,支撑杆与透明玻璃面垂直,摄像单元位于附加镜头框内;仪器自动测量相关特征点的坐标数据,最后根据这些特征数据自动绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
Description
技术领域
本发明属于光学技术、摄影测量技术、计算机视觉技术在交通事故处理现场测绘上的应用。
背景技术
当今,国内外大部分交通警察在交通事故现场勘测中仍大量使用手工作业方式,手工作业方式对交通事故现场测量主要是靠人眼判断、手摸、皮尺量、手工绘图等传统方法,该方法主要存在以下几个方面的缺陷:1)测量数据方面,漏测、错测、漏画、错画等现象时有发生;2)测量过程中的各种限制,交通事故发生在雨雪、浓雾天气以及夜晚等都将给现场勘察带来很大的困难,在高速公路、高架公路及桥梁上处理交通事故有更高的要求,要求在最短的时间内采集最多的事故现场信息,同时必须以最快的速度恢复交通畅通;3)测量数据的加工以及现场重构方面,无法对事故现场信息进行二次提取,测量结束后,现场即被撤除,如果收集证据不全,或数据间发生矛盾时,则无法进行二次取证,使事故处理陷入困境;4)在绘制交通事故现场图方面,仍然需要手工的方式进行,自动化程度不高,给现场执法警员带来了很大的精神和体力负担;5)事故现场资料存储、建档和检索方面,该方法极不方便,对于重大、疑难交通事故的处理缺乏系统、完整、形象化的依据,事故现场形象化恢复和数字立体再现等新概念就更难以实现。随着科技的进步,目前交警在处理交通事故现场也采用了数码相机的设备进行事故现场的拍摄,但仍然局限于对事故现场照片进行简单的定性分析。
中国发明专利公开号为CN101033966中提出了一种交通事故现场的摄影测量方法,摄影测量步骤如下:①采用标定物进行摄影测量的标定,组装拆散了的标定物;②将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统,实现对交通事故现场进行摄影测量的标定。③采用相机按照顺时针移动方向和拍摄角度对安置了标定系统的交通事故现场拍摄一组二维照片。④将拍摄到的像片导入计算机,选取需要测量的点,得到其像空间坐标值,求得待测量点的物方空间坐标,将得到的实际空间坐标值,通过几何计算得到绘制交通事故现场图所需的信息。
上述的通过拍摄一组二维照片中选取需要测量的点,得到其像空间坐标值的测量方法属于一种双目立体视觉测量方法,立体视觉是模仿人类利用双目线索感知距离的方法,实现对三维空间位置信息的感知,在实现上采用三角测量的方法,运用两个摄像机对同一物点从不同位置成像,并进而从视差中计算出距离。但是目前立体视觉的技术运用在交通事故现场测量上还存在着一些缺陷:1)无法达到全方位的实时、高精度地测量感知,特别是交通事故现场的范围比较大,摄像装置的焦距固定,由于一个固定的焦距只能在一定景深范围内清晰拍摄图像,因而限制了测试区域;2)存在着比较繁琐的标定工作,所谓的摄像机标定是为了确定摄像机的位置、属性参数和建立成像模型,以便确定空间坐标系中物体点同它在图像平面上像点之间的对应关系。摄像机标定需要确定摄像机内部几何和光学特性和相对一个世界坐标系的摄像机坐标系的三维位置和方向。在目前的立体视觉技术中摄像机标定必须解决两个问题,一个是单个摄像机参数的标定,另一个是双目摄像机参数的标定;3)三维空间位置信息的检测依赖于图像的立体匹配,立体匹配是指根据对所选特征的计算,建立特征之间的对应关系,将同一个空间物理点在不同图像中的映像点对应起来,要准确地对包含了光照条件、景物几何形状和物理特性、噪声干扰和畸变以及摄像机特性等不利因素的图像进行无歧义的匹配,显然是十分困难的,至今这个问题还没有得到很好的解决。
综上所述,目前双目立体视觉测量方法的一个局限性是焦距固定,由于一个固定的焦距只能在一定景深范围内清晰拍摄图像,因而限制了测试区域;标定技术还没有很好解决,立体视觉测量系统在各种运动中变化参数是不可避免的,比如警员赴交通事故现场过程中的对双目立体测量装置的震动、工作冲击等的影响,即使如发明专利公开号为CN101033966提出了一种交通事故现场的摄影测量方法中采用将四个同样的标定物的坐标原点作为顶点组成矩形,形成一个标定系统来进行标定成功的话,对快速恢复交通畅通也是一个极大的限制;双目立体视觉测量系统还没有实现小型化、微型化,使得在交通事故处理现场的应用受到限制;此外在复杂环境下双目视觉的对应点匹配歧异性大,造成了匹配的误差,影响了匹配精度,最终产生了测量误差。
近年发展起来的全方位视觉传感器ODVS(OmniDirectionalVisionSensors)为实时获取场景的全景图像提供了一种新的解决方案。ODVS的特点是视野广(360度),能把一个半球视野中的信息压缩成一幅图像,一幅图像的信息量更大;获取一个场景图像时,ODVS在场景中的安放位置更加自由;监视环境时ODVS不用瞄准目标;检测和跟踪监视范围内的运动物体时算法更加简单;可以获得场景的实时图像。同时也为构建双目全方位视觉传感器的立体视觉测量系统提供了良好的基础。
发明内容
为了克服现有的交通事故现场测绘仪的计算复杂、适用性差、测量误差大的不足,本发明提供一种简化计算的复杂性、省略摄像机标定工作、适用性强、测量准确的基于双目立体全方位视觉的交通事故现场测绘仪。
本发明解决其技术问题所采用的技术方案是:
一种基于双目立体全方位视觉的交通事故现场测绘仪,包括两台具有相同成像参数的全方位视觉传感器、连接单元和于对两台全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,两台全方位视觉传感器之间通过连接单元连接,所述全方位视觉传感器包括双曲面镜面、上盖、支撑杆、透明玻璃面和摄像单元,所述双曲面镜的上部安装上盖,所述支撑杆呈上粗下细的圆台,所述支撑杆上端通过螺帽固定在所述双曲面镜面底部中央的小孔内,所述支撑杆下端通过螺钉固定在所述透明玻璃面中央的安装孔内,所述的透明玻璃面嵌入所述的附加镜头框内,所述支撑杆与所述透明玻璃面垂直,所述摄像单元位于所述附加镜头框内;
所述的微处理器包括:
视频图像读取单元,用于读取两个具有相同成像参数的全方位视觉传感器的视频图像,并保存视频图像数据;
视频图像展开单元,用于对具有相同成像参数的全方位视觉传感器的原始视频图像进行图像预处理,首先将组合摄像单元所拍摄的图像单独分离出来,然后对全方位图像进行展开,展开后的结果保存在指定的存储单元中;
物点匹配单元,用于找出同一时刻两个不同视点的图像中同一物点对应的两个像点;
方位角对齐子单元,用于对齐上下两个全方位视觉传感器的球面展开图中的方位角
空间信息计算单元,用于计算空间上的物点到立体视觉测量装置中心点的距离、方位角以及入射角;
色感信息计算单元,用于计算空间上物点的色感信息,采用在两个全方位视觉传感器上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码;
交通事故处理图生成单元,用于依照三维图像绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
进一步,所述双支撑杆上端为外螺纹,支撑杆下端为内螺纹,所述的双曲面镜面底部中央开有一个小孔,孔的直径与支撑杆的外螺纹直径相同,所述的透明玻璃面中间开有安装孔,所述安装孔的直径与支撑杆的内螺纹孔径相同。
再进一步,所述附加镜头框的下面设有与摄像单元镜头前口径相同的外螺纹,所述摄像单元的镜头前口径设有内螺纹。
作为优选的一种方案:在所述色感信息计算单元中,三维球面坐标系的原点为立体视觉测量装置的中心点,采用“中央眼”视觉方式来描述空间上物点的信息(r,Ф,β,R,G,B),r为球面坐标原点O与物点之间的距离,Ф为球面坐标原点O与物点之间的连线与Z轴正向所夹的角,β为从正Z轴来看自x轴按逆时针方向转到有向线段OP的角,即方位角;P为点C在xoy平面上的投影,R为“中央眼”的红色分量的平均值,G为“中央眼”的绿色分量的平均值,B为“中央眼”的蓝色分量的平均值。
作为优选的另一种方案:在所述的方位角对齐子单元中,对齐上下两个全方位视觉传感器的球面展开图中的方位角的过程为:对于同一个空间上的物点C在双目视觉范围内在两个全方位视觉传感器的全景原图中存在着两个成像点Cdown(Ф1,β1)和Cup(Ф2,β2),且这两个成像点的方位角相同的,即β1=β2;则对应在球面展开图中这两个点的X坐标也必须相同,即x1=x2;根据上述X坐标相同来对齐上下两个全方位视觉传感器的球面展开图中的方位角。
作为优选的再一种方案:在所述的空间信息计算单元中,设定在方位角对齐单元中确定了物点的方位角β,任何一个空间物点在两个ODVS上的两个成像点的所表示纬度值满足以下关系式;
180°≤φ1+φ2≤2φmax (6)
式中,Ф1为下ODVS上的成像物点的入射角,Ф2为上ODVS上的成像物点的入射角,φmax为ODVS的成像物点的最大入射角,即仰角;
根据公式(6)所确定的范围,在同一方位角内,即在附图7所示的Y方向上寻找匹配点,得到物点C在双目视觉范围内在两个ODVS上的两个成像点Cdown(Ф1,β)和Cup(Ф2,β),接着利用三角关系式求O点与C点的距离r,
其中,∠A=180-Ф2,∠B=180-Ф1,dc为上下两个ODVS视点之间的距离;通过物点到立体视觉测量装置中心点的距离、方位角信息来求物点到立体视觉测量装置中心点的入射角Ф,计算公式由公式(8)给出,
式中,Ф为“中央眼”观察物点的入射角,dc为双目系统的A点和B点之间的距离,r为特征点到“中央眼”的距离,Ф2为上ODVS的入射角。
进一步,在所述的色感信息计算单元中,采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码,首先读取两个ODVS上成像的目标匹配点的各颜色分量RODVS1、RODVS2、GODVS1、GODVS2、BODVS1和BODVS2的数据,然后采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值作为“中央眼”视觉的颜色编码;计算公式由公式(9)表示;
式中,R为“中央眼”的红色分量的平均值,RODVS1为全方位视觉传感器1的红色分量,RODVS2为全方位视觉传感器2的红色分量,G为“中央眼”的绿色分量的平均值,GODVS1为全方位视觉传感器1的绿色分量,GODVS2为全方位视觉传感器2的绿色分量,B为“中央眼”的蓝色分量的平均值,BODVS1为全方位视觉传感器1的蓝色分量,BODVS2为全方位视觉传感器2的蓝色分量;它们的取值范围均为0~255。
再进一步,在所述的交通事故处理图生成单元中,根据处理流程自动进行运算,由现场处理警官进行人机交互,生成一张交通事故现场图,处理流程如下:
1)以球面坐标的方式获取双目视觉图像;
2)在球面坐标上的同一个方位角上某一个入射角范围内进行特征点匹配,选定方位角β,找特征点在两眼上的入射角Ф1、Ф2;
3)求各特征点到“中央眼”中心O的距离r以及入射角Ф;
4)采用球面坐标并用“中央眼“为原点标识所有特征点的三维坐标(r,Ф,β),并计算该特征点的三维颜色属性值,同时采用方位、距离、颜色信息(r,Ф,β,R,G,B)来表达物点的视觉特征;
5)利用球面坐标进行三维图像测量与重构,实现交通事故的现场勘测与测绘。
更进一步,所述的双曲面镜面构成的光学系统由下面5个等式表示:
((X2+Y2)/a2)-((Z-c)2/b2)=-1 当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ (4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY平面上的夹角,即方位角,α表示入射光线在XZ平面上的夹角,这里将α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折入射光线与Z轴的夹角。
所述连接单元为一根两端带有内螺纹的连接杆,所述连接杆的内螺纹的尺寸与所述支撑杆上端的外螺纹的尺寸相匹配,所述连接杆的两端穿过两个全方位视觉传感器的上盖和双曲面镜与支撑杆连接。
对公式(7)的距离测量值采用测量误差补偿,补偿后的测量距离估算值用公式(13)来表示;
式中:dc为两个ODVS视点间的距离,r’为原点O与点C间的测量距离估算值,Ф为有向线段OC与Z轴正向所夹的角,OC为公式(7)的计算距离;补偿后的测量距离估算值作为中央眼离物点的测量距离估算值。
本发明的有益效果主要表现在:利用基于双目立体全方位视觉的数字摄影测量技术进行交通事故现场勘查可以快速疏通现场、便于事后保存和恢复现场资料,进行所需要的量测及绘制,进而为事故责任认定提供一种有效的途径。基于双目立体全方位视觉的交通事故现场测绘仪的量测精度能满足事故现场勘查任务的要求,具有自动化程度高、携带方便、不需任何标定、操作简单、处理速度快等优点。
附图说明
图1为一种全方位视觉传感器的结构图;
图2为一种双目立体全方位视觉传感器结构图;
图3为全方位视觉传感器中的一个支撑杆部件图;
图4为将两个全方位视觉传感器的折反射镜面进行连接的说明图;
图5为基于双目立体全方位视觉的交通事故现场测绘仪的处理结构框图;
图6为立体视觉测量装置测量物点的示意图,图6(a)为双目立体全方位视觉传感器中的下ODVS所抓拍的全景图像示意图,图6(c)为双目立体全方位视觉传感器中的下ODVS所抓拍的全景图的展开图,图6(b)为双目立体全方位视觉传感器中的上ODVS所抓拍的全景图像示意图,图6(d)为双目立体全方位视觉传感器中的上ODVS所抓拍的全景图的展开图;
图7为双目立体全方位视觉传感器的上下ODVS的展开图中对准方位角、实现物点匹配的说明图;
图8为传统双目视觉传感器的结构图;
图9为通过改进的传统双目视觉传感器的结构图;
图10为运动式单摄像机双目视觉测量系统的结构图;
图11为双目立体全方位视觉传感器中的客观视觉与主观视觉的关系示意图;
图12为双目视觉中的中央眼的概念图;
图13为在立体视觉测量装置中对空间物体的数据采集、加工、描述、表达过程中采用的一种统一的球面坐标;
图14为全方位视觉传感器的成像原理图。
具体实施方式
下面结合附图对本发明作进一步描述。
参照图1-图14,本实施例首先是设计一种基于双目立体全方位视觉的交通事故现场测绘仪,包括两台具有相同成像参数的全方位视觉传感器和用于对两台全方位视觉传感器的图像进行道路交通事故现场图绘制的微处理器,所述全方位视觉传感器包括双曲面镜面2、上盖1、支撑杆3、透明玻璃面4、附加镜头框5、摄像单元6,如附图1所示;所述的支撑杆3的外形为上粗下细的圆台,如附图3所示,支撑杆3粗的一端为外螺纹,支撑杆3细的一端为内螺纹;所述的双曲面镜面2中间开有一个小孔,孔的直径与支撑杆3的外螺纹直径相同,连接时将支撑杆3的外螺纹穿入双曲面镜面2的孔中用螺帽将双曲面镜面2与支撑杆3连接起来;所述的透明玻璃面4中间开有一个小孔,孔的直径与与支撑杆3的内螺纹孔径相同,连接时将支撑杆3细的一端垂直于透明玻璃面4用螺钉穿过透明玻璃面4上的小孔将支撑杆3与透明玻璃面4连接起来;所述的附加镜头框5的下面有一个与摄像单元6镜头前口径相同的外螺纹,通过旋紧螺纹的方式将附加镜头框5稳固的固定在摄像单元6上,所述的透明玻璃面4嵌入在所述的附加镜头框5内;
在交通事故现场的检测领域内能实现双目立体视觉,至少要解决以下2个方面的关键问题:1)在结构设计上能将两台具有相同成像参数的全方位视觉装置按照要求结合在一起,并能满足无遮挡的要求;2)集成后的两台全方位视觉装置之间的过度区域的成像是连续的,并能满足某种成像规律,以便进行信息的融合以及对被测量物点对象的空间位置计算;
将两台具有相同成像参数的全方位视觉传感器集成构建一个双目立体全方位视觉传感器,如附图4所示,采用一根两端带有内螺纹的连接杆7将两台具有相同成像参数的全方位视觉传感器连接起来,内螺纹的尺寸与支撑杆3的外螺纹的尺寸相匹配,通过这样的连接能保证两台具有相同成像参数的全方位视觉传感器在同一轴心线上;
单个全方位视觉传感器的工作原理是:进入双曲面镜的中心的光,根据双曲面的镜面特性向着其虚焦点折射。实物图像经双曲面镜反射到聚光透镜中成像,在该成像平面上的一个点P(x,y)对应着实物在空间上的一个点的坐标A(X,Y,Z);
图14中的2-双曲线面镜,12-入射光线,13-双曲面镜的实焦点Om(0,0,c),14-双曲面镜的虚焦点即摄像单元6的中心Oc(0,0,-c),15-反射光线,16-成像平面,17-实物图像的空间坐标A(X,Y,Z),18-入射到双曲面镜面上的图像的空间坐标,19-反射在成像平面上的点P(x,y)。
图14中所示的双曲面镜构成的光学系统可以由下面5个等式表示;
((X2+Y2)/a2)-((Z-c)2/b2)=-1 当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ (4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY平面上的夹角,即方位角,α表示入射光线在XZ平面上的夹角,这里将α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折入射光线与Z轴的夹角;
为了获得比较大的双目视觉范围,在所述的双曲面镜面2设计时需要尽可能加大双曲面镜面的仰角,采用减小双曲面镜的实轴a和虚轴b的比来加大双曲面镜面的仰角,设计时需根据双目视觉的范围、双曲面镜的直径大小来选择一个适当的实轴a和虚轴b的比,最大仰角极限是双曲线的渐进线与X轴的夹角;构成双目立体全方位视觉传感器的两个全方位视觉传感器都按照上述设计参数进行制造;
所述的微处理器包括:图像读取单元,用于读取两个相同成像参数的全方位视觉传感器的图像,并保存在指定的存储设备中,其输出与图像展开单元连接;图像展开单元,用于对全方位视觉传感器的原始图像进行图像预处理,图像预处理中首先对全方位图像进行展开,展开后的结果保存在指定的存储单元中,其输出与物点匹配单元连接;物点匹配单元,用于找出同一时刻两个不同视点的图像中同一物点对应的两个像点,其输出与空间信息计算单元连接;空间信息计算单元,用于计算空间上的物点到立体视觉测量装置中心点的距离、方位角以及入射角,其输出与色感信息计算单元连接;色感信息计算单元,用于计算空间上物点的色感信息,采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码,其输出与交通事故处理图生成单元连接;交通事故处理图生成单元,用于绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
所述的图像展开单元还包括方位角对齐子单元;所述的方位角对齐子单元,用于对齐上下两个ODVS的球面展开图中的方位角。
在所述色感信息计算单元中,三维球面坐标系的原点就是立体视觉测量装置中心点,采用“中央眼”视觉方式来描述空间上物点的信息(r,Ф,β,R,G,B),r为球面坐标原点O与物点之间的距离,Ф为球面坐标原点O与物点之间的连线与Z轴正向所夹的角,Ф角与公式(4)中所示的α角度之间的关系是,Ф=-π/2+α;β为从正Z轴来看自x轴按逆时针方向转到有向线段OP的角,该角就对应着公式(3)中所述的方位角;这里P为点C在xoy平面上的投影,R为“中央眼”的红色分量的平均值,G为“中央眼”的绿色分量的平均值,B为“中央眼”的蓝色分量的平均值;所述的“中央眼”是双目视觉基线距的中点,是通过两个构成双目全方位视觉传感器的视点之间的连线中心点来算得到。
在所述的方位角对齐子单元中,对齐上下两个ODVS的球面展开图中的方位角的过程为:对于同一个空间上的物点C在双目视觉范围内在两个ODVS的全景原图中存在着两个成像点Cdown(Ф1,β1)和Cup(Ф2,β2),且这两个成像点的方位角相同的,即β1=β2;则对应在球面展开图中这两个点的X坐标也必须相同,即x1=x2;根据上述X坐标相同来对齐上下两个ODVS的球面展开图中的方位角。
在所述的空间信息计算单元中,设定在方位角对齐单元中确定了物点的方位角β,然后根据上述的全方位视觉传感器的设计,任何一个空间物点在两个ODVS上的两个成像点的所表示纬度值必定要满足以下关系式;
180°≤φ1+φ2≤2φmax (6)
式中,Ф1为下ODVS上的成像物点的入射角,Ф2为上ODVS上的成像物点的入射角,φmax为ODVS的成像物点的最大入射角,即仰角;
根据公式(6)所确定的范围,在同一方位角内,即在附图6所示的Y方向上寻找匹配点,附图6(a)是下ODVS所拍摄的全景图,附图6(b)是上ODVS所拍摄的全景图,附图6(c)是下ODVS所拍摄的全景图的展开图,附图6(d)是上ODVS所拍摄的全景图的展开图,通过所述的方位角对齐子单元在图6(a)和6(b)中得到物点C在双目视觉范围内在两个ODVS上的两个成像点Cdown(Ф1,β)和Cup(Ф2,β),接着利用三角关系式求O点与C点的距离r,
其中,∠A=180-Ф2,∠B=180-Ф1,dc为上下两个ODVS视点之间的距离;通过物点到立体视觉测量装置中心点的距离、方位角信息来求物点到立体视觉测量装置中心点的入射角Ф,计算公式由公式(8)给出,
式中,Ф为“中央眼”观察物点的入射角,dc为双目系统的A点和B点之间的距离,r为特征点到“中央眼”的距离,Ф2为上ODVS的入射角。
作为优选的再另一种方案:在所述的色感信息计算单元中,采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码,首先读取两个ODVS上成像的目标匹配点的各颜色分量RODVS1、RODVS2、GODVS1、GODVS2、BODVS1和BODVS2的数据,然后采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值作为“中央眼”视觉的颜色编码;计算公式由公式(9)表示;
式中,R为“中央眼”的红色分量的平均值,RODVS1为全方位视觉传感器1的红色分量,RODVS2为全方位视觉传感器2的红色分量,G为“中央眼”的绿色分量的平均值,GODVS1为全方位视觉传感器1的绿色分量,GODVS2为全方位视觉传感器2的绿色分量,B为“中央眼”的蓝色分量的平均值,BODVS1为全方位视觉传感器1的蓝色分量,BODVS2为全方位视觉传感器2的蓝色分量;它们的取值范围均为0~255;
采用“中央眼”视觉方式来描述空间上物点的信息(r,Ф,β,R,G,B),其中r表示物点的距离感信息,Ф和β表示物点的方向感信息,R、G、B综合表示物点的色感信息。
在双目立体视觉测量中,图像匹配的目的是给定在一幅图像上的已知点后,在另一幅图像上寻找与之相对应的目标匹配点。对在一幅图像中的一个特征点,在另一幅图像中可能存在好几个相似的候选匹配,为了能得到唯一准确的匹配,需要采用一些约束,目前通常采用的约束方法有,1)极线约束:在此约束下,匹配点一定位于两幅图像中相应的极线上;2)唯一性约束:两幅图像中的对应的匹配点应该有且有一个;3)视差连续性约束:除了遮挡区域和视差不连续区域外,视差的变化应该都是平滑的;4)顺序一致性约束:位于一幅图像上的极线上的系列点,在另一幅图像中的极线上具有相同的顺序。
为了方便的实现在双目视觉范围的立体匹配,选择正确的匹配特征、寻找特征间的本质属性及建立能正确匹配所选择特征的稳定算法是解决立体匹配的关键,由于我们在设计ODVS时将成像平面上的点与入射角之间的关系设计成某种函数关系,如公式(4)所示;这里我们引入一个经纬度的概念,将图4所示的双目ODVS的视场用球面来考虑,球面坐标采用高斯球面坐标来表示,对应入射角Ф的是纬度值,对应方位角β的是经度值;对于同一个空间上的物点C在双目视觉范围内在两个ODVS的全景原图中必定存在着两个成像点Cdown(Ф1,β1)和Cup(Ф2,β2),且这两个成像点的方位角β也必定是相同的,也就是它们的经度必定是相等的,即β1=β2;因此对应在展开图中这两个点的X坐标也必须相同,即x1=x2;根据这个原理来对齐上下两个ODVS的球面展开图中的方位角;同时从这两个成像点的所表示纬度值也必定是相同的,且要满足以下关系式;
180°≤φ1+φ2≤2φmax (6)
根据上述的约束关系以及本发明中ODVS的特殊设计,将原来给定在一幅图像上的已知点后在另一幅图像上寻找与之相对应的目标匹配点的问题进行了简化,通过方位角相等以及公式(6)的约束条件,检索范围将简化为到某一条线的一段区间内,如图7所示,要实现这种匹配算法非常简单,而且匹配精度高,然后结合特征匹配与区域匹配,采用基于区域匹配方式对特征点附近的子图像窗口的图像纹理信息或者边缘轮廓进行相关运算,并进行相似度比较和对称性测试。将最后的匹配对应点作为正确的匹配特征点参加视差运算。关于图像纹理信息或者边缘轮廓的运算方法可参考张广军著的“视觉测量”书的第6章的6、6节基于角点引导的边缘匹配章节。
如果以双目视觉基线距的中点作为观察者中心的话,类似于实际中当观察者将双眼的视力聚焦到一个较近的物点时,两眼视线轴间有一定的角度,也就是类似于双目立体视觉中的两个视点角度,如附图11中的∠A=180-Ф2和∠B=180-Ф1所示;但双眼在看物点时通过复合而朝向一个共同的视觉方向,并且得到的映像是单一的,好像是被一只眼所看到的。如果从主观感觉的角度来看,我们可以将两只眼睛看作一个单一器官,可以用一个理论上假想的处于两眼正中的单一眼睛来代表这个器官,称为中央眼,这里我们也将双目视觉基线距的中点,即图11中的O点作为中央眼;中央眼是我们人类在处理空间知觉时很有用的一个概念,当人对物体进行空间定向的时候,把自己作为视觉空间的中心,两眼视网膜上的每一对应点都有共同的视觉方向同时也产生距离感,如附图12所示;当物点在正前方C处时,它分别作用于左、右眼各自的中央凹CL和CR上;当CL和CR被假想重叠后,C点目标的定位是在中央眼的中央凹FC上,物点C的方向在中央眼的正中,即主观视觉的正前方;当物点在S处时,物点S分别作用于左右眼的SL和SR处,对于中央眼目标定位在FS处;主观视觉方向与作用在视网膜上任何一对相应点处刺激物的实际位置可能不一致,换句话说,客观视觉空间与主观视觉空间会有差别。这里视网膜上的相应点指的是在两个视网膜上感受刺激时产生同一视觉方向的那些单元,也就是说,两个视网膜上具有共同视觉方向的视网膜单元叫视网膜相应点。实际上,人类两眼的中央凹就是两眼视网膜上的相应点,中央凹的视觉方向就是主要视觉方向,人类依靠中央眼的主观视觉方向和距离感来确定物点在空间的位置;
人类在通过视觉方式来表达物体时通常用到了距离感、方向感和色感这些要素,除了通过“中央眼”来感知立体空间位置以外,色感对人类视觉来说是非常重要的。
立体空间知觉被称为“中央眼”视觉,因此在以人为视觉空间的中心实现三维图像重构时,采用“中央眼”视觉方式更符合人类的立体空间知觉,对于空间上的某个物点通过公式(7)求得该物点的深度距离,这里引入球面坐标来表示立体空间,如附图13所示,空间上的物点C可用三个有次序的数r,Ф,β来确定,其中r为原点O与点C间的距离,Ф为有向线段OC与Z轴正向所夹的角,该角就对应着我们上面所述的入射角β;β为从正Z轴来看自x轴按逆时针方向转到有向线段OP的角,该角就对应着我们上面所述的方位角;这里P为点C在xoy平面上的投影;如果我们以垂直于XOY平面并经过原点O和物点C作一个平面的话,相当于将YOZ平面围绕的z轴旋转了一个β方位角,成为Y’OZ平面,Y’OZ平面就是我们在立体视觉中所说的极平面,在Y’OZ平面上利用三角关系式求O点和C点的连线OC距离,就是所求的距离就是r;附图13中的O点和C点的连线OC和O点和A点的连线OA之间的夹角∠COA,由于就是O点和A点都在Z轴上,因此夹角∠COA就是所求的入射角Ф;
交通事故现场图是交通事故处理、鉴定、保险理培、法院审案等的主要依据。因此,交通事故现场图必须准确无误,保证现场测绘数据和信息的可靠性和正确性。为了保证测绘数据的精度,在摄像单元6的选择上需要尽可能采用分辨率高的摄像机或者数码相机,其镜头的选择也必须尽可能与全方位视觉传感器的设计相一致,以便得到高质量的全景图像;在保证两个全方位视觉传感器拍摄图像的同步,在两个全方位视觉传感器的摄像单元6上引出两根快门线并将连接在一起,以保证在拍摄时同步;或者是通过软件进行遥控实时同步拍摄,两个全方位视觉传感器中的摄像单元6分别通过USB接口与微处理器相连接,微处理器通过软件进行遥控实时拍摄,接着微处理器将所拍摄的图像通过USB接口读入微处理器进行图像处理;
目前一些市售的摄像机或者数码相机已经支持蓝牙技术以及支持802.11b/g无线通信,通过无线通信可实现两个全方位视觉传感器的摄像单元6与微处理器的无线连接,及时将所拍摄的现场全景图像传输给微处理器进行图像处理;
微处理器根据所传送过来的两幅全景图像进行处理,实现现场测绘数据的快速处理,微处理器根据处理流程自动进行运算,必要时由现场处理警官进行人机交互,最终生成一张交通事故现场图;
基于双目立体全方位视觉的交通事故现场测绘仪的处理流程如下:
1)以球面坐标的方式获取双目视觉图像;
2)在球面坐标上的同一个方位角上某一个入射角范围内进行特征点匹配,选定方位角β,找特征点在两眼上的入射角Ф1、Ф2;
3)求各特征点到“中央眼”中心O的距离r以及入射角Ф;
4)采用球面坐标并用“中央眼“为原点标识所有特征点的三维坐标(r,Ф,β),并计算该特征点的三维颜色属性值,同时采用方位、距离、颜色信息(r,Ф,β,R,G,B)来表达物点的视觉特征;
5)利用球面坐标进行三维图像测量与重构,采用各种成熟软件,比如PhotoModeler等摄影测量软件,实现交通事故的现场勘测与测绘;
6)从计算得到的各相关对象实际空间坐标数据,通过各相关对象的空间数据以及国家公安部相关标准“道路交通事故现场图绘制”的要求绘制交通事故现场记录图。
交通事故现场勘查中的测量主要包括:道路测量、车辆停车位置测量、地面痕迹测量及其其它痕迹测量;在道路测量中包括:道路的地理测量、平交路口的测量、道路宽度的测量;这些测量一般在全景图像中都能找到特征点,只要通过上述算法计算得到这些特征点的方位和距离信息就能完成测量;同样对于车辆停车位置的测量也能非常容易地在全景图像中都能找到特征点,只要通过上述算法计算得到这些特征点的方位和距离信息就能完成测量;关于地面痕迹测量及其其它痕迹测量,由于在全景图像上的特征点不明显,因此需要采用具有明显特征的移动标志物来标明痕迹以及痕迹的长度,以便能在全景图像中快速地找到特征点完成痕迹的测量;
为了分析双目立体全方位视觉的摄影测量误差,下面将公式(7)进行简化,得到公式(10),
式中,dc为两个ODVS视点间的距离,Ф1和Ф2分别为同一物点在两个ODVS上的入射角,为了计算与讨论方便,令E为O.25,
测量误差分析:从双目立体视觉原理上可以精确的测量出物体的空间位置,但是由于成像单元(CMOS)所拍摄得到的图像是非连续的,它是以像元为单元的一组离散数据,由于摄像单元分辨率的原因,所以在测量中存在最小分辨率误差;这一点,可以通过选用高分辨率的摄像头得到一些改进。由公式(10)可知,随着测量物距点的距离增大,测量误差逐渐增大,这主要是由于当测量物距点的距离增大时,该测量点在两个ODVS上的入射角Ф1和Ф2变化率会逐渐减小,并都趋向于90°,使得公式(10)中的D项变化很敏感,而F项趋向于一个常数。为了讨论方便测量误差,假设测量点在双目ODVS的中心点的水平面上,因此有Ф1、Ф2、Ф三者的值非常接近,这里忽略公式(10)中的E、F项,然后将公式(10)改写为公式(11);
对公式(11)求导,得到公式(12);
从公式(12)可以看出随着Ф趋向于90°,公式(12)计算值趋向于∞,随着测量物距点的距离增大,Ф1和Ф2的值随着接近90°,测量误差值随之增大,且呈单调增长。因此本发明考虑采用误差补偿的方法来减少测量估算测量误差。
测量误差补偿的方法:由于误差值随Ф1和Ф2的增长呈单调增长,因此补偿后的测量距离估算值可以用公式(13)来表示;
式中:dc为两个ODVS视点间的距离,r’为原点O与点C间的测量距离估算值,Ф为有向线段OC与Z轴正向所夹的角,OC为公式(10)的计算距离;补偿后的测量距离估算值作为中央眼离物点的测量距离估算值。
假设入射角Ф与成像分辨率成线性关系,如果两个摄像单元6均采用1000万像素的数码相机,计算可以得到由于像素的非连续性每个像素所造成的最大误差在0.0717(degree/pixel),按照这样的设计是符合安部对交通事故现场勘查中的测量精度10m范围的摄影测量误差小于1.5%和50m范围的摄影测量误差小于2%的精度要求的。
所述的交通事故处理图生成单元,用于自动或者半自动地绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图;现场记录图等各种图的绘制交由AutoCAD或者PhotoModeler等图像处理软件去完成,根据国家公安部相关标准在现场记录图中必须标明各种对象的符号,这些符号包括各种类型的道路、汽车、自行车、行人等。
利用基于双目立体全方位视觉的数字摄影测量技术进行交通事故现场勘查可以快速疏通现场、便于事后保存和恢复现场资料,进行所需要的量测及绘制,进而为事故责任认定提供一种有效的途径。基于双目立体全方位视觉的交通事故现场测绘仪的量测精度能满足事故现场勘查任务的要求,具有自动化程度高、携带方便、不需任何标定、操作简单、处理速度快等优点。通过该技术的使用能实现交通事故快速紧急救援、能缓解道路交通堵塞、能确保道路交通安全、能改善交通警察的形象和与人民群众的关系。
Claims (11)
1、一种基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:所述交通事故现场测绘仪包括两台具有相同成像参数的全方位视觉传感器、连接单元和对两台全方位视觉传感器的所获取的全景图像进行加工及道路交通事故现场图绘制的微处理器,两台全方位视觉传感器之间通过连接单元连接,所述全方位视觉传感器包括双曲面镜面、上盖、支撑杆、透明玻璃面、附加镜头框和摄像单元,所述双曲面镜的上部安装上盖,所述支撑杆呈上粗下细的圆台,所述支撑杆上端通过螺帽固定在所述双曲面镜面底部中央的小孔内,所述支撑杆下端通过螺钉固定在所述透明玻璃面中央的安装孔内,所述的透明玻璃面嵌入所述的附加镜头框内,所述支撑杆与所述透明玻璃面垂直,所述摄像单元位于所述附加镜头框内;所述的微处理器包括:
视频图像读取单元,用于读取两个具有相同成像参数的全方位视觉传感器的视频图像,并保存视频图像数据;
视频图像展开单元,用于对具有相同成像参数的全方位视觉传感器的原始视频图像进行图像预处理,首先将组合摄像单元所拍摄的图像单独分离出来,然后对全方位图像进行展开,展开后的结果保存在指定的存储单元中;
物点匹配单元,用于找出同一时刻两个不同视点的图像中同一物点对应的两个像点;
方位角对齐子单元,用于对齐上下两个全方位视觉传感器的球面展开图中的方位角
空间信息计算单元,用于计算空间上的物点到立体视觉测量装置中心点的距离、方位角以及入射角;
色感信息计算单元,用于计算空间上物点的色感信息,采用在两个全方位视觉传感器上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码;
交通事故处理图生成单元,用于依照三维图像绘制交通事故现场记录图、现场比例图、现场断面图、现场立面图和现场分析图。
2、如权利要求1所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:所述双支撑杆上端为外螺纹,支撑杆下端为内螺纹,所述的双曲面镜面底部中央开有一个小孔,孔的直径与支撑杆的外螺纹直径相同,所述的透明玻璃面中间开有安装孔,所述安装孔的直径与支撑杆的内螺纹孔径相同。
3、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:所述附加镜头框的下面设有与摄像单元镜头前口径相同的外螺纹,所述摄像单元的镜头前口径设有内螺纹。
4、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述色感信息计算单元中,三维球面坐标系的原点为立体视觉测量装置的中心点,采用“中央眼”视觉方式来描述空间上物点的信息(r,Φ,β,R,G,B),r为球面坐标原点O与物点之间的距离,Φ为球面坐标原点O与物点之间的连线与Z轴正向所夹的角,β为从正Z轴来看自x轴按逆时针方向转到有向线段OP的角,即方位角;P为点C在xoy平面上的投影,R为“中央眼”的红色分量的平均值,G为“中央眼”的绿色分量的平均值,B为“中央眼”的蓝色分量的平均值。
5、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的方位角对齐子单元中,对齐上下两个全方位视觉传感器的球面展开图中的方位角的过程为:对于同一个空间上的物点C在双目视觉范围内在两个全方位视觉传感器的全景原图中存在着两个成像点Cdown(Φ1,β1)和Cup(Φ2,β2),且这两个成像点的方位角相同的,即β1=β2;则对应在球面展开图中这两个点的X坐标也必须相同,即x1=x2;根据上述X坐标相同来对齐上下两个全方位视觉传感器的球面展开图中的方位角。
6、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的空间信息计算单元中,设定在方位角对齐单元中确定了物点的方位角β,任何一个空间物点在两个ODVS上的两个成像点的所表示纬度值满足以下关系式;
180°≤φ1+φ2≤2φmax (6)
式中,Φ1为下ODVS上的成像物点的入射角,Φ2为上ODVS上的成像物点的入射角,φmax为ODVS的成像物点的最大入射角,即仰角;
根据公式(6)所确定的范围,在同一方位角内,即在附图7所示的Y方向上寻找匹配点,得到物点C在双目视觉范围内在两个ODVS上的两个成像点Cdown(Φ1,β)和Cup(Φ2,β),接着利用三角关系式求O点与C点的距离r,
其中,∠A=180-Φ2,∠B=180-Φ1,dc为上下两个ODVS视点之间的距离;通过物点到立体视觉测量装置中心点的距离、方位角信息来求物点到立体视觉测量装置中心点的入射角Φ,计算公式由公式(8)给出,
式中,Φ为“中央眼”观察物点的入射角,dc为双目系统的A点和B点之间的距离,r为特征点到“中央眼”的距离,Φ2为上ODVS的入射角。
7、如权利要求4所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的色感信息计算单元中,采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值(R,G,B)作为“中央眼”视觉的颜色编码,首先读取两个ODVS上成像的目标匹配点的各颜色分量RODVS1、RODVS2、GODVS1、GODVS2、BODVS1和BODVS2的数据,然后采用在两个ODVS上成像的目标匹配点的各颜色分量的平均值作为“中央眼”视觉的颜色编码;计算公式由公式(9)表示;
式中,R为“中央眼”的红色分量的平均值,RODVS1为全方位视觉传感器1的红色分量,RODVS2为全方位视觉传感器2的红色分量,G为“中央眼”的绿色分量的平均值,GODVS1为全方位视觉传感器1的绿色分量,GODVS2为全方位视觉传感器2的绿色分量,B为“中央眼”的蓝色分量的平均值,BODVS1为全方位视觉传感器1的蓝色分量,BODVS2为全方位视觉传感器2的蓝色分量;它们的取值范围均为0~255。
8、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:在所述的交通事故处理图生成单元中,根据处理流程自动进行运算,由现场处理警官进行人机交互,生成一张交通事故现场图,处理流程如下:
1)以球面坐标的方式获取双目视觉图像;
2)在球面坐标上的同一个方位角上某一个入射角范围内进行特征点匹配,选定方位角β,找特征点在两眼上的入射角Φ1、Φ2;
3)求各特征点到“中央眼”中心O的距离r以及入射角Φ;
4)采用球面坐标并用“中央眼“为原点标识所有特征点的三维坐标(r,Φ,β),并计算该特征点的三维颜色属性值,同时采用方位、距离、颜色信息(r,Φ,β,R,G,B)来表达物点的视觉特征;
5)利用球面坐标进行三维图像测量与重构,实现交通事故的现场勘测与测绘。
9、如权利要求1或2所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:所述的双曲面镜面构成的光学系统由下面5个等式表示:
((X2+Y2)/a2)-((Z-c)2/b2)=-1 当Z>0时 (1)
β=tan-1(Y/X) (3)
α=tan-1[(b2+c2)sinγ-2bc]/(b2+c2)cosγ(4)
式中X、Y、Z表示空间坐标,c表示双曲面镜的焦点,2c表示两个焦点之间的距离,a,b分别是双曲面镜的实轴和虚轴的长度,β表示入射光线在XY平面上的夹角,即方位角,α表示入射光线在XZ平面上的夹角,这里将α大于或等于0时称为俯角,将α小于0时称为仰角,f表示成像平面到双曲面镜的虚焦点的距离,γ表示折入射光线与Z轴的夹角。
10、如权利要求3所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:所述连接单元为一根两端带有内螺纹的连接杆,所述连接杆的内螺纹的尺寸与所述支撑杆上端的外螺纹的尺寸相匹配,所述连接杆的两端穿过两个全方位视觉传感器的上盖和双曲面镜与支撑杆连接。
11、如权利要求6所述的基于双目立体全方位视觉的交通事故现场测绘仪,其特征在于:对公式(7)的距离测量值采用测量误差补偿,补偿后的测量距离估算值用公式(13)来表示;
式中:dc为两个ODVS视点间的距离,r’为原点O与点C间的测量距离估算值,Φ为有向线段OC与Z轴正向所夹的角,OC为公式(7)的计算距离;补偿后的测量距离估算值作为中央眼离物点的测量距离估算值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101216718A CN101408422B (zh) | 2008-10-16 | 2008-10-16 | 基于双目立体全方位视觉的交通事故现场测绘仪 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2008101216718A CN101408422B (zh) | 2008-10-16 | 2008-10-16 | 基于双目立体全方位视觉的交通事故现场测绘仪 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101408422A true CN101408422A (zh) | 2009-04-15 |
CN101408422B CN101408422B (zh) | 2010-09-15 |
Family
ID=40571529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101216718A Expired - Fee Related CN101408422B (zh) | 2008-10-16 | 2008-10-16 | 基于双目立体全方位视觉的交通事故现场测绘仪 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101408422B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101619962B (zh) * | 2009-07-30 | 2011-03-09 | 浙江工业大学 | 基于全彩色全景led光源的主动三维立体全景视觉传感器 |
CN102063794A (zh) * | 2011-01-14 | 2011-05-18 | 隋亚刚 | 基于占有率数据的城市快速路自动事件检测和协同指挥调度系统 |
CN102168973A (zh) * | 2011-01-12 | 2011-08-31 | 湖南农业大学 | 全方位视觉传感器自动导航z轴定位方法及其定位系统 |
CN102230798A (zh) * | 2011-04-12 | 2011-11-02 | 清华大学 | 基于双目视觉的便携式无标尺交通事故现场快速勘查系统 |
CN102243075A (zh) * | 2011-04-12 | 2011-11-16 | 清华大学 | 基于双目视觉的车载式无标尺交通事故现场快速勘查系统 |
CN101650176B (zh) * | 2009-08-28 | 2011-12-21 | 浙江工业大学 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
CN102679961A (zh) * | 2012-05-23 | 2012-09-19 | 武汉大学 | 便携式四目立体摄影测量系统及方法 |
CN103196429A (zh) * | 2013-03-25 | 2013-07-10 | 东南大学 | 城市天际轮廓线立面正射影像图的快速获取和测量方法 |
CN104583724A (zh) * | 2012-08-23 | 2015-04-29 | 奥迪股份公司 | 用于在测绘环境中确定车辆位置的方法和装置 |
CN107909113A (zh) * | 2017-11-29 | 2018-04-13 | 北京小米移动软件有限公司 | 交通事故图像处理方法、装置及存储介质 |
CN108513256A (zh) * | 2018-03-12 | 2018-09-07 | 广东工业大学 | 一种车辆定位方法、装置及其应用的泊车辅助方法、车辆 |
CN109029364A (zh) * | 2018-06-04 | 2018-12-18 | 江西冠翔科技有限公司 | 一种车载式现场勘查系统 |
CN113103228A (zh) * | 2021-03-29 | 2021-07-13 | 航天时代电子技术股份有限公司 | 遥操作机器人 |
WO2022126477A1 (zh) * | 2020-12-17 | 2022-06-23 | 深圳市大疆创新科技有限公司 | 一种可移动平台的控制方法、装置及可移动平台 |
-
2008
- 2008-10-16 CN CN2008101216718A patent/CN101408422B/zh not_active Expired - Fee Related
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101619962B (zh) * | 2009-07-30 | 2011-03-09 | 浙江工业大学 | 基于全彩色全景led光源的主动三维立体全景视觉传感器 |
CN101650176B (zh) * | 2009-08-28 | 2011-12-21 | 浙江工业大学 | 基于主动立体全方位视觉的交通事故现场测绘仪 |
CN102168973A (zh) * | 2011-01-12 | 2011-08-31 | 湖南农业大学 | 全方位视觉传感器自动导航z轴定位方法及其定位系统 |
CN102063794A (zh) * | 2011-01-14 | 2011-05-18 | 隋亚刚 | 基于占有率数据的城市快速路自动事件检测和协同指挥调度系统 |
CN102063794B (zh) * | 2011-01-14 | 2012-09-26 | 隋亚刚 | 基于占有率数据的城市快速路自动事件检测和协同指挥调度系统 |
CN102230798A (zh) * | 2011-04-12 | 2011-11-02 | 清华大学 | 基于双目视觉的便携式无标尺交通事故现场快速勘查系统 |
CN102243075A (zh) * | 2011-04-12 | 2011-11-16 | 清华大学 | 基于双目视觉的车载式无标尺交通事故现场快速勘查系统 |
CN102679961A (zh) * | 2012-05-23 | 2012-09-19 | 武汉大学 | 便携式四目立体摄影测量系统及方法 |
CN102679961B (zh) * | 2012-05-23 | 2013-04-10 | 武汉大学 | 便携式四目立体摄影测量系统及方法 |
CN104583724A (zh) * | 2012-08-23 | 2015-04-29 | 奥迪股份公司 | 用于在测绘环境中确定车辆位置的方法和装置 |
CN104583724B (zh) * | 2012-08-23 | 2018-05-01 | 奥迪股份公司 | 用于在测绘环境中确定车辆位置的方法和装置 |
CN103196429B (zh) * | 2013-03-25 | 2015-03-04 | 东南大学 | 城市天际轮廓线立面正射影像图的快速获取和测量方法 |
CN103196429A (zh) * | 2013-03-25 | 2013-07-10 | 东南大学 | 城市天际轮廓线立面正射影像图的快速获取和测量方法 |
CN107909113A (zh) * | 2017-11-29 | 2018-04-13 | 北京小米移动软件有限公司 | 交通事故图像处理方法、装置及存储介质 |
CN107909113B (zh) * | 2017-11-29 | 2021-11-16 | 北京小米移动软件有限公司 | 交通事故图像处理方法、装置及存储介质 |
CN108513256A (zh) * | 2018-03-12 | 2018-09-07 | 广东工业大学 | 一种车辆定位方法、装置及其应用的泊车辅助方法、车辆 |
CN108513256B (zh) * | 2018-03-12 | 2020-09-11 | 广东工业大学 | 一种车辆定位方法、装置及其应用的泊车辅助方法、车辆 |
CN109029364A (zh) * | 2018-06-04 | 2018-12-18 | 江西冠翔科技有限公司 | 一种车载式现场勘查系统 |
WO2022126477A1 (zh) * | 2020-12-17 | 2022-06-23 | 深圳市大疆创新科技有限公司 | 一种可移动平台的控制方法、装置及可移动平台 |
CN113103228A (zh) * | 2021-03-29 | 2021-07-13 | 航天时代电子技术股份有限公司 | 遥操作机器人 |
CN113103228B (zh) * | 2021-03-29 | 2023-08-15 | 航天时代电子技术股份有限公司 | 遥操作机器人 |
Also Published As
Publication number | Publication date |
---|---|
CN101408422B (zh) | 2010-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101408422B (zh) | 基于双目立体全方位视觉的交通事故现场测绘仪 | |
CN101393012B (zh) | 双目立体视觉测量装置 | |
US20220092797A1 (en) | Intelligent Vehicle Trajectory Measurement Method Based on Binocular Stereo Vision System | |
CN112894832B (zh) | 三维建模方法、装置、电子设备和存储介质 | |
CN110033489B (zh) | 一种车辆定位准确性的评估方法、装置及设备 | |
JP6168833B2 (ja) | 3DGeoArcを用いた多モードデータの画像登録 | |
JP6974873B2 (ja) | シーンから深度情報を取得するための装置および方法 | |
CN110009739A (zh) | 移动摄像机的数字视网膜的运动特征的提取与编码方法 | |
KR100912715B1 (ko) | 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치 | |
CN104964673B (zh) | 一种可定位定姿的近景摄影测量系统和测量方法 | |
CN102679959B (zh) | 基于主动全景视觉传感器的全方位三维建模系统 | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
CN102692213B (zh) | 基于主动式全景视觉传感器的交通事故现场测绘仪 | |
CN101487703B (zh) | 快速全景立体摄像测量装置 | |
CN110517216A (zh) | 一种基于多类型相机的slam融合方法及其系统 | |
CN103971404A (zh) | 一种高性价比的3d实景复制装置 | |
CN103424112A (zh) | 一种基于激光平面辅助的运动载体视觉导航方法 | |
CN102692214A (zh) | 一种狭窄空间双目视觉测量定位装置及方法 | |
CN109685855A (zh) | 一种道路云监控平台下的摄像机标定优化方法 | |
Menozzi et al. | Development of vision-aided navigation for a wearable outdoor augmented reality system | |
CN109146958A (zh) | 一种基于二维图像的交通标志空间位置测量方法 | |
CN112305576A (zh) | 一种多传感器融合的slam算法及其系统 | |
CN110298924A (zh) | 一种ar系统中用于显示检测信息的坐标变换方法 | |
CN109596121A (zh) | 一种机动站自动目标检测与空间定位方法 | |
CN103226840A (zh) | 全景影像拼接及量测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100915 Termination date: 20131016 |