CN110099268B - 色彩自然匹配与显示区自然融合的盲区透视化显示方法 - Google Patents

色彩自然匹配与显示区自然融合的盲区透视化显示方法 Download PDF

Info

Publication number
CN110099268B
CN110099268B CN201910451765.XA CN201910451765A CN110099268B CN 110099268 B CN110099268 B CN 110099268B CN 201910451765 A CN201910451765 A CN 201910451765A CN 110099268 B CN110099268 B CN 110099268B
Authority
CN
China
Prior art keywords
camera
pupil
display
eye
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201910451765.XA
Other languages
English (en)
Other versions
CN110099268A (zh
Inventor
张晋东
刘通
许彦平
张坤鹏
徐嘉斌
王栋辉
王雪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin University
Original Assignee
Jilin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin University filed Critical Jilin University
Priority to CN201910451765.XA priority Critical patent/CN110099268B/zh
Publication of CN110099268A publication Critical patent/CN110099268A/zh
Application granted granted Critical
Publication of CN110099268B publication Critical patent/CN110099268B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/246Calibration of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种色彩自然匹配与显示区自然融合的盲区透视化显示方法,包括如下步骤:通过双目相机的左相机和右相机分别获取观察者的人眼图像,并分别采用Haar_AdaBoost算法对左相机和右相机获取的观察者的人眼图像进行人眼ROI区域定位和定位瞳孔位置:进行观察者眼部位置三维重建;在被遮蔽物的外侧安装摄像机,在其内侧安装显示设备,建立视平面与显示设备的显示屏平面间的映射关系;图像显示区域优化;显示屏的显示色彩与自然场景色彩匹配优化。本发明可以克服盲区显示设备与自然视野色彩匹配度低、角度计算粗略、融合突兀等问题。

Description

色彩自然匹配与显示区自然融合的盲区透视化显示方法
技术领域
本发明涉及盲区显示技术领域,具体涉及一种色彩自然匹配与显示区自然融合的盲区透视化显示方法。
背景技术
盲区显示是指将被非透明物体遮蔽的区域显示在显示屏上,应用在高级驾驶辅助系统上,例如汽车A柱盲区显示系统。现有的基于盲区的盲区显示方法通常是在显示屏上直接显示由安装在被遮蔽区域的摄像机获取被遮蔽区域的场景,但由于没有考虑驾驶员视线改变与自然视野内色彩的匹配,导致普遍存在盲区显示设备与自然视野色彩匹配度低、融合突兀、观察区域固定等的问题。
发明内容
针对现有技术的不足,本发明旨在提供一种色彩自然匹配与显示区自然融合的盲区透视化显示方法。
为了实现上述目的,本发明采用如下技术方案:
色彩自然匹配与显示区自然融合的盲区透视化显示方法,包括如下步骤:
S1、通过双目相机的左相机和右相机分别获取观察者的人眼图像,并分别采用Haar_AdaBoost算法对左相机和右相机获取的观察者的人眼图像进行人眼ROI区域定位和定位瞳孔位置;
S2、进行观察者眼部位置三维重建;
S3、在被遮蔽对象的外侧安装摄像机,在其内侧安装显示设备,建立视平面与显示设备的显示屏平面间的映射关系,将摄像机拍摄到的原始图像转换为观察者视线里的图像;
S4、优化图像显示区域,以将步骤S3中得到的观察者视线里的图像与自然视野在角度上进行融合;
S5、显示屏的显示色彩与自然场景色彩匹配优化:
S5.1、对被遮蔽对象的图像中由于外界的光照、空气的杂质引起随机噪点影响的随机色彩失真进行处理优化:
记时间变量为ti,色彩特征变量为yi,帧数为m,yi=ai-1yi-1+ai-2yi-2+…+ai-myi-m,ai=f(ti)且
Figure GDA0002818980080000021
在处理被遮蔽对象的图像的随机色彩失真时,记录色彩特征并赋予其随时间减小的权重ai,与随后即将处理的对应时间的图像信息进行融合;
S5.2、采用一个图像采集设备同时捕获显示屏色彩和现实背景色彩图像,运用最大类间方差法对获取的图像进行RGB三通道的目标—背景的阈值划分,若类间方差<阈值T,说明现实背景与显示屏的色彩匹配程度良好,否则返回一个对色彩参数进行的优化调整参数q。
进一步地,所述人眼ROI区域定位和定位瞳孔位置的具体过程如下:
S1.1、利用分类器模型
Figure GDA0002818980080000022
对人眼图像采用20*20的滑动窗口的方式得到观察者左眼和右眼的ROI区域;
分类器模型Y(t)中,f1(t)、f2(t)、f3(t)分别为二矩形特征、三矩形特征、四矩形特征的Harr_like特征(t)的三个弱分类器,w1、w2、w3分别为三个弱分类器所对应的权重,经过训练样本集合A训练后得到的分类器模型
Figure GDA0002818980080000023
Figure GDA0002818980080000031
其中A={(t1,y1),(t2,y2)......(tn,yn)},ti∈T,yi∈Y(-1,1),T为样本特征集合,Y(-1,1)为训练数据标签,-1表示负样本,1表示正样本,n表示训练样本集的样本数量;训练后得到分类器模型
Figure GDA0002818980080000032
S1.2、定位瞳孔中心位置:
S1.2.1、对步骤S1.1中得到的左眼和右眼的ROI区域进行线性滤波,消除异常点;
S1.2.2、利用自适应阈值法对左眼和右眼的ROI区域进行图像二值化;
S1.2.3、采用Canny算法对经过二值化的左眼和右眼的ROI区域提取瞳孔边缘,并分别取左眼和右眼的瞳孔边缘位置信息的算术平均值作为左眼和右眼的瞳孔中心位置;
S1.2.4、最终得到左眼瞳孔在双目相机中的左相机的位置为pLL(SLL,TLL,1),左眼瞳孔在双目相机中的右相机的位置为pLR(SLR,TLR,1),右眼瞳孔在双目相机中的左相机的位置为pRL(SRL,TRL,1),右眼瞳孔在双目相机中的右相机的位置为pRR(SRR,TRR,1);其中,S与T分别表示瞳孔在人眼图像中像素点的横坐标和纵坐标,第一个下标L表示左眼瞳孔,第一个下标R表示右眼瞳孔,第二个下标L表示左相机,第二个下标R表示右相机。
更进一步地,步骤S2的具体过程为:
S2.1、对双目相机进行标定,得到双目相机的左相机和右相机的内参数与外参数,内参数包括左相机和右相机的焦距F0,外参数包括左相机和右相机的光心距离LO
S2.2、进行双目相机矫正:利用内参数将双目摄像机所拍摄的人眼图像从图像坐标系转化到相机坐标系,然后利用外参数建立左相机和右相机的映射关系,从而完成双目相机的矫正,左相机和右相机获取的人眼图像在矫正后位于同一平面;
S2.3、利用视差进行三维重建眼部信息:
利用步骤S1.2.4中得到的左瞳孔和右瞳孔分别在左相机和右相机中的位置pLL(SLL,TLL,1)、pLR(SLR,TLR,1)、pRL(SRL,TRL,1)、pRR(SRR,TRR,1),TLLTRL,TLR=TRR计算得到:
视差
Figure GDA0002818980080000041
深度距离
Figure GDA0002818980080000042
从而得到左瞳孔的三维坐标为
Figure GDA0002818980080000043
右瞳孔的三维坐标为
Figure GDA0002818980080000044
左瞳孔和右瞳孔之间的中点的三维坐标为
Figure GDA0002818980080000045
Figure GDA0002818980080000046
再进一步地,步骤S3的具体过程为:
显示屏左上、右上、左下、右下四个顶点与中点的三维坐标分别为pd1(Sd1,Td1,Wd1)、pd2(Sd2,Td2,Wd2)、pd3(Sd3,Td3,Wd3)、pd4(Sd4,Td4,Wd4)、
Figure GDA0002818980080000047
视平面的法向量为:
Figure GDA0002818980080000048
显示屏的四个顶点在视平面的投影点对分别为pd1′(Sd1,Td1,Wd1)、pd2′(Sd2,Td2,Wd2)、pd3′(Sd3,Td3,Wd3)、pd4′(Sd4,Td4,Wd4);
结合几何关系
Figure GDA0002818980080000049
Figure GDA00028189800800000410
求解得到:
pdi′(Sdi,Tdi,Wdi),1≤i≤4;
结合公式[pd1,pd2,pd3,pd4]=H3*3.[pd1′,pd2′,pd3′,pd4′]得到透视矩阵H3*3
将摄像机获取的被遮蔽对象的原始图像乘以透视矩阵H3*3,以将原始图像转换为观察者视线里的图像。
再进一步地,步骤S4的具体过程为:
记所述摄像机的广角为θ、分辨率为H*W,并与显示屏平行;
显示屏的左侧中点坐标为
Figure GDA0002818980080000051
Figure GDA0002818980080000052
显示屏的右侧中点坐标为
Figure GDA0002818980080000053
Figure GDA0002818980080000054
显示屏横向中心线向量
Figure GDA0002818980080000055
观察者左视线向量
Figure GDA0002818980080000056
观察者右视线向量
Figure GDA0002818980080000057
观察者左视线与显示屏的夹角
Figure GDA0002818980080000058
观察者右视线与显示屏的夹角
Figure GDA0002818980080000059
由此得到被遮蔽对象的范围角度ε=180-α-β;
观察者视平面与显示屏的偏移角度
Figure GDA00028189800800000510
从而被遮蔽对象在步骤S3中转换得到的图像的起始显示角度
Figure GDA00028189800800000511
因此优化的图像显示区域为宽度
Figure GDA00028189800800000512
高度
Figure GDA00028189800800000513
起始点
Figure GDA00028189800800000514
Figure GDA00028189800800000515
的矩形区域。
本发明的有益效果在于:本发明在被遮蔽物外侧安装摄像机,在内侧安装显示设备,采用双目立体视觉精准定位观察者视线位置,将摄像机拍摄到的遮蔽区域景通过由观察者视线确定的透视变换、图像剪裁实时智能化的显示到显示屏上,并运用一个图像采集设备来自动判断色彩匹配程度,以达到观察者视线内自然场景与显示视野的角度与色彩自然融合。本发明可以应用在汽车A柱透视化显示、汽车盲区透视化显示、乃至汽车整车透视化显示等汽车高级驾驶辅助系统中,也可应用于手机透视化显示等应用领域,从而为各种基于计算机视觉的透视化显示提供解决方案。
具体实施方式
以下将对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
色彩自然匹配与显示区自然融合的盲区透视化显示方法,包括如下步骤:
S1、通过双目相机的左相机和右相机分别获取观察者的人眼图像,并分别采用Haar_AdaBoost算法对左相机和右相机获取的观察者的人眼图像进行人眼ROI区域定位和定位瞳孔位置;
所述人眼ROI区域定位和定位瞳孔位置的具体过程如下:
S1.1、利用分类器模型
Figure GDA0002818980080000061
对人眼图像采用20*20的滑动窗口的方式得到观察者左眼和右眼的ROI区域;
分类器模型Y(t)中,f1(t)、f2(t)、f3(t)分别为二矩形特征、三矩形特征、四矩形特征的Harr_like特征(t)的三个弱分类器,w1、w2、w3分别为三个弱分类器所对应的权重,经过训练样本集合A训练后得到的分类器模型
Figure GDA0002818980080000062
Figure GDA0002818980080000063
其中A={(t1,y1),(t2,y2)......(tn,yn)},ti∈T,yi∈Y(-1,1),T为样本特征集合,Y(-1,1)为训练数据标签,-1表示负样本,1表示正样本,n表示训练样本集的样本数量;训练后得到分类器模型
Figure GDA0002818980080000071
S1.2、定位瞳孔中心位置:
S1.2.1、对步骤S1.1中得到的左眼和右眼的ROI区域进行线性滤波,消除异常点;
S1.2.2、利用自适应阈值法对左眼和右眼的ROI区域进行图像二值化;
S1.2.3、采用Canny算法对经过二值化的左眼和右眼的ROI区域提取瞳孔边缘,并分别取左眼和右眼的瞳孔边缘位置信息的算术平均值作为左眼和右眼的瞳孔中心位置;
S1.2.4、最终得到左眼瞳孔在双目相机中的左相机的位置为pLL(SLL,TLL,1),左眼瞳孔在双目相机中的右相机的位置为pLR(SLR,TLR,1),右眼瞳孔在双目相机中的左相机的位置为pRL(SRL,TRL,1),右眼瞳孔在双目相机中的右相机的位置为pRR(SRR,TRR,1);其中,S与T分别表示瞳孔在人眼图像中像素点的横坐标和纵坐标,第一个下标L表示左眼瞳孔,第一个下标R表示右眼瞳孔,第二个下标L表示左相机,第二个下标R表示右相机;
S2、进行观察者眼部位置三维重建;眼部位置三维重建的作用在于为盲区图像显示区域的自然融合建立驾驶员视线参数指导,以优化显示屏的显示角度:
S2.1、对双目相机进行标定,得到双目相机的左相机和右相机的内参数与外参数,内参数包括左相机和右相机的焦距F0,外参数包括左相机和右相机的光心距离LO
S2.2、进行双目相机矫正:利用内参数将双目摄像机所拍摄的人眼图像从图像坐标系转化到相机坐标系,然后利用外参数建立左相机和右相机的映射关系,从而完成双目相机的矫正,左相机和右相机获取的人眼图像在矫正后位于同一平面;
S2.3、利用视差进行三维重建眼部信息:
利用步骤S1.2.4中得到的左瞳孔和右瞳孔分别在左相机和右相机中的位置pLL(SLL,TLL,1)、pLR(SLR,TLR,1)、pRL(SRL,TRL,1)、pRR(SRR,TRR,1),TLLTRL,TLR=TRR计算得到:
视差
Figure GDA0002818980080000081
深度距离
Figure GDA0002818980080000082
从而得到左瞳孔的三维坐标为
Figure GDA0002818980080000083
右瞳孔的三维坐标为
Figure GDA0002818980080000084
左瞳孔和右瞳孔之间的中点的三维坐标为
Figure GDA0002818980080000085
Figure GDA0002818980080000086
S3、在被遮蔽对象的外侧安装摄像机,在其内侧安装显示设备,建立视平面与显示设备的显示屏平面间的映射关系;
其中,显示屏左上、右上、左下、右下四个顶点与中点的三维坐标分别为pd1(Sd1,Td1,Wd1)、pd2(Sd2,Td2,Wd2)、pd3(Sd3,Td3,Wd3)、pd4(Sd4,Td4,Wd4)、
Figure GDA0002818980080000087
视平面的法向量为:
Figure GDA0002818980080000088
显示屏的四个顶点在视平面的投影点对分别为pd1′(Sd1,Td1,Wd1)、pd2′(Sd2,Td2,Wd2)、pd3′(Sd3,Td3,Wd3)、pd4′(Sd4,Td4,Wd4);
结合几何关系
Figure GDA0002818980080000089
Figure GDA00028189800800000810
求解得到:
pdi′(Sdi,Tdi,Wdi),1≤i≤4;
结合公式[pd1,pd2,pd3,pd4]=H3*3.[pd1′,pd2′,pd3′,pd4′]得到透视矩阵H3*3
将摄像机获取的被遮蔽对象的原始图像乘以透视矩阵H3*3,以将原始图像转换为观察者视线里的图像;
S4、优化图像显示区域,以将步骤S3中得到的观察者视线里的图像与自然视野在角度上进行融合:
记所述摄像机的广角为θ、分辨率为H*W,并与显示屏平行;
显示屏的左侧中点坐标为
Figure GDA0002818980080000091
Figure GDA0002818980080000092
显示屏的右侧中点坐标为
Figure GDA0002818980080000093
Figure GDA0002818980080000094
显示屏横向中心线向量
Figure GDA0002818980080000095
观察者左视线向量
Figure GDA0002818980080000096
观察者右视线向量
Figure GDA0002818980080000097
观察者左视线与显示屏的夹角
Figure GDA0002818980080000098
观察者右视线与显示屏的夹角
Figure GDA0002818980080000099
由此得到被遮蔽对象的范围角度ε=180-α-β;
观察者视平面与显示屏的偏移角度
Figure GDA00028189800800000910
从而被遮蔽对象在步骤S3中转换得到的图像的起始显示角度
Figure GDA00028189800800000911
因此优化的图像显示区域为宽度
Figure GDA00028189800800000912
高度
Figure GDA00028189800800000913
起始点
Figure GDA00028189800800000914
Figure GDA00028189800800000915
的矩形区域;
S5、显示屏的显示色彩与自然场景色彩匹配优化:
S5.1、对被遮蔽对象的图像中由于外界的光照、空气的杂质引起随机噪点影响的随机色彩失真进行处理优化:
记时间变量为ti,色彩特征变量为yi,由运动速度决定的参考的帧数为m,yi=ai- 1yi-1+ai-2yi-2+…+ai-myi-m,ai=f(ti)且
Figure GDA0002818980080000101
在处理被遮蔽对象的图像的随机色彩失真时,记录色彩特征并赋予其随时间减小的权重ai,与随后即将处理的对应时间的图像信息进行融合,可以保证色彩在视频中的连续性特征;
S5.2、由于显示的色彩与现实色彩难以进行物理上的对比,本实施例采用一个图像采集设备同时捕获显示屏色彩和现实背景色彩图像,运用最大类间方差法(OSTU)对获取的图像进行RGB三通道的目标—背景的阈值划分,若类间方差<阈值T,说明现实背景与显示屏的色彩匹配程度良好,否则返回一个对色彩参数进行的优化调整参数q。
对于本领域的技术人员来说,可以根据以上的技术方案和构思,给出各种相应的改变和变形,而所有的这些改变和变形,都应该包括在本发明权利要求的保护范围之内。

Claims (4)

1.色彩自然匹配与显示区自然融合的盲区透视化显示方法,其特征在于,包括如下步骤:
S1、通过双目相机的左相机和右相机分别获取观察者的人眼图像,并分别采用Haar_AdaBoost算法对左相机和右相机获取的观察者的人眼图像进行人眼ROI区域定位和定位瞳孔位置;
S2、进行观察者眼部位置三维重建;
S3、在被遮蔽对象的外侧安装摄像机,在其内侧安装显示设备,建立视平面与显示设备的显示屏平面间的映射关系,将摄像机拍摄到的原始图像转换为观察者视线里的图像;
S4、优化图像显示区域,以将步骤S3中得到的观察者视线里的图像与自然视野在角度上进行融合:
记所述摄像机的广角为θ、分辨率为H*W,并与显示屏平行;显示屏左上、右上、左下、右下四个顶点与中点的三维坐标分别为pd1(Sd1,Td1,Wd1)、pd2(Sd2,Td2,Wd2)、pd3(Sd3,Td3,Wd3)、pd4(Sd4,Td4,Wd4)、pdm(Sdm,Tdm,Wdm);左瞳孔的三维坐标为pel(Sel,Tel,Wel),右瞳孔的三维坐标为per(Ser,Ter,Wer),左瞳孔和右瞳孔之间的中点的三维坐标为pem(Sem,Tem,Wem);
显示屏的左侧中点坐标为
Figure FDA0002818980070000011
Figure FDA0002818980070000012
显示屏的右侧中点坐标为
Figure FDA0002818980070000013
Figure FDA0002818980070000014
视平面的法向量为:
Figure FDA0002818980070000015
显示屏横向中心线向量
Figure FDA0002818980070000016
观察者左视线向量
Figure FDA0002818980070000017
观察者右视线向量
Figure FDA0002818980070000021
观察者左视线与显示屏的夹角
Figure FDA0002818980070000022
观察者右视线与显示屏的夹角
Figure FDA0002818980070000023
由此得到被遮蔽对象的范围角度ε=180-α-β;
观察者视平面与显示屏的偏移角度
Figure FDA0002818980070000024
从而被遮蔽对象在步骤S3中转换得到的图像的起始显示角度
Figure FDA0002818980070000025
因此优化的图像显示区域为宽度
Figure FDA0002818980070000026
高度
Figure FDA0002818980070000027
起始点
Figure FDA0002818980070000028
Figure FDA0002818980070000029
的矩形区域;
S5、显示屏的显示色彩与自然场景色彩匹配优化:
S5.1、对被遮蔽对象的图像中由于外界的光照、空气的杂质引起随机噪点影响的随机色彩失真进行处理优化:
记时间变量为ti,色彩特征变量为yi,帧数为m,yi=ai-1yi-1+ai-2yi-2+…+ai-myi-m,ai=f(ti)且
Figure FDA00028189800700000210
在处理被遮蔽对象的图像的随机色彩失真时,记录色彩特征并赋予其随时间减小的权重ai,与随后即将处理的对应时间的图像信息进行融合;
S5.2、采用一个图像采集设备同时捕获显示屏色彩和现实背景色彩图像,运用最大类间方差法对获取的图像进行RGB三通道的目标—背景的阈值划分,若类间方差<阈值T,说明现实背景与显示屏的色彩匹配程度良好,否则返回一个对色彩参数进行的优化调整参数q。
2.根据权利要求1所述的色彩自然匹配与显示区自然融合的盲区透视化显示方法,其特征在于,所述人眼ROI区域定位和定位瞳孔位置的具体过程如下:
S1.1、利用分类器模型
Figure FDA0002818980070000031
对人眼图像采用20*20的滑动窗口的方式得到观察者左眼和右眼的ROI区域;
分类器模型Y(t)中,f1(t)、f2(t)、f3(t)分别为二矩形特征、三矩形特征、四矩形特征的Harr_like特征(t)的三个弱分类器,w1、w2、w3分别为三个弱分类器所对应的权重,经过训练样本集合A训练后得到的分类器模型
Figure FDA0002818980070000032
Figure FDA0002818980070000033
其中A={(t1,y1),(t2,y2)......(tn,yn)},ti∈T,yi∈Y(-1,1),T为样本特征集合,Y(-1,1)为训练数据标签,-1表示负样本,1表示正样本,n表示训练样本集的样本数量;训练后得到分类器模型
Figure FDA0002818980070000034
S1.2、定位瞳孔中心位置:
S1.2.1、对步骤S1.1中得到的左眼和右眼的ROI区域进行线性滤波,消除异常点;
S1.2.2、利用自适应阈值法对左眼和右眼的ROI区域进行图像二值化;
S1.2.3、采用Canny算法对经过二值化的左眼和右眼的ROI区域提取瞳孔边缘,并分别取左眼和右眼的瞳孔边缘位置信息的算术平均值作为左眼和右眼的瞳孔中心位置;
S1.2.4、最终得到左眼瞳孔在双目相机中的左相机的位置为pLL(SLL,TLL,1),左眼瞳孔在双目相机中的右相机的位置为pLR(SLR,TLR,1),右眼瞳孔在双目相机中的左相机的位置为pRL(SRL,TRL,1),右眼瞳孔在双目相机中的右相机的位置为pRR(SRR,TRR,1);其中,S与T分别表示瞳孔在人眼图像中像素点的横坐标和纵坐标,第一个下标L表示左眼瞳孔,第一个下标R表示右眼瞳孔,第二个下标L表示左相机,第二个下标R表示右相机。
3.根据权利要求2所述的色彩自然匹配与显示区自然融合的盲区透视化显示方法,其特征在于,步骤S2的具体过程为:
S2.1、对双目相机进行标定,得到双目相机的左相机和右相机的内参数与外参数,内参数包括左相机和右相机的焦距F0,外参数包括左相机和右相机的光心距离LO
S2.2、进行双目相机矫正:利用内参数将双目摄像机所拍摄的人眼图像从图像坐标系转化到相机坐标系,然后利用外参数建立左相机和右相机的映射关系,从而完成双目相机的矫正,左相机和右相机获取的人眼图像在矫正后位于同一平面;
S2.3、利用视差进行三维重建眼部信息:
利用步骤S1.2.4中得到的左瞳孔和右瞳孔分别在左相机和右相机中的位置pLL(SLL,TLL,1)、pLR(SLR,TLR,1)、pRL(SRL,TRL,1)、pRR(SRR,TRR,1),TLL=TRL,TLR=TRR计算得到:
视差
Figure FDA0002818980070000041
深度距离
Figure FDA0002818980070000042
从而得到左瞳孔的三维坐标为
Figure FDA0002818980070000043
右瞳孔的三维坐标为
Figure FDA0002818980070000044
左瞳孔和右瞳孔之间的中点的三维坐标为
Figure FDA0002818980070000045
Figure FDA0002818980070000046
4.根据权利要求3所述的色彩自然匹配与显示区自然融合的盲区透视化显示方法,其特征在于,步骤S3的具体过程为:
显示屏的四个顶点在视平面的投影点对分别为pd1′(Sd1,Td1,Wd1)、pd2′(Sd2,Td2,Wd2)、pd3′(Sd3,Td3,Wd3)、pd4′(Sd4,Td4,Wd4);
结合几何关系
Figure FDA0002818980070000051
Figure FDA0002818980070000052
求解得到:
pdi′(Sdi,Tdi,Wdi),1≤i≤4;
结合公式[pd1,pd2,pd3,pd4]=H3*3·[pd1′,pd2′,pd3′,pd4′]得到透视矩阵H3*3
将摄像机获取的被遮蔽对象的原始图像乘以透视矩阵H3*3,以将原始图像转换为观察者视线里的图像。
CN201910451765.XA 2019-05-28 2019-05-28 色彩自然匹配与显示区自然融合的盲区透视化显示方法 Expired - Fee Related CN110099268B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910451765.XA CN110099268B (zh) 2019-05-28 2019-05-28 色彩自然匹配与显示区自然融合的盲区透视化显示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910451765.XA CN110099268B (zh) 2019-05-28 2019-05-28 色彩自然匹配与显示区自然融合的盲区透视化显示方法

Publications (2)

Publication Number Publication Date
CN110099268A CN110099268A (zh) 2019-08-06
CN110099268B true CN110099268B (zh) 2021-03-02

Family

ID=67449525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910451765.XA Expired - Fee Related CN110099268B (zh) 2019-05-28 2019-05-28 色彩自然匹配与显示区自然融合的盲区透视化显示方法

Country Status (1)

Country Link
CN (1) CN110099268B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111142825B (zh) * 2019-12-27 2024-04-16 杭州拓叭吧科技有限公司 多屏视野的显示方法、系统及电子设备
CN112738496A (zh) * 2020-12-25 2021-04-30 浙江合众新能源汽车有限公司 图像处理方法、设备、系统和计算机可读介质
CN113438466B (zh) * 2021-06-30 2022-10-14 东风汽车集团股份有限公司 车外视野拓宽方法、系统、设备及计算机可读存储介质
CN113401058A (zh) * 2021-07-19 2021-09-17 天津理工大学 基于人眼三维坐标的汽车a柱盲区实时显示方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103358996A (zh) * 2013-08-13 2013-10-23 吉林大学 汽车a柱透视化车载显示装置
CN103909875A (zh) * 2014-04-11 2014-07-09 吴敏正 用于车辆遮挡物外视野可视化的系统
WO2017130439A1 (ja) * 2016-01-28 2017-08-03 鴻海精密工業股▲ふん▼有限公司 車両用画像表示システム及びその画像表示システムを搭載した車両
CN108364263A (zh) * 2018-02-05 2018-08-03 苏州沃科汽车科技有限公司 一种标清输入高清输出的车载图像处理方法
CN109305105A (zh) * 2018-11-29 2019-02-05 北京车联天下信息技术有限公司 一种a柱盲区监测装置、车辆及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6178280B2 (ja) * 2014-04-24 2017-08-09 日立建機株式会社 作業機械の周囲監視装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103358996A (zh) * 2013-08-13 2013-10-23 吉林大学 汽车a柱透视化车载显示装置
CN103909875A (zh) * 2014-04-11 2014-07-09 吴敏正 用于车辆遮挡物外视野可视化的系统
WO2017130439A1 (ja) * 2016-01-28 2017-08-03 鴻海精密工業股▲ふん▼有限公司 車両用画像表示システム及びその画像表示システムを搭載した車両
CN108364263A (zh) * 2018-02-05 2018-08-03 苏州沃科汽车科技有限公司 一种标清输入高清输出的车载图像处理方法
CN109305105A (zh) * 2018-11-29 2019-02-05 北京车联天下信息技术有限公司 一种a柱盲区监测装置、车辆及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
廖术娟.《 基于电子透明理念的A柱盲区消除系统研究》.《中国优秀硕士学位论文全文数据库工程科技Ⅱ辑》.2014, *

Also Published As

Publication number Publication date
CN110099268A (zh) 2019-08-06

Similar Documents

Publication Publication Date Title
CN110099268B (zh) 色彩自然匹配与显示区自然融合的盲区透视化显示方法
CN111047510B (zh) 一种基于标定的大视场角图像实时拼接方法
US9892493B2 (en) Method, apparatus and system for performing geometric calibration for surround view camera solution
CN108171673B (zh) 图像处理方法、装置、车载抬头显示系统及车辆
CN109685913B (zh) 基于计算机视觉定位的增强现实实现方法
WO2012039043A1 (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
CN106856000B (zh) 一种车载全景图像无缝拼接处理方法及系统
CN110764613A (zh) 基于头戴式眼动模组的眼动追踪校准方法
CN103034330B (zh) 一种用于视频会议的眼神交互方法及系统
CN108181319A (zh) 一种基于立体视觉的积尘检测装置及方法
CN109889799B (zh) 基于rgbir摄像头的单目结构光深度感知方法及装置
CN109131082B (zh) 一种完全基于视觉的单目全景泊车影像系统及其泊车方法
WO2017133160A1 (zh) 一种智能眼镜透视方法及系统
CN111768332A (zh) 一种车载环视实时3d全景图像的拼接方法及图形采集装置
CN108259881A (zh) 基于视差估算的3d合成方法及其系统
CN109493282A (zh) 一种消除运动重影的立体图像拼接方法
CN114339185A (zh) 用于车辆相机图像的图像彩色化
KR20170001765A (ko) Avm 시스템의 공차 보정 장치 및 방법
CN111951339A (zh) 利用异构双目相机进行视差计算的图像处理方法
CN106023170A (zh) 一种基于gpu处理器的双目3d畸变矫正方法
CN107330856B (zh) 一种基于投影变换和薄板样条的全景成像方法
CN104590115A (zh) 行车安全辅助系统和方法
CN111047636B (zh) 基于主动红外双目视觉的避障系统和避障方法
CN112954309A (zh) 一种基于ar-hud增强现实在车载对目标跟踪效果的试验方法
CN114926332A (zh) 基于无人机母车的无人机全景图像拼接方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20210302